0
Your cart

Your cart is empty

Browse All Departments
Price
  • R100 - R250 (7)
  • R250 - R500 (60)
  • R500+ (1,249)
  • -
Status
Format
Author / Contributor
Publisher

Books > Computing & IT > Applications of computing > Databases > Data capture & analysis

Entwicklung Von Regelbasierten Expertensystemen in Apl2 (German, Paperback): Ulrich K'Usters Entwicklung Von Regelbasierten Expertensystemen in Apl2 (German, Paperback)
Ulrich K'Usters
R1,659 Discovery Miles 16 590 Ships in 10 - 15 working days

Diese Arbeit beschreibt den auf den ersten Blick ungewoehnlichen Ansatz der Konzeption einer regelbasierten Expertensystemshell, die ausschliesslich im APL2 implementiert ist. Die beschriebene Expertensystemshell unterscheidet sich von den im KI-Bereich vorherrschenden und zumeist in Lisp oder Prolog implementierten Systemen in mehrfacher Hinsicht: - Die Shell erlaubt eine im Gegensatz zu Lisp und Pro log sehr einfache Einbindung effizienter numerischer Algorithmen, indem auf die Funktionalitat von APL2 zuruckgegriffen wird. - Regelwerke werden mit Hilfe eines UEbersetzers in APL2-Funktionen und Kontrollstrukturen ubersetzt, die mit Hilfe eines vorwartsschliessenden Inferenz interpreter exekutiert werden. Neben dem vollstandigen APL2-Quellkode, der als Vorlage fur eigene Entwicklungen verwendet werden kann, enthalt das Buch auch eine knappe Einfuhrung in Expertensysteme sowie einige exemplarische Regelwerke zur Variablenselektion in Regressionsmodellen und zur Evaluation von Kreditantragen. Im Anhang werden die wichtigsten APL2-Primitiven, Idiome und Fehlerbehandlungstechniken fur den nicht mit APL2 vertrauten Leser dargestellt. Dieses Buch wendet sich insbesondere an Softwareentwickler, die numerische und statistische Algorithmen, wie sie etwa zur Prognose, Planung und zur Optimierung eingesetzt werden, in Expertensysteme integrieren moechten.

Kommunikation in Rechnernetzen - Eine Anwenderorientierte Einfuhrung in Betriebssysteme Und Netzwerke (German, Hardcover, 1991... Kommunikation in Rechnernetzen - Eine Anwenderorientierte Einfuhrung in Betriebssysteme Und Netzwerke (German, Hardcover, 1991 ed.)
Eduard Gabele, Michael Kroll, Wolfgang Kreft
R1,930 Discovery Miles 19 300 Ships in 10 - 15 working days

Dieses Lehrbuch liefert eine Einf}hrung in die Kommunika- tionsm-glichkeiteninnerhalb von homogenen und heterogenen Rechnernetzen, vor allem im betrieblichen Bereich. Neben den Grundlagen der g{ngigsten "Personal Computer"-Betriebs- systeme DOS, OS/2 und Unix und deren korrespondierenden Benutzeroberfl{chen Windows, Presentation Manager und X-Window wird auf die M-glichkeiten und Grenzen der Kommu- nikation zwischen diesen Systemen eingegangen. Die zur Be- schreibung herangezogenen Netzwerkbetriebssysteme TCP/IP, Novell NetWare und der MS-LAN-Manager stellen den derzei- tigen "Quasi Standard" dar und dienen der besseren Konkre- tisierung der f}r die Kommunikation n-tigen Netzanwendungen und -dienste.

The The Tableau Workshop - A practical guide to the art of data visualization with Tableau (Paperback): Sumit Gupta, Sylvester... The The Tableau Workshop - A practical guide to the art of data visualization with Tableau (Paperback)
Sumit Gupta, Sylvester Pinto, Shweta Sankhe-Savale, JC Gillet, Kenneth Michael Cherven
R1,212 Discovery Miles 12 120 Ships in 10 - 15 working days

Learn how to bring your data to life with this hands-on guide to visual analytics with Tableau Key Features Master the fundamentals of Tableau Desktop and Tableau Prep Learn how to explore, analyze, and present data to provide business insights Build your experience and confidence with hands-on exercises and activities Book DescriptionLearning Tableau has never been easier, thanks to this practical introduction to storytelling with data. The Tableau Workshop breaks down the analytical process into five steps: data preparation, data exploration, data analysis, interactivity, and distribution of dashboards. Each stage is addressed with a clear walkthrough of the key tools and techniques you'll need, as well as engaging real-world examples, meaningful data, and practical exercises to give you valuable hands-on experience. As you work through the book, you'll learn Tableau step by step, studying how to clean, shape, and combine data, as well as how to choose the most suitable charts for any given scenario. You'll load data from various sources and formats, perform data engineering to create new data that delivers deeper insights, and create interactive dashboards that engage end-users. All concepts are introduced with clear, simple explanations and demonstrated through realistic example scenarios. You'll simulate real-world data science projects with use cases such as traffic violations, urban populations, coffee store sales, and air travel delays. By the end of this Tableau book, you'll have the skills and knowledge to confidently present analytical results and make data-driven decisions. What you will learn Become an effective user of Tableau Prep and Tableau Desktop Load, combine, and process data for analysis and visualization Understand different types of charts and when to use them Perform calculations to engineer new data and unlock hidden insights Add interactivity to your visualizations to make them more engaging Create holistic dashboards that are detailed and user-friendly Who this book is forThis book is for anyone who wants to get started on visual analytics with Tableau. If you're new to Tableau, this Workshop will get you up and running. If you already have some experience in Tableau, this book will help fill in any gaps, consolidate your understanding, and give you extra practice of key tools.

Entwicklungsbegleitende Vorkalkulation (German, Paperback): Lothar Groener Entwicklungsbegleitende Vorkalkulation (German, Paperback)
Lothar Groener
R1,938 Discovery Miles 19 380 Ships in 10 - 15 working days

Das vorliegende Buch behandelt den Themenkomplex der entwicklungsbegleitenden (konstruktionsbegleitenden) Vorkalkulation. Der Autor stellt erstmals die technische und die betriebswirtschaftliche Sichtweise einander gegenuber und erarbeitet die datentechnische und funktionale Integrationsmoeglichkeit der beiden Bereiche. Ausgehend von den technischen und den betriebswirtschaftlichen Grundlagen werden zunachst die Integrationsanforderungen zwischen den Bereichen ermittelt und sodann ein Datenmodell fur die entwicklungsbegleitende Vorkalkulation formuliert. Ein programmierter Prototyp zeigt die Funktionsfahigkeit des Modells. Hierbei wird deutlich, dass gerade die betriebswirtschaftlichen Verfahren eine wichtige Basis fur die entwicklungsbegleitende Kalkulation bilden und dass die in diesem Themenbereich erforderliche Zusammenarbeit zwischen Technik und Betriebswirtschaft bislang vernachlassigt wurde. So ist es das Ziel des Buches, die innerhalb des Themenkomplexes bisher unberucksichtigten Belange der Betriebswirtschaft aufzuzeigen und einen Loesungsansatz zu formulieren. Der Leser erhalt einen umfassenden Einblick in die Problemstellung der Vorkalkulation wahrend der Entwicklung/Konstruktion eines Produktes.

Optimization for Data Analysis (Hardcover): Stephen J Wright, Benjamin Recht Optimization for Data Analysis (Hardcover)
Stephen J Wright, Benjamin Recht
R1,210 Discovery Miles 12 100 Ships in 9 - 15 working days

Optimization techniques are at the core of data science, including data analysis and machine learning. An understanding of basic optimization techniques and their fundamental properties provides important grounding for students, researchers, and practitioners in these areas. This text covers the fundamentals of optimization algorithms in a compact, self-contained way, focusing on the techniques most relevant to data science. An introductory chapter demonstrates that many standard problems in data science can be formulated as optimization problems. Next, many fundamental methods in optimization are described and analyzed, including: gradient and accelerated gradient methods for unconstrained optimization of smooth (especially convex) functions; the stochastic gradient method, a workhorse algorithm in machine learning; the coordinate descent approach; several key algorithms for constrained optimization problems; algorithms for minimizing nonsmooth functions arising in data science; foundations of the analysis of nonsmooth functions and optimization duality; and the back-propagation approach, relevant to neural networks.

System-Engineering Fur Realzeitsysteme - Bericht UEber Das Verbundprojekt Prosyt (German, Paperback): Hartwig Steusloff, Thomas... System-Engineering Fur Realzeitsysteme - Bericht UEber Das Verbundprojekt Prosyt (German, Paperback)
Hartwig Steusloff, Thomas Batz
R1,973 Discovery Miles 19 730 Ships in 10 - 15 working days

Bei der Entwicklung komplexer Automatisierungssysteme sind immer umfangreichere Aufgaben von einer steigenden Anzahl miteinander kommunizierender Rechner zu losen. Dazu bedarf es der Verwendung einer adaquaten Entwicklungsumgebung. Dieses Buch beschreibt die Ergebnisse des Verbundprojekts PROSYT, in dem unter Beteiligung von 18 Partnern aus Industrie und Wissenschaft eine Systementwicklungsumgebung zur Realisierung verteilbarer Realzeitsysteme entstand. Verschiedene (Software-)Werkzeuge unterschiedlicher Hersteller wurden syntaktisch und semantisch in Werkzeuglinien integriert, um den gesamten Systemlebenszyklus vom Requirement-Engineering bis zur Wartung mit einem integrierten System abzudecken. Das Entwicklungssystem PROSYT besteht aus einem offenen Rahmensystem, in das die Werkzeuge horizontal und vertikal integriert wurden. Das Rahmensystem enthalt ein Dialogsystem (PRODIA), ein Nonstandard Datenbanksystem (PRODAT) und eine wissensbasierte Recherchenkomponente (Projekt-Advisor). Drei integrierte Werkzeuglinien (SARS-IGS-VICO-PEARL, EPOS-PRODOS-CAT-PRISE/PDAS und PASQUALE-PRODOS), die den gesamten Systemzyklus abdecken, zeigen die Nutzlichkeit und Angemessenheit der Konzepte der Basissysteme sowie die Realisierbarkeit der Integration mit vertretbarem Aufwand von Werkzeugen unterschiedlicher Firmen. Das Buch wendet sich an Anwender von Softwarewerkzeugen, Entwickler von integrierten Werkzeugsystemen und von Rahmensystemen und potentielle Anwender wissensbasierter Methoden bei der Projektabwicklung."

Open Access III - Die Umfassende Einfuhrung in Das Integrierte Softwarepaket (German, Paperback, 1991 ed.): Andre Klahold Open Access III - Die Umfassende Einfuhrung in Das Integrierte Softwarepaket (German, Paperback, 1991 ed.)
Andre Klahold
R1,724 Discovery Miles 17 240 Ships in 10 - 15 working days
Cloud Computing - Simply in Depth (Paperback): Ajit Singh Cloud Computing - Simply in Depth (Paperback)
Ajit Singh
R419 Discovery Miles 4 190 Ships in 10 - 15 working days
Smart Data Discovery Using SAS Viya - Powerful Techniques for Deeper Insights (Hardcover edition) (Hardcover): Felix Liao Smart Data Discovery Using SAS Viya - Powerful Techniques for Deeper Insights (Hardcover edition) (Hardcover)
Felix Liao
R1,053 Discovery Miles 10 530 Ships in 10 - 15 working days
Queer Data - Using Gender, Sex and Sexuality Data for Action (Hardcover): Kevin Guyan Queer Data - Using Gender, Sex and Sexuality Data for Action (Hardcover)
Kevin Guyan
R2,838 Discovery Miles 28 380 Ships in 10 - 15 working days

Data has never mattered more. Our lives are increasingly shaped by it and how it is defined, collected and used. But who counts in the collection, analysis and application of data? This important book is the first to look at queer data - defined as data relating to gender, sex, sexual orientation and trans identity/history. The author shows us how current data practices reflect an incomplete account of LGBTQ lives and helps us understand how data biases are used to delegitimise the everyday experiences of queer people. Guyan demonstrates why it is important to understand, collect and analyse queer data, the benefits and challenges involved in doing so, and how we might better use queer data in our work. Arming us with the tools for action, this book shows how greater knowledge about queer identities is instrumental in informing decisions about resource allocation, changes to legislation, access to services, representation and visibility.

Revision in Der Datenverarbeitung (German, Paperback, 1990 ed.): James Hannan Revision in Der Datenverarbeitung (German, Paperback, 1990 ed.)
James Hannan
R1,661 Discovery Miles 16 610 Ships in 10 - 15 working days

Leben in dem Bereich verbringen, uber den sie schreiben. Die konzen- triert und knapp gehaltenen Kapitel sind dazu bestimmt, dem Leser zu helfen, die darin enthaltenen Hinweise direkt auf seine Umgebung an- zuwenden. AUERBACH hat seit mehr als 25 Jahren die Informationsbedurfnisse der Computerfachleute zufriedenstellend beantwortet und weiss, wie ihnen geholfen werden kann, ihre Effektivitat zu steigern und ihre Karriere voranzutreiben. Das AUE RBACH-Managementwissen der Datenverarbeitung ist auf diesem Gebiet nur eines von vielen Angeboten des Herausgebers. James Hannan Stellvertretender Vizeprasident AUERBACH VII Inhaltsverzeichnis Einfuhrung IX Kapitell: Definition von DV-Revisionszielen von William A. Emory, Jr . . . . . . . . . . . . . . . . . . . . . . Kapitel 2: Aufgaben der DV-Revision von lan Gilhooley . . . . . . . . . . . . . . . . . . . . . . . 23 . . . . . Kapitel 3: Das Schreiben von DV-Prufungsberichten von William E. Perry . . . . . . . . . . . . . . . . . . . . . . 51 . . . . Kapitel 4: Prufungsgebiet DV -Standards von Ben G. Matley & David W. Syfritt 67 Kapitel 5: Checkliste fur Systementwicklung und Betrieb von Jack B. Mullen . . . . . . . . . . . . . . . . . . . . . . 89 . . . . . Kapitel 6: Kosten und Nutzen bei Anwendungsprojekten von Bryan Wilkinson . . . . . . . . . . . . . . . . . . . . . . . . . 127 Kapitel 7: Prufu ng von Anwendungssoftware von Michael I. Sobol . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Kapitel 8: Prufung eines Betriebssystems von Robert J. Coyle . . . . . . . . . . . . . . . . . . . . . . . . ., 157 Kapitel 9: Einsatz und Kontrolle von Dienstprogrammen von Michael I. Sobol . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Kapitell 0: Prufung von JCL-Standards von Steven F. Blanding . . . . . . . . . . . . . . . . . . . . . . ., 181 Kapitel 11: Prufung von Minicomputer-Systemen von Thomas H. Fitzgerald . . . . . . . . . . . . . . . . . . . . . 193 Kapitel 12: Kosten-/Nutzenuntersuchung bei Hardwareprojekten von Bryan Wilkinson . . . . . . . . . . . . . . . . . . . . . . . . . 211 Sachwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 IX Einfuhrung In weniger als zwanzig Jahren hat der Computer die Aufbau- und Ablauforganisation der meisten Unternehmen grundlegend verandert.

The Little Book of Artificial Intelligence (Paperback): Harry Katzan The Little Book of Artificial Intelligence (Paperback)
Harry Katzan
R403 Discovery Miles 4 030 Ships in 10 - 15 working days
Roman's Data Science How to monetize your data (Hardcover): Roman Zykov Roman's Data Science How to monetize your data (Hardcover)
Roman Zykov; Translated by Alexander Alexandrov; Edited by Philip Taylor
R1,042 R845 Discovery Miles 8 450 Save R197 (19%) Ships in 10 - 15 working days
Spssx Fur Anfanger - Eine Einfuhrung in Das Datenanalysesystem (German, Paperback, 2nd 2. Aufl. 1988 ed.): Wolf-Michael Kahler Spssx Fur Anfanger - Eine Einfuhrung in Das Datenanalysesystem (German, Paperback, 2nd 2. Aufl. 1988 ed.)
Wolf-Michael Kahler
R1,674 Discovery Miles 16 740 Ships in 10 - 15 working days

- 88 - 4. 4. 6 Abrufen von Statistik-Informationen (SUMMARY) 4. 4. 6. 1 Einfache Statistiken Wir setzen voraus, dass die Variablen VARoo1, VARo07, VARo1o und VARo14 aus unserer Untersuchung im SPSSx-file enthalten sind, und wir beziehen uns stets auf das folgen- de Syntax-Gerust des REPORT=Kommandos: REPORT VARIABLES = VARoo7, VARolo, VARo14 / BREAK = VARoo1 / SUMMARY = summary-angabe-1 [! SUMMARY = summary-angabe-2J . . . d. h. wir vereinbaren VARo07, VARo1o und VARo14 als Kolumnen- und VARoo1 als Break- Variable. Welche Statistik-Informationen in -den einzelnen Kolumnen des Reports als Summary-Ausgaben gedruckt werden sollen, muss man im Subkommando SUMMARY in der folgenden Form - wir beschranken uns zunachst auf den einfachsten Fall - als sog. Summary-Angabe festlegen: ]) I SUMMARY = statistik ( kolumnen-variable1 [kolumnen-variable2] . . . ) Dabei darf man fur den Platzhalter "statistik" eines der Schlusselwoerter aus der folgenden Tabelle einsetzen: Schlusselwort fur Report abgerufene Statistik-Informationen ---- VALIDN Anzahl der gultigen Gases VARIANGE Varianz SUM Summe MEAN arithmetisches Mittel STDEV Standardabweichung MIN minimaler Wert MAX maximaler Wert SKEWNESS Schiefe KURTOSIS Woelbung PGGT(n) Prozentsatz der Gases, deren Werte groesser als n sind PGlT(n) Prozentsatz der Gases, deren Werte kleiner als n sind PGIN(n, n ) Prozentsatz der Gases, deren Werte nicht groesser als n und 1 2 2 nicht.

Research Methodology (Paperback): Gabriel Waweru, Samuel O Onyuma, Joan W Murumba Research Methodology (Paperback)
Gabriel Waweru, Samuel O Onyuma, Joan W Murumba
R1,326 R1,069 Discovery Miles 10 690 Save R257 (19%) Ships in 10 - 15 working days
Pascal - Algebra -- Numerik -- Computergraphik (German, Paperback, 1987 ed.): Stephen Fedtke Pascal - Algebra -- Numerik -- Computergraphik (German, Paperback, 1987 ed.)
Stephen Fedtke
R1,701 Discovery Miles 17 010 Ships in 10 - 15 working days

Die programmtechnische Umsetzung effizienter Algorithmen entscheidet wesentlich dartiber, ob sich deren besondere Eigenschaften auch im Laufzeitverhalten des Programms widerspiegeln werden. Der Software-Entwickler bestimmt im allgemeinen mit der Auswahl seiner Programmelemente und dem globalen Programmablauf die notwendige Rechenzeit sowie die Qualitat der Resultate seines Programms und ob die Effizienz des Algorithmus im programmierten Overhead, den Rechenungenauigkeiten etc. wieder untergeht. Das vorliegende Buch nimmt sich dieser Thematik an und behandelt Programmiertechniken in Standard-Pascal. Der Einsatz der Sprachelemente wird unter verschiedenen Aspekten vorgesteHt, ein Hauptschwerpunkt liegt bei der Rekursion. Der sinnvoHe und effiziente Einsatz der Rekursion und die programmtechnischen Realisierungen sind Thema eines eigenen Kapitels. Gleichzeitig werden Beurteilungen aus der Sicht des Compilers vorge- nommen. Die "Black Box" Compiler wird dem Programmentwickler dadurch trans- parenter, daS Programmtechniken aus der Sicht des Compilers beurteilt und die daraus resultierenden charakteristischen Programmerkmale erlauert werden. Das Spektrum der Anwendungen ist breit gewiihlt und reicht von der Booleschen Algebra und der numerischen Mathematik (Gleichungssysteme, Differentiation, Integration) tiber die Codierungstheorie und Kryptographie bis hin zur graphischen Datenverarbeitung. Die Behandlung des mathematischen Teils ist ausftihrlich gehalten. Dem Charakter der Pro- grammothek entsprechend gewinnt der Leser einen Einblick in die betreffenden Themen- bereiche, so daS ihm beste Voraussetzungen fUr selbstandtge Programmentwicklungen gegeben sind. An dieser Stelle mochte ich mich bei Herm Prof. Dr. Oskar Hermann, Herm Peter Stede, dem Rechenzentrum der Universitat Heidelberg, Herm Klaus Staab, dem Leiter des Klinik- rechenzentrums Heidelberg, sowie Herm Prof. Dr. Dr. Kohler, dem Herausgeber der Programmothek, fUr Anregungen fachlicher und technischer Art bedanken.

Data Science Projects with Python - A case study approach to gaining valuable insights from real data with machine learning,... Data Science Projects with Python - A case study approach to gaining valuable insights from real data with machine learning, 2nd Edition (Paperback, 2nd Revised edition)
Stephen Klosterman
R985 Discovery Miles 9 850 Ships in 10 - 15 working days

Gain hands-on experience of Python programming with industry-standard machine learning techniques using pandas, scikit-learn, and XGBoost Key Features Think critically about data and use it to form and test a hypothesis Choose an appropriate machine learning model and train it on your data Communicate data-driven insights with confidence and clarity Book DescriptionIf data is the new oil, then machine learning is the drill. As companies gain access to ever-increasing quantities of raw data, the ability to deliver state-of-the-art predictive models that support business decision-making becomes more and more valuable. In this book, you'll work on an end-to-end project based around a realistic data set and split up into bite-sized practical exercises. This creates a case-study approach that simulates the working conditions you'll experience in real-world data science projects. You'll learn how to use key Python packages, including pandas, Matplotlib, and scikit-learn, and master the process of data exploration and data processing, before moving on to fitting, evaluating, and tuning algorithms such as regularized logistic regression and random forest. Now in its second edition, this book will take you through the end-to-end process of exploring data and delivering machine learning models. Updated for 2021, this edition includes brand new content on XGBoost, SHAP values, algorithmic fairness, and the ethical concerns of deploying a model in the real world. By the end of this data science book, you'll have the skills, understanding, and confidence to build your own machine learning models and gain insights from real data. What you will learn Load, explore, and process data using the pandas Python package Use Matplotlib to create compelling data visualizations Implement predictive machine learning models with scikit-learn Use lasso and ridge regression to reduce model overfitting Evaluate random forest and logistic regression model performance Deliver business insights by presenting clear, convincing conclusions Who this book is forData Science Projects with Python - Second Edition is for anyone who wants to get started with data science and machine learning. If you're keen to advance your career by using data analysis and predictive modeling to generate business insights, then this book is the perfect place to begin. To quickly grasp the concepts covered, it is recommended that you have basic experience of programming with Python or another similar language, and a general interest in statistics.

Cloud Scale Analytics with Azure Data Services - Build modern data warehouses on Microsoft Azure (Paperback): Patrik Borosch Cloud Scale Analytics with Azure Data Services - Build modern data warehouses on Microsoft Azure (Paperback)
Patrik Borosch
R1,643 Discovery Miles 16 430 Ships in 10 - 15 working days

A practical guide to implementing a scalable and fast state-of-the-art analytical data estate Key Features Store and analyze data with enterprise-grade security and auditing Perform batch, streaming, and interactive analytics to optimize your big data solutions with ease Develop and run parallel data processing programs using real-world enterprise scenarios Book DescriptionAzure Data Lake, the modern data warehouse architecture, and related data services on Azure enable organizations to build their own customized analytical platform to fit any analytical requirements in terms of volume, speed, and quality. This book is your guide to learning all the features and capabilities of Azure data services for storing, processing, and analyzing data (structured, unstructured, and semi-structured) of any size. You will explore key techniques for ingesting and storing data and perform batch, streaming, and interactive analytics. The book also shows you how to overcome various challenges and complexities relating to productivity and scaling. Next, you will be able to develop and run massive data workloads to perform different actions. Using a cloud-based big data-modern data warehouse-analytics setup, you will also be able to build secure, scalable data estates for enterprises. Finally, you will not only learn how to develop a data warehouse but also understand how to create enterprise-grade security and auditing big data programs. By the end of this Azure book, you will have learned how to develop a powerful and efficient analytical platform to meet enterprise needs. What you will learn Implement data governance with Azure services Use integrated monitoring in the Azure Portal and integrate Azure Data Lake Storage into the Azure Monitor Explore the serverless feature for ad-hoc data discovery, logical data warehousing, and data wrangling Implement networking with Synapse Analytics and Spark pools Create and run Spark jobs with Databricks clusters Implement streaming using Azure Functions, a serverless runtime environment on Azure Explore the predefined ML services in Azure and use them in your app Who this book is forThis book is for data architects, ETL developers, or anyone who wants to get well-versed with Azure data services to implement an analytical data estate for their enterprise. The book will also appeal to data scientists and data analysts who want to explore all the capabilities of Azure data services, which can be used to store, process, and analyze any kind of data. A beginner-level understanding of data analysis and streaming will be required.

Extreme DAX - Take your Power BI and Microsoft data analytics skills to the next level (Paperback): Michiel Rozema, Henk... Extreme DAX - Take your Power BI and Microsoft data analytics skills to the next level (Paperback)
Michiel Rozema, Henk Vlootman
R1,343 Discovery Miles 13 430 Ships in 9 - 15 working days

Discover the true power of DAX and build advanced DAX solutions for practical business scenarios Key Features Solve complex business problems within Microsoft BI tools including Power BI, SQL Server, and Excel Develop a conceptual understanding of critical business data modeling principles Learn the subtleties of Power BI data visualizations, evaluation context, context transition, and filtering Book DescriptionThis book helps business analysts generate powerful and sophisticated analyses from their data using DAX and get the most out of Microsoft Business Intelligence tools. Extreme DAX will first teach you the principles of business intelligence, good model design, and how DAX fits into it all. Then, you'll launch into detailed examples of DAX in real-world business scenarios such as inventory calculations, forecasting, intercompany business, and data security. At each step, senior DAX experts will walk you through the subtleties involved in working with Power BI models and common mistakes to look out for as you build advanced data aggregations. You'll deepen your understanding of DAX functions, filters, and measures, and how and when they can be used to derive effective insights. You'll also be provided with PBIX files for each chapter, so that you can follow along and explore in your own time. What you will learn Understand data modeling concepts and structures before you start working with DAX Grasp how relationships in Power BI models are different from those in RDBMSes Secure aggregation levels, attributes, and hierarchies using PATH functions and row-level security Get to grips with the crucial concept of context Apply advanced context and filtering functions including TREATAS, GENERATE, and SUMMARIZE Explore dynamically changing visualizations with helper tables and dynamic labels and axes Work with week-based calendars and understand standard time-intelligence Evaluate investments intelligently with the XNPV and XIRR financial DAX functions Who this book is forExtreme DAX is written for analysts with a working knowledge of DAX in Power BI or other Microsoft analytics tools. It will help you upgrade your knowledge and work with analytical models more effectively, so you'll need practical experience with DAX before you can get started.

Data Literacy - Achieving Higher Productivity for Citizens, Knowledge Workers, and Organizations (Paperback): Peter Aiken, Todd... Data Literacy - Achieving Higher Productivity for Citizens, Knowledge Workers, and Organizations (Paperback)
Peter Aiken, Todd Harbour
R1,075 R871 Discovery Miles 8 710 Save R204 (19%) Ships in 10 - 15 working days
Informationssysteme Und Datenbanken (German, Paperback, 3rd 3. Aufl. 1985 ed.): Carl-August Zehnder Informationssysteme Und Datenbanken (German, Paperback, 3rd 3. Aufl. 1985 ed.)
Carl-August Zehnder
R1,666 Discovery Miles 16 660 Ships in 10 - 15 working days
Basic-Wegweiser Fur Den Commodore 116, Commodore 16 Und Commodore Plus/4 (German, Paperback, 1985 ed.): Ekkehard Kaier Basic-Wegweiser Fur Den Commodore 116, Commodore 16 Und Commodore Plus/4 (German, Paperback, 1985 ed.)
Ekkehard Kaier
R1,683 Discovery Miles 16 830 Ships in 10 - 15 working days

Das vorliegende Wegweiser-Buch weist Wege zum erfolgreichen Einsatz des Commodore 116, Commodore 16 und Commodore plus/4. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung bzw. Informatik: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? - Was sind Datenstrukturen und Programmstrukturen? -Was sind Betriebssysteme und Anwenderprogramme? -Was heisst, fertige Programm-Pakete einsetzen'? - Was beinhaltet das eigene Programmieren? Nach der Lekture dieses Abschnitts sind Sie in der Lage, die Commodore- Computer in den Gesamtrahmen der Datenverarbeitung/Informatik ein- zuordnen. Das Wegweiser-Buch gibt eine erste Bedienungsanleitung: -Wie bediene ich Tastatur, Bildschirm, Floppy bzw. Disketteneinheit und Drucker des C-116, C-16 und plus/4. - Wie erstelle ich mein erstes Programm in der Programmiersprache BASIC 3.5? -Welche Befehle umfasst BASIC 3.5 (zu jedem Befehl wird ein Beispiel angegeben)? - Worin unterscheiden sich BASIC 3.5 von den anderen Sprachversionen BASIC 2.0 und BASIC 4.0? - Laufen Programme des C-116, C-16 und plus/4 auch auf anderen Mik- computern von Commodore? Nach der Lekture dieses Abschnitts koennen Sie ihren C-116, C-16 und plus/4 bedienen, Programme laufen lassen und einfache BASIC-Programme selbst erstellen und speichern. Das Wegweiser-Buch enthalt einen kompletten Programmierkurs mit folgen- den grundlegenden BASIC-Anwendungen: - Programme mit den wichtigen Ablaufstrukturen (Folge-, Auswahl-, Wiederholungs-und Unterprogrammstrukturen). - Verarbeitung von Text, Ein-/Ausgabe und Tabellen. - Maschinennahe Programmierung ( ... Bit fur Bit). -Suchen, Sortieren, Mischen und Gruppieren von Daten.

Multiplan (German, Paperback, 1985 ed.): Regina B. Baumeister, Rolf B. Baumeister Multiplan (German, Paperback, 1985 ed.)
Regina B. Baumeister, Rolf B. Baumeister
R1,666 Discovery Miles 16 660 Ships in 10 - 15 working days
Data Engineering with Apache Spark, Delta Lake, and Lakehouse - Create scalable pipelines that ingest, curate, and aggregate... Data Engineering with Apache Spark, Delta Lake, and Lakehouse - Create scalable pipelines that ingest, curate, and aggregate complex data in a timely and secure way (Paperback)
Manoj Kukreja, Danil Zburivsky
R1,353 Discovery Miles 13 530 Ships in 10 - 15 working days

Understand the complexities of modern-day data engineering platforms and explore strategies to deal with them with the help of use case scenarios led by an industry expert in big data Key Features Become well-versed with the core concepts of Apache Spark and Delta Lake for building data platforms Learn how to ingest, process, and analyze data that can be later used for training machine learning models Understand how to operationalize data models in production using curated data Book DescriptionIn the world of ever-changing data and schemas, it is important to build data pipelines that can auto-adjust to changes. This book will help you build scalable data platforms that managers, data scientists, and data analysts can rely on. Starting with an introduction to data engineering, along with its key concepts and architectures, this book will show you how to use Microsoft Azure Cloud services effectively for data engineering. You'll cover data lake design patterns and the different stages through which the data needs to flow in a typical data lake. Once you've explored the main features of Delta Lake to build data lakes with fast performance and governance in mind, you'll advance to implementing the lambda architecture using Delta Lake. Packed with practical examples and code snippets, this book takes you through real-world examples based on production scenarios faced by the author in his 10 years of experience working with big data. Finally, you'll cover data lake deployment strategies that play an important role in provisioning the cloud resources and deploying the data pipelines in a repeatable and continuous way. By the end of this data engineering book, you'll know how to effectively deal with ever-changing data and create scalable data pipelines to streamline data science, ML, and artificial intelligence (AI) tasks. What you will learn Discover the challenges you may face in the data engineering world Add ACID transactions to Apache Spark using Delta Lake Understand effective design strategies to build enterprise-grade data lakes Explore architectural and design patterns for building efficient data ingestion pipelines Orchestrate a data pipeline for preprocessing data using Apache Spark and Delta Lake APIs Automate deployment and monitoring of data pipelines in production Get to grips with securing, monitoring, and managing data pipelines models efficiently Who this book is forThis book is for aspiring data engineers and data analysts who are new to the world of data engineering and are looking for a practical guide to building scalable data platforms. If you already work with PySpark and want to use Delta Lake for data engineering, you'll find this book useful. Basic knowledge of Python, Spark, and SQL is expected.

Basic - Eine Einfuhrung in 10 Lektionen Mit Zahlreichen Programmbeispielen, 95 UEbungsaufgaben Und Deren Vollstandigen... Basic - Eine Einfuhrung in 10 Lektionen Mit Zahlreichen Programmbeispielen, 95 UEbungsaufgaben Und Deren Vollstandigen Loesungen (German, Paperback, 2nd 2., Korr. Aufl. ed.)
J Kwiatkowski, Barndt
R1,647 Discovery Miles 16 470 Ships in 10 - 15 working days

Lernziele - Aufbau und Funktionsweise einer Rechenanlage Hardware: Prozessor, Speicher, Ein- und Ausgabegerate - Software: Anwendersoftware, Systemsoftware Programmiersprachen: parametrische, problemorientierte, maschinenarienie und Maschinen-Sprachen Betriebssystem: Kommandosprache (Job Contra! Language) 1. 1 Hardware Eine moderne Rechenanlage ist ein kompliziertes System von vielen miteinander zusammenarbeitenden Einheiten. Sie koennen grob untergliedert werden in die Zentraleinheit (CPU = Central Processor Unit) und die Peripherie. Mit Periphe- rie bezeichnet man im wesentlichen die Ein- und Ausgabe- sowie die Speicher- gerate. Die Gesamtheit aller Einheiten einer Rechenanlage nennt man Konfigu- ration; die Standardkonfiguration besteht aus der Zentraleinheit, einem Eingabe-, einem Ausgabe- und einem Speichergerat. Die logische Verschaltung der einzelnen Einheiten einer Konfiguration ist auf mehrere Arten moeglich und wird als Rechnerarchitektur bezeichnet. UEber eine Schnittstelle sind zwei Einhei- ten miteinander verbunden und koennen Programmbefehle und Daten austau- schen. Die Untergliederung einer Rechenanlage in einzelne Einheiten gilt fur Gross- rechenanlagen und Kleincomputer gleichermassen. Die Abb. 1/1-1/3 zeigen Computersysteme unterschiedlicher Groesse. Bezuglich ihrer Groesse kann man die Rechenanlagen in drei Klassen einteilen: Grossrechner, Minicomputer und Mikrocomputer. Diese Aufteilung hat sich heute immer mehr durchgesetzt, die Grenzen sind allerdings fliessend, und innerhalb einer Gruppe lassen sich weitere Differenzierungen vornehmen. Man darf dabei auch nicht vergessen, dass eine Rechenanlage, die heute von der Leistungsfahigkeit her als "Kleinrechner" einge- stuft wird, vor noch nicht allzu langer Zeit als Rechner "mittlerer Groesse" be- zeichnet wurde. In Abb. 1/4 ist gezeigt, wie man die Klassen der Mikro- und Minicomputer weiter differenzieren kann.

Free Delivery
Pinterest Twitter Facebook Google+
You may like...
Technology for Success - Computer…
Mark Ciampa, Jill West, … Paperback  (1)
R1,273 R1,098 Discovery Miles 10 980
Data Visualization with Excel Dashboards…
D Kusleika Paperback R769 Discovery Miles 7 690
Multilevel Modeling - Methodological…
Steven P. Reise, Naihua Duan Paperback R1,544 Discovery Miles 15 440
Value-Driven Data - Identifying…
Edosa Odaro Hardcover R2,732 Discovery Miles 27 320
Sport Business Analytics - Using Data to…
C. Keith Harrison, Scott Bukstein Paperback R1,271 Discovery Miles 12 710
Data Analytics for Business - Lessons…
Ira J. Haimowitz Paperback R1,201 Discovery Miles 12 010
New Methods of Market Research and…
G. Scott Erickson Hardcover R2,900 Discovery Miles 29 000
An Introduction to Spatial Data Analysis…
Martin Wegmann, Jakob Schwalb-Willmann, … Paperback R1,013 Discovery Miles 10 130
Mesh - Eine Reise Durch Die Diskrete…
Beau Janzen, Konrad Polthier Book R183 Discovery Miles 1 830
Painting by Numbers - Data-Driven…
Diana Seave Greenwald Hardcover R783 Discovery Miles 7 830

 

Partners