![]() |
![]() |
Your cart is empty |
||
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Process tabular data and build high-performance query engines on modern CPUs and GPUs using Apache Arrow, a standardized language-independent memory format, for optimal performance Key Features Learn about Apache Arrow's data types and interoperability with pandas and Parquet Work with Apache Arrow Flight RPC, Compute, and Dataset APIs to produce and consume tabular data Reviewed, contributed, and supported by Dremio, the co-creator of Apache Arrow Book DescriptionApache Arrow is designed to accelerate analytics and allow the exchange of data across big data systems easily. In-Memory Analytics with Apache Arrow begins with a quick overview of the Apache Arrow format, before moving on to helping you to understand Arrow's versatility and benefits as you walk through a variety of real-world use cases. You'll cover key tasks such as enhancing data science workflows with Arrow, using Arrow and Apache Parquet with Apache Spark and Jupyter for better performance and hassle-free data translation, as well as working with Perspective, an open source interactive graphical and tabular analysis tool for browsers. As you advance, you'll explore the different data interchange and storage formats and become well-versed with the relationships between Arrow, Parquet, Feather, Protobuf, Flatbuffers, JSON, and CSV. In addition to understanding the basic structure of the Arrow Flight and Flight SQL protocols, you'll learn about Dremio's usage of Apache Arrow to enhance SQL analytics and discover how Arrow can be used in web-based browser apps. Finally, you'll get to grips with the upcoming features of Arrow to help you stay ahead of the curve. By the end of this book, you will have all the building blocks to create useful, efficient, and powerful analytical services and utilities with Apache Arrow. What you will learn Use Apache Arrow libraries to access data files both locally and in the cloud Understand the zero-copy elements of the Apache Arrow format Improve read performance by memory-mapping files with Apache Arrow Produce or consume Apache Arrow data efficiently using a C API Use the Apache Arrow Compute APIs to perform complex operations Create Arrow Flight servers and clients for transferring data quickly Build the Arrow libraries locally and contribute back to the community Who this book is forThis book is for developers, data analysts, and data scientists looking to explore the capabilities of Apache Arrow from the ground up. This book will also be useful for any engineers who are working on building utilities for data analytics and query engines, or otherwise working with tabular data, regardless of the programming language. Some familiarity with basic concepts of data analysis will help you to get the most out of this book but isn't required. Code examples are provided in the C++, Go, and Python programming languages.
Die programmtechnische Umsetzung effizienter Algorithmen entscheidet wesentlich dartiber, ob sich deren besondere Eigenschaften auch im Laufzeitverhalten des Programms widerspiegeln werden. Der Software-Entwickler bestimmt im allgemeinen mit der Auswahl seiner Programmelemente und dem globalen Programmablauf die notwendige Rechenzeit sowie die Qualitat der Resultate seines Programms und ob die Effizienz des Algorithmus im programmierten Overhead, den Rechenungenauigkeiten etc. wieder untergeht. Das vorliegende Buch nimmt sich dieser Thematik an und behandelt Programmiertechniken in Standard-Pascal. Der Einsatz der Sprachelemente wird unter verschiedenen Aspekten vorgesteHt, ein Hauptschwerpunkt liegt bei der Rekursion. Der sinnvoHe und effiziente Einsatz der Rekursion und die programmtechnischen Realisierungen sind Thema eines eigenen Kapitels. Gleichzeitig werden Beurteilungen aus der Sicht des Compilers vorge- nommen. Die "Black Box" Compiler wird dem Programmentwickler dadurch trans- parenter, daS Programmtechniken aus der Sicht des Compilers beurteilt und die daraus resultierenden charakteristischen Programmerkmale erlauert werden. Das Spektrum der Anwendungen ist breit gewiihlt und reicht von der Booleschen Algebra und der numerischen Mathematik (Gleichungssysteme, Differentiation, Integration) tiber die Codierungstheorie und Kryptographie bis hin zur graphischen Datenverarbeitung. Die Behandlung des mathematischen Teils ist ausftihrlich gehalten. Dem Charakter der Pro- grammothek entsprechend gewinnt der Leser einen Einblick in die betreffenden Themen- bereiche, so daS ihm beste Voraussetzungen fUr selbstandtge Programmentwicklungen gegeben sind. An dieser Stelle mochte ich mich bei Herm Prof. Dr. Oskar Hermann, Herm Peter Stede, dem Rechenzentrum der Universitat Heidelberg, Herm Klaus Staab, dem Leiter des Klinik- rechenzentrums Heidelberg, sowie Herm Prof. Dr. Dr. Kohler, dem Herausgeber der Programmothek, fUr Anregungen fachlicher und technischer Art bedanken.
Gain hands-on experience of Python programming with industry-standard machine learning techniques using pandas, scikit-learn, and XGBoost Key Features Think critically about data and use it to form and test a hypothesis Choose an appropriate machine learning model and train it on your data Communicate data-driven insights with confidence and clarity Book DescriptionIf data is the new oil, then machine learning is the drill. As companies gain access to ever-increasing quantities of raw data, the ability to deliver state-of-the-art predictive models that support business decision-making becomes more and more valuable. In this book, you'll work on an end-to-end project based around a realistic data set and split up into bite-sized practical exercises. This creates a case-study approach that simulates the working conditions you'll experience in real-world data science projects. You'll learn how to use key Python packages, including pandas, Matplotlib, and scikit-learn, and master the process of data exploration and data processing, before moving on to fitting, evaluating, and tuning algorithms such as regularized logistic regression and random forest. Now in its second edition, this book will take you through the end-to-end process of exploring data and delivering machine learning models. Updated for 2021, this edition includes brand new content on XGBoost, SHAP values, algorithmic fairness, and the ethical concerns of deploying a model in the real world. By the end of this data science book, you'll have the skills, understanding, and confidence to build your own machine learning models and gain insights from real data. What you will learn Load, explore, and process data using the pandas Python package Use Matplotlib to create compelling data visualizations Implement predictive machine learning models with scikit-learn Use lasso and ridge regression to reduce model overfitting Evaluate random forest and logistic regression model performance Deliver business insights by presenting clear, convincing conclusions Who this book is forData Science Projects with Python - Second Edition is for anyone who wants to get started with data science and machine learning. If you're keen to advance your career by using data analysis and predictive modeling to generate business insights, then this book is the perfect place to begin. To quickly grasp the concepts covered, it is recommended that you have basic experience of programming with Python or another similar language, and a general interest in statistics.
A practical guide to implementing a scalable and fast state-of-the-art analytical data estate Key Features Store and analyze data with enterprise-grade security and auditing Perform batch, streaming, and interactive analytics to optimize your big data solutions with ease Develop and run parallel data processing programs using real-world enterprise scenarios Book DescriptionAzure Data Lake, the modern data warehouse architecture, and related data services on Azure enable organizations to build their own customized analytical platform to fit any analytical requirements in terms of volume, speed, and quality. This book is your guide to learning all the features and capabilities of Azure data services for storing, processing, and analyzing data (structured, unstructured, and semi-structured) of any size. You will explore key techniques for ingesting and storing data and perform batch, streaming, and interactive analytics. The book also shows you how to overcome various challenges and complexities relating to productivity and scaling. Next, you will be able to develop and run massive data workloads to perform different actions. Using a cloud-based big data-modern data warehouse-analytics setup, you will also be able to build secure, scalable data estates for enterprises. Finally, you will not only learn how to develop a data warehouse but also understand how to create enterprise-grade security and auditing big data programs. By the end of this Azure book, you will have learned how to develop a powerful and efficient analytical platform to meet enterprise needs. What you will learn Implement data governance with Azure services Use integrated monitoring in the Azure Portal and integrate Azure Data Lake Storage into the Azure Monitor Explore the serverless feature for ad-hoc data discovery, logical data warehousing, and data wrangling Implement networking with Synapse Analytics and Spark pools Create and run Spark jobs with Databricks clusters Implement streaming using Azure Functions, a serverless runtime environment on Azure Explore the predefined ML services in Azure and use them in your app Who this book is forThis book is for data architects, ETL developers, or anyone who wants to get well-versed with Azure data services to implement an analytical data estate for their enterprise. The book will also appeal to data scientists and data analysts who want to explore all the capabilities of Azure data services, which can be used to store, process, and analyze any kind of data. A beginner-level understanding of data analysis and streaming will be required.
Das vorliegende Wegweiser-Buch weist Wege zum erfolgreichen Einsatz des Commodore 116, Commodore 16 und Commodore plus/4. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung bzw. Informatik: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? - Was sind Datenstrukturen und Programmstrukturen? -Was sind Betriebssysteme und Anwenderprogramme? -Was heisst, fertige Programm-Pakete einsetzen'? - Was beinhaltet das eigene Programmieren? Nach der Lekture dieses Abschnitts sind Sie in der Lage, die Commodore- Computer in den Gesamtrahmen der Datenverarbeitung/Informatik ein- zuordnen. Das Wegweiser-Buch gibt eine erste Bedienungsanleitung: -Wie bediene ich Tastatur, Bildschirm, Floppy bzw. Disketteneinheit und Drucker des C-116, C-16 und plus/4. - Wie erstelle ich mein erstes Programm in der Programmiersprache BASIC 3.5? -Welche Befehle umfasst BASIC 3.5 (zu jedem Befehl wird ein Beispiel angegeben)? - Worin unterscheiden sich BASIC 3.5 von den anderen Sprachversionen BASIC 2.0 und BASIC 4.0? - Laufen Programme des C-116, C-16 und plus/4 auch auf anderen Mik- computern von Commodore? Nach der Lekture dieses Abschnitts koennen Sie ihren C-116, C-16 und plus/4 bedienen, Programme laufen lassen und einfache BASIC-Programme selbst erstellen und speichern. Das Wegweiser-Buch enthalt einen kompletten Programmierkurs mit folgen- den grundlegenden BASIC-Anwendungen: - Programme mit den wichtigen Ablaufstrukturen (Folge-, Auswahl-, Wiederholungs-und Unterprogrammstrukturen). - Verarbeitung von Text, Ein-/Ausgabe und Tabellen. - Maschinennahe Programmierung ( ... Bit fur Bit). -Suchen, Sortieren, Mischen und Gruppieren von Daten.
Lernziele - Aufbau und Funktionsweise einer Rechenanlage Hardware: Prozessor, Speicher, Ein- und Ausgabegerate - Software: Anwendersoftware, Systemsoftware Programmiersprachen: parametrische, problemorientierte, maschinenarienie und Maschinen-Sprachen Betriebssystem: Kommandosprache (Job Contra! Language) 1. 1 Hardware Eine moderne Rechenanlage ist ein kompliziertes System von vielen miteinander zusammenarbeitenden Einheiten. Sie koennen grob untergliedert werden in die Zentraleinheit (CPU = Central Processor Unit) und die Peripherie. Mit Periphe- rie bezeichnet man im wesentlichen die Ein- und Ausgabe- sowie die Speicher- gerate. Die Gesamtheit aller Einheiten einer Rechenanlage nennt man Konfigu- ration; die Standardkonfiguration besteht aus der Zentraleinheit, einem Eingabe-, einem Ausgabe- und einem Speichergerat. Die logische Verschaltung der einzelnen Einheiten einer Konfiguration ist auf mehrere Arten moeglich und wird als Rechnerarchitektur bezeichnet. UEber eine Schnittstelle sind zwei Einhei- ten miteinander verbunden und koennen Programmbefehle und Daten austau- schen. Die Untergliederung einer Rechenanlage in einzelne Einheiten gilt fur Gross- rechenanlagen und Kleincomputer gleichermassen. Die Abb. 1/1-1/3 zeigen Computersysteme unterschiedlicher Groesse. Bezuglich ihrer Groesse kann man die Rechenanlagen in drei Klassen einteilen: Grossrechner, Minicomputer und Mikrocomputer. Diese Aufteilung hat sich heute immer mehr durchgesetzt, die Grenzen sind allerdings fliessend, und innerhalb einer Gruppe lassen sich weitere Differenzierungen vornehmen. Man darf dabei auch nicht vergessen, dass eine Rechenanlage, die heute von der Leistungsfahigkeit her als "Kleinrechner" einge- stuft wird, vor noch nicht allzu langer Zeit als Rechner "mittlerer Groesse" be- zeichnet wurde. In Abb. 1/4 ist gezeigt, wie man die Klassen der Mikro- und Minicomputer weiter differenzieren kann.
Das vorliegende Wegweiser-Buch weist Wege zum erfolgreichen Einsatz von Mikrocomputern der Apple II-Famiiie wie Apple lle, Apple li-Plus und sprachgleicher Systeme. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? -Was sind Datenstrukturen und Programmstrukturen? - Was sind Betriebssysteme und Anwenderprogramme? -Was heisst, fertige Programm-Pakete einsetzen'? -Was beinhaltet das eigene Programmieren? Das Wegweiser-Buch gibt eine erste Benutzungsanleitung: -Wie bedient man den Apple II? -Wie erstellt man das erste eigene Anwenderprogramm? -Wie setzt man die verfugbaren Systemprogramme ein? Das Wegweiser-Buch enthalt einen kompletten Programmierkurs in der Programmiersprache Applesoft-BASIC, der Wege zu grundlegenden Anwen- dungsmoeglichkeiten weist: - Programme mit Schleifen und Unterprogrammen. -Text-, Tabellen-und Grafikverarbeitung. - Formen der Tastatureingabe und Druckausgabe. - Maschinennahe Programmierung in Assembler. -Suchen, Sortieren, Mischen und Gruppieren von Daten. -Sequentielle, direkte/random, index-sequentielle und verkettete Organisation einer Datei. - Datei mit zeigerverketteter Liste und binarem Baum. Das Wegweiser-Buch soll die vom Hersteller gelieferten System-Handbucher keinesfalls ersetzen, sondern erganzen: ln den Apple-Handbuchern werden Programmiersprachen beschrieben (z.B. Applesoft-BASIC Programmierhandbuch), Betriebssysteme (z. B. DOS- Handbuch), technische Eigenschaften (z.B. Apple lle Benutzer Handbuch) oder spezielle Gerate (z. B. Grafik Tablett Handbuch) und Software (z. B. Apple Writer). VI Vorwort Das Wegweiser-Buch hingegen beschreibt die Grundlagen der Datenver- arbeitung, um sie an zahlreichen Anwendungsmoeglichkeiten fur den Apple II zu demonstrieren und zu veranschaulichen. Im Wegweiser-Buch sind 80 Programm-Beispiele als Codierung in Applesoft- BASIC (List) und als Ausfuhrung (Run) wiedergegeben sowie vollstandig beschrieben.
Das Wegweiser-Buch weist Wege zum erfolgreichen Einsatz des Commo- dore 64. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung bzw. Informatik: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? - Was sind Datenstrukturen und Programmstrukturen? -Was sind Betriebssysteme und Anwenderprogramme? - Was heisst, fertige Programm-Pakete einsetzen'? -Was beinhaltet das eigene Programmieren? Nach der Lekture dieses Abschnitts sind Sie in der Lage, den Commodore 64 in den Gesamtrahmen des Gebiets Datenverarbeitung/Informatik einzu- ordnen. Das Wegweiser-Buch gibt eine erste Bedienungsanleitung: -Wie bediene ich Tastatur, Bildschirm, Floppy bzw. Disketteneinheit und Drucker des Commodore 64? -Wie erstelle ich mein erstes Programm in der Programmiersprache BASIC 2.0? -Welche Befehle umfasst BASIC 2.0 (zu jedem Befehl wird ein Beispiel an- gegeben)? -Welche Moeglichkeiten bieten die drei Sprachversionen BASIC 2.0, BASIC 4.0 und SIMON's BASIC? - Laufen die Programme des Commodore 64 auf anderen Mikrocomputern von Commodore? Nach dem Durcharbeiten dieses Abschnitts koennen Sie Ihren Commodore 64 bedienen, Programme laufen lassen und einfache BASIC-Programme selbst erstellen und speichern. Das Wegweiser-Buch enthalt einen kompletten Programmierkurs mit folgen- den grundlegenden BASIC-Anwendungen: - Programme mit den wichtigen Ablaufstrukturen (Folge-, Auswahl-, W- derholungs-und Unterprogrammstrukturen). - Verarbeitung von Text, Ein-/Ausgabe und Tabellen. - Maschinennahe Programmierung( ... Bit fur Bit). - Suchen, Sortieren, Mischen und Gruppieren von Daten. - Sequentielle Datei und Direktzugriff-Datei mit den Sprachen BASIC 2.0 und BASIC 4.0. Vorwort VI - Normale Grafik mit der Standardsprache BASIC 2.0. - Hl RES-Grafik und Sprite-Grafik mit SIMON's BASIC.
Die Luftverkehrsgesellschaften gehoeren zu den Pionieren in der An- wendung der automatisierten Datenverarbeitung. Sie haben neben ein- fachen und gut strukturierten Abrechnungsaufgaben schon sehr fruh komplexe und hochintegrierte Anwendungen mit ihrer Hilfe erschlossen. Beispiele hierfur sind die Flugreservierungssysteme der grossen Ge- sellschaften, die bereits seit Anfang der 60er Jahre im praktischen Einsatz sind, die Kommunikation zwischen den Gesellschaften innerhalb der IA T A, die sehr komplexen und aktuellen Dispositionsaufgaben, die beim Flugverkehr jeder grossen Gesellschaft wahrzunehmen sind. Aus den Loesungskonzepten fur diese wichtigen Problemstellungen konnten auch fur anspruchsvolle Anwendungsbereiche in Wirtschaftsunterneh- mungen und in der Wissenschaft vielerlei Anregungen gewonnen werden. Ebenfalls wurden dadurch die Entwicklungen bei den Herstellern von ADV- Systemen massgebend beeinflusst. VI Das vorliegende Buch gibt einen UEberblick uber die Aufgabenstellungen der Informationsverarbeitung bei Luftverkehrsgesellschaften. Ins- besondere wird auch die Nutzung der Informationsverarbeitung aller grossen internationalen Gesellschaften in sehr ubersichtlicher Form herausgearbeitet, und es werden die verschiedenen Loesungen gegen- ubergestellt; ausserdem erhalt der Leser einen UEberblick uber die historische Entwicklung in diesem wichtigen Anwendungsbereich. Der Verfasser ist seit zwanzig Jahren fur die Datenverarbeitung bei der Deutschen Lufthansa AG verantwortlich und jetzt im Vorstand dieser Ge- sellschaft, wo er fur die Bereiche Planung und Steuerung, Datenverar- beitung und Fernmeldedienste, Rechnungswesen, Finanzen und das Justitiariat zustandig ist. Fur den Themenbereich des Buches besitzt er eine sehr hohe Kompetenz. Wir sind uberzeugt, dass er mit seiner Schrift auch ausserhalb des Bereichs der Luftverkehrsgesellschaften auf sehr grosses Interesse stossen wird.
Die speziellen Funktionen, insbesondere die elliptischen Funktionen, hatten in Physik und Technik stets ungeheure Bedeutung und wurden in den Vorlesungen der Hochschulen im 19. und be- ginnenden 20. Jahrhundert entsprechend berucksichtigt. Spater sind die speziellen Funktionen aus den Vorlesungen verschwunden, und es traten die strukturellen Gesichtspunkte der Mathematik in den Vordergrund. Dies hat zu einer gewissen Entfremdung zwischen Anwendungen und theoretischer Ausbildung im Vorlesungsbetrieb gefuhrt. Allerdings haben im angelsachsischen Sprachraum die speziellen Funktionen stets durch Bucher und Tafelwerke Berucksichtigung gefunden, entsprechend ihrer Bedeutung sowohl fur Anwendungen der Mathematik wie auch fur theoretische Begriffsbildungen. Durch den Computer (bzw. seinen kleinen Bruder, den Taschenrechner) ist die Freude am numerischen Rechnen ganz bedeutend gestiegen. Wegen erhoehter Genauigkeitsanspruche in Physik- und Technik kann man sich heute nicht mehr mit linearen Naherungen begnugen (beruhmtes Beispiel: das Pendel); dadurch braucht auch der Ingenieur und Physiker die speziellen Funktionen, im besonderen die elliptischen Funktionen. Es ist zu begrussen, dass der Autor P. Kahlig, von dem schon analoge Veroeffentlichungen vorliegen, einen Band uber die elliptischen Funktionen und die Theta-Funktionen herausbringt, deren Bedeutung auch fur die Warmeleitung und Diffusion ja wohlbekannt ist. Genaue Funktionswerte sind somit jedem Anwender schnell und leicht zuganglich. Es ist diesem Band weite Verbreitung zu wunschen. Univ. Prof. Dr. Dr. h.c. Edmund Hlawka, Institut fur Analysis, Technische Mathematik und Versicherungs- mathematik der Technischen Universitat sowie Institut fur Mathematik der Universitat Wien. Wirkl. Mitglied der OEsterr. Akademie der Wissenschaften, Mitglied der Deutschen Akademie der Naturforscher, korrespond.
Die Datenverarbeitung spielt seit vie len Jahren eine wesentliche Rolle in einer Vielzahl von Anwendungen in Dienstleistung, Verwal tung und Industrie; in der Forschung ist die Verwendung des Com puters nicht mehr wegzudenken. Es ist daher erstaunlich, wie schmal dennoch vielerorts die Kenntnisse Uber die Computerwelt sind: An wender sind froh, dass der Computer produktiv fUr sie arbeitet, und sie wahren vorsichtige Distanz zur "geheimnisvollen" und sich rasch andernden Computertechnik. Die Computer-Fachleute ihrerseits leben in der Welt der Spezialisten und pflegen ihre technische Sprache, erhaben Uber die Alltagsprobleme des Anwenders. Die beiden Autoren erleben diese Einseitigkeiten seit Jahren in ihrer Tatigkeit als Dozenten einerseits, als engagierte Praktiker anderseits. Dennoch hoffen sie, dass es gerade mit diesem neuen EinfUhrungsbuch gelingt, die einseitigen Positionen abzubauen. Denn auch hinter der schnellen technischen Entwicklung des Compu ters stecken bleibende und einfache Prinzipien der Informatik, die es darzustellen und zu verstehen gilt. Zwei Interessentenkreise sind damit primar angesprochen: Studenten verschiedenster Richtungen (Ingenieure, Oekonomen, Fachinformatiker) sollen erkennen, welche Konzepte des Compu ters und der Datentechnik fUr die Anwendung eine direkte Rolle spielen. Anwender (aus kommerzieller oder technisch-wissenschaftlicher Umgebung) sollen die grundsatzlichen Methoden und Strukturen sehen, welche hinter ihren taglichen Computer-Anwendungen stehen."
Plan, design, develop, and manage robust Power BI solutions to generate meaningful insights and make data-driven decisions. Purchase of the print or Kindle book includes a free eBook in the PDF format. Key Features Master the latest dashboarding and reporting features of Microsoft Power BI Combine data from multiple sources, create stunning visualizations and publish Power BI apps to thousands of users Get the most out of Microsoft Power BI with real-world use cases and examples Book DescriptionMastering Microsoft Power BI, Second Edition, provides an advanced understanding of Power BI to get the most out of your data and maximize business intelligence. This updated edition walks through each essential phase and component of Power BI, and explores the latest, most impactful Power BI features. Using best practices and working code examples, you will connect to data sources, shape and enhance source data, and develop analytical data models. You will also learn how to apply custom visuals, implement new DAX commands and paginated SSRS-style reports, manage application workspaces and metadata, and understand how content can be staged and securely distributed via Power BI apps. Furthermore, you will explore top report and interactive dashboard design practices using features such as bookmarks and the Power KPI visual, alongside the latest capabilities of Power BI mobile applications and self-service BI techniques. Additionally, important management and administration topics are covered, including application lifecycle management via Power BI pipelines, the on-premises data gateway, and Power BI Premium capacity. By the end of this Power BI book, you will be confident in creating sustainable and impactful charts, tables, reports, and dashboards with any kind of data using Microsoft Power BI. What you will learn Build efficient data retrieval and transformation processes with the Power Query M language and dataflows Design scalable, user-friendly DirectQuery, import, and composite data models Create basic and advanced DAX measures Add ArcGIS Maps to create interesting data stories Build pixel-perfect paginated reports Discover the capabilities of Power BI mobile applications Manage and monitor a Power BI environment as a Power BI administrator Scale up a Power BI solution for an enterprise via Power BI Premium capacity Who this book is forBusiness Intelligence professionals and intermediate Power BI users looking to master Power BI for all their data visualization and dashboarding needs will find this book useful. An understanding of basic BI concepts is required and some familiarity with Microsoft Power BI will be helpful to make the most out of this book.
Discover the true power of DAX and build advanced DAX solutions for practical business scenarios Key Features Solve complex business problems within Microsoft BI tools including Power BI, SQL Server, and Excel Develop a conceptual understanding of critical business data modeling principles Learn the subtleties of Power BI data visualizations, evaluation context, context transition, and filtering Book DescriptionThis book helps business analysts generate powerful and sophisticated analyses from their data using DAX and get the most out of Microsoft Business Intelligence tools. Extreme DAX will first teach you the principles of business intelligence, good model design, and how DAX fits into it all. Then, you'll launch into detailed examples of DAX in real-world business scenarios such as inventory calculations, forecasting, intercompany business, and data security. At each step, senior DAX experts will walk you through the subtleties involved in working with Power BI models and common mistakes to look out for as you build advanced data aggregations. You'll deepen your understanding of DAX functions, filters, and measures, and how and when they can be used to derive effective insights. You'll also be provided with PBIX files for each chapter, so that you can follow along and explore in your own time. What you will learn Understand data modeling concepts and structures before you start working with DAX Grasp how relationships in Power BI models are different from those in RDBMSes Secure aggregation levels, attributes, and hierarchies using PATH functions and row-level security Get to grips with the crucial concept of context Apply advanced context and filtering functions including TREATAS, GENERATE, and SUMMARIZE Explore dynamically changing visualizations with helper tables and dynamic labels and axes Work with week-based calendars and understand standard time-intelligence Evaluate investments intelligently with the XNPV and XIRR financial DAX functions Who this book is forExtreme DAX is written for analysts with a working knowledge of DAX in Power BI or other Microsoft analytics tools. It will help you upgrade your knowledge and work with analytical models more effectively, so you'll need practical experience with DAX before you can get started. |
![]() ![]() You may like...
Temporal and Spatio-temporal Data Mining
Wynne Hsu, Mong Li Lee, …
Hardcover
R2,805
Discovery Miles 28 050
Handbook of Research on Engineering…
Bhushan Patil, Manisha Vohra
Hardcover
R10,417
Discovery Miles 104 170
Cross-Cultural Analysis of Image-Based…
Lisa Keller, Robert Keller, …
Hardcover
R3,599
Discovery Miles 35 990
Machine Learning and Data Analytics for…
Manikant Roy, Lovi Raj Gupta
Hardcover
R11,772
Discovery Miles 117 720
Data Analytics for Social Microblogging…
Soumi Dutta, Asit Kumar Das, …
Paperback
R3,454
Discovery Miles 34 540
|