![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Lernziele - Aufbau und Funktionsweise einer Rechenanlage Hardware: Prozessor, Speicher, Ein- und Ausgabegerate - Software: Anwendersoftware, Systemsoftware Programmiersprachen: parametrische, problemorientierte, maschinenarienie und Maschinen-Sprachen Betriebssystem: Kommandosprache (Job Contra! Language) 1. 1 Hardware Eine moderne Rechenanlage ist ein kompliziertes System von vielen miteinander zusammenarbeitenden Einheiten. Sie koennen grob untergliedert werden in die Zentraleinheit (CPU = Central Processor Unit) und die Peripherie. Mit Periphe- rie bezeichnet man im wesentlichen die Ein- und Ausgabe- sowie die Speicher- gerate. Die Gesamtheit aller Einheiten einer Rechenanlage nennt man Konfigu- ration; die Standardkonfiguration besteht aus der Zentraleinheit, einem Eingabe-, einem Ausgabe- und einem Speichergerat. Die logische Verschaltung der einzelnen Einheiten einer Konfiguration ist auf mehrere Arten moeglich und wird als Rechnerarchitektur bezeichnet. UEber eine Schnittstelle sind zwei Einhei- ten miteinander verbunden und koennen Programmbefehle und Daten austau- schen. Die Untergliederung einer Rechenanlage in einzelne Einheiten gilt fur Gross- rechenanlagen und Kleincomputer gleichermassen. Die Abb. 1/1-1/3 zeigen Computersysteme unterschiedlicher Groesse. Bezuglich ihrer Groesse kann man die Rechenanlagen in drei Klassen einteilen: Grossrechner, Minicomputer und Mikrocomputer. Diese Aufteilung hat sich heute immer mehr durchgesetzt, die Grenzen sind allerdings fliessend, und innerhalb einer Gruppe lassen sich weitere Differenzierungen vornehmen. Man darf dabei auch nicht vergessen, dass eine Rechenanlage, die heute von der Leistungsfahigkeit her als "Kleinrechner" einge- stuft wird, vor noch nicht allzu langer Zeit als Rechner "mittlerer Groesse" be- zeichnet wurde. In Abb. 1/4 ist gezeigt, wie man die Klassen der Mikro- und Minicomputer weiter differenzieren kann.
Das vorliegende Wegweiser-Buch weist Wege zum erfolgreichen Einsatz von Mikrocomputern der Apple II-Famiiie wie Apple lle, Apple li-Plus und sprachgleicher Systeme. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? -Was sind Datenstrukturen und Programmstrukturen? - Was sind Betriebssysteme und Anwenderprogramme? -Was heisst, fertige Programm-Pakete einsetzen'? -Was beinhaltet das eigene Programmieren? Das Wegweiser-Buch gibt eine erste Benutzungsanleitung: -Wie bedient man den Apple II? -Wie erstellt man das erste eigene Anwenderprogramm? -Wie setzt man die verfugbaren Systemprogramme ein? Das Wegweiser-Buch enthalt einen kompletten Programmierkurs in der Programmiersprache Applesoft-BASIC, der Wege zu grundlegenden Anwen- dungsmoeglichkeiten weist: - Programme mit Schleifen und Unterprogrammen. -Text-, Tabellen-und Grafikverarbeitung. - Formen der Tastatureingabe und Druckausgabe. - Maschinennahe Programmierung in Assembler. -Suchen, Sortieren, Mischen und Gruppieren von Daten. -Sequentielle, direkte/random, index-sequentielle und verkettete Organisation einer Datei. - Datei mit zeigerverketteter Liste und binarem Baum. Das Wegweiser-Buch soll die vom Hersteller gelieferten System-Handbucher keinesfalls ersetzen, sondern erganzen: ln den Apple-Handbuchern werden Programmiersprachen beschrieben (z.B. Applesoft-BASIC Programmierhandbuch), Betriebssysteme (z. B. DOS- Handbuch), technische Eigenschaften (z.B. Apple lle Benutzer Handbuch) oder spezielle Gerate (z. B. Grafik Tablett Handbuch) und Software (z. B. Apple Writer). VI Vorwort Das Wegweiser-Buch hingegen beschreibt die Grundlagen der Datenver- arbeitung, um sie an zahlreichen Anwendungsmoeglichkeiten fur den Apple II zu demonstrieren und zu veranschaulichen. Im Wegweiser-Buch sind 80 Programm-Beispiele als Codierung in Applesoft- BASIC (List) und als Ausfuhrung (Run) wiedergegeben sowie vollstandig beschrieben.
Ready to use statistical and machine-learning techniques across large data sets? This practical guide shows you why the Hadoop ecosystem is perfect for the job. Instead of deployment, operations, or software development usually associated with distributed computing, you'll focus on particular analyses you can build, the data warehousing techniques that Hadoop provides, and higher order data workflows this framework can produce. Data scientists and analysts will learn how to perform a wide range of techniques, from writing MapReduce and Spark applications with Python to using advanced modeling and data management with Spark MLlib, Hive, and HBase. You'll also learn about the analytical processes and data systems available to build and empower data products that can handle-and actually require-huge amounts of data. Understand core concepts behind Hadoop and cluster computing Use design patterns and parallel analytical algorithms to create distributed data analysis jobs Learn about data management, mining, and warehousing in a distributed context using Apache Hive and HBase Use Sqoop and Apache Flume to ingest data from relational databases Program complex Hadoop and Spark applications with Apache Pig and Spark DataFrames Perform machine learning techniques such as classification, clustering, and collaborative filtering with Spark's MLlib
Die Luftverkehrsgesellschaften gehoeren zu den Pionieren in der An- wendung der automatisierten Datenverarbeitung. Sie haben neben ein- fachen und gut strukturierten Abrechnungsaufgaben schon sehr fruh komplexe und hochintegrierte Anwendungen mit ihrer Hilfe erschlossen. Beispiele hierfur sind die Flugreservierungssysteme der grossen Ge- sellschaften, die bereits seit Anfang der 60er Jahre im praktischen Einsatz sind, die Kommunikation zwischen den Gesellschaften innerhalb der IA T A, die sehr komplexen und aktuellen Dispositionsaufgaben, die beim Flugverkehr jeder grossen Gesellschaft wahrzunehmen sind. Aus den Loesungskonzepten fur diese wichtigen Problemstellungen konnten auch fur anspruchsvolle Anwendungsbereiche in Wirtschaftsunterneh- mungen und in der Wissenschaft vielerlei Anregungen gewonnen werden. Ebenfalls wurden dadurch die Entwicklungen bei den Herstellern von ADV- Systemen massgebend beeinflusst. VI Das vorliegende Buch gibt einen UEberblick uber die Aufgabenstellungen der Informationsverarbeitung bei Luftverkehrsgesellschaften. Ins- besondere wird auch die Nutzung der Informationsverarbeitung aller grossen internationalen Gesellschaften in sehr ubersichtlicher Form herausgearbeitet, und es werden die verschiedenen Loesungen gegen- ubergestellt; ausserdem erhalt der Leser einen UEberblick uber die historische Entwicklung in diesem wichtigen Anwendungsbereich. Der Verfasser ist seit zwanzig Jahren fur die Datenverarbeitung bei der Deutschen Lufthansa AG verantwortlich und jetzt im Vorstand dieser Ge- sellschaft, wo er fur die Bereiche Planung und Steuerung, Datenverar- beitung und Fernmeldedienste, Rechnungswesen, Finanzen und das Justitiariat zustandig ist. Fur den Themenbereich des Buches besitzt er eine sehr hohe Kompetenz. Wir sind uberzeugt, dass er mit seiner Schrift auch ausserhalb des Bereichs der Luftverkehrsgesellschaften auf sehr grosses Interesse stossen wird.
Die speziellen Funktionen, insbesondere die elliptischen Funktionen, hatten in Physik und Technik stets ungeheure Bedeutung und wurden in den Vorlesungen der Hochschulen im 19. und be- ginnenden 20. Jahrhundert entsprechend berucksichtigt. Spater sind die speziellen Funktionen aus den Vorlesungen verschwunden, und es traten die strukturellen Gesichtspunkte der Mathematik in den Vordergrund. Dies hat zu einer gewissen Entfremdung zwischen Anwendungen und theoretischer Ausbildung im Vorlesungsbetrieb gefuhrt. Allerdings haben im angelsachsischen Sprachraum die speziellen Funktionen stets durch Bucher und Tafelwerke Berucksichtigung gefunden, entsprechend ihrer Bedeutung sowohl fur Anwendungen der Mathematik wie auch fur theoretische Begriffsbildungen. Durch den Computer (bzw. seinen kleinen Bruder, den Taschenrechner) ist die Freude am numerischen Rechnen ganz bedeutend gestiegen. Wegen erhoehter Genauigkeitsanspruche in Physik- und Technik kann man sich heute nicht mehr mit linearen Naherungen begnugen (beruhmtes Beispiel: das Pendel); dadurch braucht auch der Ingenieur und Physiker die speziellen Funktionen, im besonderen die elliptischen Funktionen. Es ist zu begrussen, dass der Autor P. Kahlig, von dem schon analoge Veroeffentlichungen vorliegen, einen Band uber die elliptischen Funktionen und die Theta-Funktionen herausbringt, deren Bedeutung auch fur die Warmeleitung und Diffusion ja wohlbekannt ist. Genaue Funktionswerte sind somit jedem Anwender schnell und leicht zuganglich. Es ist diesem Band weite Verbreitung zu wunschen. Univ. Prof. Dr. Dr. h.c. Edmund Hlawka, Institut fur Analysis, Technische Mathematik und Versicherungs- mathematik der Technischen Universitat sowie Institut fur Mathematik der Universitat Wien. Wirkl. Mitglied der OEsterr. Akademie der Wissenschaften, Mitglied der Deutschen Akademie der Naturforscher, korrespond.
Die Datenverarbeitung spielt seit vie len Jahren eine wesentliche Rolle in einer Vielzahl von Anwendungen in Dienstleistung, Verwal tung und Industrie; in der Forschung ist die Verwendung des Com puters nicht mehr wegzudenken. Es ist daher erstaunlich, wie schmal dennoch vielerorts die Kenntnisse Uber die Computerwelt sind: An wender sind froh, dass der Computer produktiv fUr sie arbeitet, und sie wahren vorsichtige Distanz zur "geheimnisvollen" und sich rasch andernden Computertechnik. Die Computer-Fachleute ihrerseits leben in der Welt der Spezialisten und pflegen ihre technische Sprache, erhaben Uber die Alltagsprobleme des Anwenders. Die beiden Autoren erleben diese Einseitigkeiten seit Jahren in ihrer Tatigkeit als Dozenten einerseits, als engagierte Praktiker anderseits. Dennoch hoffen sie, dass es gerade mit diesem neuen EinfUhrungsbuch gelingt, die einseitigen Positionen abzubauen. Denn auch hinter der schnellen technischen Entwicklung des Compu ters stecken bleibende und einfache Prinzipien der Informatik, die es darzustellen und zu verstehen gilt. Zwei Interessentenkreise sind damit primar angesprochen: Studenten verschiedenster Richtungen (Ingenieure, Oekonomen, Fachinformatiker) sollen erkennen, welche Konzepte des Compu ters und der Datentechnik fUr die Anwendung eine direkte Rolle spielen. Anwender (aus kommerzieller oder technisch-wissenschaftlicher Umgebung) sollen die grundsatzlichen Methoden und Strukturen sehen, welche hinter ihren taglichen Computer-Anwendungen stehen."
Build real-world time series forecasting systems which scale to millions of time series by applying modern machine learning and deep learning concepts Key Features Explore industry-tested machine learning techniques used to forecast millions of time series Get started with the revolutionary paradigm of global forecasting models Get to grips with new concepts by applying them to real-world datasets of energy forecasting Book DescriptionWe live in a serendipitous era where the explosion in the quantum of data collected and a renewed interest in data-driven techniques such as machine learning (ML), has changed the landscape of analytics, and with it, time series forecasting. This book, filled with industry-tested tips and tricks, takes you beyond commonly used classical statistical methods such as ARIMA and introduces to you the latest techniques from the world of ML. This is a comprehensive guide to analyzing, visualizing, and creating state-of-the-art forecasting systems, complete with common topics such as ML and deep learning (DL) as well as rarely touched-upon topics such as global forecasting models, cross-validation strategies, and forecast metrics. You'll begin by exploring the basics of data handling, data visualization, and classical statistical methods before moving on to ML and DL models for time series forecasting. This book takes you on a hands-on journey in which you'll develop state-of-the-art ML (linear regression to gradient-boosted trees) and DL (feed-forward neural networks, LSTMs, and transformers) models on a real-world dataset along with exploring practical topics such as interpretability. By the end of this book, you'll be able to build world-class time series forecasting systems and tackle problems in the real world. What you will learn Find out how to manipulate and visualize time series data like a pro Set strong baselines with popular models such as ARIMA Discover how time series forecasting can be cast as regression Engineer features for machine learning models for forecasting Explore the exciting world of ensembling and stacking models Get to grips with the global forecasting paradigm Understand and apply state-of-the-art DL models such as N-BEATS and Autoformer Explore multi-step forecasting and cross-validation strategies Who this book is forThe book is for data scientists, data analysts, machine learning engineers, and Python developers who want to build industry-ready time series models. Since the book explains most concepts from the ground up, basic proficiency in Python is all you need. Prior understanding of machine learning or forecasting will help speed up your learning. For experienced machine learning and forecasting practitioners, this book has a lot to offer in terms of advanced techniques and traversing the latest research frontiers in time series forecasting.
Get to grips with building reliable, scalable, and maintainable database solutions for enterprises and production databases Key Features Implement PostgreSQL 13 features to perform end-to-end modern database management Design, manage, and build enterprise database solutions using a unique recipe-based approach Solve common and not-so-common challenges faced while working to achieve optimal database performance Book DescriptionPostgreSQL has become the most advanced open source database on the market. This book follows a step-by-step approach, guiding you effectively in deploying PostgreSQL in production environments. The book starts with an introduction to PostgreSQL and its architecture. You'll cover common and not-so-common challenges faced while designing and managing the database. Next, the book focuses on backup and recovery strategies to ensure your database is steady and achieves optimal performance. Throughout the book, you'll address key challenges such as maintaining reliability, data integrity, a fault-tolerant environment, a robust feature set, extensibility, consistency, and authentication. Moving ahead, you'll learn how to manage a PostgreSQL cluster and explore replication features for high availability. Later chapters will assist you in building a secure PostgreSQL server, along with covering recipes for encrypting data in motion and data at rest. Finally, you'll not only discover how to tune your database for optimal performance but also understand ways to monitor and manage maintenance activities, before learning how to perform PostgreSQL upgrades during downtime. By the end of this book, you'll be well-versed with the essential PostgreSQL 13 features to build enterprise relational databases. What you will learn Understand logical and physical backups in Postgres Demonstrate the different types of replication methods possible with PostgreSQL today Set up a high availability cluster that provides seamless automatic failover for applications Secure a PostgreSQL encryption through authentication, authorization, and auditing Analyze the live and historic activity of a PostgreSQL server Understand how to monitor critical services in Postgres 13 Manage maintenance activities and performance tuning of a PostgreSQL cluster Who this book is forThis PostgreSQL book is for database architects, database developers and administrators, or anyone who wants to become well-versed with PostgreSQL 13 features to plan, manage, and design efficient database solutions. Prior experience with the PostgreSQL database and SQL language is expected.
A good visualization can communicate the nature and potential impact of ideas more powerfully than any other form of communication. For a long time, dataviz was left to specialists--data scientists and professional designers. No longer. A new generation of tools and massive amounts of available data make it easy for anyone to create visualizations that communicate ideas far more effectively than generic spreadsheet charts ever could. The Harvard Business Review Good Charts Collection brings together two popular books to help you become more sophisticated in understanding and using dataviz to communicate your ideas and advance your career. In Good Charts, dataviz maven and Harvard Business Review editor Scott Berinato provides an essential guide to how visualization works and how to use this new language to impress and persuade. He lays out a system for thinking visually and building better charts through a process of talking, sketching, and prototyping. In Good Charts Workbook, Berinato extends the usefulness of Good Charts by putting theory into practice. He leads readers step-by-step through several example datasets and basic charts, providing space to practice the Good Charts talk-sketch-prototype process for improving those charts. Examples include a Discussion Key showing how to approach the challenge and why. Each challenge focuses on a different, common visualization problem such as simplification, storytelling, creating conceptual charts, and many others. The Harvard Business Review Good Charts Collection is your go-to resource for turning plain, uninspiring charts that merely present information into smart, effective visualizations that powerfully convey ideas.
Unsere Umwelt wird mehr und mehr gepragt durch Automatische Datenverarbeitung. Weil die technische Seite dabei von der Elektronik beherrscht wird, verwendet man durch weg den Begriff Elektronische Datenverarbeitung (EDV). Es gibt eigentlich kaum noch einen Bereich im menschlichen Zusammenleben, der nicht mit EDV zumindest in Be ruhrung kame. Beinahe taglich begegnet uns EDV direkt oder indirekt - bewulSt und unbewulSt - beispielsweise in Form von Abrechnungen, Benachrichtigungen, beim Ein kauf, in der Verwaltung und vor allem im Berufsleben. Das ist der aktuelle Bezug fur das vorliegende Lehrbuch. Und nicht etwa modische Aspekte ver: anlassen zu der Aufforderung, Prinzipien und Einzelheiten der EDV zu studieren. Fur den angehenden Techniker und Ingenieur ergibt sich eine Notwendigkeit fur ein vertieftes Studium daraus, daIS man bei der Berufsausubung von ihm Verstandnis fur oder gar Detail kenntnisse uber EDV erwartet. Das wird besonders unabwendbar, wenn es sich um einen Absolventen mit elektrotechnischer Spl'/ialausbildung handelt. Der Bedeutung der EDV wird inzwischen mit einer Vielzahl von Abhandlungen und Lehr buchern gerecht. Das errichtete N iveau reicht dabei von einfachsten Darstellungen fur Jedermann bis zu wissenschaftlichen Arbeiten, die nur von Spezialisten lesbar sind."
Save time analyzing volumes of data using best practices to extract, model, and create insights from your data Key Features Master best practices in data modeling with Tableau Prep Builder and Tableau Desktop Apply Tableau Server and Cloud to create and extend data models Build organizational data models based on data and content governance best practices Book DescriptionTableau is unlike most other BI platforms that have a single data modeling tool and enterprise data model (for example, LookML from Google's Looker). That doesn't mean Tableau doesn't have enterprise data governance; it is both robust and very flexible. This book will help you build a data-driven organization with the proper use of Tableau governance models. Data Modeling with Tableau is an extensive guide, complete with step-by-step explanations of essential concepts, practical examples, and hands-on exercises. As you progress through the chapters, you will learn the role that Tableau Prep Builder and Tableau Desktop each play in data modeling. You'll also explore the components of Tableau Server and Cloud that make data modeling more robust, secure, and performant. Moreover, by extending data models for Ask and Explain Data, you'll gain the knowledge required to extend analytics to more people in their organizations, leading to better data-driven decisions. Finally, this book will get into the entire Tableau stack and get the techniques required to build the right level of governance into Tableau data models for the right use cases. By the end of this Tableau book, you'll have a firm understanding of how to leverage data modeling in Tableau to benefit your organization. What you will learn Showcase Tableau published data sources and embedded connections Apply Ask Data in data cataloging and natural language query Exhibit features of Tableau Prep Builder with hands-on exercises Model data with Tableau Desktop through examples Formulate a governed data strategy using Tableau Server and Cloud Optimize data models for Ask and Explain Data Who this book is forThis book is for data analysts and business analysts who are looking to expand their data skills, offering a broad foundation to build better data models in Tableau for easier analysis and better query performance. It will also benefit individuals responsible for making trusted and secure data available to their organization through Tableau, such as data stewards and others who work to take enterprise data and make it more accessible to business analysts.
Use modern Python libraries such as pandas, NumPy, and scikit-learn and popular machine learning and deep learning methods to solve financial modeling problems Purchase of the print or Kindle book includes a free eBook in the PDF format Key Features Explore unique recipes for financial data processing and analysis with Python Apply classical and machine learning approaches to financial time series analysis Calculate various technical analysis indicators and backtesting backtest trading strategies Book DescriptionPython is one of the most popular programming languages in the financial industry, with a huge collection of accompanying libraries. In this new edition of the Python for Finance Cookbook, you will explore classical quantitative finance approaches to data modeling, such as GARCH, CAPM, factor models, as well as modern machine learning and deep learning solutions. You will use popular Python libraries that, in a few lines of code, provide the means to quickly process, analyze, and draw conclusions from financial data. In this new edition, more emphasis was put on exploratory data analysis to help you visualize and better understand financial data. While doing so, you will also learn how to use Streamlit to create elegant, interactive web applications to present the results of technical analyses. Using the recipes in this book, you will become proficient in financial data analysis, be it for personal or professional projects. You will also understand which potential issues to expect with such analyses and, more importantly, how to overcome them. What you will learn Preprocess, analyze, and visualize financial data Explore time series modeling with statistical (exponential smoothing, ARIMA) and machine learning models Uncover advanced time series forecasting algorithms such as Meta's Prophet Use Monte Carlo simulations for derivatives valuation and risk assessment Explore volatility modeling using univariate and multivariate GARCH models Investigate various approaches to asset allocation Learn how to approach ML-projects using an example of default prediction Explore modern deep learning models such as Google's TabNet, Amazon's DeepAR and NeuralProphet Who this book is forThis book is intended for financial analysts, data analysts and scientists, and Python developers with a familiarity with financial concepts. You'll learn how to correctly use advanced approaches for analysis, avoid potential pitfalls and common mistakes, and reach correct conclusions for a broad range of finance problems. Working knowledge of the Python programming language (particularly libraries such as pandas and NumPy) is necessary.
Das Arbeitsergebnis des Studienkreises Dr. Parli wurde zunachst in Form eines internen Arbeitsberichtes den Mitgliedern des Foerderervereins des Betriebswirtschaftlichen Instituts fur Organisation und Automation an der Universitat zu Koeln (BIFOA) zur Verfugung gestellt. Die sich daraus er- gebende Diskussion zeigte, dass die Probleme der Istaufnahme bei automati- sierter Datenverarbeitung (ADV) nach wie vor in Wissenschaft und Praxis von hoher Aktualitat sind, so dass mir nunmehr - nicht zuletzt aufgrund zahlreicher Anfragen aus der Wirtschaftspraxis - eine Publikation in der Instituts-Schriftenreihe sinnvoll erscheint. Damit werden die Ergebnisse einem groesseren Interessentenkreis zuganglich und koennen insbesondere mittleren und kleineren Unternehmungen und Einheiten der oeffentlichen Verwaltung, die aufgrund des vielfaltigen Angebots unterschiedlicher Computergroessen ebenfalls in den Kreis der Anwender von Anlagen der automatisierten Datenverarbeitung geruckt sind, als Orientierungshilfe dienen. In der vorliegenden Arbeit werden die Erfahrungen von Wirtschaftsprakti- kern aus Grossunternehmungen verschiedener Branchen sowie der oeffent- lichen Verwaltung systematisiert und auf ihre Allgemeingultigkeit unter- sucht. Es handelt sich um Erfahrungen, die aus Unternehmungen stammen, die sich aufgrund ihres Geschaftsumfanges schon fruhzeitig zum Einsatz von ADV-Anlagen entschliessen mussten und die teilweise - entsprechend den Stufen der technischen und organisatorischen Entwicklung - mit den Istaufnahmeproblemen unterschiedlichster Art konfrontiert wurden. Das Hauptanliegen der Schrift besteht nicht in einer rein theoretischen Durchdringung des Problemkreises Istaufnahme und Automatisierte Daten- verarbeitung, sondern in einer praxisbezogenen Aufbereitung und Systema- tisierung empirischen Wissens auf diesem Gebiet.
Solve real-world data problems and create data-driven workflows for easy data movement and processing at scale with Azure Data Factory Key Features Learn how to load and transform data from various sources, both on-premises and on cloud Use Azure Data Factory's visual environment to build and manage hybrid ETL pipelines Discover how to prepare, transform, process, and enrich data to generate key insights Book DescriptionAzure Data Factory (ADF) is a modern data integration tool available on Microsoft Azure. This Azure Data Factory Cookbook helps you get up and running by showing you how to create and execute your first job in ADF. You'll learn how to branch and chain activities, create custom activities, and schedule pipelines. This book will help you to discover the benefits of cloud data warehousing, Azure Synapse Analytics, and Azure Data Lake Gen2 Storage, which are frequently used for big data analytics. With practical recipes, you'll learn how to actively engage with analytical tools from Azure Data Services and leverage your on-premise infrastructure with cloud-native tools to get relevant business insights. As you advance, you'll be able to integrate the most commonly used Azure Services into ADF and understand how Azure services can be useful in designing ETL pipelines. The book will take you through the common errors that you may encounter while working with ADF and show you how to use the Azure portal to monitor pipelines. You'll also understand error messages and resolve problems in connectors and data flows with the debugging capabilities of ADF. By the end of this book, you'll be able to use ADF as the main ETL and orchestration tool for your data warehouse or data platform projects. What you will learn Create an orchestration and transformation job in ADF Develop, execute, and monitor data flows using Azure Synapse Create big data pipelines using Azure Data Lake and ADF Build a machine learning app with Apache Spark and ADF Migrate on-premises SSIS jobs to ADF Integrate ADF with commonly used Azure services such as Azure ML, Azure Logic Apps, and Azure Functions Run big data compute jobs within HDInsight and Azure Databricks Copy data from AWS S3 and Google Cloud Storage to Azure Storage using ADF's built-in connectors Who this book is forThis book is for ETL developers, data warehouse and ETL architects, software professionals, and anyone who wants to learn about the common and not-so-common challenges faced while developing traditional and hybrid ETL solutions using Microsoft's Azure Data Factory. You'll also find this book useful if you are looking for recipes to improve or enhance your existing ETL pipelines. Basic knowledge of data warehousing is expected.
Many organizations, including government institutions and agencies, continue to increase their financial investment on information technology (IT) solutions. Despite these investments, during the global pandemic, employees and managers are either struggling or unequipped to use these tools effectively and efficiently for sustainability, competitive advantage, and decision making. Due to global pandemics, companies must harness the power of various digital channels such as big data analytics and artificial intelligence to better serve their customers and business partners. Using Information Technology Advancements to Adapt to Global Pandemics provides insights and understanding on how companies and organizations are using advances in IT to adapt to global pandemics such as COVID-19. It explores how the various IT approaches can be used for strategic purposes. Covering topics such as higher education institutions, religious organizations, and telework, this premier reference source is an essential resource for government officials, business leaders and managers, industry professionals, IT specialists, policymakers, libraries, academicians, students, and researchers. |
You may like...
Machine Learning for Biometrics…
Partha Pratim Sarangi, Madhumita Panda, …
Paperback
R2,570
Discovery Miles 25 700
Demystifying Graph Data Science - Graph…
Pethuru Raj, Abhishek Kumar, …
Hardcover
Intelligent Data Security Solutions for…
Amit Kumar Singh, Mohamed Elhoseny
Paperback
R2,640
Discovery Miles 26 400
Mathematical Methods in Data Science
Jingli Ren, Haiyan Wang
Paperback
R3,925
Discovery Miles 39 250
Intelligent Data Analysis for e-Learning…
Jorge Miguel, Santi Caballe, …
Paperback
Data Analytics for Social Microblogging…
Soumi Dutta, Asit Kumar Das, …
Paperback
R3,335
Discovery Miles 33 350
|