![]() |
![]() |
Your cart is empty |
||
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Die gegenwartig vorherrschende Rechnerunterstutzung in den technischen An wendungen der verschiedenen Ingenieurdisziplinen ist bislang weitgehend durch isolierte Systemlosungen gepragt, so dass die datenseitige Verknupfung zwischen den CAD-Systemkomponenten (Computer Aided Design, CAD) meist nur uber standardisierte Austauschformate moglich ist. Um in diesen ingenieurwissen schaftlich gepragten Anwendungsbereichen eine moglichst ganzheitliche Model Iierung der relevanten Objekte und ein hoheres Mass an Datenintegration zu errei chen, ist der Einsatz von Datenbanktechnologien unumganglich. Eine zentrale Herausforderung der gegenwartigen Datenbankforschung und -entwicklung be steht daher in der Erarbeitung und der Nutzbarmachung von Datenbankkonzepten fur den ingenieurwissenschaftlichen Anwendungsbereich. Dieses Buch leistet hierzu einen Beitrag, in dem es die Anforderungen auf Daten bankseite, aber auch auf der Seite der ingenieurwissenschaftlichen Anwendungen aufzeigt, die zu erfullen sind, um die gewunschte Durchgangigkeit bzgl. der Rech nerunterstutzung zu erzielen. Der Leser gewinnt fundierte Einblicke in den gesam ten Problembereich sowie in den Aufbau durchgangiger Ingenieursysteme und lernt die wesentlichen Konzepte und Ideen eines datenorientierten Integrationsansatzes fur technische Entwurfsanwendungen kennen. Der Aufbau des Buches ist an den zentralen Merkmalen des zugrundeliegenden Integrationsansatzes ausgerichtet: Angepasste Datenbankteclmologie - geeignete Datenverarbeitungsmodelle Die wesentlichen Problembereiche beim Einsatz konventioneller Datenbank technologie in Ingenieuranwendungen liegen bei der Modellierung der meist komplex-strukturierten technischen Objekte, deren adaquaten und effizienten Verarbeitung, der zunehmend verteilten Ablaufumgebung sowie bei den wach senden Anforderungen im Bereich der Ablaufsteuerung und -kontrolle. Ausge hend von einer Analyse der Modellierungs- und insbesondere der Verarbei tungsproblematik wird ein Verarbeitungsmodell fur eine arbeitsplatzorientier te Ablaufumgebung vorgestellt."
Das vorliegende Buch ist aus zehnjahriger U nterrichtserfahrung des Autors am Neu-Technikum Buchs und an der ETH Zurich entstanden. Uberall urn uns herum finden wir Computer, welche als wunderbare neue Instrumente die Moglichkeiten der Technik entscheidend erwei- tern. Das Umgehen mit Computern gehort zur Allgemeinbildung. Man fuhrt Programmierkurse nicht nur in den Schulen, sondern auch in der Erwachsenenbildung und mittels speziellen Impulsprogrammen durch. Dieses Buch ist keine Einfuhrung in die Programmierung, sondern setzt voraus, dass der Leser bereits eine Programmiersprache kennt und schon Programme geschrieben hat. Ziel dieses Buches ist es, den Computer als faszinierendes neues Instrument im Mathematikunter- richt in hoheren Schulen (Mittelschulen, Ingenieurschulen und Einfuh- rungsvorlesungen an Universitaten) einzusetzen, und damit Aufgaben zu losen, die man vor dem Computerzeitalter nicht angepackt hatte. Vieles, was fruher fur die mathematische Allgemeinbildung uner- lasslich schien, kann heute weggelassen werden, z. B. muss man bei der Integration nicht mehr soviele Kunstgriffe lernen, urn moglichst viele Integrale analytisch losen zu konnen, oder bei den Differentialgleichun- gen ist es auch nicht mehr notig, jeden noch analytisch losbaren Typ zu kennen. Viel wichtiger ist zu lernen, wie man eine Differentialgleichung auf ein System erster Ordnung zuruckfiihrt. Nach wie vor sind aber fundament ale Kenntnisse in Analysis und linearer Algebra unerlasslich. Diese werden hier oft benuzt und es ist zu hoffen, dass die Matrizen- rechnung bald, wie vor ca. 40 Jahren die Differentialrechnung, in die Mittelschule einziehen wird.
Diese Arbeit beschreibt den auf den ersten Blick ungewoehnlichen Ansatz der Konzeption einer regelbasierten Expertensystemshell, die ausschliesslich im APL2 implementiert ist. Die beschriebene Expertensystemshell unterscheidet sich von den im KI-Bereich vorherrschenden und zumeist in Lisp oder Prolog implementierten Systemen in mehrfacher Hinsicht: - Die Shell erlaubt eine im Gegensatz zu Lisp und Pro log sehr einfache Einbindung effizienter numerischer Algorithmen, indem auf die Funktionalitat von APL2 zuruckgegriffen wird. - Regelwerke werden mit Hilfe eines UEbersetzers in APL2-Funktionen und Kontrollstrukturen ubersetzt, die mit Hilfe eines vorwartsschliessenden Inferenz interpreter exekutiert werden. Neben dem vollstandigen APL2-Quellkode, der als Vorlage fur eigene Entwicklungen verwendet werden kann, enthalt das Buch auch eine knappe Einfuhrung in Expertensysteme sowie einige exemplarische Regelwerke zur Variablenselektion in Regressionsmodellen und zur Evaluation von Kreditantragen. Im Anhang werden die wichtigsten APL2-Primitiven, Idiome und Fehlerbehandlungstechniken fur den nicht mit APL2 vertrauten Leser dargestellt. Dieses Buch wendet sich insbesondere an Softwareentwickler, die numerische und statistische Algorithmen, wie sie etwa zur Prognose, Planung und zur Optimierung eingesetzt werden, in Expertensysteme integrieren moechten.
Die Titel "Prufungsvorbereitung fur Gross- und
Aussenhandelskaufleute" geben Tips zum richtigen Lesen und
Verstehen von Prufungsfragen sowie Denkanstosse zum Finden der
jeweiligen Losungen. Angehende Gross- und Aussenhandelskaufleute
erhalten mit diesem Lern- und Arbeitsbuch einen optimalen Einstieg
in die Prufungsvorbereitung. Die Prufungskandidaten konnen ihre
Fahigkeiten anhand der Musterlosungen selbst testen und ausbauen
und sich so die notige Sicherheit aneignen, die sie fur die
Prufungen brauchen.
Smallkit ermoeglicht es Studenten oder wenig erfahrenen Programmierern, Anwendungsprogramme mit professionellem Look and Feel in wenigen Wochen (inkl. Einarbeitungszeit) zu erstellen. Es wurde bisher in mehreren Programmier- praktika fur Wirtschaftsinformatiker sowie in Diplomarbeiten eingesetzt. Die erzielten Resultate bestatigen, dass der Einsatz von Application Frameworks mit in akzeptabler Zeit meisterbarer Komplexitat in der Ausbildung ausserst motivierend und stark qualitatsverbessernd wirkt. Die Studierenden sind dadurch in der Lage, in einem Semester einfache Anwendungsprogramme wie Graphikeditoren, Buchhaltungsprogramme, etc. zu entwickeln. Dies ist ohne den Einsatz von vorgefertigten Bausteinen unmoeglich und bietet ausserdem die Moeglichkeit, in professionelle Fertigungstechnik, namlich der Systementwicklung mit Einbezug von Halbfabrikaten, einzufuhren. Literatur [Apple89] Apple Computer; MacApp 2.0; Product Documentation; 1989 [Digitalk88] Digitalk Inc; SmalitalkIV Mac, Tutorial and Programming Handbook; Product Documentation; 1988 [NeXT89] NeXT Inc; System Reference Manual: Concepts (Preliminary 1.0); Product Documentation; 1989 [ParcPlace90] ParcPlace Systems; Objectworks lor Smalltalk-80 Re1.4; Product Documentation; 1990 [Weinand89] Weinand A, Gamma E, Marty R; Design and Implement?tion 01 ET ++, a Seamless Object- Oriented Application Framework; Structured Programming, Vol 10, No 2; Springer; 1989 Weitere Publikationen uber Smallkit: Stritzinger A., Architecture and Dynamics of Smallkit: : 'In Easy-To-Leam Application Framework. Proceedings 01 the TOOLS Pacilic 1990 Conlerence, Sydney, Australia Stritzinger A., Smallkit - A Slim Application Framework. Joumal 01 Object-Oriented Programming, Vol. 4, No.
Dieses Lehrbuch liefert eine Einf}hrung in die Kommunika- tionsm-glichkeiteninnerhalb von homogenen und heterogenen Rechnernetzen, vor allem im betrieblichen Bereich. Neben den Grundlagen der g{ngigsten "Personal Computer"-Betriebs- systeme DOS, OS/2 und Unix und deren korrespondierenden Benutzeroberfl{chen Windows, Presentation Manager und X-Window wird auf die M-glichkeiten und Grenzen der Kommu- nikation zwischen diesen Systemen eingegangen. Die zur Be- schreibung herangezogenen Netzwerkbetriebssysteme TCP/IP, Novell NetWare und der MS-LAN-Manager stellen den derzei- tigen "Quasi Standard" dar und dienen der besseren Konkre- tisierung der f}r die Kommunikation n-tigen Netzanwendungen und -dienste.
Das vorliegende Buch behandelt den Themenkomplex der entwicklungsbegleitenden (konstruktionsbegleitenden) Vorkalkulation. Der Autor stellt erstmals die technische und die betriebswirtschaftliche Sichtweise einander gegenuber und erarbeitet die datentechnische und funktionale Integrationsmoeglichkeit der beiden Bereiche. Ausgehend von den technischen und den betriebswirtschaftlichen Grundlagen werden zunachst die Integrationsanforderungen zwischen den Bereichen ermittelt und sodann ein Datenmodell fur die entwicklungsbegleitende Vorkalkulation formuliert. Ein programmierter Prototyp zeigt die Funktionsfahigkeit des Modells. Hierbei wird deutlich, dass gerade die betriebswirtschaftlichen Verfahren eine wichtige Basis fur die entwicklungsbegleitende Kalkulation bilden und dass die in diesem Themenbereich erforderliche Zusammenarbeit zwischen Technik und Betriebswirtschaft bislang vernachlassigt wurde. So ist es das Ziel des Buches, die innerhalb des Themenkomplexes bisher unberucksichtigten Belange der Betriebswirtschaft aufzuzeigen und einen Loesungsansatz zu formulieren. Der Leser erhalt einen umfassenden Einblick in die Problemstellung der Vorkalkulation wahrend der Entwicklung/Konstruktion eines Produktes.
Bei der Entwicklung komplexer Automatisierungssysteme sind immer umfangreichere Aufgaben von einer steigenden Anzahl miteinander kommunizierender Rechner zu losen. Dazu bedarf es der Verwendung einer adaquaten Entwicklungsumgebung. Dieses Buch beschreibt die Ergebnisse des Verbundprojekts PROSYT, in dem unter Beteiligung von 18 Partnern aus Industrie und Wissenschaft eine Systementwicklungsumgebung zur Realisierung verteilbarer Realzeitsysteme entstand. Verschiedene (Software-)Werkzeuge unterschiedlicher Hersteller wurden syntaktisch und semantisch in Werkzeuglinien integriert, um den gesamten Systemlebenszyklus vom Requirement-Engineering bis zur Wartung mit einem integrierten System abzudecken. Das Entwicklungssystem PROSYT besteht aus einem offenen Rahmensystem, in das die Werkzeuge horizontal und vertikal integriert wurden. Das Rahmensystem enthalt ein Dialogsystem (PRODIA), ein Nonstandard Datenbanksystem (PRODAT) und eine wissensbasierte Recherchenkomponente (Projekt-Advisor). Drei integrierte Werkzeuglinien (SARS-IGS-VICO-PEARL, EPOS-PRODOS-CAT-PRISE/PDAS und PASQUALE-PRODOS), die den gesamten Systemzyklus abdecken, zeigen die Nutzlichkeit und Angemessenheit der Konzepte der Basissysteme sowie die Realisierbarkeit der Integration mit vertretbarem Aufwand von Werkzeugen unterschiedlicher Firmen. Das Buch wendet sich an Anwender von Softwarewerkzeugen, Entwickler von integrierten Werkzeugsystemen und von Rahmensystemen und potentielle Anwender wissensbasierter Methoden bei der Projektabwicklung."
Accelerate your journey to smarter decision making by mastering the fundamentals of data literacy and developing the mindset to work confidently with data Key Features Get a solid grasp of data literacy fundamentals to support your next steps in your career Learn how to work with data and extract meaningful insights to take the right actions Apply your knowledge to real-world business intelligence projects Book DescriptionData is more than a mere commodity in our digital world. It is the ebb and flow of our modern existence. Individuals, teams, and enterprises working with data can unlock a new realm of possibilities. And the resultant agility, growth, and inevitable success have one origin-data literacy. This comprehensive guide is written by two data literacy pioneers, each with a thorough footprint within the data and analytics commercial world and lectures at top universities in the US and the Netherlands. Complete with best practices, practical models, and real-world examples, Data Literacy in Practice will help you start making your data work for you by building your understanding of data literacy basics and accelerating your journey to independently uncovering insights. You'll learn the four-pillar model that underpins all data and analytics and explore concepts such as measuring data quality, setting up a pragmatic data management environment, choosing the right graphs for your readers, and questioning your insights. By the end of the book, you'll be equipped with a combination of skills and mindset as well as with tools and frameworks that will allow you to find insights and meaning within your data for data-informed decision making. What you will learn Start your data literacy journey with simple and actionable steps Apply the four-pillar model for organizations to transform data into insights Discover which skills you need to work confidently with data Visualize data and create compelling visual data stories Measure, improve, and leverage your data to meet organizational goals Master the process of drawing insights, ask critical questions and action your insights Discover the right steps to take when you analyze insights Who this book is forThis book is for data analysts, data professionals, and data teams starting or wanting to accelerate their data literacy journey. If you're looking to develop the skills and mindset you need to work independently with data, as well as a solid knowledge base of the tools and frameworks, you'll find this book useful.
Leben in dem Bereich verbringen, uber den sie schreiben. Die konzen- triert und knapp gehaltenen Kapitel sind dazu bestimmt, dem Leser zu helfen, die darin enthaltenen Hinweise direkt auf seine Umgebung an- zuwenden. AUERBACH hat seit mehr als 25 Jahren die Informationsbedurfnisse der Computerfachleute zufriedenstellend beantwortet und weiss, wie ihnen geholfen werden kann, ihre Effektivitat zu steigern und ihre Karriere voranzutreiben. Das AUE RBACH-Managementwissen der Datenverarbeitung ist auf diesem Gebiet nur eines von vielen Angeboten des Herausgebers. James Hannan Stellvertretender Vizeprasident AUERBACH VII Inhaltsverzeichnis Einfuhrung IX Kapitell: Definition von DV-Revisionszielen von William A. Emory, Jr . . . . . . . . . . . . . . . . . . . . . . Kapitel 2: Aufgaben der DV-Revision von lan Gilhooley . . . . . . . . . . . . . . . . . . . . . . . 23 . . . . . Kapitel 3: Das Schreiben von DV-Prufungsberichten von William E. Perry . . . . . . . . . . . . . . . . . . . . . . 51 . . . . Kapitel 4: Prufungsgebiet DV -Standards von Ben G. Matley & David W. Syfritt 67 Kapitel 5: Checkliste fur Systementwicklung und Betrieb von Jack B. Mullen . . . . . . . . . . . . . . . . . . . . . . 89 . . . . . Kapitel 6: Kosten und Nutzen bei Anwendungsprojekten von Bryan Wilkinson . . . . . . . . . . . . . . . . . . . . . . . . . 127 Kapitel 7: Prufu ng von Anwendungssoftware von Michael I. Sobol . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Kapitel 8: Prufung eines Betriebssystems von Robert J. Coyle . . . . . . . . . . . . . . . . . . . . . . . . ., 157 Kapitel 9: Einsatz und Kontrolle von Dienstprogrammen von Michael I. Sobol . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Kapitell 0: Prufung von JCL-Standards von Steven F. Blanding . . . . . . . . . . . . . . . . . . . . . . ., 181 Kapitel 11: Prufung von Minicomputer-Systemen von Thomas H. Fitzgerald . . . . . . . . . . . . . . . . . . . . . 193 Kapitel 12: Kosten-/Nutzenuntersuchung bei Hardwareprojekten von Bryan Wilkinson . . . . . . . . . . . . . . . . . . . . . . . . . 211 Sachwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 IX Einfuhrung In weniger als zwanzig Jahren hat der Computer die Aufbau- und Ablauforganisation der meisten Unternehmen grundlegend verandert.
Statistical methods are a key tool for all scientists working with data, but learning the basics continues to challenge successive generations of students. This accessible textbook provides an up-to-date introduction to the classical techniques and modern extensions of linear model analysis-one of the most useful approaches for investigating scientific data in the life and environmental sciences. While some of the foundational analyses (e.g. t tests, regression, ANOVA) are as useful now as ever, best practice moves on and there are many new general developments that offer great potential. The book emphasizes an estimation-based approach that takes account of recent criticisms of over-use of probability values and introduces the alternative approach that uses information criteria. This new edition includes the latest advances in R and related software and has been thoroughly "road-tested" over the last decade to create a proven textbook that teaches linear and generalized linear model analysis to students of ecology, evolution, and environmental studies (including worked analyses of data sets relevant to all three disciplines). While R is used throughout, the focus remains firmly on statistical analysis. The New Statistics with R is suitable for senior undergraduate and graduate students, professional researchers, and practitioners in the fields of ecology, evolution and environmental studies.
Save time analyzing volumes of data using best practices to extract, model, and create insights from your data Key Features Master best practices in data modeling with Tableau Prep Builder and Tableau Desktop Apply Tableau Server and Cloud to create and extend data models Build organizational data models based on data and content governance best practices Book DescriptionTableau is unlike most other BI platforms that have a single data modeling tool and enterprise data model (for example, LookML from Google's Looker). That doesn't mean Tableau doesn't have enterprise data governance; it is both robust and very flexible. This book will help you build a data-driven organization with the proper use of Tableau governance models. Data Modeling with Tableau is an extensive guide, complete with step-by-step explanations of essential concepts, practical examples, and hands-on exercises. As you progress through the chapters, you will learn the role that Tableau Prep Builder and Tableau Desktop each play in data modeling. You'll also explore the components of Tableau Server and Cloud that make data modeling more robust, secure, and performant. Moreover, by extending data models for Ask and Explain Data, you'll gain the knowledge required to extend analytics to more people in their organizations, leading to better data-driven decisions. Finally, this book will get into the entire Tableau stack and get the techniques required to build the right level of governance into Tableau data models for the right use cases. By the end of this Tableau book, you'll have a firm understanding of how to leverage data modeling in Tableau to benefit your organization. What you will learn Showcase Tableau published data sources and embedded connections Apply Ask Data in data cataloging and natural language query Exhibit features of Tableau Prep Builder with hands-on exercises Model data with Tableau Desktop through examples Formulate a governed data strategy using Tableau Server and Cloud Optimize data models for Ask and Explain Data Who this book is forThis book is for data analysts and business analysts who are looking to expand their data skills, offering a broad foundation to build better data models in Tableau for easier analysis and better query performance. It will also benefit individuals responsible for making trusted and secure data available to their organization through Tableau, such as data stewards and others who work to take enterprise data and make it more accessible to business analysts.
- 88 - 4. 4. 6 Abrufen von Statistik-Informationen (SUMMARY) 4. 4. 6. 1 Einfache Statistiken Wir setzen voraus, dass die Variablen VARoo1, VARo07, VARo1o und VARo14 aus unserer Untersuchung im SPSSx-file enthalten sind, und wir beziehen uns stets auf das folgen- de Syntax-Gerust des REPORT=Kommandos: REPORT VARIABLES = VARoo7, VARolo, VARo14 / BREAK = VARoo1 / SUMMARY = summary-angabe-1 [! SUMMARY = summary-angabe-2J . . . d. h. wir vereinbaren VARo07, VARo1o und VARo14 als Kolumnen- und VARoo1 als Break- Variable. Welche Statistik-Informationen in -den einzelnen Kolumnen des Reports als Summary-Ausgaben gedruckt werden sollen, muss man im Subkommando SUMMARY in der folgenden Form - wir beschranken uns zunachst auf den einfachsten Fall - als sog. Summary-Angabe festlegen: ]) I SUMMARY = statistik ( kolumnen-variable1 [kolumnen-variable2] . . . ) Dabei darf man fur den Platzhalter "statistik" eines der Schlusselwoerter aus der folgenden Tabelle einsetzen: Schlusselwort fur Report abgerufene Statistik-Informationen ---- VALIDN Anzahl der gultigen Gases VARIANGE Varianz SUM Summe MEAN arithmetisches Mittel STDEV Standardabweichung MIN minimaler Wert MAX maximaler Wert SKEWNESS Schiefe KURTOSIS Woelbung PGGT(n) Prozentsatz der Gases, deren Werte groesser als n sind PGlT(n) Prozentsatz der Gases, deren Werte kleiner als n sind PGIN(n, n ) Prozentsatz der Gases, deren Werte nicht groesser als n und 1 2 2 nicht.
Process tabular data and build high-performance query engines on modern CPUs and GPUs using Apache Arrow, a standardized language-independent memory format, for optimal performance Key Features Learn about Apache Arrow's data types and interoperability with pandas and Parquet Work with Apache Arrow Flight RPC, Compute, and Dataset APIs to produce and consume tabular data Reviewed, contributed, and supported by Dremio, the co-creator of Apache Arrow Book DescriptionApache Arrow is designed to accelerate analytics and allow the exchange of data across big data systems easily. In-Memory Analytics with Apache Arrow begins with a quick overview of the Apache Arrow format, before moving on to helping you to understand Arrow's versatility and benefits as you walk through a variety of real-world use cases. You'll cover key tasks such as enhancing data science workflows with Arrow, using Arrow and Apache Parquet with Apache Spark and Jupyter for better performance and hassle-free data translation, as well as working with Perspective, an open source interactive graphical and tabular analysis tool for browsers. As you advance, you'll explore the different data interchange and storage formats and become well-versed with the relationships between Arrow, Parquet, Feather, Protobuf, Flatbuffers, JSON, and CSV. In addition to understanding the basic structure of the Arrow Flight and Flight SQL protocols, you'll learn about Dremio's usage of Apache Arrow to enhance SQL analytics and discover how Arrow can be used in web-based browser apps. Finally, you'll get to grips with the upcoming features of Arrow to help you stay ahead of the curve. By the end of this book, you will have all the building blocks to create useful, efficient, and powerful analytical services and utilities with Apache Arrow. What you will learn Use Apache Arrow libraries to access data files both locally and in the cloud Understand the zero-copy elements of the Apache Arrow format Improve read performance by memory-mapping files with Apache Arrow Produce or consume Apache Arrow data efficiently using a C API Use the Apache Arrow Compute APIs to perform complex operations Create Arrow Flight servers and clients for transferring data quickly Build the Arrow libraries locally and contribute back to the community Who this book is forThis book is for developers, data analysts, and data scientists looking to explore the capabilities of Apache Arrow from the ground up. This book will also be useful for any engineers who are working on building utilities for data analytics and query engines, or otherwise working with tabular data, regardless of the programming language. Some familiarity with basic concepts of data analysis will help you to get the most out of this book but isn't required. Code examples are provided in the C++, Go, and Python programming languages.
Die programmtechnische Umsetzung effizienter Algorithmen entscheidet wesentlich dartiber, ob sich deren besondere Eigenschaften auch im Laufzeitverhalten des Programms widerspiegeln werden. Der Software-Entwickler bestimmt im allgemeinen mit der Auswahl seiner Programmelemente und dem globalen Programmablauf die notwendige Rechenzeit sowie die Qualitat der Resultate seines Programms und ob die Effizienz des Algorithmus im programmierten Overhead, den Rechenungenauigkeiten etc. wieder untergeht. Das vorliegende Buch nimmt sich dieser Thematik an und behandelt Programmiertechniken in Standard-Pascal. Der Einsatz der Sprachelemente wird unter verschiedenen Aspekten vorgesteHt, ein Hauptschwerpunkt liegt bei der Rekursion. Der sinnvoHe und effiziente Einsatz der Rekursion und die programmtechnischen Realisierungen sind Thema eines eigenen Kapitels. Gleichzeitig werden Beurteilungen aus der Sicht des Compilers vorge- nommen. Die "Black Box" Compiler wird dem Programmentwickler dadurch trans- parenter, daS Programmtechniken aus der Sicht des Compilers beurteilt und die daraus resultierenden charakteristischen Programmerkmale erlauert werden. Das Spektrum der Anwendungen ist breit gewiihlt und reicht von der Booleschen Algebra und der numerischen Mathematik (Gleichungssysteme, Differentiation, Integration) tiber die Codierungstheorie und Kryptographie bis hin zur graphischen Datenverarbeitung. Die Behandlung des mathematischen Teils ist ausftihrlich gehalten. Dem Charakter der Pro- grammothek entsprechend gewinnt der Leser einen Einblick in die betreffenden Themen- bereiche, so daS ihm beste Voraussetzungen fUr selbstandtge Programmentwicklungen gegeben sind. An dieser Stelle mochte ich mich bei Herm Prof. Dr. Oskar Hermann, Herm Peter Stede, dem Rechenzentrum der Universitat Heidelberg, Herm Klaus Staab, dem Leiter des Klinik- rechenzentrums Heidelberg, sowie Herm Prof. Dr. Dr. Kohler, dem Herausgeber der Programmothek, fUr Anregungen fachlicher und technischer Art bedanken.
Gain hands-on experience of Python programming with industry-standard machine learning techniques using pandas, scikit-learn, and XGBoost Key Features Think critically about data and use it to form and test a hypothesis Choose an appropriate machine learning model and train it on your data Communicate data-driven insights with confidence and clarity Book DescriptionIf data is the new oil, then machine learning is the drill. As companies gain access to ever-increasing quantities of raw data, the ability to deliver state-of-the-art predictive models that support business decision-making becomes more and more valuable. In this book, you'll work on an end-to-end project based around a realistic data set and split up into bite-sized practical exercises. This creates a case-study approach that simulates the working conditions you'll experience in real-world data science projects. You'll learn how to use key Python packages, including pandas, Matplotlib, and scikit-learn, and master the process of data exploration and data processing, before moving on to fitting, evaluating, and tuning algorithms such as regularized logistic regression and random forest. Now in its second edition, this book will take you through the end-to-end process of exploring data and delivering machine learning models. Updated for 2021, this edition includes brand new content on XGBoost, SHAP values, algorithmic fairness, and the ethical concerns of deploying a model in the real world. By the end of this data science book, you'll have the skills, understanding, and confidence to build your own machine learning models and gain insights from real data. What you will learn Load, explore, and process data using the pandas Python package Use Matplotlib to create compelling data visualizations Implement predictive machine learning models with scikit-learn Use lasso and ridge regression to reduce model overfitting Evaluate random forest and logistic regression model performance Deliver business insights by presenting clear, convincing conclusions Who this book is forData Science Projects with Python - Second Edition is for anyone who wants to get started with data science and machine learning. If you're keen to advance your career by using data analysis and predictive modeling to generate business insights, then this book is the perfect place to begin. To quickly grasp the concepts covered, it is recommended that you have basic experience of programming with Python or another similar language, and a general interest in statistics.
Build real-world time series forecasting systems which scale to millions of time series by applying modern machine learning and deep learning concepts Key Features Explore industry-tested machine learning techniques used to forecast millions of time series Get started with the revolutionary paradigm of global forecasting models Get to grips with new concepts by applying them to real-world datasets of energy forecasting Book DescriptionWe live in a serendipitous era where the explosion in the quantum of data collected and a renewed interest in data-driven techniques such as machine learning (ML), has changed the landscape of analytics, and with it, time series forecasting. This book, filled with industry-tested tips and tricks, takes you beyond commonly used classical statistical methods such as ARIMA and introduces to you the latest techniques from the world of ML. This is a comprehensive guide to analyzing, visualizing, and creating state-of-the-art forecasting systems, complete with common topics such as ML and deep learning (DL) as well as rarely touched-upon topics such as global forecasting models, cross-validation strategies, and forecast metrics. You'll begin by exploring the basics of data handling, data visualization, and classical statistical methods before moving on to ML and DL models for time series forecasting. This book takes you on a hands-on journey in which you'll develop state-of-the-art ML (linear regression to gradient-boosted trees) and DL (feed-forward neural networks, LSTMs, and transformers) models on a real-world dataset along with exploring practical topics such as interpretability. By the end of this book, you'll be able to build world-class time series forecasting systems and tackle problems in the real world. What you will learn Find out how to manipulate and visualize time series data like a pro Set strong baselines with popular models such as ARIMA Discover how time series forecasting can be cast as regression Engineer features for machine learning models for forecasting Explore the exciting world of ensembling and stacking models Get to grips with the global forecasting paradigm Understand and apply state-of-the-art DL models such as N-BEATS and Autoformer Explore multi-step forecasting and cross-validation strategies Who this book is forThe book is for data scientists, data analysts, machine learning engineers, and Python developers who want to build industry-ready time series models. Since the book explains most concepts from the ground up, basic proficiency in Python is all you need. Prior understanding of machine learning or forecasting will help speed up your learning. For experienced machine learning and forecasting practitioners, this book has a lot to offer in terms of advanced techniques and traversing the latest research frontiers in time series forecasting.
Das vorliegende Wegweiser-Buch weist Wege zum erfolgreichen Einsatz des Commodore 116, Commodore 16 und Commodore plus/4. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung bzw. Informatik: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? - Was sind Datenstrukturen und Programmstrukturen? -Was sind Betriebssysteme und Anwenderprogramme? -Was heisst, fertige Programm-Pakete einsetzen'? - Was beinhaltet das eigene Programmieren? Nach der Lekture dieses Abschnitts sind Sie in der Lage, die Commodore- Computer in den Gesamtrahmen der Datenverarbeitung/Informatik ein- zuordnen. Das Wegweiser-Buch gibt eine erste Bedienungsanleitung: -Wie bediene ich Tastatur, Bildschirm, Floppy bzw. Disketteneinheit und Drucker des C-116, C-16 und plus/4. - Wie erstelle ich mein erstes Programm in der Programmiersprache BASIC 3.5? -Welche Befehle umfasst BASIC 3.5 (zu jedem Befehl wird ein Beispiel angegeben)? - Worin unterscheiden sich BASIC 3.5 von den anderen Sprachversionen BASIC 2.0 und BASIC 4.0? - Laufen Programme des C-116, C-16 und plus/4 auch auf anderen Mik- computern von Commodore? Nach der Lekture dieses Abschnitts koennen Sie ihren C-116, C-16 und plus/4 bedienen, Programme laufen lassen und einfache BASIC-Programme selbst erstellen und speichern. Das Wegweiser-Buch enthalt einen kompletten Programmierkurs mit folgen- den grundlegenden BASIC-Anwendungen: - Programme mit den wichtigen Ablaufstrukturen (Folge-, Auswahl-, Wiederholungs-und Unterprogrammstrukturen). - Verarbeitung von Text, Ein-/Ausgabe und Tabellen. - Maschinennahe Programmierung ( ... Bit fur Bit). -Suchen, Sortieren, Mischen und Gruppieren von Daten.
Use modern Python libraries such as pandas, NumPy, and scikit-learn and popular machine learning and deep learning methods to solve financial modeling problems Purchase of the print or Kindle book includes a free eBook in the PDF format Key Features Explore unique recipes for financial data processing and analysis with Python Apply classical and machine learning approaches to financial time series analysis Calculate various technical analysis indicators and backtesting backtest trading strategies Book DescriptionPython is one of the most popular programming languages in the financial industry, with a huge collection of accompanying libraries. In this new edition of the Python for Finance Cookbook, you will explore classical quantitative finance approaches to data modeling, such as GARCH, CAPM, factor models, as well as modern machine learning and deep learning solutions. You will use popular Python libraries that, in a few lines of code, provide the means to quickly process, analyze, and draw conclusions from financial data. In this new edition, more emphasis was put on exploratory data analysis to help you visualize and better understand financial data. While doing so, you will also learn how to use Streamlit to create elegant, interactive web applications to present the results of technical analyses. Using the recipes in this book, you will become proficient in financial data analysis, be it for personal or professional projects. You will also understand which potential issues to expect with such analyses and, more importantly, how to overcome them. What you will learn Preprocess, analyze, and visualize financial data Explore time series modeling with statistical (exponential smoothing, ARIMA) and machine learning models Uncover advanced time series forecasting algorithms such as Meta's Prophet Use Monte Carlo simulations for derivatives valuation and risk assessment Explore volatility modeling using univariate and multivariate GARCH models Investigate various approaches to asset allocation Learn how to approach ML-projects using an example of default prediction Explore modern deep learning models such as Google's TabNet, Amazon's DeepAR and NeuralProphet Who this book is forThis book is intended for financial analysts, data analysts and scientists, and Python developers with a familiarity with financial concepts. You'll learn how to correctly use advanced approaches for analysis, avoid potential pitfalls and common mistakes, and reach correct conclusions for a broad range of finance problems. Working knowledge of the Python programming language (particularly libraries such as pandas and NumPy) is necessary.
Lernziele - Aufbau und Funktionsweise einer Rechenanlage Hardware: Prozessor, Speicher, Ein- und Ausgabegerate - Software: Anwendersoftware, Systemsoftware Programmiersprachen: parametrische, problemorientierte, maschinenarienie und Maschinen-Sprachen Betriebssystem: Kommandosprache (Job Contra! Language) 1. 1 Hardware Eine moderne Rechenanlage ist ein kompliziertes System von vielen miteinander zusammenarbeitenden Einheiten. Sie koennen grob untergliedert werden in die Zentraleinheit (CPU = Central Processor Unit) und die Peripherie. Mit Periphe- rie bezeichnet man im wesentlichen die Ein- und Ausgabe- sowie die Speicher- gerate. Die Gesamtheit aller Einheiten einer Rechenanlage nennt man Konfigu- ration; die Standardkonfiguration besteht aus der Zentraleinheit, einem Eingabe-, einem Ausgabe- und einem Speichergerat. Die logische Verschaltung der einzelnen Einheiten einer Konfiguration ist auf mehrere Arten moeglich und wird als Rechnerarchitektur bezeichnet. UEber eine Schnittstelle sind zwei Einhei- ten miteinander verbunden und koennen Programmbefehle und Daten austau- schen. Die Untergliederung einer Rechenanlage in einzelne Einheiten gilt fur Gross- rechenanlagen und Kleincomputer gleichermassen. Die Abb. 1/1-1/3 zeigen Computersysteme unterschiedlicher Groesse. Bezuglich ihrer Groesse kann man die Rechenanlagen in drei Klassen einteilen: Grossrechner, Minicomputer und Mikrocomputer. Diese Aufteilung hat sich heute immer mehr durchgesetzt, die Grenzen sind allerdings fliessend, und innerhalb einer Gruppe lassen sich weitere Differenzierungen vornehmen. Man darf dabei auch nicht vergessen, dass eine Rechenanlage, die heute von der Leistungsfahigkeit her als "Kleinrechner" einge- stuft wird, vor noch nicht allzu langer Zeit als Rechner "mittlerer Groesse" be- zeichnet wurde. In Abb. 1/4 ist gezeigt, wie man die Klassen der Mikro- und Minicomputer weiter differenzieren kann.
Das vorliegende Wegweiser-Buch weist Wege zum erfolgreichen Einsatz von Mikrocomputern der Apple II-Famiiie wie Apple lle, Apple li-Plus und sprachgleicher Systeme. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? -Was sind Datenstrukturen und Programmstrukturen? - Was sind Betriebssysteme und Anwenderprogramme? -Was heisst, fertige Programm-Pakete einsetzen'? -Was beinhaltet das eigene Programmieren? Das Wegweiser-Buch gibt eine erste Benutzungsanleitung: -Wie bedient man den Apple II? -Wie erstellt man das erste eigene Anwenderprogramm? -Wie setzt man die verfugbaren Systemprogramme ein? Das Wegweiser-Buch enthalt einen kompletten Programmierkurs in der Programmiersprache Applesoft-BASIC, der Wege zu grundlegenden Anwen- dungsmoeglichkeiten weist: - Programme mit Schleifen und Unterprogrammen. -Text-, Tabellen-und Grafikverarbeitung. - Formen der Tastatureingabe und Druckausgabe. - Maschinennahe Programmierung in Assembler. -Suchen, Sortieren, Mischen und Gruppieren von Daten. -Sequentielle, direkte/random, index-sequentielle und verkettete Organisation einer Datei. - Datei mit zeigerverketteter Liste und binarem Baum. Das Wegweiser-Buch soll die vom Hersteller gelieferten System-Handbucher keinesfalls ersetzen, sondern erganzen: ln den Apple-Handbuchern werden Programmiersprachen beschrieben (z.B. Applesoft-BASIC Programmierhandbuch), Betriebssysteme (z. B. DOS- Handbuch), technische Eigenschaften (z.B. Apple lle Benutzer Handbuch) oder spezielle Gerate (z. B. Grafik Tablett Handbuch) und Software (z. B. Apple Writer). VI Vorwort Das Wegweiser-Buch hingegen beschreibt die Grundlagen der Datenver- arbeitung, um sie an zahlreichen Anwendungsmoeglichkeiten fur den Apple II zu demonstrieren und zu veranschaulichen. Im Wegweiser-Buch sind 80 Programm-Beispiele als Codierung in Applesoft- BASIC (List) und als Ausfuhrung (Run) wiedergegeben sowie vollstandig beschrieben. |
![]() ![]() You may like...
Generic Programming - IFIP TC2 / WG2.1…
Jeremy Gibbons, Johan Jeuring
Hardcover
R3,018
Discovery Miles 30 180
Multistability in Physical and Living…
Alexander N. Pisarchik, Alexander E. Hramov
Hardcover
R4,259
Discovery Miles 42 590
Abductive Reasoning and Learning
Dov M. Gabbay, Philippe Smets
Hardcover
R5,838
Discovery Miles 58 380
Chaos: Concepts, Control and…
Yurii Bolotin, Anatoli Tur, …
Hardcover
Dark Silicon and Future On-chip Systems…
Suyel Namasudra, Hamid Sarbazi-Azad
Hardcover
R4,186
Discovery Miles 41 860
Parallel and Constraint Logic…
Ioannis Vlahavas, Panagiotis Tsarchopoulos, …
Hardcover
R4,438
Discovery Miles 44 380
|