![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Das Buch verdeutlicht anhand einer explorativen Untersuchung von praktischen Groupware-Einsatzen deren vielfaltige Nutzungsmoglichkeiten, sowohl als substitutiv-rationalisierende als auch strategisch-innovative Technologie."
Bildverstehen, Bilder und die ihnen zugrundeliegenden Szenen mit den darin vorkommenden Objekten verstehen und beschreiben, das bedeutet aus der Sicht der Informatik: Sehen mit dem Computer - a ~Computer Visiona (TM). Das Buch behandelt neben wichtigen Merkmalen des menschlichen visuellen Systems auch die nAtigen Grundlagen aus digitaler Bildverarbeitung und aus kA1/4nstlicher Intelligenz. Im Zentrum steht die schrittweise Entwicklung eines neuen Systemmodells fA1/4r Bildverstehen, anhand dessen verschiedene "Abstraktionsebenen" des maschinellen Sehens, wie Segmentation, Gruppierung auf Aufbau einer Szenenbeschreibung besprochen werden. Das Buch bietet auAerdem einen Aoeberblick A1/4ber gegenwArtige Trends in der Forschung sowie eine sehr aktuelle und ausfA1/4hrliche Bibliographie dieses Fachgebietes. Es liegt hiermit erstmalig eine abgeschlossene, systematische Darstellung dieses noch jungen und in dynamischer Entwicklung begriffenen Fachgebietes vor.
Dieses Buch gibt eine Einfiihrung in die Anwendung von Computer algebra-Programmen, die sich zu einem wirkungsvollen Hilfsmittel fUr die LOsung von mathematischen Aufgaben mit dem Computer entwickelt haben. Von den einzelnen Computeralgebra-Program men werden die Versionen behandelt, die fUr IBM-kompatible Personalcomputer (kurz als PC bezeichnet) unter DOS und WIN DOWS erstellt wurden. Falls man Programmversionen fUr andere Computertypen (z.B. APPLE, Workstations unter UNIX) benutzt, so lassen sich die bier gegebenen Grundlagen ebenfalls anwenden, da die Kommandostruktur der einzelnen Programme nicht yom ver wendeten Computertyp abhangt. 1m Unterscbied zu der zahlreich vorhandenen Literatur tiber Com puteralgebra, in der nur einzelne Computeralgebra-Programme vor gestellt bzw. theoretische Grundlagen behandelt werden, stehen im vorliegenden Buch die Anwendungen im Vordergrund, d.h., wie kann ein konkretes mathematisches Problem mittels eines der weit verbreiteten Computer algebra-Programme DERIVE, MAPLE und MA1HEMATICA gelost werden. Weiterhin wird auf das in den Ingenieurwissenschaften haufig genutzte Mathematikprogramm MA1HCAD eingegangen, in das eine Minimalversion des Programm systems MAPLE integriert ist. Dabei werden Moglichkeiten und Grenzen dieser Programme an einer Reihe von Beispielen aufgezeigt. Die gegebenen Beispiele k6nnen zugleich zu ersten Dbungen mit einem vorhandenen Pro gramm dienen."
REDUCE ist ein Kompaktkurs }ber die Anwendung dieses Computer-Algebra-Systems. REDUCE ist an den deutschen Universt{ten weit verbreitet und dient zum symbolischen Rechnen mit dem Computer, wie es fr}her nur mit Papier und Bleistift unter Zuhilfenahme eines Handbuchs der Mathematik m-glich war. Studenten der Informatik, Mathematik, Physik, Chemie, der Ingenieurwissenschaften u.a. erhalten hier das grundlegende R}stzeug, das ihnen sp{ter auch das Arbeiten mit anderen Computer-Algebra-Systemen erleichtern wird. Auch Wissenschaftlern, die bisher noch nicht symbolisch gerechnet haben, kann dieses Buch uneingeschr{nkt empfohlen werden.
Das Werk soll einem Anwender mit DOS-Erfahrung einen schnellen Einstieg in die fur das Arbeiten mit UNIX notwendigen Kommandos ermoeglichen. Behandelt werden daher UNIX-Befehle mit Anwenderrelevanz und deren wichtigste Optionen unter Bezugnahme auf bekannte DOS-Konzepte und Kommandos. Die Vorstellung der UNIX-Befehle ist in drei Teile gegliedert: Im ersten Abschnitt werden nur die schon aus DOS bekannten Betriebssystemfunktionen behandelt. Der zweite Teil ist den daruber hinausgehenden Moeglichkeiten von UNIX wie der Prozessverwaltung, den Sicherheitskonzepten, der Kommunikation und dem Arbeiten in Netzwerken gewidmet. Im dritten Teil kann sich der Leser uber weitere Moeglichkeiten von UNIX wie die Shell-Programmierung oder uber die Programmierung mit awk informieren. Durch Aufbauen auf DOS-Kenntnisse und Verweis auf aquivalente Kommandos ist es moeglich, das Werk auf weniger als 250 Seiten zu beschranken, wahrend andere UNIX-Einfuhrungen den doppelten bis dreifachen Umfang haben. Die Prasentation der Kommandos erfolgt anhand von aufeinander aufbauenden Beispielen und UEbungsbloecken, die vom Leser am Rechner ausprobiert werden sollten. Die dabei verwendete UNIX-Version ist AT & T-System V Version 4.0. Die Beispiele wurden allerdings auch unter anderen UNIX-Derivaten ausprobiert und sollten mit geringen Modifikationen auch unter diesen Systemen funktionieren. Wo den Autoren wesentliche Unterschiede auffielen, ist dies vermerkt.
Die gegenwartig vorherrschende Rechnerunterstutzung in den technischen An wendungen der verschiedenen Ingenieurdisziplinen ist bislang weitgehend durch isolierte Systemlosungen gepragt, so dass die datenseitige Verknupfung zwischen den CAD-Systemkomponenten (Computer Aided Design, CAD) meist nur uber standardisierte Austauschformate moglich ist. Um in diesen ingenieurwissen schaftlich gepragten Anwendungsbereichen eine moglichst ganzheitliche Model Iierung der relevanten Objekte und ein hoheres Mass an Datenintegration zu errei chen, ist der Einsatz von Datenbanktechnologien unumganglich. Eine zentrale Herausforderung der gegenwartigen Datenbankforschung und -entwicklung be steht daher in der Erarbeitung und der Nutzbarmachung von Datenbankkonzepten fur den ingenieurwissenschaftlichen Anwendungsbereich. Dieses Buch leistet hierzu einen Beitrag, in dem es die Anforderungen auf Daten bankseite, aber auch auf der Seite der ingenieurwissenschaftlichen Anwendungen aufzeigt, die zu erfullen sind, um die gewunschte Durchgangigkeit bzgl. der Rech nerunterstutzung zu erzielen. Der Leser gewinnt fundierte Einblicke in den gesam ten Problembereich sowie in den Aufbau durchgangiger Ingenieursysteme und lernt die wesentlichen Konzepte und Ideen eines datenorientierten Integrationsansatzes fur technische Entwurfsanwendungen kennen. Der Aufbau des Buches ist an den zentralen Merkmalen des zugrundeliegenden Integrationsansatzes ausgerichtet: Angepasste Datenbankteclmologie - geeignete Datenverarbeitungsmodelle Die wesentlichen Problembereiche beim Einsatz konventioneller Datenbank technologie in Ingenieuranwendungen liegen bei der Modellierung der meist komplex-strukturierten technischen Objekte, deren adaquaten und effizienten Verarbeitung, der zunehmend verteilten Ablaufumgebung sowie bei den wach senden Anforderungen im Bereich der Ablaufsteuerung und -kontrolle. Ausge hend von einer Analyse der Modellierungs- und insbesondere der Verarbei tungsproblematik wird ein Verarbeitungsmodell fur eine arbeitsplatzorientier te Ablaufumgebung vorgestellt."
Diese Arbeit beschreibt den auf den ersten Blick ungewoehnlichen Ansatz der Konzeption einer regelbasierten Expertensystemshell, die ausschliesslich im APL2 implementiert ist. Die beschriebene Expertensystemshell unterscheidet sich von den im KI-Bereich vorherrschenden und zumeist in Lisp oder Prolog implementierten Systemen in mehrfacher Hinsicht: - Die Shell erlaubt eine im Gegensatz zu Lisp und Pro log sehr einfache Einbindung effizienter numerischer Algorithmen, indem auf die Funktionalitat von APL2 zuruckgegriffen wird. - Regelwerke werden mit Hilfe eines UEbersetzers in APL2-Funktionen und Kontrollstrukturen ubersetzt, die mit Hilfe eines vorwartsschliessenden Inferenz interpreter exekutiert werden. Neben dem vollstandigen APL2-Quellkode, der als Vorlage fur eigene Entwicklungen verwendet werden kann, enthalt das Buch auch eine knappe Einfuhrung in Expertensysteme sowie einige exemplarische Regelwerke zur Variablenselektion in Regressionsmodellen und zur Evaluation von Kreditantragen. Im Anhang werden die wichtigsten APL2-Primitiven, Idiome und Fehlerbehandlungstechniken fur den nicht mit APL2 vertrauten Leser dargestellt. Dieses Buch wendet sich insbesondere an Softwareentwickler, die numerische und statistische Algorithmen, wie sie etwa zur Prognose, Planung und zur Optimierung eingesetzt werden, in Expertensysteme integrieren moechten.
Smallkit ermoeglicht es Studenten oder wenig erfahrenen Programmierern, Anwendungsprogramme mit professionellem Look and Feel in wenigen Wochen (inkl. Einarbeitungszeit) zu erstellen. Es wurde bisher in mehreren Programmier- praktika fur Wirtschaftsinformatiker sowie in Diplomarbeiten eingesetzt. Die erzielten Resultate bestatigen, dass der Einsatz von Application Frameworks mit in akzeptabler Zeit meisterbarer Komplexitat in der Ausbildung ausserst motivierend und stark qualitatsverbessernd wirkt. Die Studierenden sind dadurch in der Lage, in einem Semester einfache Anwendungsprogramme wie Graphikeditoren, Buchhaltungsprogramme, etc. zu entwickeln. Dies ist ohne den Einsatz von vorgefertigten Bausteinen unmoeglich und bietet ausserdem die Moeglichkeit, in professionelle Fertigungstechnik, namlich der Systementwicklung mit Einbezug von Halbfabrikaten, einzufuhren. Literatur [Apple89] Apple Computer; MacApp 2.0; Product Documentation; 1989 [Digitalk88] Digitalk Inc; SmalitalkIV Mac, Tutorial and Programming Handbook; Product Documentation; 1988 [NeXT89] NeXT Inc; System Reference Manual: Concepts (Preliminary 1.0); Product Documentation; 1989 [ParcPlace90] ParcPlace Systems; Objectworks lor Smalltalk-80 Re1.4; Product Documentation; 1990 [Weinand89] Weinand A, Gamma E, Marty R; Design and Implement?tion 01 ET ++, a Seamless Object- Oriented Application Framework; Structured Programming, Vol 10, No 2; Springer; 1989 Weitere Publikationen uber Smallkit: Stritzinger A., Architecture and Dynamics of Smallkit: : 'In Easy-To-Leam Application Framework. Proceedings 01 the TOOLS Pacilic 1990 Conlerence, Sydney, Australia Stritzinger A., Smallkit - A Slim Application Framework. Joumal 01 Object-Oriented Programming, Vol. 4, No.
Die Titel "Prufungsvorbereitung fur Gross- und
Aussenhandelskaufleute" geben Tips zum richtigen Lesen und
Verstehen von Prufungsfragen sowie Denkanstosse zum Finden der
jeweiligen Losungen. Angehende Gross- und Aussenhandelskaufleute
erhalten mit diesem Lern- und Arbeitsbuch einen optimalen Einstieg
in die Prufungsvorbereitung. Die Prufungskandidaten konnen ihre
Fahigkeiten anhand der Musterlosungen selbst testen und ausbauen
und sich so die notige Sicherheit aneignen, die sie fur die
Prufungen brauchen.
Das vorliegende Buch ist aus zehnjahriger U nterrichtserfahrung des Autors am Neu-Technikum Buchs und an der ETH Zurich entstanden. Uberall urn uns herum finden wir Computer, welche als wunderbare neue Instrumente die Moglichkeiten der Technik entscheidend erwei- tern. Das Umgehen mit Computern gehort zur Allgemeinbildung. Man fuhrt Programmierkurse nicht nur in den Schulen, sondern auch in der Erwachsenenbildung und mittels speziellen Impulsprogrammen durch. Dieses Buch ist keine Einfuhrung in die Programmierung, sondern setzt voraus, dass der Leser bereits eine Programmiersprache kennt und schon Programme geschrieben hat. Ziel dieses Buches ist es, den Computer als faszinierendes neues Instrument im Mathematikunter- richt in hoheren Schulen (Mittelschulen, Ingenieurschulen und Einfuh- rungsvorlesungen an Universitaten) einzusetzen, und damit Aufgaben zu losen, die man vor dem Computerzeitalter nicht angepackt hatte. Vieles, was fruher fur die mathematische Allgemeinbildung uner- lasslich schien, kann heute weggelassen werden, z. B. muss man bei der Integration nicht mehr soviele Kunstgriffe lernen, urn moglichst viele Integrale analytisch losen zu konnen, oder bei den Differentialgleichun- gen ist es auch nicht mehr notig, jeden noch analytisch losbaren Typ zu kennen. Viel wichtiger ist zu lernen, wie man eine Differentialgleichung auf ein System erster Ordnung zuruckfiihrt. Nach wie vor sind aber fundament ale Kenntnisse in Analysis und linearer Algebra unerlasslich. Diese werden hier oft benuzt und es ist zu hoffen, dass die Matrizen- rechnung bald, wie vor ca. 40 Jahren die Differentialrechnung, in die Mittelschule einziehen wird.
Dieses Lehrbuch liefert eine Einf}hrung in die Kommunika- tionsm-glichkeiteninnerhalb von homogenen und heterogenen Rechnernetzen, vor allem im betrieblichen Bereich. Neben den Grundlagen der g{ngigsten "Personal Computer"-Betriebs- systeme DOS, OS/2 und Unix und deren korrespondierenden Benutzeroberfl{chen Windows, Presentation Manager und X-Window wird auf die M-glichkeiten und Grenzen der Kommu- nikation zwischen diesen Systemen eingegangen. Die zur Be- schreibung herangezogenen Netzwerkbetriebssysteme TCP/IP, Novell NetWare und der MS-LAN-Manager stellen den derzei- tigen "Quasi Standard" dar und dienen der besseren Konkre- tisierung der f}r die Kommunikation n-tigen Netzanwendungen und -dienste.
Bei der Entwicklung komplexer Automatisierungssysteme sind immer umfangreichere Aufgaben von einer steigenden Anzahl miteinander kommunizierender Rechner zu losen. Dazu bedarf es der Verwendung einer adaquaten Entwicklungsumgebung. Dieses Buch beschreibt die Ergebnisse des Verbundprojekts PROSYT, in dem unter Beteiligung von 18 Partnern aus Industrie und Wissenschaft eine Systementwicklungsumgebung zur Realisierung verteilbarer Realzeitsysteme entstand. Verschiedene (Software-)Werkzeuge unterschiedlicher Hersteller wurden syntaktisch und semantisch in Werkzeuglinien integriert, um den gesamten Systemlebenszyklus vom Requirement-Engineering bis zur Wartung mit einem integrierten System abzudecken. Das Entwicklungssystem PROSYT besteht aus einem offenen Rahmensystem, in das die Werkzeuge horizontal und vertikal integriert wurden. Das Rahmensystem enthalt ein Dialogsystem (PRODIA), ein Nonstandard Datenbanksystem (PRODAT) und eine wissensbasierte Recherchenkomponente (Projekt-Advisor). Drei integrierte Werkzeuglinien (SARS-IGS-VICO-PEARL, EPOS-PRODOS-CAT-PRISE/PDAS und PASQUALE-PRODOS), die den gesamten Systemzyklus abdecken, zeigen die Nutzlichkeit und Angemessenheit der Konzepte der Basissysteme sowie die Realisierbarkeit der Integration mit vertretbarem Aufwand von Werkzeugen unterschiedlicher Firmen. Das Buch wendet sich an Anwender von Softwarewerkzeugen, Entwickler von integrierten Werkzeugsystemen und von Rahmensystemen und potentielle Anwender wissensbasierter Methoden bei der Projektabwicklung."
Das vorliegende Buch behandelt den Themenkomplex der entwicklungsbegleitenden (konstruktionsbegleitenden) Vorkalkulation. Der Autor stellt erstmals die technische und die betriebswirtschaftliche Sichtweise einander gegenuber und erarbeitet die datentechnische und funktionale Integrationsmoeglichkeit der beiden Bereiche. Ausgehend von den technischen und den betriebswirtschaftlichen Grundlagen werden zunachst die Integrationsanforderungen zwischen den Bereichen ermittelt und sodann ein Datenmodell fur die entwicklungsbegleitende Vorkalkulation formuliert. Ein programmierter Prototyp zeigt die Funktionsfahigkeit des Modells. Hierbei wird deutlich, dass gerade die betriebswirtschaftlichen Verfahren eine wichtige Basis fur die entwicklungsbegleitende Kalkulation bilden und dass die in diesem Themenbereich erforderliche Zusammenarbeit zwischen Technik und Betriebswirtschaft bislang vernachlassigt wurde. So ist es das Ziel des Buches, die innerhalb des Themenkomplexes bisher unberucksichtigten Belange der Betriebswirtschaft aufzuzeigen und einen Loesungsansatz zu formulieren. Der Leser erhalt einen umfassenden Einblick in die Problemstellung der Vorkalkulation wahrend der Entwicklung/Konstruktion eines Produktes.
Accelerate your journey to smarter decision making by mastering the fundamentals of data literacy and developing the mindset to work confidently with data Key Features Get a solid grasp of data literacy fundamentals to support your next steps in your career Learn how to work with data and extract meaningful insights to take the right actions Apply your knowledge to real-world business intelligence projects Book DescriptionData is more than a mere commodity in our digital world. It is the ebb and flow of our modern existence. Individuals, teams, and enterprises working with data can unlock a new realm of possibilities. And the resultant agility, growth, and inevitable success have one origin-data literacy. This comprehensive guide is written by two data literacy pioneers, each with a thorough footprint within the data and analytics commercial world and lectures at top universities in the US and the Netherlands. Complete with best practices, practical models, and real-world examples, Data Literacy in Practice will help you start making your data work for you by building your understanding of data literacy basics and accelerating your journey to independently uncovering insights. You'll learn the four-pillar model that underpins all data and analytics and explore concepts such as measuring data quality, setting up a pragmatic data management environment, choosing the right graphs for your readers, and questioning your insights. By the end of the book, you'll be equipped with a combination of skills and mindset as well as with tools and frameworks that will allow you to find insights and meaning within your data for data-informed decision making. What you will learn Start your data literacy journey with simple and actionable steps Apply the four-pillar model for organizations to transform data into insights Discover which skills you need to work confidently with data Visualize data and create compelling visual data stories Measure, improve, and leverage your data to meet organizational goals Master the process of drawing insights, ask critical questions and action your insights Discover the right steps to take when you analyze insights Who this book is forThis book is for data analysts, data professionals, and data teams starting or wanting to accelerate their data literacy journey. If you're looking to develop the skills and mindset you need to work independently with data, as well as a solid knowledge base of the tools and frameworks, you'll find this book useful.
Leben in dem Bereich verbringen, uber den sie schreiben. Die konzen- triert und knapp gehaltenen Kapitel sind dazu bestimmt, dem Leser zu helfen, die darin enthaltenen Hinweise direkt auf seine Umgebung an- zuwenden. AUERBACH hat seit mehr als 25 Jahren die Informationsbedurfnisse der Computerfachleute zufriedenstellend beantwortet und weiss, wie ihnen geholfen werden kann, ihre Effektivitat zu steigern und ihre Karriere voranzutreiben. Das AUE RBACH-Managementwissen der Datenverarbeitung ist auf diesem Gebiet nur eines von vielen Angeboten des Herausgebers. James Hannan Stellvertretender Vizeprasident AUERBACH VII Inhaltsverzeichnis Einfuhrung IX Kapitell: Definition von DV-Revisionszielen von William A. Emory, Jr . . . . . . . . . . . . . . . . . . . . . . Kapitel 2: Aufgaben der DV-Revision von lan Gilhooley . . . . . . . . . . . . . . . . . . . . . . . 23 . . . . . Kapitel 3: Das Schreiben von DV-Prufungsberichten von William E. Perry . . . . . . . . . . . . . . . . . . . . . . 51 . . . . Kapitel 4: Prufungsgebiet DV -Standards von Ben G. Matley & David W. Syfritt 67 Kapitel 5: Checkliste fur Systementwicklung und Betrieb von Jack B. Mullen . . . . . . . . . . . . . . . . . . . . . . 89 . . . . . Kapitel 6: Kosten und Nutzen bei Anwendungsprojekten von Bryan Wilkinson . . . . . . . . . . . . . . . . . . . . . . . . . 127 Kapitel 7: Prufu ng von Anwendungssoftware von Michael I. Sobol . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Kapitel 8: Prufung eines Betriebssystems von Robert J. Coyle . . . . . . . . . . . . . . . . . . . . . . . . ., 157 Kapitel 9: Einsatz und Kontrolle von Dienstprogrammen von Michael I. Sobol . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Kapitell 0: Prufung von JCL-Standards von Steven F. Blanding . . . . . . . . . . . . . . . . . . . . . . ., 181 Kapitel 11: Prufung von Minicomputer-Systemen von Thomas H. Fitzgerald . . . . . . . . . . . . . . . . . . . . . 193 Kapitel 12: Kosten-/Nutzenuntersuchung bei Hardwareprojekten von Bryan Wilkinson . . . . . . . . . . . . . . . . . . . . . . . . . 211 Sachwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 IX Einfuhrung In weniger als zwanzig Jahren hat der Computer die Aufbau- und Ablauforganisation der meisten Unternehmen grundlegend verandert.
Get a step ahead of your competitors with insights from over 30 Kaggle Masters and Grandmasters. Discover tips, tricks, and best practices for competing effectively on Kaggle and becoming a better data scientist. Purchase of the print or Kindle book includes a free eBook in the PDF format. Key Features Learn how Kaggle works and how to make the most of competitions from over 30 expert Kagglers Sharpen your modeling skills with ensembling, feature engineering, adversarial validation and AutoML A concise collection of smart data handling techniques for modeling and parameter tuning Book DescriptionMillions of data enthusiasts from around the world compete on Kaggle, the most famous data science competition platform of them all. Participating in Kaggle competitions is a surefire way to improve your data analysis skills, network with an amazing community of data scientists, and gain valuable experience to help grow your career. The first book of its kind, The Kaggle Book assembles in one place the techniques and skills you'll need for success in competitions, data science projects, and beyond. Two Kaggle Grandmasters walk you through modeling strategies you won't easily find elsewhere, and the knowledge they've accumulated along the way. As well as Kaggle-specific tips, you'll learn more general techniques for approaching tasks based on image, tabular, textual data, and reinforcement learning. You'll design better validation schemes and work more comfortably with different evaluation metrics. Whether you want to climb the ranks of Kaggle, build some more data science skills, or improve the accuracy of your existing models, this book is for you. Plus, join our Discord Community to learn along with more than 1,000 members and meet like-minded people! What you will learn Get acquainted with Kaggle as a competition platform Make the most of Kaggle Notebooks, Datasets, and Discussion forums Create a portfolio of projects and ideas to get further in your career Design k-fold and probabilistic validation schemes Get to grips with common and never-before-seen evaluation metrics Understand binary and multi-class classification and object detection Approach NLP and time series tasks more effectively Handle simulation and optimization competitions on Kaggle Who this book is forThis book is suitable for anyone new to Kaggle, veteran users, and anyone in between. Data analysts/scientists who are trying to do better in Kaggle competitions and secure jobs with tech giants will find this book useful. A basic understanding of machine learning concepts will help you make the most of this book.
Process tabular data and build high-performance query engines on modern CPUs and GPUs using Apache Arrow, a standardized language-independent memory format, for optimal performance Key Features Learn about Apache Arrow's data types and interoperability with pandas and Parquet Work with Apache Arrow Flight RPC, Compute, and Dataset APIs to produce and consume tabular data Reviewed, contributed, and supported by Dremio, the co-creator of Apache Arrow Book DescriptionApache Arrow is designed to accelerate analytics and allow the exchange of data across big data systems easily. In-Memory Analytics with Apache Arrow begins with a quick overview of the Apache Arrow format, before moving on to helping you to understand Arrow's versatility and benefits as you walk through a variety of real-world use cases. You'll cover key tasks such as enhancing data science workflows with Arrow, using Arrow and Apache Parquet with Apache Spark and Jupyter for better performance and hassle-free data translation, as well as working with Perspective, an open source interactive graphical and tabular analysis tool for browsers. As you advance, you'll explore the different data interchange and storage formats and become well-versed with the relationships between Arrow, Parquet, Feather, Protobuf, Flatbuffers, JSON, and CSV. In addition to understanding the basic structure of the Arrow Flight and Flight SQL protocols, you'll learn about Dremio's usage of Apache Arrow to enhance SQL analytics and discover how Arrow can be used in web-based browser apps. Finally, you'll get to grips with the upcoming features of Arrow to help you stay ahead of the curve. By the end of this book, you will have all the building blocks to create useful, efficient, and powerful analytical services and utilities with Apache Arrow. What you will learn Use Apache Arrow libraries to access data files both locally and in the cloud Understand the zero-copy elements of the Apache Arrow format Improve read performance by memory-mapping files with Apache Arrow Produce or consume Apache Arrow data efficiently using a C API Use the Apache Arrow Compute APIs to perform complex operations Create Arrow Flight servers and clients for transferring data quickly Build the Arrow libraries locally and contribute back to the community Who this book is forThis book is for developers, data analysts, and data scientists looking to explore the capabilities of Apache Arrow from the ground up. This book will also be useful for any engineers who are working on building utilities for data analytics and query engines, or otherwise working with tabular data, regardless of the programming language. Some familiarity with basic concepts of data analysis will help you to get the most out of this book but isn't required. Code examples are provided in the C++, Go, and Python programming languages.
- 88 - 4. 4. 6 Abrufen von Statistik-Informationen (SUMMARY) 4. 4. 6. 1 Einfache Statistiken Wir setzen voraus, dass die Variablen VARoo1, VARo07, VARo1o und VARo14 aus unserer Untersuchung im SPSSx-file enthalten sind, und wir beziehen uns stets auf das folgen- de Syntax-Gerust des REPORT=Kommandos: REPORT VARIABLES = VARoo7, VARolo, VARo14 / BREAK = VARoo1 / SUMMARY = summary-angabe-1 [! SUMMARY = summary-angabe-2J . . . d. h. wir vereinbaren VARo07, VARo1o und VARo14 als Kolumnen- und VARoo1 als Break- Variable. Welche Statistik-Informationen in -den einzelnen Kolumnen des Reports als Summary-Ausgaben gedruckt werden sollen, muss man im Subkommando SUMMARY in der folgenden Form - wir beschranken uns zunachst auf den einfachsten Fall - als sog. Summary-Angabe festlegen: ]) I SUMMARY = statistik ( kolumnen-variable1 [kolumnen-variable2] . . . ) Dabei darf man fur den Platzhalter "statistik" eines der Schlusselwoerter aus der folgenden Tabelle einsetzen: Schlusselwort fur Report abgerufene Statistik-Informationen ---- VALIDN Anzahl der gultigen Gases VARIANGE Varianz SUM Summe MEAN arithmetisches Mittel STDEV Standardabweichung MIN minimaler Wert MAX maximaler Wert SKEWNESS Schiefe KURTOSIS Woelbung PGGT(n) Prozentsatz der Gases, deren Werte groesser als n sind PGlT(n) Prozentsatz der Gases, deren Werte kleiner als n sind PGIN(n, n ) Prozentsatz der Gases, deren Werte nicht groesser als n und 1 2 2 nicht.
Die programmtechnische Umsetzung effizienter Algorithmen entscheidet wesentlich dartiber, ob sich deren besondere Eigenschaften auch im Laufzeitverhalten des Programms widerspiegeln werden. Der Software-Entwickler bestimmt im allgemeinen mit der Auswahl seiner Programmelemente und dem globalen Programmablauf die notwendige Rechenzeit sowie die Qualitat der Resultate seines Programms und ob die Effizienz des Algorithmus im programmierten Overhead, den Rechenungenauigkeiten etc. wieder untergeht. Das vorliegende Buch nimmt sich dieser Thematik an und behandelt Programmiertechniken in Standard-Pascal. Der Einsatz der Sprachelemente wird unter verschiedenen Aspekten vorgesteHt, ein Hauptschwerpunkt liegt bei der Rekursion. Der sinnvoHe und effiziente Einsatz der Rekursion und die programmtechnischen Realisierungen sind Thema eines eigenen Kapitels. Gleichzeitig werden Beurteilungen aus der Sicht des Compilers vorge- nommen. Die "Black Box" Compiler wird dem Programmentwickler dadurch trans- parenter, daS Programmtechniken aus der Sicht des Compilers beurteilt und die daraus resultierenden charakteristischen Programmerkmale erlauert werden. Das Spektrum der Anwendungen ist breit gewiihlt und reicht von der Booleschen Algebra und der numerischen Mathematik (Gleichungssysteme, Differentiation, Integration) tiber die Codierungstheorie und Kryptographie bis hin zur graphischen Datenverarbeitung. Die Behandlung des mathematischen Teils ist ausftihrlich gehalten. Dem Charakter der Pro- grammothek entsprechend gewinnt der Leser einen Einblick in die betreffenden Themen- bereiche, so daS ihm beste Voraussetzungen fUr selbstandtge Programmentwicklungen gegeben sind. An dieser Stelle mochte ich mich bei Herm Prof. Dr. Oskar Hermann, Herm Peter Stede, dem Rechenzentrum der Universitat Heidelberg, Herm Klaus Staab, dem Leiter des Klinik- rechenzentrums Heidelberg, sowie Herm Prof. Dr. Dr. Kohler, dem Herausgeber der Programmothek, fUr Anregungen fachlicher und technischer Art bedanken.
Gain hands-on experience of Python programming with industry-standard machine learning techniques using pandas, scikit-learn, and XGBoost Key Features Think critically about data and use it to form and test a hypothesis Choose an appropriate machine learning model and train it on your data Communicate data-driven insights with confidence and clarity Book DescriptionIf data is the new oil, then machine learning is the drill. As companies gain access to ever-increasing quantities of raw data, the ability to deliver state-of-the-art predictive models that support business decision-making becomes more and more valuable. In this book, you'll work on an end-to-end project based around a realistic data set and split up into bite-sized practical exercises. This creates a case-study approach that simulates the working conditions you'll experience in real-world data science projects. You'll learn how to use key Python packages, including pandas, Matplotlib, and scikit-learn, and master the process of data exploration and data processing, before moving on to fitting, evaluating, and tuning algorithms such as regularized logistic regression and random forest. Now in its second edition, this book will take you through the end-to-end process of exploring data and delivering machine learning models. Updated for 2021, this edition includes brand new content on XGBoost, SHAP values, algorithmic fairness, and the ethical concerns of deploying a model in the real world. By the end of this data science book, you'll have the skills, understanding, and confidence to build your own machine learning models and gain insights from real data. What you will learn Load, explore, and process data using the pandas Python package Use Matplotlib to create compelling data visualizations Implement predictive machine learning models with scikit-learn Use lasso and ridge regression to reduce model overfitting Evaluate random forest and logistic regression model performance Deliver business insights by presenting clear, convincing conclusions Who this book is forData Science Projects with Python - Second Edition is for anyone who wants to get started with data science and machine learning. If you're keen to advance your career by using data analysis and predictive modeling to generate business insights, then this book is the perfect place to begin. To quickly grasp the concepts covered, it is recommended that you have basic experience of programming with Python or another similar language, and a general interest in statistics.
Das vorliegende Wegweiser-Buch weist Wege zum erfolgreichen Einsatz des Commodore 116, Commodore 16 und Commodore plus/4. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung bzw. Informatik: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? - Was sind Datenstrukturen und Programmstrukturen? -Was sind Betriebssysteme und Anwenderprogramme? -Was heisst, fertige Programm-Pakete einsetzen'? - Was beinhaltet das eigene Programmieren? Nach der Lekture dieses Abschnitts sind Sie in der Lage, die Commodore- Computer in den Gesamtrahmen der Datenverarbeitung/Informatik ein- zuordnen. Das Wegweiser-Buch gibt eine erste Bedienungsanleitung: -Wie bediene ich Tastatur, Bildschirm, Floppy bzw. Disketteneinheit und Drucker des C-116, C-16 und plus/4. - Wie erstelle ich mein erstes Programm in der Programmiersprache BASIC 3.5? -Welche Befehle umfasst BASIC 3.5 (zu jedem Befehl wird ein Beispiel angegeben)? - Worin unterscheiden sich BASIC 3.5 von den anderen Sprachversionen BASIC 2.0 und BASIC 4.0? - Laufen Programme des C-116, C-16 und plus/4 auch auf anderen Mik- computern von Commodore? Nach der Lekture dieses Abschnitts koennen Sie ihren C-116, C-16 und plus/4 bedienen, Programme laufen lassen und einfache BASIC-Programme selbst erstellen und speichern. Das Wegweiser-Buch enthalt einen kompletten Programmierkurs mit folgen- den grundlegenden BASIC-Anwendungen: - Programme mit den wichtigen Ablaufstrukturen (Folge-, Auswahl-, Wiederholungs-und Unterprogrammstrukturen). - Verarbeitung von Text, Ein-/Ausgabe und Tabellen. - Maschinennahe Programmierung ( ... Bit fur Bit). -Suchen, Sortieren, Mischen und Gruppieren von Daten. |
You may like...
Data Analytics for Social Microblogging…
Soumi Dutta, Asit Kumar Das, …
Paperback
R3,335
Discovery Miles 33 350
Cognitive and Soft Computing Techniques…
Akash Kumar Bhoi, Victor Hugo Costa de Albuquerque, …
Paperback
R2,583
Discovery Miles 25 830
Demystifying Graph Data Science - Graph…
Pethuru Raj, Abhishek Kumar, …
Hardcover
Machine Learning and Data Analytics for…
Manikant Roy, Lovi Raj Gupta
Hardcover
R10,591
Discovery Miles 105 910
Intelligent Data Security Solutions for…
Amit Kumar Singh, Mohamed Elhoseny
Paperback
R2,640
Discovery Miles 26 400
Big Data - Concepts, Methodologies…
Information Reso Management Association
Hardcover
R17,613
Discovery Miles 176 130
Machine Learning for Biometrics…
Partha Pratim Sarangi, Madhumita Panda, …
Paperback
R2,570
Discovery Miles 25 700
|