![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Die Datenverarbeitung spielt seit vie len Jahren eine wesentliche Rolle in einer Vielzahl von Anwendungen in Dienstleistung, Verwal tung und Industrie; in der Forschung ist die Verwendung des Com puters nicht mehr wegzudenken. Es ist daher erstaunlich, wie schmal dennoch vielerorts die Kenntnisse Uber die Computerwelt sind: An wender sind froh, dass der Computer produktiv fUr sie arbeitet, und sie wahren vorsichtige Distanz zur "geheimnisvollen" und sich rasch andernden Computertechnik. Die Computer-Fachleute ihrerseits leben in der Welt der Spezialisten und pflegen ihre technische Sprache, erhaben Uber die Alltagsprobleme des Anwenders. Die beiden Autoren erleben diese Einseitigkeiten seit Jahren in ihrer Tatigkeit als Dozenten einerseits, als engagierte Praktiker anderseits. Dennoch hoffen sie, dass es gerade mit diesem neuen EinfUhrungsbuch gelingt, die einseitigen Positionen abzubauen. Denn auch hinter der schnellen technischen Entwicklung des Compu ters stecken bleibende und einfache Prinzipien der Informatik, die es darzustellen und zu verstehen gilt. Zwei Interessentenkreise sind damit primar angesprochen: Studenten verschiedenster Richtungen (Ingenieure, Oekonomen, Fachinformatiker) sollen erkennen, welche Konzepte des Compu ters und der Datentechnik fUr die Anwendung eine direkte Rolle spielen. Anwender (aus kommerzieller oder technisch-wissenschaftlicher Umgebung) sollen die grundsatzlichen Methoden und Strukturen sehen, welche hinter ihren taglichen Computer-Anwendungen stehen."
Get to grips with building reliable, scalable, and maintainable database solutions for enterprises and production databases Key Features Implement PostgreSQL 13 features to perform end-to-end modern database management Design, manage, and build enterprise database solutions using a unique recipe-based approach Solve common and not-so-common challenges faced while working to achieve optimal database performance Book DescriptionPostgreSQL has become the most advanced open source database on the market. This book follows a step-by-step approach, guiding you effectively in deploying PostgreSQL in production environments. The book starts with an introduction to PostgreSQL and its architecture. You'll cover common and not-so-common challenges faced while designing and managing the database. Next, the book focuses on backup and recovery strategies to ensure your database is steady and achieves optimal performance. Throughout the book, you'll address key challenges such as maintaining reliability, data integrity, a fault-tolerant environment, a robust feature set, extensibility, consistency, and authentication. Moving ahead, you'll learn how to manage a PostgreSQL cluster and explore replication features for high availability. Later chapters will assist you in building a secure PostgreSQL server, along with covering recipes for encrypting data in motion and data at rest. Finally, you'll not only discover how to tune your database for optimal performance but also understand ways to monitor and manage maintenance activities, before learning how to perform PostgreSQL upgrades during downtime. By the end of this book, you'll be well-versed with the essential PostgreSQL 13 features to build enterprise relational databases. What you will learn Understand logical and physical backups in Postgres Demonstrate the different types of replication methods possible with PostgreSQL today Set up a high availability cluster that provides seamless automatic failover for applications Secure a PostgreSQL encryption through authentication, authorization, and auditing Analyze the live and historic activity of a PostgreSQL server Understand how to monitor critical services in Postgres 13 Manage maintenance activities and performance tuning of a PostgreSQL cluster Who this book is forThis PostgreSQL book is for database architects, database developers and administrators, or anyone who wants to become well-versed with PostgreSQL 13 features to plan, manage, and design efficient database solutions. Prior experience with the PostgreSQL database and SQL language is expected.
Unsere Umwelt wird mehr und mehr gepragt durch Automatische Datenverarbeitung. Weil die technische Seite dabei von der Elektronik beherrscht wird, verwendet man durch weg den Begriff Elektronische Datenverarbeitung (EDV). Es gibt eigentlich kaum noch einen Bereich im menschlichen Zusammenleben, der nicht mit EDV zumindest in Be ruhrung kame. Beinahe taglich begegnet uns EDV direkt oder indirekt - bewulSt und unbewulSt - beispielsweise in Form von Abrechnungen, Benachrichtigungen, beim Ein kauf, in der Verwaltung und vor allem im Berufsleben. Das ist der aktuelle Bezug fur das vorliegende Lehrbuch. Und nicht etwa modische Aspekte ver: anlassen zu der Aufforderung, Prinzipien und Einzelheiten der EDV zu studieren. Fur den angehenden Techniker und Ingenieur ergibt sich eine Notwendigkeit fur ein vertieftes Studium daraus, daIS man bei der Berufsausubung von ihm Verstandnis fur oder gar Detail kenntnisse uber EDV erwartet. Das wird besonders unabwendbar, wenn es sich um einen Absolventen mit elektrotechnischer Spl'/ialausbildung handelt. Der Bedeutung der EDV wird inzwischen mit einer Vielzahl von Abhandlungen und Lehr buchern gerecht. Das errichtete N iveau reicht dabei von einfachsten Darstellungen fur Jedermann bis zu wissenschaftlichen Arbeiten, die nur von Spezialisten lesbar sind."
Save time analyzing volumes of data using best practices to extract, model, and create insights from your data Key Features Master best practices in data modeling with Tableau Prep Builder and Tableau Desktop Apply Tableau Server and Cloud to create and extend data models Build organizational data models based on data and content governance best practices Book DescriptionTableau is unlike most other BI platforms that have a single data modeling tool and enterprise data model (for example, LookML from Google's Looker). That doesn't mean Tableau doesn't have enterprise data governance; it is both robust and very flexible. This book will help you build a data-driven organization with the proper use of Tableau governance models. Data Modeling with Tableau is an extensive guide, complete with step-by-step explanations of essential concepts, practical examples, and hands-on exercises. As you progress through the chapters, you will learn the role that Tableau Prep Builder and Tableau Desktop each play in data modeling. You'll also explore the components of Tableau Server and Cloud that make data modeling more robust, secure, and performant. Moreover, by extending data models for Ask and Explain Data, you'll gain the knowledge required to extend analytics to more people in their organizations, leading to better data-driven decisions. Finally, this book will get into the entire Tableau stack and get the techniques required to build the right level of governance into Tableau data models for the right use cases. By the end of this Tableau book, you'll have a firm understanding of how to leverage data modeling in Tableau to benefit your organization. What you will learn Showcase Tableau published data sources and embedded connections Apply Ask Data in data cataloging and natural language query Exhibit features of Tableau Prep Builder with hands-on exercises Model data with Tableau Desktop through examples Formulate a governed data strategy using Tableau Server and Cloud Optimize data models for Ask and Explain Data Who this book is forThis book is for data analysts and business analysts who are looking to expand their data skills, offering a broad foundation to build better data models in Tableau for easier analysis and better query performance. It will also benefit individuals responsible for making trusted and secure data available to their organization through Tableau, such as data stewards and others who work to take enterprise data and make it more accessible to business analysts.
Das Arbeitsergebnis des Studienkreises Dr. Parli wurde zunachst in Form eines internen Arbeitsberichtes den Mitgliedern des Foerderervereins des Betriebswirtschaftlichen Instituts fur Organisation und Automation an der Universitat zu Koeln (BIFOA) zur Verfugung gestellt. Die sich daraus er- gebende Diskussion zeigte, dass die Probleme der Istaufnahme bei automati- sierter Datenverarbeitung (ADV) nach wie vor in Wissenschaft und Praxis von hoher Aktualitat sind, so dass mir nunmehr - nicht zuletzt aufgrund zahlreicher Anfragen aus der Wirtschaftspraxis - eine Publikation in der Instituts-Schriftenreihe sinnvoll erscheint. Damit werden die Ergebnisse einem groesseren Interessentenkreis zuganglich und koennen insbesondere mittleren und kleineren Unternehmungen und Einheiten der oeffentlichen Verwaltung, die aufgrund des vielfaltigen Angebots unterschiedlicher Computergroessen ebenfalls in den Kreis der Anwender von Anlagen der automatisierten Datenverarbeitung geruckt sind, als Orientierungshilfe dienen. In der vorliegenden Arbeit werden die Erfahrungen von Wirtschaftsprakti- kern aus Grossunternehmungen verschiedener Branchen sowie der oeffent- lichen Verwaltung systematisiert und auf ihre Allgemeingultigkeit unter- sucht. Es handelt sich um Erfahrungen, die aus Unternehmungen stammen, die sich aufgrund ihres Geschaftsumfanges schon fruhzeitig zum Einsatz von ADV-Anlagen entschliessen mussten und die teilweise - entsprechend den Stufen der technischen und organisatorischen Entwicklung - mit den Istaufnahmeproblemen unterschiedlichster Art konfrontiert wurden. Das Hauptanliegen der Schrift besteht nicht in einer rein theoretischen Durchdringung des Problemkreises Istaufnahme und Automatisierte Daten- verarbeitung, sondern in einer praxisbezogenen Aufbereitung und Systema- tisierung empirischen Wissens auf diesem Gebiet.
Solve real-world data problems and create data-driven workflows for easy data movement and processing at scale with Azure Data Factory Key Features Learn how to load and transform data from various sources, both on-premises and on cloud Use Azure Data Factory's visual environment to build and manage hybrid ETL pipelines Discover how to prepare, transform, process, and enrich data to generate key insights Book DescriptionAzure Data Factory (ADF) is a modern data integration tool available on Microsoft Azure. This Azure Data Factory Cookbook helps you get up and running by showing you how to create and execute your first job in ADF. You'll learn how to branch and chain activities, create custom activities, and schedule pipelines. This book will help you to discover the benefits of cloud data warehousing, Azure Synapse Analytics, and Azure Data Lake Gen2 Storage, which are frequently used for big data analytics. With practical recipes, you'll learn how to actively engage with analytical tools from Azure Data Services and leverage your on-premise infrastructure with cloud-native tools to get relevant business insights. As you advance, you'll be able to integrate the most commonly used Azure Services into ADF and understand how Azure services can be useful in designing ETL pipelines. The book will take you through the common errors that you may encounter while working with ADF and show you how to use the Azure portal to monitor pipelines. You'll also understand error messages and resolve problems in connectors and data flows with the debugging capabilities of ADF. By the end of this book, you'll be able to use ADF as the main ETL and orchestration tool for your data warehouse or data platform projects. What you will learn Create an orchestration and transformation job in ADF Develop, execute, and monitor data flows using Azure Synapse Create big data pipelines using Azure Data Lake and ADF Build a machine learning app with Apache Spark and ADF Migrate on-premises SSIS jobs to ADF Integrate ADF with commonly used Azure services such as Azure ML, Azure Logic Apps, and Azure Functions Run big data compute jobs within HDInsight and Azure Databricks Copy data from AWS S3 and Google Cloud Storage to Azure Storage using ADF's built-in connectors Who this book is forThis book is for ETL developers, data warehouse and ETL architects, software professionals, and anyone who wants to learn about the common and not-so-common challenges faced while developing traditional and hybrid ETL solutions using Microsoft's Azure Data Factory. You'll also find this book useful if you are looking for recipes to improve or enhance your existing ETL pipelines. Basic knowledge of data warehousing is expected.
Many organizations, including government institutions and agencies, continue to increase their financial investment on information technology (IT) solutions. Despite these investments, during the global pandemic, employees and managers are either struggling or unequipped to use these tools effectively and efficiently for sustainability, competitive advantage, and decision making. Due to global pandemics, companies must harness the power of various digital channels such as big data analytics and artificial intelligence to better serve their customers and business partners. Using Information Technology Advancements to Adapt to Global Pandemics provides insights and understanding on how companies and organizations are using advances in IT to adapt to global pandemics such as COVID-19. It explores how the various IT approaches can be used for strategic purposes. Covering topics such as higher education institutions, religious organizations, and telework, this premier reference source is an essential resource for government officials, business leaders and managers, industry professionals, IT specialists, policymakers, libraries, academicians, students, and researchers.
1m Oktober 1968 trafen Klinikchefs mit Spezialisten aus dem Bereich der Hoch- schulen und der Computer-lndustrie in Reinhartshausen zusammen, urn innerhalb der raschen Entwicklung der sogenannten zweiten technischen Revolution den Trend der modernen Medizin aufzusptiren. Ais Diskussionsgrundlage dienten ausgewillllte Refe- rate. Ein tiberblick tiber den Verlauf dieser Tagung Ui.l3t es niitzlich erscheinen, die Thematik einem grol3eren Kreis zugiinglich zu machen. So haben wir uns entschlossen, die Manuskripte der Autoren zu einem Werk zusammenzuschliel3en. Die technischen Grundlagen der elektronischen Datenverarbeitung sollen dabei allerdings unbertick- sichtigt bleiben. Die Durchsicht der Beitrage mag den Eindruck erwecken, dal3 anscheinend bereits zurtickliegende Entwicklungsphasen mit phantasievollen Forderungen an die Zukunft inhomogen zusammengestellt seien. Aber es kommt uns darauf an, in der bestaunens- wert en Schnelligkeit, mit der sich eine elektronische Informationsverarbeitung - oder besser formuliert - die moderne Wissenschaft der Informatik vollzieht, den gegen- wartigen Zustand in der Medizin aufzuzeigen und in ihm an den Einzelheiten die Ten- denzen darzustellen, die sich bald aus den ursprtinglichen mechanischen Formen der Erfassung und Verarbeitung von Daten, bald aus dem Bild der Zukunft deutlicher ab- zeichnen. Wir hegen die Hoffnung, dal3 auf dieser Basis sich pragende Konzeptionen fUr die Gestaltung der Zukunft ergeben. Herrn Kollegen NORBERT EICHENSEHER danken wir fUr seine wertvolle Unter- stiltzung bei den Korrekturen und der Abfassung des Sachverzeichnisses.
Als Stahl bezeichnet man heute alle Eisenlegierungen - mit Ausnahme der nicht schmiedbaren hochkohlenstoffhaltigen Gu sorten wie Grauguli, Hartguf und Ternperguf - ohne Riicksichr auf ihre Eigenschaften. Friiher wurde als wesentliches Merkmal des Stahles die Hartbarkeit angesehen. Es gibt aber eine ganze Reihe von Stahlen, die sich nicht harten lassen, die durch das Abschrecken aus hohen Temperaturen im Gegenteil sogar weicher, zaher werden. Edelstdble werden vielfach solche Stahle genannt, die au er mit Kohlenstoff auch noch mit anderen Grundstoffen, z. B. mit Chrom, Nickel, Wolfram, Vanadin usw. legiert sind. Diese Begriffsbestim- mung ist jedoch nicht erschopfend und auch anfechtbar, Denn man wird einen reinen Kohlenstoffstahl, der sorgfaltig erzeugt und auf dem ganzen Wege der Herstellung - vom Gu bis zum Versand - immer wieder gewissenhaft gepriift worden ist, zweifellos auch zu den Edelstahlen rechnen miissen. Andererseits enthalten manchmal Massenstahle - auch als unbeabsichtigte Verunreinigungen - ge- wisse Mengen von Legierungselementen. Das Richtige wird man treffen, wenn man die bei den grofsen Hiittenwerken in grofien Mengen erzeugten billigen Stahle als .Mas- senstahle bezeichnet, die von einem Edelstahlwerk mit Sorgfalt und unter scharfster Kontrolle hergestellten Stahle dagegen als Edelstahle. Die billigen Massenstahle werden meistens nach Festigkeit ver- kauft, die Edelstahle dagegen nach dem Verwendungszweck und unter einer Markenbezeichnung.
Build real-world time series forecasting systems which scale to millions of time series by applying modern machine learning and deep learning concepts Key Features Explore industry-tested machine learning techniques used to forecast millions of time series Get started with the revolutionary paradigm of global forecasting models Get to grips with new concepts by applying them to real-world datasets of energy forecasting Book DescriptionWe live in a serendipitous era where the explosion in the quantum of data collected and a renewed interest in data-driven techniques such as machine learning (ML), has changed the landscape of analytics, and with it, time series forecasting. This book, filled with industry-tested tips and tricks, takes you beyond commonly used classical statistical methods such as ARIMA and introduces to you the latest techniques from the world of ML. This is a comprehensive guide to analyzing, visualizing, and creating state-of-the-art forecasting systems, complete with common topics such as ML and deep learning (DL) as well as rarely touched-upon topics such as global forecasting models, cross-validation strategies, and forecast metrics. You'll begin by exploring the basics of data handling, data visualization, and classical statistical methods before moving on to ML and DL models for time series forecasting. This book takes you on a hands-on journey in which you'll develop state-of-the-art ML (linear regression to gradient-boosted trees) and DL (feed-forward neural networks, LSTMs, and transformers) models on a real-world dataset along with exploring practical topics such as interpretability. By the end of this book, you'll be able to build world-class time series forecasting systems and tackle problems in the real world. What you will learn Find out how to manipulate and visualize time series data like a pro Set strong baselines with popular models such as ARIMA Discover how time series forecasting can be cast as regression Engineer features for machine learning models for forecasting Explore the exciting world of ensembling and stacking models Get to grips with the global forecasting paradigm Understand and apply state-of-the-art DL models such as N-BEATS and Autoformer Explore multi-step forecasting and cross-validation strategies Who this book is forThe book is for data scientists, data analysts, machine learning engineers, and Python developers who want to build industry-ready time series models. Since the book explains most concepts from the ground up, basic proficiency in Python is all you need. Prior understanding of machine learning or forecasting will help speed up your learning. For experienced machine learning and forecasting practitioners, this book has a lot to offer in terms of advanced techniques and traversing the latest research frontiers in time series forecasting.
Use modern Python libraries such as pandas, NumPy, and scikit-learn and popular machine learning and deep learning methods to solve financial modeling problems Purchase of the print or Kindle book includes a free eBook in the PDF format Key Features Explore unique recipes for financial data processing and analysis with Python Apply classical and machine learning approaches to financial time series analysis Calculate various technical analysis indicators and backtesting backtest trading strategies Book DescriptionPython is one of the most popular programming languages in the financial industry, with a huge collection of accompanying libraries. In this new edition of the Python for Finance Cookbook, you will explore classical quantitative finance approaches to data modeling, such as GARCH, CAPM, factor models, as well as modern machine learning and deep learning solutions. You will use popular Python libraries that, in a few lines of code, provide the means to quickly process, analyze, and draw conclusions from financial data. In this new edition, more emphasis was put on exploratory data analysis to help you visualize and better understand financial data. While doing so, you will also learn how to use Streamlit to create elegant, interactive web applications to present the results of technical analyses. Using the recipes in this book, you will become proficient in financial data analysis, be it for personal or professional projects. You will also understand which potential issues to expect with such analyses and, more importantly, how to overcome them. What you will learn Preprocess, analyze, and visualize financial data Explore time series modeling with statistical (exponential smoothing, ARIMA) and machine learning models Uncover advanced time series forecasting algorithms such as Meta's Prophet Use Monte Carlo simulations for derivatives valuation and risk assessment Explore volatility modeling using univariate and multivariate GARCH models Investigate various approaches to asset allocation Learn how to approach ML-projects using an example of default prediction Explore modern deep learning models such as Google's TabNet, Amazon's DeepAR and NeuralProphet Who this book is forThis book is intended for financial analysts, data analysts and scientists, and Python developers with a familiarity with financial concepts. You'll learn how to correctly use advanced approaches for analysis, avoid potential pitfalls and common mistakes, and reach correct conclusions for a broad range of finance problems. Working knowledge of the Python programming language (particularly libraries such as pandas and NumPy) is necessary.
Oberlegungen iiber die Automatisierung der Verwaltungstatigkeit in indu striellen Unternehmungen lie en vermuten, daB die verschiedenartigen ein zelnen Arbeiten auf eine gleichartige Grundfunktion zuriickgefiihrt werden konnen. Zu dieser Fragestellung gab Herr Professor Dr. Dr. Beste dankens werterweise die Anregung, die Untersuchung in der vorliegenden allgemei nen Fassung durchzufiihren. Der Verfasser hat sich bemiiht, in mehrjahriger praktischer Tatigkeit die dargestellten theoretischen Erkenntnisse aus den in der industriellen Praxis vorgefundenen Gegebenheiten heraus zu entwickeln. Bei der Durchsprache einzelner Probleme erhielt der Verfasser dariiber hin aus von Herrn Professor Dr. Dr. Beste und Herrn Professor Dr. von Kortz fleisch wertvolle Anregungen, fUr die er auch an dieser Stelle seinen beson deren Dank aussprechen mochte. Die Arbeit wurde im Rahmen des Industrieseminars der Universitat Koln angefertigt. Essen, den 1. November 1962 INHALT Seite 5 Vorwort I. Begriffe und Bereich einer betriebswirtschaftlichen Untersuchung uber die Information in der industriellen Unternehmung . . . . . . . 9 A. Unterschiedliche Produktivit1it bei der Materialverarbeitung und der Informationsverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 B. Zum Wesen der Information als Tatigkeitsgegenstand in der industriellen Unternehmung und zur Kommunikation . . . . . . . 12 C. Bereich und Ziele der Untersuchung . . . . . . . . . . . . . . . . . . . . . . . . 14 II. Die Grundbausteine der Information und ihrer Verarbeitung . . . 17 A. Die elementare Struktur der Information . . . . . . . . . . . . . . . . . . . . 17 1. Der formale Gehalt der Information . . . . . . . . . . . . . . . . . . . . . . . 18 2. Der informative Gehalt cler Information . . . . . . . . . . . . . . . . . . . . 23 3. Die betriebswirtschaftliche MaBeinheit der Information . . . . . . . 26 B. Die elementaren Kommunikationswege . . . . . . . . . . . . . . . . . . . . . . 28 1. Die vertikale und die horizontale Anordnung der Kommunikationswege . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2. Das geschlossene Kommunikationssystem als grundsatzliche or- nisatorische Struktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 C. Die elementaren Verarbeitungsvorgange . . . . . . . . . . . . . . . . . . . . ."
In dem Standardwerk der Informationsverarbeitung werden nicht nur die elektroakustischen und nachrichtentechnischen Grundlagen dargestellt, auch die Sprache als menschliche Kommunikationsform wird aus linguistischer und physiologischer Perspektive beschrieben. Berucksichtigt wird dabei neben der Theorie stets die Anwendung auf dem neuesten Stand der Technik. Die 2.Auflage bietet neue Abschnitte zu den Grundzugen der Signalanalyse und zu Sprachdialogsystemen. Audiobeispiele und multimediale Vortragselemente zum Download auf extras.springer.com.
Even though many data analytics tools have been developed in the past years, their usage in the field of cyber twin warrants new approaches that consider various aspects including unified data representation, zero-day attack detection, data sharing across threat detection systems, real-time analysis, sampling, dimensionality reduction, resource-constrained data processing, and time series analysis for anomaly detection. Further study is required to fully understand the opportunities, benefits, and difficulties of data analytics and the internet of things in today's modern world. New Approaches to Data Analytics and Internet of Things Through Digital Twin considers how data analytics and the internet of things can be used successfully within the field of digital twin as well as the potential future directions of these technologies. Covering key topics such as edge networks, deep learning, intelligent data analytics, and knowledge discovery, this reference work is ideal for computer scientists, industry professionals, researchers, scholars, practitioners, academicians, instructors, and students.
Die Absicht, ein Buch iiber Programmieren von Ziffernrechenanlagen zu schreiben, entstand auf Grund einer Vorlesung gleichen Titels, die ich seit nunmehr sieben Jahren an der Technischen Hochschule Wien halte. Ich hatte dabei bemerkt, daB das Interesse fiir die Programmierung von Ziffernrechnern immer weitere Kreise zieht und daB es moglich ist, dieses Interesse aus einem einheitlichen Gesichtswinkel zu befriedigen. Der Zugang zur Kenntnis des Programmierens erfolgt heute iiblicher- weise mit Hille der Mathematischen Verfahrenstechnik oder von seiten der Administrativen Automation, oder schlieBlich iiber die mit tech- nischen Einzelheiten vermengte Beschreibung spezieller Maschinen. Ich bin nun der Meinung, daB man ein Buch iiber Programmieren schreiben kann, ohne auf Einzelheiten der Mathematischen Verfahrenstechnik und der Biiroautomation oder auf technische Eigenschaften spezieller Ma- schinen eingehen zu miissen, und ohne damit jewells einem Tell der Leser das Verstandnis zu erschweren. Was nach Fortlassung der ge- nannten Gebiete bleibt, ist nicht ein trockener, unverstandlicher Rest, sondern der Inbegriff aller fiir das Programmieren wesentlichen Prin- zipien. Sowohl der Naturwissenschaftler als auch der Verwaltungsfach- mann, der diese Prinzipien erfaBt hat, wird jederzeit in der Lage sein, sie seinen besonderen Aufgaben dienstbar zu machen. Kapitel A solI zeigen, welchen Platz der Rechenautomat unter den technischen Errungenschaften einnimmt und wie er dorthin gelangt ist. Besonderes Anliegen ist mir hier der geschichtliche Uberblick, well einer- seits die deutschsprachigen Biicher auf diesem Gebiet kaum historische Angaben enthalten und andererseits die anglo-amerikanische Literatur die kontinentaleuropaische Entwicklung iibergeht. - Kapitel B enthalt die Beschreibung einer gedachten Maschine TElCO in allen Einzelheiten. |
You may like...
Machine Learning for Biometrics…
Partha Pratim Sarangi, Madhumita Panda, …
Paperback
R2,570
Discovery Miles 25 700
Demystifying Graph Data Science - Graph…
Pethuru Raj, Abhishek Kumar, …
Hardcover
Handbook of Big Data Analytics, Volume 1…
Vadlamani Ravi, Aswani Kumar Cherukuri
Hardcover
Big Data Analytics and Its Impact on…
Imad Ibrahim, Rafael Brown, …
Paperback
R2,148
Discovery Miles 21 480
Mathematical Methods in Data Science
Jingli Ren, Haiyan Wang
Paperback
R3,925
Discovery Miles 39 250
Intelligent Data Analysis for e-Learning…
Jorge Miguel, Santi Caballe, …
Paperback
Data Analytics for Social Microblogging…
Soumi Dutta, Asit Kumar Das, …
Paperback
R3,335
Discovery Miles 33 350
|