![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Das vorliegende Wegweiser-Buch weist Wege zum erfolgreichen Einsatz von Mikrocomputern der Apple II-Famiiie wie Apple lle, Apple li-Plus und sprachgleicher Systeme. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? -Was sind Datenstrukturen und Programmstrukturen? - Was sind Betriebssysteme und Anwenderprogramme? -Was heisst, fertige Programm-Pakete einsetzen'? -Was beinhaltet das eigene Programmieren? Das Wegweiser-Buch gibt eine erste Benutzungsanleitung: -Wie bedient man den Apple II? -Wie erstellt man das erste eigene Anwenderprogramm? -Wie setzt man die verfugbaren Systemprogramme ein? Das Wegweiser-Buch enthalt einen kompletten Programmierkurs in der Programmiersprache Applesoft-BASIC, der Wege zu grundlegenden Anwen- dungsmoeglichkeiten weist: - Programme mit Schleifen und Unterprogrammen. -Text-, Tabellen-und Grafikverarbeitung. - Formen der Tastatureingabe und Druckausgabe. - Maschinennahe Programmierung in Assembler. -Suchen, Sortieren, Mischen und Gruppieren von Daten. -Sequentielle, direkte/random, index-sequentielle und verkettete Organisation einer Datei. - Datei mit zeigerverketteter Liste und binarem Baum. Das Wegweiser-Buch soll die vom Hersteller gelieferten System-Handbucher keinesfalls ersetzen, sondern erganzen: ln den Apple-Handbuchern werden Programmiersprachen beschrieben (z.B. Applesoft-BASIC Programmierhandbuch), Betriebssysteme (z. B. DOS- Handbuch), technische Eigenschaften (z.B. Apple lle Benutzer Handbuch) oder spezielle Gerate (z. B. Grafik Tablett Handbuch) und Software (z. B. Apple Writer). VI Vorwort Das Wegweiser-Buch hingegen beschreibt die Grundlagen der Datenver- arbeitung, um sie an zahlreichen Anwendungsmoeglichkeiten fur den Apple II zu demonstrieren und zu veranschaulichen. Im Wegweiser-Buch sind 80 Programm-Beispiele als Codierung in Applesoft- BASIC (List) und als Ausfuhrung (Run) wiedergegeben sowie vollstandig beschrieben.
Die Luftverkehrsgesellschaften gehoeren zu den Pionieren in der An- wendung der automatisierten Datenverarbeitung. Sie haben neben ein- fachen und gut strukturierten Abrechnungsaufgaben schon sehr fruh komplexe und hochintegrierte Anwendungen mit ihrer Hilfe erschlossen. Beispiele hierfur sind die Flugreservierungssysteme der grossen Ge- sellschaften, die bereits seit Anfang der 60er Jahre im praktischen Einsatz sind, die Kommunikation zwischen den Gesellschaften innerhalb der IA T A, die sehr komplexen und aktuellen Dispositionsaufgaben, die beim Flugverkehr jeder grossen Gesellschaft wahrzunehmen sind. Aus den Loesungskonzepten fur diese wichtigen Problemstellungen konnten auch fur anspruchsvolle Anwendungsbereiche in Wirtschaftsunterneh- mungen und in der Wissenschaft vielerlei Anregungen gewonnen werden. Ebenfalls wurden dadurch die Entwicklungen bei den Herstellern von ADV- Systemen massgebend beeinflusst. VI Das vorliegende Buch gibt einen UEberblick uber die Aufgabenstellungen der Informationsverarbeitung bei Luftverkehrsgesellschaften. Ins- besondere wird auch die Nutzung der Informationsverarbeitung aller grossen internationalen Gesellschaften in sehr ubersichtlicher Form herausgearbeitet, und es werden die verschiedenen Loesungen gegen- ubergestellt; ausserdem erhalt der Leser einen UEberblick uber die historische Entwicklung in diesem wichtigen Anwendungsbereich. Der Verfasser ist seit zwanzig Jahren fur die Datenverarbeitung bei der Deutschen Lufthansa AG verantwortlich und jetzt im Vorstand dieser Ge- sellschaft, wo er fur die Bereiche Planung und Steuerung, Datenverar- beitung und Fernmeldedienste, Rechnungswesen, Finanzen und das Justitiariat zustandig ist. Fur den Themenbereich des Buches besitzt er eine sehr hohe Kompetenz. Wir sind uberzeugt, dass er mit seiner Schrift auch ausserhalb des Bereichs der Luftverkehrsgesellschaften auf sehr grosses Interesse stossen wird.
Die speziellen Funktionen, insbesondere die elliptischen Funktionen, hatten in Physik und Technik stets ungeheure Bedeutung und wurden in den Vorlesungen der Hochschulen im 19. und be- ginnenden 20. Jahrhundert entsprechend berucksichtigt. Spater sind die speziellen Funktionen aus den Vorlesungen verschwunden, und es traten die strukturellen Gesichtspunkte der Mathematik in den Vordergrund. Dies hat zu einer gewissen Entfremdung zwischen Anwendungen und theoretischer Ausbildung im Vorlesungsbetrieb gefuhrt. Allerdings haben im angelsachsischen Sprachraum die speziellen Funktionen stets durch Bucher und Tafelwerke Berucksichtigung gefunden, entsprechend ihrer Bedeutung sowohl fur Anwendungen der Mathematik wie auch fur theoretische Begriffsbildungen. Durch den Computer (bzw. seinen kleinen Bruder, den Taschenrechner) ist die Freude am numerischen Rechnen ganz bedeutend gestiegen. Wegen erhoehter Genauigkeitsanspruche in Physik- und Technik kann man sich heute nicht mehr mit linearen Naherungen begnugen (beruhmtes Beispiel: das Pendel); dadurch braucht auch der Ingenieur und Physiker die speziellen Funktionen, im besonderen die elliptischen Funktionen. Es ist zu begrussen, dass der Autor P. Kahlig, von dem schon analoge Veroeffentlichungen vorliegen, einen Band uber die elliptischen Funktionen und die Theta-Funktionen herausbringt, deren Bedeutung auch fur die Warmeleitung und Diffusion ja wohlbekannt ist. Genaue Funktionswerte sind somit jedem Anwender schnell und leicht zuganglich. Es ist diesem Band weite Verbreitung zu wunschen. Univ. Prof. Dr. Dr. h.c. Edmund Hlawka, Institut fur Analysis, Technische Mathematik und Versicherungs- mathematik der Technischen Universitat sowie Institut fur Mathematik der Universitat Wien. Wirkl. Mitglied der OEsterr. Akademie der Wissenschaften, Mitglied der Deutschen Akademie der Naturforscher, korrespond.
Die Datenverarbeitung spielt seit vie len Jahren eine wesentliche Rolle in einer Vielzahl von Anwendungen in Dienstleistung, Verwal tung und Industrie; in der Forschung ist die Verwendung des Com puters nicht mehr wegzudenken. Es ist daher erstaunlich, wie schmal dennoch vielerorts die Kenntnisse Uber die Computerwelt sind: An wender sind froh, dass der Computer produktiv fUr sie arbeitet, und sie wahren vorsichtige Distanz zur "geheimnisvollen" und sich rasch andernden Computertechnik. Die Computer-Fachleute ihrerseits leben in der Welt der Spezialisten und pflegen ihre technische Sprache, erhaben Uber die Alltagsprobleme des Anwenders. Die beiden Autoren erleben diese Einseitigkeiten seit Jahren in ihrer Tatigkeit als Dozenten einerseits, als engagierte Praktiker anderseits. Dennoch hoffen sie, dass es gerade mit diesem neuen EinfUhrungsbuch gelingt, die einseitigen Positionen abzubauen. Denn auch hinter der schnellen technischen Entwicklung des Compu ters stecken bleibende und einfache Prinzipien der Informatik, die es darzustellen und zu verstehen gilt. Zwei Interessentenkreise sind damit primar angesprochen: Studenten verschiedenster Richtungen (Ingenieure, Oekonomen, Fachinformatiker) sollen erkennen, welche Konzepte des Compu ters und der Datentechnik fUr die Anwendung eine direkte Rolle spielen. Anwender (aus kommerzieller oder technisch-wissenschaftlicher Umgebung) sollen die grundsatzlichen Methoden und Strukturen sehen, welche hinter ihren taglichen Computer-Anwendungen stehen."
Get to grips with building reliable, scalable, and maintainable database solutions for enterprises and production databases Key Features Implement PostgreSQL 13 features to perform end-to-end modern database management Design, manage, and build enterprise database solutions using a unique recipe-based approach Solve common and not-so-common challenges faced while working to achieve optimal database performance Book DescriptionPostgreSQL has become the most advanced open source database on the market. This book follows a step-by-step approach, guiding you effectively in deploying PostgreSQL in production environments. The book starts with an introduction to PostgreSQL and its architecture. You'll cover common and not-so-common challenges faced while designing and managing the database. Next, the book focuses on backup and recovery strategies to ensure your database is steady and achieves optimal performance. Throughout the book, you'll address key challenges such as maintaining reliability, data integrity, a fault-tolerant environment, a robust feature set, extensibility, consistency, and authentication. Moving ahead, you'll learn how to manage a PostgreSQL cluster and explore replication features for high availability. Later chapters will assist you in building a secure PostgreSQL server, along with covering recipes for encrypting data in motion and data at rest. Finally, you'll not only discover how to tune your database for optimal performance but also understand ways to monitor and manage maintenance activities, before learning how to perform PostgreSQL upgrades during downtime. By the end of this book, you'll be well-versed with the essential PostgreSQL 13 features to build enterprise relational databases. What you will learn Understand logical and physical backups in Postgres Demonstrate the different types of replication methods possible with PostgreSQL today Set up a high availability cluster that provides seamless automatic failover for applications Secure a PostgreSQL encryption through authentication, authorization, and auditing Analyze the live and historic activity of a PostgreSQL server Understand how to monitor critical services in Postgres 13 Manage maintenance activities and performance tuning of a PostgreSQL cluster Who this book is forThis PostgreSQL book is for database architects, database developers and administrators, or anyone who wants to become well-versed with PostgreSQL 13 features to plan, manage, and design efficient database solutions. Prior experience with the PostgreSQL database and SQL language is expected.
Unsere Umwelt wird mehr und mehr gepragt durch Automatische Datenverarbeitung. Weil die technische Seite dabei von der Elektronik beherrscht wird, verwendet man durch weg den Begriff Elektronische Datenverarbeitung (EDV). Es gibt eigentlich kaum noch einen Bereich im menschlichen Zusammenleben, der nicht mit EDV zumindest in Be ruhrung kame. Beinahe taglich begegnet uns EDV direkt oder indirekt - bewulSt und unbewulSt - beispielsweise in Form von Abrechnungen, Benachrichtigungen, beim Ein kauf, in der Verwaltung und vor allem im Berufsleben. Das ist der aktuelle Bezug fur das vorliegende Lehrbuch. Und nicht etwa modische Aspekte ver: anlassen zu der Aufforderung, Prinzipien und Einzelheiten der EDV zu studieren. Fur den angehenden Techniker und Ingenieur ergibt sich eine Notwendigkeit fur ein vertieftes Studium daraus, daIS man bei der Berufsausubung von ihm Verstandnis fur oder gar Detail kenntnisse uber EDV erwartet. Das wird besonders unabwendbar, wenn es sich um einen Absolventen mit elektrotechnischer Spl'/ialausbildung handelt. Der Bedeutung der EDV wird inzwischen mit einer Vielzahl von Abhandlungen und Lehr buchern gerecht. Das errichtete N iveau reicht dabei von einfachsten Darstellungen fur Jedermann bis zu wissenschaftlichen Arbeiten, die nur von Spezialisten lesbar sind."
Save time analyzing volumes of data using best practices to extract, model, and create insights from your data Key Features Master best practices in data modeling with Tableau Prep Builder and Tableau Desktop Apply Tableau Server and Cloud to create and extend data models Build organizational data models based on data and content governance best practices Book DescriptionTableau is unlike most other BI platforms that have a single data modeling tool and enterprise data model (for example, LookML from Google's Looker). That doesn't mean Tableau doesn't have enterprise data governance; it is both robust and very flexible. This book will help you build a data-driven organization with the proper use of Tableau governance models. Data Modeling with Tableau is an extensive guide, complete with step-by-step explanations of essential concepts, practical examples, and hands-on exercises. As you progress through the chapters, you will learn the role that Tableau Prep Builder and Tableau Desktop each play in data modeling. You'll also explore the components of Tableau Server and Cloud that make data modeling more robust, secure, and performant. Moreover, by extending data models for Ask and Explain Data, you'll gain the knowledge required to extend analytics to more people in their organizations, leading to better data-driven decisions. Finally, this book will get into the entire Tableau stack and get the techniques required to build the right level of governance into Tableau data models for the right use cases. By the end of this Tableau book, you'll have a firm understanding of how to leverage data modeling in Tableau to benefit your organization. What you will learn Showcase Tableau published data sources and embedded connections Apply Ask Data in data cataloging and natural language query Exhibit features of Tableau Prep Builder with hands-on exercises Model data with Tableau Desktop through examples Formulate a governed data strategy using Tableau Server and Cloud Optimize data models for Ask and Explain Data Who this book is forThis book is for data analysts and business analysts who are looking to expand their data skills, offering a broad foundation to build better data models in Tableau for easier analysis and better query performance. It will also benefit individuals responsible for making trusted and secure data available to their organization through Tableau, such as data stewards and others who work to take enterprise data and make it more accessible to business analysts.
Das Arbeitsergebnis des Studienkreises Dr. Parli wurde zunachst in Form eines internen Arbeitsberichtes den Mitgliedern des Foerderervereins des Betriebswirtschaftlichen Instituts fur Organisation und Automation an der Universitat zu Koeln (BIFOA) zur Verfugung gestellt. Die sich daraus er- gebende Diskussion zeigte, dass die Probleme der Istaufnahme bei automati- sierter Datenverarbeitung (ADV) nach wie vor in Wissenschaft und Praxis von hoher Aktualitat sind, so dass mir nunmehr - nicht zuletzt aufgrund zahlreicher Anfragen aus der Wirtschaftspraxis - eine Publikation in der Instituts-Schriftenreihe sinnvoll erscheint. Damit werden die Ergebnisse einem groesseren Interessentenkreis zuganglich und koennen insbesondere mittleren und kleineren Unternehmungen und Einheiten der oeffentlichen Verwaltung, die aufgrund des vielfaltigen Angebots unterschiedlicher Computergroessen ebenfalls in den Kreis der Anwender von Anlagen der automatisierten Datenverarbeitung geruckt sind, als Orientierungshilfe dienen. In der vorliegenden Arbeit werden die Erfahrungen von Wirtschaftsprakti- kern aus Grossunternehmungen verschiedener Branchen sowie der oeffent- lichen Verwaltung systematisiert und auf ihre Allgemeingultigkeit unter- sucht. Es handelt sich um Erfahrungen, die aus Unternehmungen stammen, die sich aufgrund ihres Geschaftsumfanges schon fruhzeitig zum Einsatz von ADV-Anlagen entschliessen mussten und die teilweise - entsprechend den Stufen der technischen und organisatorischen Entwicklung - mit den Istaufnahmeproblemen unterschiedlichster Art konfrontiert wurden. Das Hauptanliegen der Schrift besteht nicht in einer rein theoretischen Durchdringung des Problemkreises Istaufnahme und Automatisierte Daten- verarbeitung, sondern in einer praxisbezogenen Aufbereitung und Systema- tisierung empirischen Wissens auf diesem Gebiet.
Solve real-world data problems and create data-driven workflows for easy data movement and processing at scale with Azure Data Factory Key Features Learn how to load and transform data from various sources, both on-premises and on cloud Use Azure Data Factory's visual environment to build and manage hybrid ETL pipelines Discover how to prepare, transform, process, and enrich data to generate key insights Book DescriptionAzure Data Factory (ADF) is a modern data integration tool available on Microsoft Azure. This Azure Data Factory Cookbook helps you get up and running by showing you how to create and execute your first job in ADF. You'll learn how to branch and chain activities, create custom activities, and schedule pipelines. This book will help you to discover the benefits of cloud data warehousing, Azure Synapse Analytics, and Azure Data Lake Gen2 Storage, which are frequently used for big data analytics. With practical recipes, you'll learn how to actively engage with analytical tools from Azure Data Services and leverage your on-premise infrastructure with cloud-native tools to get relevant business insights. As you advance, you'll be able to integrate the most commonly used Azure Services into ADF and understand how Azure services can be useful in designing ETL pipelines. The book will take you through the common errors that you may encounter while working with ADF and show you how to use the Azure portal to monitor pipelines. You'll also understand error messages and resolve problems in connectors and data flows with the debugging capabilities of ADF. By the end of this book, you'll be able to use ADF as the main ETL and orchestration tool for your data warehouse or data platform projects. What you will learn Create an orchestration and transformation job in ADF Develop, execute, and monitor data flows using Azure Synapse Create big data pipelines using Azure Data Lake and ADF Build a machine learning app with Apache Spark and ADF Migrate on-premises SSIS jobs to ADF Integrate ADF with commonly used Azure services such as Azure ML, Azure Logic Apps, and Azure Functions Run big data compute jobs within HDInsight and Azure Databricks Copy data from AWS S3 and Google Cloud Storage to Azure Storage using ADF's built-in connectors Who this book is forThis book is for ETL developers, data warehouse and ETL architects, software professionals, and anyone who wants to learn about the common and not-so-common challenges faced while developing traditional and hybrid ETL solutions using Microsoft's Azure Data Factory. You'll also find this book useful if you are looking for recipes to improve or enhance your existing ETL pipelines. Basic knowledge of data warehousing is expected.
Many organizations, including government institutions and agencies, continue to increase their financial investment on information technology (IT) solutions. Despite these investments, during the global pandemic, employees and managers are either struggling or unequipped to use these tools effectively and efficiently for sustainability, competitive advantage, and decision making. Due to global pandemics, companies must harness the power of various digital channels such as big data analytics and artificial intelligence to better serve their customers and business partners. Using Information Technology Advancements to Adapt to Global Pandemics provides insights and understanding on how companies and organizations are using advances in IT to adapt to global pandemics such as COVID-19. It explores how the various IT approaches can be used for strategic purposes. Covering topics such as higher education institutions, religious organizations, and telework, this premier reference source is an essential resource for government officials, business leaders and managers, industry professionals, IT specialists, policymakers, libraries, academicians, students, and researchers.
1m Oktober 1968 trafen Klinikchefs mit Spezialisten aus dem Bereich der Hoch- schulen und der Computer-lndustrie in Reinhartshausen zusammen, urn innerhalb der raschen Entwicklung der sogenannten zweiten technischen Revolution den Trend der modernen Medizin aufzusptiren. Ais Diskussionsgrundlage dienten ausgewillllte Refe- rate. Ein tiberblick tiber den Verlauf dieser Tagung Ui.l3t es niitzlich erscheinen, die Thematik einem grol3eren Kreis zugiinglich zu machen. So haben wir uns entschlossen, die Manuskripte der Autoren zu einem Werk zusammenzuschliel3en. Die technischen Grundlagen der elektronischen Datenverarbeitung sollen dabei allerdings unbertick- sichtigt bleiben. Die Durchsicht der Beitrage mag den Eindruck erwecken, dal3 anscheinend bereits zurtickliegende Entwicklungsphasen mit phantasievollen Forderungen an die Zukunft inhomogen zusammengestellt seien. Aber es kommt uns darauf an, in der bestaunens- wert en Schnelligkeit, mit der sich eine elektronische Informationsverarbeitung - oder besser formuliert - die moderne Wissenschaft der Informatik vollzieht, den gegen- wartigen Zustand in der Medizin aufzuzeigen und in ihm an den Einzelheiten die Ten- denzen darzustellen, die sich bald aus den ursprtinglichen mechanischen Formen der Erfassung und Verarbeitung von Daten, bald aus dem Bild der Zukunft deutlicher ab- zeichnen. Wir hegen die Hoffnung, dal3 auf dieser Basis sich pragende Konzeptionen fUr die Gestaltung der Zukunft ergeben. Herrn Kollegen NORBERT EICHENSEHER danken wir fUr seine wertvolle Unter- stiltzung bei den Korrekturen und der Abfassung des Sachverzeichnisses.
Use modern Python libraries such as pandas, NumPy, and scikit-learn and popular machine learning and deep learning methods to solve financial modeling problems Purchase of the print or Kindle book includes a free eBook in the PDF format Key Features Explore unique recipes for financial data processing and analysis with Python Apply classical and machine learning approaches to financial time series analysis Calculate various technical analysis indicators and backtesting backtest trading strategies Book DescriptionPython is one of the most popular programming languages in the financial industry, with a huge collection of accompanying libraries. In this new edition of the Python for Finance Cookbook, you will explore classical quantitative finance approaches to data modeling, such as GARCH, CAPM, factor models, as well as modern machine learning and deep learning solutions. You will use popular Python libraries that, in a few lines of code, provide the means to quickly process, analyze, and draw conclusions from financial data. In this new edition, more emphasis was put on exploratory data analysis to help you visualize and better understand financial data. While doing so, you will also learn how to use Streamlit to create elegant, interactive web applications to present the results of technical analyses. Using the recipes in this book, you will become proficient in financial data analysis, be it for personal or professional projects. You will also understand which potential issues to expect with such analyses and, more importantly, how to overcome them. What you will learn Preprocess, analyze, and visualize financial data Explore time series modeling with statistical (exponential smoothing, ARIMA) and machine learning models Uncover advanced time series forecasting algorithms such as Meta's Prophet Use Monte Carlo simulations for derivatives valuation and risk assessment Explore volatility modeling using univariate and multivariate GARCH models Investigate various approaches to asset allocation Learn how to approach ML-projects using an example of default prediction Explore modern deep learning models such as Google's TabNet, Amazon's DeepAR and NeuralProphet Who this book is forThis book is intended for financial analysts, data analysts and scientists, and Python developers with a familiarity with financial concepts. You'll learn how to correctly use advanced approaches for analysis, avoid potential pitfalls and common mistakes, and reach correct conclusions for a broad range of finance problems. Working knowledge of the Python programming language (particularly libraries such as pandas and NumPy) is necessary.
Als Stahl bezeichnet man heute alle Eisenlegierungen - mit Ausnahme der nicht schmiedbaren hochkohlenstoffhaltigen Gu sorten wie Grauguli, Hartguf und Ternperguf - ohne Riicksichr auf ihre Eigenschaften. Friiher wurde als wesentliches Merkmal des Stahles die Hartbarkeit angesehen. Es gibt aber eine ganze Reihe von Stahlen, die sich nicht harten lassen, die durch das Abschrecken aus hohen Temperaturen im Gegenteil sogar weicher, zaher werden. Edelstdble werden vielfach solche Stahle genannt, die au er mit Kohlenstoff auch noch mit anderen Grundstoffen, z. B. mit Chrom, Nickel, Wolfram, Vanadin usw. legiert sind. Diese Begriffsbestim- mung ist jedoch nicht erschopfend und auch anfechtbar, Denn man wird einen reinen Kohlenstoffstahl, der sorgfaltig erzeugt und auf dem ganzen Wege der Herstellung - vom Gu bis zum Versand - immer wieder gewissenhaft gepriift worden ist, zweifellos auch zu den Edelstahlen rechnen miissen. Andererseits enthalten manchmal Massenstahle - auch als unbeabsichtigte Verunreinigungen - ge- wisse Mengen von Legierungselementen. Das Richtige wird man treffen, wenn man die bei den grofsen Hiittenwerken in grofien Mengen erzeugten billigen Stahle als .Mas- senstahle bezeichnet, die von einem Edelstahlwerk mit Sorgfalt und unter scharfster Kontrolle hergestellten Stahle dagegen als Edelstahle. Die billigen Massenstahle werden meistens nach Festigkeit ver- kauft, die Edelstahle dagegen nach dem Verwendungszweck und unter einer Markenbezeichnung. |
You may like...
Cognitive and Soft Computing Techniques…
Akash Kumar Bhoi, Victor Hugo Costa de Albuquerque, …
Paperback
R2,583
Discovery Miles 25 830
Data Analytics for Social Microblogging…
Soumi Dutta, Asit Kumar Das, …
Paperback
R3,335
Discovery Miles 33 350
Intelligent Data Security Solutions for…
Amit Kumar Singh, Mohamed Elhoseny
Paperback
R2,640
Discovery Miles 26 400
Intelligent Data Analysis for e-Learning…
Jorge Miguel, Santi Caballe, …
Paperback
Machine Learning for Biometrics…
Partha Pratim Sarangi, Madhumita Panda, …
Paperback
R2,570
Discovery Miles 25 700
Cross-Cultural Analysis of Image-Based…
Lisa Keller, Robert Keller, …
Hardcover
R3,285
Discovery Miles 32 850
Mathematical Methods in Data Science
Jingli Ren, Haiyan Wang
Paperback
R3,925
Discovery Miles 39 250
|