![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Protect your digital resources! This book addresses critical issues of preservation, giving you everything you need to effectively protect your resources-from dealing with obsolescence, to responsibilities, methods of preservation, cost, and metadata formats. It also gives examples of numerous national and international institutions that provide frameworks for digital libraries and archives. A long-overdue text for anyone involved in the preservation of digital information, this book is critical in understanding today's methods and practices, intellectual discourse, and preservation guidelines. A must for librarians, archiving professionals, faculty and students of library science, administrators, and corporate leaders!
Data warehousing is revolutionizing the way businesses in a wide variety of industries perform analysis and make strategic decisions. This volume offers IT professionals comprehensive coverage of every significant topic in data warehousing systems. The author provides a complete overview of data warehousing together with in-depth explanations of critical issues in planning, design, deployment, and ongoing maintenance. IT professionals will gain a clear understanding of techniques for extraction of data from source systems, data transformations, data staging, data warehouse architecture and infrastructure, and the various methods for information delivery. Data Warehousing Fundamentals includes review questions and exercises appropriate for self-study or classroom work, industry examples applicable to real-world situations, and an appendix containing valuable guidelines for evaluating vendor solutions. Specifically written for professionals designing, implementing, or maintaining data warehousing systems, this practical book spans the entire landscape of the subject.
Anhand von zahlreichen Beispielen und Szenarien werden die einzelnen HR-Module von R/3 praxisorientiert vorgestellt und naher erlautert. Unter anderem sind folgende aktuelle Themen anhand des aktuellen Releasestandes 4.5 B im Blickpunkt: Vergutungsmanagement und Kostenplanung, Personalabrechnung, Zeitwirtschaft, Reisemanagement, HR-Internetanbindung etc."
The researcher in computer content analysis is often faced with a paucity of guidance in conducting a study. Published exemplars of best practice in computer content analysis are rare, and computer content analysis seems to have developed independently in a number of disciplines, with researchers in one field often unaware of new and innovative techniques developed by researchers in other areas. This volume contains numerous articles illustrating the current state of the art of computer content analysis. Research is presented by scholars in political science, natural resource management, mass communication, marketing, education, and other fields, with the aim of providing exemplars for further research on the computer analysis and understanding of textual materials. The studies presented in "Applications of Computer Content Analysis" offer a varied spectrum of exemplary studies, Researchers can, due to the breadth of the studies presented here, find methodological, theoretical, and practical suggestions which will significantly ease the process of creating new research--and will significantly reduce the duplication of effort which has, until now, plagued computer content analytic research. Intended for an audience of graduate students, scholars, and in-field practitioners, this will serve as an invaluable resource, full of useful examples, for those interesting in using computers to analyze newspapers articles, emails, mediated communication, or any other sort of digital communication.
Learn from a SQL Server performance authority how to make your
database run at lightning speed.
Microsoft Data Mining approaches data mining from the particular
perspective of IT professionals using Microsoft data management
technologies. The author explains the new data mining capabilities
in Microsoft's SQL Server 2000 database, Commerce Server, and other
products, details the Microsoft OLE DB for Data Mining standard,
and gives readers best practices for using all of them. The book
bridges the previously specialized field of data mining with the
new technologies and methods that are quickly making it an
important mainstream tool for companies of all sizes.
Do you need an introductory book on data and databases? If the
book is by Joe Celko, the answer is yes. "Data and Databases:
Concepts in Practice" is the first introduction to relational
database technology written especially for practicing IT
professionals. If you work mostly outside the database world, this
book will ground you in the concepts and overall framework you must
master if your data-intensive projects are to be successful. If
you're already an experienced database programmer, administrator,
analyst, or user, it will let you take a step back from your work
and examine the founding principles on which you rely every
day-helping you to work smarter, faster, and problem-free. Whatever your field or level of expertise, Data and Databases
offers you the depth and breadth of vision for which Celko is
famous. No one knows the topic as well as he, and no one conveys
this knowledge as clearly, as effectively-or as engagingly. Filled
with absorbing war stories and no-holds-barred commentary, this is
a book you'll pick up again and again, both for the information it
holds and for the distinctive style that marks it as genuine
Celko.
Whether building a relational, object-relational, or
object-oriented database, database developers are increasingly
relying on an object-oriented design approach as the best way to
meet user needs and performance criteria. This book teaches you how
to use the Unified Modeling Language-the official standard of the
Object Management Group-to develop and implement the best possible
design for your database. Inside, the author leads you step by step through the design
process, from requirements analysis to schema generation. You'll
learn to express stakeholder needs in UML use cases and actor
diagrams, to translate UML entities into database components, and
to transform the resulting design into relational,
object-relational, and object-oriented schemas for all major DBMS
products.
"The first magnetic recording device was demonstrated and patented
by the Danish inventor Valdemar Poulsen in 1898. Poulsen made a
magnetic recording of his voice on a length of piano wire. MAGNETIC
RECORDING traces the development of the watershed products and the
technical breakthroughs in magnetic recording that took place
during the century from Paulsen's experiment to today's ubiquitous
audio, video, and data recording technologies including tape
recorders, video cassette recorders, and computer hard drives.
Solve Data Analytics Problems with Spark, PySpark, and Related Open Source Tools Spark is at the heart of today's Big Data revolution, helping data professionals supercharge efficiency and performance in a wide range of data processing and analytics tasks. In this guide, Big Data expert Jeffrey Aven covers all you need to know to leverage Spark, together with its extensions, subprojects, and wider ecosystem. Aven combines a language-agnostic introduction to foundational Spark concepts with extensive programming examples utilizing the popular and intuitive PySpark development environment. This guide's focus on Python makes it widely accessible to large audiences of data professionals, analysts, and developers-even those with little Hadoop or Spark experience. Aven's broad coverage ranges from basic to advanced Spark programming, and Spark SQL to machine learning. You'll learn how to efficiently manage all forms of data with Spark: streaming, structured, semi-structured, and unstructured. Throughout, concise topic overviews quickly get you up to speed, and extensive hands-on exercises prepare you to solve real problems. Coverage includes: * Understand Spark's evolving role in the Big Data and Hadoop ecosystems * Create Spark clusters using various deployment modes * Control and optimize the operation of Spark clusters and applications * Master Spark Core RDD API programming techniques * Extend, accelerate, and optimize Spark routines with advanced API platform constructs, including shared variables, RDD storage, and partitioning * Efficiently integrate Spark with both SQL and nonrelational data stores * Perform stream processing and messaging with Spark Streaming and Apache Kafka * Implement predictive modeling with SparkR and Spark MLlib
Das Wegweiser-Buch weist Wege zum erfolgreichen Einsatz des Commo- dore 64. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung bzw. Informatik: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? - Was sind Datenstrukturen und Programmstrukturen? -Was sind Betriebssysteme und Anwenderprogramme? - Was heisst, fertige Programm-Pakete einsetzen'? -Was beinhaltet das eigene Programmieren? Nach der Lekture dieses Abschnitts sind Sie in der Lage, den Commodore 64 in den Gesamtrahmen des Gebiets Datenverarbeitung/Informatik einzu- ordnen. Das Wegweiser-Buch gibt eine erste Bedienungsanleitung: -Wie bediene ich Tastatur, Bildschirm, Floppy bzw. Disketteneinheit und Drucker des Commodore 64? -Wie erstelle ich mein erstes Programm in der Programmiersprache BASIC 2.0? -Welche Befehle umfasst BASIC 2.0 (zu jedem Befehl wird ein Beispiel an- gegeben)? -Welche Moeglichkeiten bieten die drei Sprachversionen BASIC 2.0, BASIC 4.0 und SIMON's BASIC? - Laufen die Programme des Commodore 64 auf anderen Mikrocomputern von Commodore? Nach dem Durcharbeiten dieses Abschnitts koennen Sie Ihren Commodore 64 bedienen, Programme laufen lassen und einfache BASIC-Programme selbst erstellen und speichern. Das Wegweiser-Buch enthalt einen kompletten Programmierkurs mit folgen- den grundlegenden BASIC-Anwendungen: - Programme mit den wichtigen Ablaufstrukturen (Folge-, Auswahl-, W- derholungs-und Unterprogrammstrukturen). - Verarbeitung von Text, Ein-/Ausgabe und Tabellen. - Maschinennahe Programmierung( ... Bit fur Bit). - Suchen, Sortieren, Mischen und Gruppieren von Daten. - Sequentielle Datei und Direktzugriff-Datei mit den Sprachen BASIC 2.0 und BASIC 4.0. Vorwort VI - Normale Grafik mit der Standardsprache BASIC 2.0. - Hl RES-Grafik und Sprite-Grafik mit SIMON's BASIC.
Qualitative and Mixed Methods Data Analysis Using Dedoose (R): A Practical Approach for Research Across the Social Sciences provides both new and experienced researchers with a guided introduction to dealing with the methodological complexity of mixed methods and qualitative inquiry using Dedoose (R) software. The authors use their depth of experience designing and updating Dedoose (R) as well as their published research to give the reader practical strategies for using Dedoose (R) from a wide range of research studies. Case study contributions by outside researchers provide readers with rich examples of how to use Dedoose (R) in practical, applied social science and health settings.
Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verstandlich und anschaulich dargestellt. Reprasentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. Ein Online-Service mit ausfuhrlichen Musterloesungen erleichtert das Lernen.
Das Buch beinhaltet die Ergebnisse des dreijahrigen Verbundprojekts Separator i4.0 des BMBF-Spitzenclusters it's OWL. Gegenstand des Projekts war die nachhaltige Einbindung von Expertenwissen in die zukunftsweisende Weiterentwicklung und Optimierung von Separationsprozessen. Durch die Entwicklung neuartiger intelligenter Komponenten aus dem Bereich der Sensorik wird es zukunftig moeglich sein, Separatoren und die zugehoerigen Prozesszusammenhange zu verstehen und diese oekologisch/oekonomisch optimal auszulegen und zu betreiben. Hierzu wurde ein Instrumentarium bestehend aus Methoden und Loesungen erarbeitet, das daruber hinaus auf analoge Problemstellungen komplexer maschinenbaulicher Anlagen anwendbar sein wird.
Grosse Datenmengen sind nicht nur das Ergebnis der Entwicklungen im Bereich von Heimautomatisierung und des Internet of Things. Zur Auswertung von Datenmengen sind Methoden und Verfahren entstanden, die mit den Begriffen "Data Mining", "Knowledge Discovery" oder "Big Data" verknupft sind. Der Anwender kann aus kommerziellen und Open-Source-Anwendungen wahlen, die versprechen, vollkommen neue Erkenntnisse aus seinen Daten zu generieren. Vergleichbar mit einem Werkzeugkasten muss der Nutzer nur einen oder mehrere der darin zur Verfugung stehenden Algorithmen fur die Datenanalyse wahlen, um neue und spannende Einblicke zu erhalten. Doch ist es wirklich so einfach? Kai Jannaschk geht diesen und weiteren Fragen nach. Dazu stellt er ein Modell fur ein systematisches und glaubwurdiges Data Mining vor. Weiterhin skizziert der Autor einen Ansatz zur Systematisierung von Algorithmen und Verfahren in der Datenanalyse.Der Autor Aktuell arbeitet Kai Jannaschk als Software- und Datenbankentwickler in Industrie und Wirtschaft. Sein Aufgabengebiet umfasst die Bereiche Konzeption, Entwurf und Umsetzung von Informationssystemen sowie Strukturierung und Aufbau von Infrastrukturen fur die Datenverarbeitung.
Dieses Buch hilft Unternehmen und Organisationen bei der Konzeption und Implementierung von Terminologiemanagementloesungen. Es stellt dar, wie Fachwortschatze professionell erarbeitet, bereinigt und verwaltet werden - Grundvoraussetzung fur den Aufbau einer Corporate Language. Daruber hinaus zeigen die Autoren, wie Terminologiemanagementprozesse sinnvoll in die ein- und mehrsprachige Dokumentationserstellung eingebunden werden koennen.
Fabia Schaufele untersucht, wie die Technisierung von Tatigkeiten die Einflussverteilung in den sie umsetzenden sozio-technischen Konstellationen verandert. Die Autorin geht dieser Frage im Rahmen einer vergleichenden Studie von Profiling-Prozessen - zu Sicherheits- und UEberwachungszwecken - an Flughafen und beim Credit-Scoring nach. Sie knupft dabei theoretisch an den techniksoziologischen Diskurs der Handlungsfahigkeit von Technik an und zeigt - mithilfe der erweiterten Skriptanalyse - wie technisches Wirken differenziert analysiert und verglichen werden kann.
Dieses Lehrbuch vermittelt in exakter und verstandlicher Weise alle fur das Informatikstudium noetigen Grundlagen der Mathematik. Ein grosser Vorteil des Buches ist, dass die meisten Kapitel unabhangig voneinander gelesen werden koennen. Konkrete Beispiele veranschaulichen die Anwendung der Mathematik in den unterschiedlichen Bereichen der Informatik. Auch bestens zum Selbststudium geeignet!
Markus Riegler beschreibt die fur eine operative Prozessgestaltung relevanten Inhalte des Network Code on Electricity Balancing und entwirft, darauf aufbauend, zwei unterschiedliche Prozesslandschaften. Der Autor untersucht, wie diese Anforderungen am effizientesten in die Prozessstrukturen der europaischen UEbertragungsnetzbetreiber eingebettet werden koennen. Im ersten Entwurf verbleiben die Aufgaben soweit wie moeglich im Verantwortungsbereich der UEbertragungsnetzbetreiber. Der zweite beschreibt ein Szenario, in dem so viele Aufgaben wie moeglich an zentrale europaische Entitaten delegiert werden. Abschliessend werden die beiden Prozesslandschaften einander gegenubergestellt, um den Aufwand fur die Gestaltungsvarianten zu bestimmen.
Dieses Buch zum Projekt Value4Cloud betrachtet das Cloud-Computing aus der Perspektive von Unternehmen. Die Autoren entwickeln Bausteine zur Foerderung von Vertrauen, Rechtsvertraglichkeit, Qualitat und Nutzung von Cloud-Services im deutschen Mittelstand. Fallstudien zeigen den exemplarischen Einsatz entwickelter Unterstutzungswerkzeuge in der Unternehmenspraxis auf. Den Autoren gelingt eine rationale Betrachtung der Herausforderungen und Chancen des Cloud-Computing.
Auf dem Gebiet der Petri-Netze und Vektoradditionssysteme sind viele Entscheidungsfragen ungeklart, die Uli Schlachter in seiner Masterarbeit motiviert haben, Spiele auf sogenannten Spielstrukturen mit einer ahnlichen Semantik zu untersuchen. Hierbei handelt es sich um eine Art von Zwei-Spieler-Spielen auf einem gerichteten Graphen. Der Autor erarbeitet verschiedene Gewinnbedingungen und zeigt ihre Entscheidbarkeit. Die Arbeit beleuchtet diese Themen spieltheoretisch, bietet aber auch eine exemplarische Anwendung verschiedener Aspekte der Spieltheorie.
Jurgen Hoelsch erarbeitet einen neuen Ansatz zur Optimierung von verschachtelten SQL-Anfragen (Nested Queries), einem wichtigen Teilgebiet der Datenbankforschung. Es gelingt ihm, diese Anfragen im gleichen Schritt wie alle ubrigen Optimierungen zu behandeln. Dazu werden SQL-Anfragen mithilfe der Non-First Normal Form (NF2)-Algebra dargestellt, die ursprunglich dazu entwickelt wurde, Anfragen auf verschachtelten Tabellen zu beschreiben. Da diese Algebra im Gegensatz zur relationalen Algebra den heutigen Stand von SQL nahezu 1:1 abbilden kann, koennen bekannte und auch neue Optimierungstechniken fur verschachtelte Anfragen formalisiert werden. Die Anwendbarkeit wird anhand der praktischen Umsetzung des Ansatzes in einem Anfrageoptimierer und den daraus resultierenden Performance-Gewinnen demonstriert. |
You may like...
Advances in Virus Research, Volume 102
Marilyn Roossinck, Peter Palukaitis
Hardcover
R3,721
Discovery Miles 37 210
I Love Jesus, But I Want To Die - Moving…
Sarah J Robinson
Paperback
Juvenile Justice - An Introduction
John T Whitehead, Steven P Lab
Hardcover
R7,074
Discovery Miles 70 740
Brooks/Cole Empowerment Series…
Susan Gray, Marilyn Zide
Paperback
Genetics and Breeding for Disease…
Aruna Pal, A.K. Chakravarty
Paperback
R4,010
Discovery Miles 40 100
|