![]() |
![]() |
Your cart is empty |
||
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
This is a glossary of over 2,000 terms which provides a common data management vocabulary for IT and Business professionals, and is a companion to the "DAMA Data Management Body of Knowledge (DAMA-DMBOK)". Topics include: Analytics & Data Mining; Architecture; Artificial Intelligence; Business Analysis; DAMA & Professional Development; Databases & Database Design; Database Administration; Data Governance & Stewardship; Data Management; Data Modeling; Data Movement & Integration; Data Quality Management; Data Security Management; Data Warehousing & Business Intelligence; Document, Record & Content Management; Finance & Accounting; Geospatial Data; Knowledge Management; Marketing & Customer Relationship Management; Meta-Data Management; Multi-dimensional & OLAP; Normalization; Object-Orientation; Parallel Database Processing; Planning; Process Management; Project Management; Reference & Master Data Management; Semantic Modeling; Software Development; Standards Organizations; Structured Query Language (SQL); and, XML Development.
Grosse Datenmengen sind nicht nur das Ergebnis der Entwicklungen im Bereich von Heimautomatisierung und des Internet of Things. Zur Auswertung von Datenmengen sind Methoden und Verfahren entstanden, die mit den Begriffen "Data Mining", "Knowledge Discovery" oder "Big Data" verknupft sind. Der Anwender kann aus kommerziellen und Open-Source-Anwendungen wahlen, die versprechen, vollkommen neue Erkenntnisse aus seinen Daten zu generieren. Vergleichbar mit einem Werkzeugkasten muss der Nutzer nur einen oder mehrere der darin zur Verfugung stehenden Algorithmen fur die Datenanalyse wahlen, um neue und spannende Einblicke zu erhalten. Doch ist es wirklich so einfach? Kai Jannaschk geht diesen und weiteren Fragen nach. Dazu stellt er ein Modell fur ein systematisches und glaubwurdiges Data Mining vor. Weiterhin skizziert der Autor einen Ansatz zur Systematisierung von Algorithmen und Verfahren in der Datenanalyse.Der Autor Aktuell arbeitet Kai Jannaschk als Software- und Datenbankentwickler in Industrie und Wirtschaft. Sein Aufgabengebiet umfasst die Bereiche Konzeption, Entwurf und Umsetzung von Informationssystemen sowie Strukturierung und Aufbau von Infrastrukturen fur die Datenverarbeitung.
The Wiley Classics Library consists of selected books that have become recognized classics in their respective fields. With these new unabridged and inexpensive editions, Wiley hopes to extend the life of these important works by making them available to future generations of mathematicians and scientists. Currently available in the Series: T.W. Anderson The Statistical Analysis of Time Series T.S. Arthanari & Yadolah Dodge Mathematical Programming in Statistics Emil Artin Geometric Algebra Norman T.J. Bailey The Elements of Stochastic Processes with Applications to the Natural Sciences Robert G. Bartle The Elements of Integration and Lebesgue Measure George E. P. Box & Norman R. Draper Evolutionary Operation: A Statistical Method for Process Improvement George E. P. Box & George C. Tiao Bayesian Inference in Statistical Analysis R.W. Carter Finite Groups of Lie Type: Conjugacy Classes and Complex Characters R.W. Carter Simple Groups of Lie Type William G. Cochran & Gertrude M. Cox Experimental Designs, Second Edition Richard Courant Differential and Integral Calculus, Volume I Richard Courant Differential and Integral Calculus, Volume II Richard Courant & D. Hilbert Methods of Mathematical Physics, Volume I Richard Courant & D. Hilbert Methods of Mathematical Physics, Volume II D. R. Cox Planning of Experiments Harold S. M. Coxeter Introduction to Geometry, Second Edition Charles W. Curtis & Irving Reiner Representation Theory of Finite Groups and Associative Algebras Charles W. Curtis & Irving Reiner Methods of Representation Theory with Applications to Finite Groups and Orders, Volume I Charles W. Curtis & Irving Reiner Methods of Representation Theory with Applications to Finite Groups and Orders, Volume II Cuthbert Daniel & Fred S. Wood Fitting Equations to Data: Computer Analysis of Multifactor Data, Second Edition Bruno de Finetti Theory of Probability, Volume I Bruno de Finetti Theory of Probability, Volume 2 W. Edwards Deming Sample Design in Business Research Amos de Shalit & Herman Feshbach Theoretical Nuclear Physics, Volume 1—Nuclear Structure Harold F. Dodge & Harry G. Romig Sampling Inspection Tables: Single and Double Sampling J. L. Doob Stochastic Processes Nelson Dunford & Jacob T. Schwartz Linear Operators, Part One, General Theory Nelson Dunford & Jacob T. Schwartz Linear Operators, Part Two, Spectral Theory—Self Adjoint Operators in Hilbert Space Nelson Dunford & Jacob T. Schwartz Linear Operators, Part Three, Spectral Operators Regina C. Elandt-Johnson & Norman L. Johnson Survival Models and Data Analysis Herman Feshbach Theoretical Nuclear Physics: Nuclear Reactions Joseph L. Fleiss Design and Analysis of Clinical Experiments Bernard Friedman Lectures on Applications-Oriented Mathematics Phillip Griffiths & Joseph Harris Principles of Algebraic Geometry Gerald J. Hahn & Samuel S. Shapiro Statistical Models in Engineering Marshall Hall, Jr. Combinatorial Theory, Second Edition Morris H. Hansen, William N. Hurwitz & William G. Madow Sample Survey Methods and Theory, Volume I—Methods and Applications Morris H. Hansen, William N. Hurwitz & William G. Madow Sample Survey Methods and Theory, Volume II—Theory Peter Henrici Applied and Computational Complex Analysis, Volume 1—Power Series—Integration—Conformal Mapping—Location of Zeros Peter Henrici Applied and Computational Complex Analysis, Volume 2—Special Functions—Integral Transforms—Asymptotics—Continued Fractions Peter Henrici Applied and Computational Complex Analysis, Volume 3—Discrete Fourier Analysis— Cauchy Integrals—Construction of Conformal Maps—Univalent Functions Peter Hilton & Yel-Chiang Wu A Course in Modern Algebra Harry Hochstadt Integral Equations Leslie Kish Survey Sampling Shoshichi Kobayashi & Katsumi Nomizu Foundations of Differential Geometry, Volume I Shoshichi Kobayashi & Katsumi Nomizu Foundations of Differential Geometry, Volume 2 Erwin O. Kreyszig Introductory Functional Analysis with Applications William H. Louisell Quantum Statistical Properties of Radiation Rupert G. Miller Jr. Survival Analysis Ali Hasan Nayfeh Introduction to Perturbation Techniques Ali Hasan Nayfeh & Dean T. Mook Nonlinear Oscillations Emanuel Parzen Modern Probability Theory & Its Applications P. M. Prenter Splines and Variational Methods Walter Rudin Fourier Analysis on Groups Lawrence S. Schulman Techniques and Applications of Path Integration Shayle R. Searle Linear Models I. H. Segel Enzyme Kinetics: Behavior and Analysis of Rapid Equilibrium and Steady-State Enzyme Systems C. L. Siegel Topics in Complex Function Theory, Volume I—Elliptic Functions and Uniformization Theory C. L. Siegel Topics in Complex Function Theory, Volume II—Automorphic and Abelian Integrals C. L. Siegel Topics in Complex Function Theory, Volume III—Abelian Functions and Modular Functions of Several Variables L. Spitzer Physical Processes in the Interstellar Medium J. J. Stoker Differential Geometry J. J. Stoker Water Waves: The Mathematical Theory with Applications J. J. Stoker Nonlinear Vibrations in Mechanical and Electrical Systems Richard Zallen The Physics of Amorphous Solids Arnold Zellner Introduction to Bayesian Inference in Econometrics
Die Autoren legen beispielhafte Analysemethoden von Social-Media-Daten dar: deskriptive und Data-Mining-Methoden. Mit deren Hilfe werden kundenorientierte Geschaftsmassnahmen eingeleitet und ein stetiges Abwagen zwischen vollautomatisierten und manuellen, kostenintensiven Reports gesteuert. Das Werk liefert eine UEbersicht zu aktuell diskutierten Themen wie begleitende Emotionen, Vernetzung der interagierenden User oder Verbindung von Themen. Als Gewinn fur ein Unternehmen mussen die Analysen durch eine strategische Prozedur geleitet werden, um Erkenntnisse in konkrete Handlungsempfehlungen zu uberfuhren. Neben den Potenzialen durch die Anwendung komplexerer Analysemethoden gibt es auch konzeptionelle, technische und ethische Herausforderungen, wie die Autoren veranschaulichen.
What are your organization's policies for generating and using huge datasets full of personal information? This book examines ethical questions raised by the big data phenomenon, and explains why enterprises need to reconsider business decisions concerning privacy and identity. Authors Kord Davis and Doug Patterson provide methods and techniques to help your business engage in a transparent and productive ethical inquiry into your current data practices. Both individuals and organizations have legitimate interests in understanding how data is handled. Your use of data can directly affect brand quality and revenue--as Target, Apple, Netflix, and dozens of other companies have discovered. With this book, you'll learn how to align your actions with explicit company values and preserve the trust of customers, partners, and stakeholders.Review your data-handling practices and examine whether they reflect core organizational valuesExpress coherent and consistent positions on your organization's use of big dataDefine tactical plans to close gaps between values and practices--and discover how to maintain alignment as conditions change over timeMaintain a balance between the benefits of innovation and the risks of unintended consequences
Dieses Buch hilft Unternehmen und Organisationen bei der Konzeption und Implementierung von Terminologiemanagementloesungen. Es stellt dar, wie Fachwortschatze professionell erarbeitet, bereinigt und verwaltet werden - Grundvoraussetzung fur den Aufbau einer Corporate Language. Daruber hinaus zeigen die Autoren, wie Terminologiemanagementprozesse sinnvoll in die ein- und mehrsprachige Dokumentationserstellung eingebunden werden koennen.
Andreas Gadatsch und Holm Landrock zeigen an typischen Beispielen aus der Praxis, wie datengetriebene Geschaftsmodelle entstehen. Sie erlautern, wie sich Big-Data-Projekte rechnen und wie man am einfachsten an die Analyse grosser Datenmengen herangeht. Eine Bewertung der zentralen Aspekte von Projekten und der dort eingesetzten Technologien erleichtert den Lesern die tagliche Praxis im IT-Management. Die Autoren stellen Hadoop als eine der wichtigen Big-Data-Technologien vor.
The second edition of this internationally acclaimed title is the ideal handbook for those involved in conducting epidemiological research. The objective of most epidemiological studies is to relate exposure to putative causal agents to the occurrence of a particular disease. The achievement of this objective depends critically on accurate measurement of exposure. This book reviews principles and techniques that can be applied to measuring a wide range of exposures, including demographic, behavioral, medical, genetic, and environmental factors. The book covers questionnaire design, conducting personal interviews, abstracting information from medical records, use of proxy respondents, and measurements from human specimens and in the environment. It gives a comprehensive account of measurement error and the estimation of its effects, and the design, analysis, and interpretation of validity and reliability studies. Emphasis is given to the ways in which the validity of measurements can be increased. Techniques to maximize participation of subjects in epidemiological studies are discussed, and ethical issues relevant to exposure measurement are outlined.
Fabia Schaufele untersucht, wie die Technisierung von Tatigkeiten die Einflussverteilung in den sie umsetzenden sozio-technischen Konstellationen verandert. Die Autorin geht dieser Frage im Rahmen einer vergleichenden Studie von Profiling-Prozessen - zu Sicherheits- und UEberwachungszwecken - an Flughafen und beim Credit-Scoring nach. Sie knupft dabei theoretisch an den techniksoziologischen Diskurs der Handlungsfahigkeit von Technik an und zeigt - mithilfe der erweiterten Skriptanalyse - wie technisches Wirken differenziert analysiert und verglichen werden kann.
Dieses Lehrbuch vermittelt in exakter und verstandlicher Weise alle fur das Informatikstudium noetigen Grundlagen der Mathematik. Ein grosser Vorteil des Buches ist, dass die meisten Kapitel unabhangig voneinander gelesen werden koennen. Konkrete Beispiele veranschaulichen die Anwendung der Mathematik in den unterschiedlichen Bereichen der Informatik. Auch bestens zum Selbststudium geeignet!
Die Autoren zeigen einen neuen Weg auf, gamifizierte Wissensmanagementsysteme mit der Anwendung spielerischer Elemente zu gestalten, und beschreiben die Anforderungserhebung, die Gestaltung und Evaluation des Systems. Hierbei gehen sie auf die theoretischen Grundlagen sowie die Umsetzung und Nutzung in einem Unternehmen ein. Mithilfe von Gamification-Mechanismen sollen Projektteams dazu motiviert werden, ihr Wissen und ihre Erfahrungen zu dokumentieren und in anderen Projekten wiederzuverwenden. Damit erhalt der Leser einen umfassenden Einblick in die Theorie und Praxis des modernen Wissensmanagements in Projekten.
In diesem essential werden die ubergeordneten Zielsetzungen der Applikationsentwicklung und einfuhrung auf vier Evolutionsphasen verteilt, um unterschiedlichen Anforderungen gerecht zu werden. Durch den daraus resultierenden strategischen Applikationslebenszyklus (SALZ) koennen innovative Neuentwicklungen in fruhen Phasen von technischen und architekturbezogenen Vorgaben befreit und agil entwickelt werden, wahrend fur operative Kernsysteme weiterhin ein ausfuhrliches AEnderungsmanagement betrieben wird. Damit bietet der SALZ auch die Grundlage, um in Unternehmen IT-Entwicklungsprojekte adaptiv mit unterschiedlichen Geschwindigkeiten zu realisieren. Alle Erkenntnisse werden am erfolgreichen Praxisbeispiel des Q-Cockpit-Projekts demonstriert.
Markus Riegler beschreibt die fur eine operative Prozessgestaltung relevanten Inhalte des Network Code on Electricity Balancing und entwirft, darauf aufbauend, zwei unterschiedliche Prozesslandschaften. Der Autor untersucht, wie diese Anforderungen am effizientesten in die Prozessstrukturen der europaischen UEbertragungsnetzbetreiber eingebettet werden koennen. Im ersten Entwurf verbleiben die Aufgaben soweit wie moeglich im Verantwortungsbereich der UEbertragungsnetzbetreiber. Der zweite beschreibt ein Szenario, in dem so viele Aufgaben wie moeglich an zentrale europaische Entitaten delegiert werden. Abschliessend werden die beiden Prozesslandschaften einander gegenubergestellt, um den Aufwand fur die Gestaltungsvarianten zu bestimmen.
Dieses Buch zum Projekt Value4Cloud betrachtet das Cloud-Computing aus der Perspektive von Unternehmen. Die Autoren entwickeln Bausteine zur Foerderung von Vertrauen, Rechtsvertraglichkeit, Qualitat und Nutzung von Cloud-Services im deutschen Mittelstand. Fallstudien zeigen den exemplarischen Einsatz entwickelter Unterstutzungswerkzeuge in der Unternehmenspraxis auf. Den Autoren gelingt eine rationale Betrachtung der Herausforderungen und Chancen des Cloud-Computing.
Andreas Gadatsch beschreibt, was IT-Controlling konkret ist und wie man es nutzen kann. Hierzu erklart der Autor die zentralen Aspekte und stellt praxistaugliche Methoden anhand von Beispielen vor. Erleichtern Sie sich die tagliche Praxis im IT-Management! Nach der Lekture dieses essentials koennen Sie u. a. mit Hilfe der IT-Balanced Scorecard IT-Strategien umsetzen und steuern oder mit Hilfe des Portfoliomanagements Projektbundel zusammenstellen und uberwachen. Die Earned-Value-Analyse hilft Ihnen bei der Projektplanung und deren UEberwachung. Mit Hilfe der IT-Kosten- und Leistungsrechnung und IT-Kennzahlen liefern Sie die Basis fur rationale Entscheidungen und ein zielorientiertes Reporting. Wer mehr wissen moechte, findet hier auch geeignete Hinweise auf weitere Literatur und aktuelle Studien.
Frank Rechsteiner liefert neue Strategien und Handlungsempfehlungen zur Rekrutierung von hochqualifizierten IT-Spezialisten. Basierend auf zahlreichen Umfragen und Studien zeigt er wichtige Trends fur den Arbeits- und Bewerbermarkt im IT-Bereich auf und gibt Tipps zum erfolgreichen Umgang mit den derzeitigen Herausforderungen. Das essential ladt HR-Verantwortliche und Geschaftsfuhrer ein, spezialisierte IT-Mitarbeiter nicht nur als Ressource zu betrachten, sondern auf die besonderen Bedurfnisse dieser Berufsgruppe einzugehen. Die daraus abgeleiteten Massnahmen ermoeglichen es, geeignete Experten zu finden und dauerhaft an das Unternehmen zu binden.
Das essential stellt die Preistrager und Nominierten des Hermes Awards im Zusammenhang mit dem Paradigmenwechsel der industriellen Fertigung im Internetzeitalter vor. Zunachst erlautern drei Experten das Konzept der Industrie 4.0. Im Anschluss werden Gewinner und nominierte Firmen des Hermes Awards 2015 sowie die Preistrager der ersten Jahre unter Einbeziehung aktueller technischer Innovationen und wirtschaftlicher Auswirkungen der pramierten Leistungen vorgestellt.
Auf dem Gebiet der Petri-Netze und Vektoradditionssysteme sind viele Entscheidungsfragen ungeklart, die Uli Schlachter in seiner Masterarbeit motiviert haben, Spiele auf sogenannten Spielstrukturen mit einer ahnlichen Semantik zu untersuchen. Hierbei handelt es sich um eine Art von Zwei-Spieler-Spielen auf einem gerichteten Graphen. Der Autor erarbeitet verschiedene Gewinnbedingungen und zeigt ihre Entscheidbarkeit. Die Arbeit beleuchtet diese Themen spieltheoretisch, bietet aber auch eine exemplarische Anwendung verschiedener Aspekte der Spieltheorie.
Jurgen Hoelsch erarbeitet einen neuen Ansatz zur Optimierung von verschachtelten SQL-Anfragen (Nested Queries), einem wichtigen Teilgebiet der Datenbankforschung. Es gelingt ihm, diese Anfragen im gleichen Schritt wie alle ubrigen Optimierungen zu behandeln. Dazu werden SQL-Anfragen mithilfe der Non-First Normal Form (NF2)-Algebra dargestellt, die ursprunglich dazu entwickelt wurde, Anfragen auf verschachtelten Tabellen zu beschreiben. Da diese Algebra im Gegensatz zur relationalen Algebra den heutigen Stand von SQL nahezu 1:1 abbilden kann, koennen bekannte und auch neue Optimierungstechniken fur verschachtelte Anfragen formalisiert werden. Die Anwendbarkeit wird anhand der praktischen Umsetzung des Ansatzes in einem Anfrageoptimierer und den daraus resultierenden Performance-Gewinnen demonstriert.
Schritt fur Schritt zu den Konzepten Die Autoren fuhren den Leser von den mathematischen Grundlagen zu den konkreten Methoden der Bioinformatik. Das Buch wendet sich damit an alle, die bioinformatische Methoden und Softwarepakete verwenden wollen, sie aber nicht als Black Boxes akzeptieren moechten. Ein besonderes Highlight ist die schrittweise Implementierung wichtiger Algorithmen der Bioinformatik im Computeralgebra-Programm Mathematica, um die Konzepte auch auf der informatischen Ebene zu verstehen. Das Themenspektrum reicht von bioinformatischen Alltagsfragen bis in die Systembiologie. Die zweite, stark erweiterte Auflage geht auch auf eine Reihe sehr aktueller Themen der Bioinformatik ein, etwa Next-Generation Sequencing (NGS), GWAS-Daten und Protein-Interaktions-Netzwerke. Der Inhalt ist spannend und leicht verstandlich. |
![]() ![]() You may like...
The Coastal Ocean - A derivative of the…
John H. Steele, Steve A. Thorpe, …
Paperback
R2,199
Discovery Miles 21 990
Numerical Modeling of Ocean Dynamics
Zygmunt Kowalik, T.S. Murty
Paperback
R1,759
Discovery Miles 17 590
Phytoplankton Pigments…
Suzanne Roy, Carole A. Llewellyn, …
Hardcover
Radioactivity and Pollution in the…
Olaf M. Johannessen, Vladimir A. Volkov, …
Hardcover
R4,537
Discovery Miles 45 370
Ocean Circulation and Climate, Volume…
Gerold Siedler, Stephen Griffies, …
Hardcover
Nonstationarities in Hydrologic and…
A.R. Rao, K.H. Hamed, …
Hardcover
R4,495
Discovery Miles 44 950
|