![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Compliance wird oft als Verpflichtung betrachtet, die nur mit hohen Kosten umsetzbar ist. Dabei kann eine effiziente und effektive Umsetzung regulatorischer Anforderungen an die IT-Kontrollen zu einem Wettbewerbsvorteil werden, wenn der richtige Ansatz fur deren Umsetzung gewahlt wird. Ein solcher Ansatz - eine methodische Vorgehensweise, um durch den Einsatz von Metriken die Effektivitat implementierter Kontrollen zu bewerten, Verbesserungspotential zu identifizieren und zu kommunizieren - wird in dem Buch vorgestellt. Neben einer umfassenden Sammlung von Metriken, welche direkt ubernommen werden konnen, bietet das Buch ebenfalls die notwendige praxistaugliche Methodik zur Entwicklung weiterer eigener Metriken, Vorgehensweisen zur Aggregation von Metriken bis hin zur Informations- und Entscheidungsvorlagen fur das Management sowie Beispiele fur die angemessene Darstellung der Ergebnisse im Rahmen von Audit, Monitoring und Reporting.
Data Mining and Business Intelligence: A Guide to Productivity provides an overview of data mining technology and how it is applied in a business environment. It describes the corresponding data mining methodologies that are used to solve a variety of business problems which enhance firm-level efficiency in a less technical, more managerial style. The book incorporates the data mining process into the spectrum of complementary technologies that together comprise corporate information systems that promote business intelligence. Business intelligence involves the proliferation of value-added information throughout a given enterprise through the use of various applications that promotes efficiency for the firm.
The lure of big data and analytics has produced new partnerships between news media and social media and consequently a fragmentation of digital journalism. The era is coupled with the rise in fake news and controversial data sharing. However, creative mobile reporting and civilian drones set new standards for journalist during the European asylum seeker crisis. Yet the focus on data and remote cloud servers continues to dominate online news and journalism, alongside new semantic models for data personalization. News tags that define concepts within a news story to assist search, are now monetized abstractions in accelerated data processing that enables automation and feeds advertising. Can journalism compete with this by defining its own concepts with ethical values named and embedded in algorithms? Can machines make sense of the world in the same way as a traditional journalist? In this book, Cate Dowd analyzes the tasks and ethics of journalists and questions how intelligent machines could simulate ethical human behaviors to better understand the dizzy post-human world of online data. Looking to digital journalism and multi-platform news media, from studios and integrated media systems to mobile reporting in the field, Dowd assesses how data and digital technology has impacted on journalism over the past decade. Dowd's research is informed by in-depth participation with investigative journalists, including images drawn and annotated by industry experts to present key journalism concepts, priorities, and values. Chapters explore approaches for the elicitation of vocabulary for journalism and design methods to embed values and ethics into algorithms for the era of automation and big data. Digital Journalism, Drones, and Automation provides insights into the lasting values of journalism processes and equips readers interested in entering or understanding online data and news media with much needed context and wisdom.
Idealer Einstieg fur Studierende der Informatik in die Mathematik: * Jedes Kapitel beginnt mit konkreten, dem Leser vertrauten Begriffen oder Situationen. Davon ausgehend wird schrittweise bis hin zu den gebrauchlichen abstrakten Begriffen der modernen Mathematik abstrahiert. * Jedes Kapitel beschreibt viele interessante Situationen des Alltagslebens, in denen die zuvor eingefuhrten abstrakten Begriffe und die bewiesenen Ergebnisse zum Einsatz kommen. Dabei wird auf Anwendungen mit einem engen Bezug zur Informatik eingegangen wie: Routenplaner, Google-Suche, Kryptographie, Codierungstheorie, Datenkompressionen, Hashtabellen und Sudoku. Durch Loesungen aller UEbungsaufgaben auch sehr gut zum Selbststudium geeignet.
Studierende, die ein Informatikstudium aufnehmen, brauchen zu
Beginn vor allem eines: mathematische Grundkenntnisse. Dieser
Crashkurs soll Studierenden im ersten Semester helfen, moglichst
rechtzeitig diese Fahigkeiten zu erwerben.
Der Kostendruck im Gesundheitswesen steigt stetig und zwingt zum Handeln dringender denn je. Dieses Buch stellt die IT auf den Prufstand und zeigt, wie mit der Auswahl geeigneter Systeme Kosten reduziert und Ablaufe in medizinischen Einrichtungen optimiert werden konnen."
Business-Process- und Workflow-Management, oder wie erreicht man eine Prozessverbesserung durch Prozessmanagement im Unternehmen ist ein topaktuelles Thema. Viele reden davon, Organisationen in Prozessorganisationen umzuwandeln, oder den Prozessgedanken in den Vordergrund der Organisation zu rucken, nicht nur um den aktuellen ISO-Normen zu genugen, sondern auch Effizienzverbesserungen zu erzielen. Dieses Buch leistet einen Beitrag dazu, das Prozessdenken in der Wirtschaftswelt zu verbreiten und zu verstarken, um Ablaufe klarer, realitatsnah und verstandlich darzustellen, zu verbessern und umzusetzen."
Many faces of modern computing - from archiving data to coding theory to image processing ¿ rely heavily on data compression. This new and practical guide explains the process of compressing all types of computer data, as well as the use of significant methods and algorithms. Its purpose is to succinctly describe both the principles underlying the field of data compression and how to use the key methods effectively. A Guide to Data Compression Methods concentrates on general concepts and methods and describes them with a minimal amount of mathematical detail. It presents the main approaches to data compression, describes the most important algorithms, and includes straightforward examples. Statistical, dictionary, and wavelet methodologies are addressed in specific chapters, as well as image, video, and audio compression. The reader can expect to gain a basic understanding of the key algorithms and methods used to compress data for storage and transmission. Topics and features: ¿ All core methods are clearly explained with realistic examples, and some computer code is included ¿ Accessible presentation, with only minimum computer and mathematics technical background ¿ Discussion of wavelet methods and JPEG 2000 ¿ Appendix lists all algorithms presented in the book ¿ CD-ROM included compromising computer code from the book and extensive public-domain compression utility programs This book is an invaluable practical reference and guide for all practitioners and professionals in computer science, software engineering, and programming.
Protect your digital resources! This book addresses critical issues of preservation, giving you everything you need to effectively protect your resources-from dealing with obsolescence, to responsibilities, methods of preservation, cost, and metadata formats. It also gives examples of numerous national and international institutions that provide frameworks for digital libraries and archives. A long-overdue text for anyone involved in the preservation of digital information, this book is critical in understanding today's methods and practices, intellectual discourse, and preservation guidelines. A must for librarians, archiving professionals, faculty and students of library science, administrators, and corporate leaders!
Anhand von zahlreichen Beispielen und Szenarien werden die einzelnen HR-Module von R/3 praxisorientiert vorgestellt und naher erlautert. Unter anderem sind folgende aktuelle Themen anhand des aktuellen Releasestandes 4.5 B im Blickpunkt: Vergutungsmanagement und Kostenplanung, Personalabrechnung, Zeitwirtschaft, Reisemanagement, HR-Internetanbindung etc."
The researcher in computer content analysis is often faced with a paucity of guidance in conducting a study. Published exemplars of best practice in computer content analysis are rare, and computer content analysis seems to have developed independently in a number of disciplines, with researchers in one field often unaware of new and innovative techniques developed by researchers in other areas. This volume contains numerous articles illustrating the current state of the art of computer content analysis. Research is presented by scholars in political science, natural resource management, mass communication, marketing, education, and other fields, with the aim of providing exemplars for further research on the computer analysis and understanding of textual materials. The studies presented in "Applications of Computer Content Analysis" offer a varied spectrum of exemplary studies, Researchers can, due to the breadth of the studies presented here, find methodological, theoretical, and practical suggestions which will significantly ease the process of creating new research--and will significantly reduce the duplication of effort which has, until now, plagued computer content analytic research. Intended for an audience of graduate students, scholars, and in-field practitioners, this will serve as an invaluable resource, full of useful examples, for those interesting in using computers to analyze newspapers articles, emails, mediated communication, or any other sort of digital communication.
"The first magnetic recording device was demonstrated and patented
by the Danish inventor Valdemar Poulsen in 1898. Poulsen made a
magnetic recording of his voice on a length of piano wire. MAGNETIC
RECORDING traces the development of the watershed products and the
technical breakthroughs in magnetic recording that took place
during the century from Paulsen's experiment to today's ubiquitous
audio, video, and data recording technologies including tape
recorders, video cassette recorders, and computer hard drives.
Statistical methods are a key tool for all scientists working with data, but learning the basics continues to challenge successive generations of students. This accessible textbook provides an up-to-date introduction to the classical techniques and modern extensions of linear model analysis-one of the most useful approaches for investigating scientific data in the life and environmental sciences. While some of the foundational analyses (e.g. t tests, regression, ANOVA) are as useful now as ever, best practice moves on and there are many new general developments that offer great potential. The book emphasizes an estimation-based approach that takes account of recent criticisms of over-use of probability values and introduces the alternative approach that uses information criteria. This new edition includes the latest advances in R and related software and has been thoroughly "road-tested" over the last decade to create a proven textbook that teaches linear and generalized linear model analysis to students of ecology, evolution, and environmental studies (including worked analyses of data sets relevant to all three disciplines). While R is used throughout, the focus remains firmly on statistical analysis. The New Statistics with R is suitable for senior undergraduate and graduate students, professional researchers, and practitioners in the fields of ecology, evolution and environmental studies.
Das Wegweiser-Buch weist Wege zum erfolgreichen Einsatz des Commo- dore 64. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung bzw. Informatik: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? - Was sind Datenstrukturen und Programmstrukturen? -Was sind Betriebssysteme und Anwenderprogramme? - Was heisst, fertige Programm-Pakete einsetzen'? -Was beinhaltet das eigene Programmieren? Nach der Lekture dieses Abschnitts sind Sie in der Lage, den Commodore 64 in den Gesamtrahmen des Gebiets Datenverarbeitung/Informatik einzu- ordnen. Das Wegweiser-Buch gibt eine erste Bedienungsanleitung: -Wie bediene ich Tastatur, Bildschirm, Floppy bzw. Disketteneinheit und Drucker des Commodore 64? -Wie erstelle ich mein erstes Programm in der Programmiersprache BASIC 2.0? -Welche Befehle umfasst BASIC 2.0 (zu jedem Befehl wird ein Beispiel an- gegeben)? -Welche Moeglichkeiten bieten die drei Sprachversionen BASIC 2.0, BASIC 4.0 und SIMON's BASIC? - Laufen die Programme des Commodore 64 auf anderen Mikrocomputern von Commodore? Nach dem Durcharbeiten dieses Abschnitts koennen Sie Ihren Commodore 64 bedienen, Programme laufen lassen und einfache BASIC-Programme selbst erstellen und speichern. Das Wegweiser-Buch enthalt einen kompletten Programmierkurs mit folgen- den grundlegenden BASIC-Anwendungen: - Programme mit den wichtigen Ablaufstrukturen (Folge-, Auswahl-, W- derholungs-und Unterprogrammstrukturen). - Verarbeitung von Text, Ein-/Ausgabe und Tabellen. - Maschinennahe Programmierung( ... Bit fur Bit). - Suchen, Sortieren, Mischen und Gruppieren von Daten. - Sequentielle Datei und Direktzugriff-Datei mit den Sprachen BASIC 2.0 und BASIC 4.0. Vorwort VI - Normale Grafik mit der Standardsprache BASIC 2.0. - Hl RES-Grafik und Sprite-Grafik mit SIMON's BASIC.
Demographic Methods and Concepts makes accessible the most commonly needed techniques for working with population statistics, irrespective of the reader's mathematical background. For the first time in such a text, concepts and practical strategies needed in the interpretation of demographic indices and data are included. Spreadsheet training exercises enable students to acquire the computer skills needed for demographic work. The accompanying free CD-ROM contains innovative, fully integrated learning modules as well as applications facilitating demographic studies.
Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verstandlich und anschaulich dargestellt. Reprasentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. Ein Online-Service mit ausfuhrlichen Musterloesungen erleichtert das Lernen.
Das Buch beinhaltet die Ergebnisse des dreijahrigen Verbundprojekts Separator i4.0 des BMBF-Spitzenclusters it's OWL. Gegenstand des Projekts war die nachhaltige Einbindung von Expertenwissen in die zukunftsweisende Weiterentwicklung und Optimierung von Separationsprozessen. Durch die Entwicklung neuartiger intelligenter Komponenten aus dem Bereich der Sensorik wird es zukunftig moeglich sein, Separatoren und die zugehoerigen Prozesszusammenhange zu verstehen und diese oekologisch/oekonomisch optimal auszulegen und zu betreiben. Hierzu wurde ein Instrumentarium bestehend aus Methoden und Loesungen erarbeitet, das daruber hinaus auf analoge Problemstellungen komplexer maschinenbaulicher Anlagen anwendbar sein wird.
Grosse Datenmengen sind nicht nur das Ergebnis der Entwicklungen im Bereich von Heimautomatisierung und des Internet of Things. Zur Auswertung von Datenmengen sind Methoden und Verfahren entstanden, die mit den Begriffen "Data Mining", "Knowledge Discovery" oder "Big Data" verknupft sind. Der Anwender kann aus kommerziellen und Open-Source-Anwendungen wahlen, die versprechen, vollkommen neue Erkenntnisse aus seinen Daten zu generieren. Vergleichbar mit einem Werkzeugkasten muss der Nutzer nur einen oder mehrere der darin zur Verfugung stehenden Algorithmen fur die Datenanalyse wahlen, um neue und spannende Einblicke zu erhalten. Doch ist es wirklich so einfach? Kai Jannaschk geht diesen und weiteren Fragen nach. Dazu stellt er ein Modell fur ein systematisches und glaubwurdiges Data Mining vor. Weiterhin skizziert der Autor einen Ansatz zur Systematisierung von Algorithmen und Verfahren in der Datenanalyse.Der Autor Aktuell arbeitet Kai Jannaschk als Software- und Datenbankentwickler in Industrie und Wirtschaft. Sein Aufgabengebiet umfasst die Bereiche Konzeption, Entwurf und Umsetzung von Informationssystemen sowie Strukturierung und Aufbau von Infrastrukturen fur die Datenverarbeitung.
Andreas Gadatsch und Holm Landrock zeigen an typischen Beispielen aus der Praxis, wie datengetriebene Geschaftsmodelle entstehen. Sie erlautern, wie sich Big-Data-Projekte rechnen und wie man am einfachsten an die Analyse grosser Datenmengen herangeht. Eine Bewertung der zentralen Aspekte von Projekten und der dort eingesetzten Technologien erleichtert den Lesern die tagliche Praxis im IT-Management. Die Autoren stellen Hadoop als eine der wichtigen Big-Data-Technologien vor.
Dieses Buch hilft Unternehmen und Organisationen bei der Konzeption und Implementierung von Terminologiemanagementloesungen. Es stellt dar, wie Fachwortschatze professionell erarbeitet, bereinigt und verwaltet werden - Grundvoraussetzung fur den Aufbau einer Corporate Language. Daruber hinaus zeigen die Autoren, wie Terminologiemanagementprozesse sinnvoll in die ein- und mehrsprachige Dokumentationserstellung eingebunden werden koennen.
Fabia Schaufele untersucht, wie die Technisierung von Tatigkeiten die Einflussverteilung in den sie umsetzenden sozio-technischen Konstellationen verandert. Die Autorin geht dieser Frage im Rahmen einer vergleichenden Studie von Profiling-Prozessen - zu Sicherheits- und UEberwachungszwecken - an Flughafen und beim Credit-Scoring nach. Sie knupft dabei theoretisch an den techniksoziologischen Diskurs der Handlungsfahigkeit von Technik an und zeigt - mithilfe der erweiterten Skriptanalyse - wie technisches Wirken differenziert analysiert und verglichen werden kann.
Dieses Lehrbuch vermittelt in exakter und verstandlicher Weise alle fur das Informatikstudium noetigen Grundlagen der Mathematik. Ein grosser Vorteil des Buches ist, dass die meisten Kapitel unabhangig voneinander gelesen werden koennen. Konkrete Beispiele veranschaulichen die Anwendung der Mathematik in den unterschiedlichen Bereichen der Informatik. Auch bestens zum Selbststudium geeignet! |
You may like...
Data Analytics for Social Microblogging…
Soumi Dutta, Asit Kumar Das, …
Paperback
R3,335
Discovery Miles 33 350
Machine Learning for Biometrics…
Partha Pratim Sarangi, Madhumita Panda, …
Paperback
R2,570
Discovery Miles 25 700
Demystifying Graph Data Science - Graph…
Pethuru Raj, Abhishek Kumar, …
Hardcover
Mathematical Methods in Data Science
Jingli Ren, Haiyan Wang
Paperback
R3,925
Discovery Miles 39 250
Intelligent Data Analysis for e-Learning…
Jorge Miguel, Santi Caballe, …
Paperback
Cognitive and Soft Computing Techniques…
Akash Kumar Bhoi, Victor Hugo Costa de Albuquerque, …
Paperback
R2,583
Discovery Miles 25 830
Intelligent Data Security Solutions for…
Amit Kumar Singh, Mohamed Elhoseny
Paperback
R2,640
Discovery Miles 26 400
Cross-Cultural Analysis of Image-Based…
Lisa Keller, Robert Keller, …
Hardcover
R3,285
Discovery Miles 32 850
|