![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Python is used in a wide range of geoscientific applications, such as in processing images for remote sensing, in generating and processing digital elevation models, and in analyzing time series. This book introduces methods of data analysis in the geosciences using Python that include basic statistics for univariate, bivariate, and multivariate data sets, time series analysis, and signal processing; the analysis of spatial and directional data; and image analysis. The text includes numerous examples that demonstrate how Python can be used on data sets from the earth sciences. The supplementary electronic material (available online through Springer Link) contains the example data as well as recipes that include all the Python commands featured in the book.
Compliance wird oft als Verpflichtung betrachtet, die nur mit hohen Kosten umsetzbar ist. Dabei kann eine effiziente und effektive Umsetzung regulatorischer Anforderungen an die IT-Kontrollen zu einem Wettbewerbsvorteil werden, wenn der richtige Ansatz fur deren Umsetzung gewahlt wird. Ein solcher Ansatz - eine methodische Vorgehensweise, um durch den Einsatz von Metriken die Effektivitat implementierter Kontrollen zu bewerten, Verbesserungspotential zu identifizieren und zu kommunizieren - wird in dem Buch vorgestellt. Neben einer umfassenden Sammlung von Metriken, welche direkt ubernommen werden konnen, bietet das Buch ebenfalls die notwendige praxistaugliche Methodik zur Entwicklung weiterer eigener Metriken, Vorgehensweisen zur Aggregation von Metriken bis hin zur Informations- und Entscheidungsvorlagen fur das Management sowie Beispiele fur die angemessene Darstellung der Ergebnisse im Rahmen von Audit, Monitoring und Reporting.
Data Mining and Business Intelligence: A Guide to Productivity provides an overview of data mining technology and how it is applied in a business environment. It describes the corresponding data mining methodologies that are used to solve a variety of business problems which enhance firm-level efficiency in a less technical, more managerial style. The book incorporates the data mining process into the spectrum of complementary technologies that together comprise corporate information systems that promote business intelligence. Business intelligence involves the proliferation of value-added information throughout a given enterprise through the use of various applications that promotes efficiency for the firm.
The lure of big data and analytics has produced new partnerships between news media and social media and consequently a fragmentation of digital journalism. The era is coupled with the rise in fake news and controversial data sharing. However, creative mobile reporting and civilian drones set new standards for journalist during the European asylum seeker crisis. Yet the focus on data and remote cloud servers continues to dominate online news and journalism, alongside new semantic models for data personalization. News tags that define concepts within a news story to assist search, are now monetized abstractions in accelerated data processing that enables automation and feeds advertising. Can journalism compete with this by defining its own concepts with ethical values named and embedded in algorithms? Can machines make sense of the world in the same way as a traditional journalist? In this book, Cate Dowd analyzes the tasks and ethics of journalists and questions how intelligent machines could simulate ethical human behaviors to better understand the dizzy post-human world of online data. Looking to digital journalism and multi-platform news media, from studios and integrated media systems to mobile reporting in the field, Dowd assesses how data and digital technology has impacted on journalism over the past decade. Dowd's research is informed by in-depth participation with investigative journalists, including images drawn and annotated by industry experts to present key journalism concepts, priorities, and values. Chapters explore approaches for the elicitation of vocabulary for journalism and design methods to embed values and ethics into algorithms for the era of automation and big data. Digital Journalism, Drones, and Automation provides insights into the lasting values of journalism processes and equips readers interested in entering or understanding online data and news media with much needed context and wisdom.
Idealer Einstieg fur Studierende der Informatik in die Mathematik: * Jedes Kapitel beginnt mit konkreten, dem Leser vertrauten Begriffen oder Situationen. Davon ausgehend wird schrittweise bis hin zu den gebrauchlichen abstrakten Begriffen der modernen Mathematik abstrahiert. * Jedes Kapitel beschreibt viele interessante Situationen des Alltagslebens, in denen die zuvor eingefuhrten abstrakten Begriffe und die bewiesenen Ergebnisse zum Einsatz kommen. Dabei wird auf Anwendungen mit einem engen Bezug zur Informatik eingegangen wie: Routenplaner, Google-Suche, Kryptographie, Codierungstheorie, Datenkompressionen, Hashtabellen und Sudoku. Durch Loesungen aller UEbungsaufgaben auch sehr gut zum Selbststudium geeignet.
Studierende, die ein Informatikstudium aufnehmen, brauchen zu
Beginn vor allem eines: mathematische Grundkenntnisse. Dieser
Crashkurs soll Studierenden im ersten Semester helfen, moglichst
rechtzeitig diese Fahigkeiten zu erwerben.
Der Kostendruck im Gesundheitswesen steigt stetig und zwingt zum Handeln dringender denn je. Dieses Buch stellt die IT auf den Prufstand und zeigt, wie mit der Auswahl geeigneter Systeme Kosten reduziert und Ablaufe in medizinischen Einrichtungen optimiert werden konnen."
Business-Process- und Workflow-Management, oder wie erreicht man eine Prozessverbesserung durch Prozessmanagement im Unternehmen ist ein topaktuelles Thema. Viele reden davon, Organisationen in Prozessorganisationen umzuwandeln, oder den Prozessgedanken in den Vordergrund der Organisation zu rucken, nicht nur um den aktuellen ISO-Normen zu genugen, sondern auch Effizienzverbesserungen zu erzielen. Dieses Buch leistet einen Beitrag dazu, das Prozessdenken in der Wirtschaftswelt zu verbreiten und zu verstarken, um Ablaufe klarer, realitatsnah und verstandlich darzustellen, zu verbessern und umzusetzen."
Many faces of modern computing - from archiving data to coding theory to image processing ¿ rely heavily on data compression. This new and practical guide explains the process of compressing all types of computer data, as well as the use of significant methods and algorithms. Its purpose is to succinctly describe both the principles underlying the field of data compression and how to use the key methods effectively. A Guide to Data Compression Methods concentrates on general concepts and methods and describes them with a minimal amount of mathematical detail. It presents the main approaches to data compression, describes the most important algorithms, and includes straightforward examples. Statistical, dictionary, and wavelet methodologies are addressed in specific chapters, as well as image, video, and audio compression. The reader can expect to gain a basic understanding of the key algorithms and methods used to compress data for storage and transmission. Topics and features: ¿ All core methods are clearly explained with realistic examples, and some computer code is included ¿ Accessible presentation, with only minimum computer and mathematics technical background ¿ Discussion of wavelet methods and JPEG 2000 ¿ Appendix lists all algorithms presented in the book ¿ CD-ROM included compromising computer code from the book and extensive public-domain compression utility programs This book is an invaluable practical reference and guide for all practitioners and professionals in computer science, software engineering, and programming.
Protect your digital resources! This book addresses critical issues of preservation, giving you everything you need to effectively protect your resources-from dealing with obsolescence, to responsibilities, methods of preservation, cost, and metadata formats. It also gives examples of numerous national and international institutions that provide frameworks for digital libraries and archives. A long-overdue text for anyone involved in the preservation of digital information, this book is critical in understanding today's methods and practices, intellectual discourse, and preservation guidelines. A must for librarians, archiving professionals, faculty and students of library science, administrators, and corporate leaders!
Anhand von zahlreichen Beispielen und Szenarien werden die einzelnen HR-Module von R/3 praxisorientiert vorgestellt und naher erlautert. Unter anderem sind folgende aktuelle Themen anhand des aktuellen Releasestandes 4.5 B im Blickpunkt: Vergutungsmanagement und Kostenplanung, Personalabrechnung, Zeitwirtschaft, Reisemanagement, HR-Internetanbindung etc."
The researcher in computer content analysis is often faced with a paucity of guidance in conducting a study. Published exemplars of best practice in computer content analysis are rare, and computer content analysis seems to have developed independently in a number of disciplines, with researchers in one field often unaware of new and innovative techniques developed by researchers in other areas. This volume contains numerous articles illustrating the current state of the art of computer content analysis. Research is presented by scholars in political science, natural resource management, mass communication, marketing, education, and other fields, with the aim of providing exemplars for further research on the computer analysis and understanding of textual materials. The studies presented in "Applications of Computer Content Analysis" offer a varied spectrum of exemplary studies, Researchers can, due to the breadth of the studies presented here, find methodological, theoretical, and practical suggestions which will significantly ease the process of creating new research--and will significantly reduce the duplication of effort which has, until now, plagued computer content analytic research. Intended for an audience of graduate students, scholars, and in-field practitioners, this will serve as an invaluable resource, full of useful examples, for those interesting in using computers to analyze newspapers articles, emails, mediated communication, or any other sort of digital communication.
"The first magnetic recording device was demonstrated and patented
by the Danish inventor Valdemar Poulsen in 1898. Poulsen made a
magnetic recording of his voice on a length of piano wire. MAGNETIC
RECORDING traces the development of the watershed products and the
technical breakthroughs in magnetic recording that took place
during the century from Paulsen's experiment to today's ubiquitous
audio, video, and data recording technologies including tape
recorders, video cassette recorders, and computer hard drives.
Statistical methods are a key tool for all scientists working with data, but learning the basics continues to challenge successive generations of students. This accessible textbook provides an up-to-date introduction to the classical techniques and modern extensions of linear model analysis-one of the most useful approaches for investigating scientific data in the life and environmental sciences. While some of the foundational analyses (e.g. t tests, regression, ANOVA) are as useful now as ever, best practice moves on and there are many new general developments that offer great potential. The book emphasizes an estimation-based approach that takes account of recent criticisms of over-use of probability values and introduces the alternative approach that uses information criteria. This new edition includes the latest advances in R and related software and has been thoroughly "road-tested" over the last decade to create a proven textbook that teaches linear and generalized linear model analysis to students of ecology, evolution, and environmental studies (including worked analyses of data sets relevant to all three disciplines). While R is used throughout, the focus remains firmly on statistical analysis. The New Statistics with R is suitable for senior undergraduate and graduate students, professional researchers, and practitioners in the fields of ecology, evolution and environmental studies.
Das Wegweiser-Buch weist Wege zum erfolgreichen Einsatz des Commo- dore 64. Das Wegweiser-Buch vermittelt aktuelles Grundlagenwissen zur Datenver- arbeitung bzw. Informatik: -Was ist Hardware, Software und Firmware? - Was sind Grosscomputer und Mikrocomputer? - Was sind Datenstrukturen und Programmstrukturen? -Was sind Betriebssysteme und Anwenderprogramme? - Was heisst, fertige Programm-Pakete einsetzen'? -Was beinhaltet das eigene Programmieren? Nach der Lekture dieses Abschnitts sind Sie in der Lage, den Commodore 64 in den Gesamtrahmen des Gebiets Datenverarbeitung/Informatik einzu- ordnen. Das Wegweiser-Buch gibt eine erste Bedienungsanleitung: -Wie bediene ich Tastatur, Bildschirm, Floppy bzw. Disketteneinheit und Drucker des Commodore 64? -Wie erstelle ich mein erstes Programm in der Programmiersprache BASIC 2.0? -Welche Befehle umfasst BASIC 2.0 (zu jedem Befehl wird ein Beispiel an- gegeben)? -Welche Moeglichkeiten bieten die drei Sprachversionen BASIC 2.0, BASIC 4.0 und SIMON's BASIC? - Laufen die Programme des Commodore 64 auf anderen Mikrocomputern von Commodore? Nach dem Durcharbeiten dieses Abschnitts koennen Sie Ihren Commodore 64 bedienen, Programme laufen lassen und einfache BASIC-Programme selbst erstellen und speichern. Das Wegweiser-Buch enthalt einen kompletten Programmierkurs mit folgen- den grundlegenden BASIC-Anwendungen: - Programme mit den wichtigen Ablaufstrukturen (Folge-, Auswahl-, W- derholungs-und Unterprogrammstrukturen). - Verarbeitung von Text, Ein-/Ausgabe und Tabellen. - Maschinennahe Programmierung( ... Bit fur Bit). - Suchen, Sortieren, Mischen und Gruppieren von Daten. - Sequentielle Datei und Direktzugriff-Datei mit den Sprachen BASIC 2.0 und BASIC 4.0. Vorwort VI - Normale Grafik mit der Standardsprache BASIC 2.0. - Hl RES-Grafik und Sprite-Grafik mit SIMON's BASIC.
Qualitative and Mixed Methods Data Analysis Using Dedoose (R): A Practical Approach for Research Across the Social Sciences provides both new and experienced researchers with a guided introduction to dealing with the methodological complexity of mixed methods and qualitative inquiry using Dedoose (R) software. The authors use their depth of experience designing and updating Dedoose (R) as well as their published research to give the reader practical strategies for using Dedoose (R) from a wide range of research studies. Case study contributions by outside researchers provide readers with rich examples of how to use Dedoose (R) in practical, applied social science and health settings.
Demographic Methods and Concepts makes accessible the most commonly needed techniques for working with population statistics, irrespective of the reader's mathematical background. For the first time in such a text, concepts and practical strategies needed in the interpretation of demographic indices and data are included. Spreadsheet training exercises enable students to acquire the computer skills needed for demographic work. The accompanying free CD-ROM contains innovative, fully integrated learning modules as well as applications facilitating demographic studies.
Solve Data Analytics Problems with Spark, PySpark, and Related Open Source Tools Spark is at the heart of today's Big Data revolution, helping data professionals supercharge efficiency and performance in a wide range of data processing and analytics tasks. In this guide, Big Data expert Jeffrey Aven covers all you need to know to leverage Spark, together with its extensions, subprojects, and wider ecosystem. Aven combines a language-agnostic introduction to foundational Spark concepts with extensive programming examples utilizing the popular and intuitive PySpark development environment. This guide's focus on Python makes it widely accessible to large audiences of data professionals, analysts, and developers-even those with little Hadoop or Spark experience. Aven's broad coverage ranges from basic to advanced Spark programming, and Spark SQL to machine learning. You'll learn how to efficiently manage all forms of data with Spark: streaming, structured, semi-structured, and unstructured. Throughout, concise topic overviews quickly get you up to speed, and extensive hands-on exercises prepare you to solve real problems. Coverage includes: * Understand Spark's evolving role in the Big Data and Hadoop ecosystems * Create Spark clusters using various deployment modes * Control and optimize the operation of Spark clusters and applications * Master Spark Core RDD API programming techniques * Extend, accelerate, and optimize Spark routines with advanced API platform constructs, including shared variables, RDD storage, and partitioning * Efficiently integrate Spark with both SQL and nonrelational data stores * Perform stream processing and messaging with Spark Streaming and Apache Kafka * Implement predictive modeling with SparkR and Spark MLlib
Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verstandlich und anschaulich dargestellt. Reprasentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. Ein Online-Service mit ausfuhrlichen Musterloesungen erleichtert das Lernen.
Das Buch beinhaltet die Ergebnisse des dreijahrigen Verbundprojekts Separator i4.0 des BMBF-Spitzenclusters it's OWL. Gegenstand des Projekts war die nachhaltige Einbindung von Expertenwissen in die zukunftsweisende Weiterentwicklung und Optimierung von Separationsprozessen. Durch die Entwicklung neuartiger intelligenter Komponenten aus dem Bereich der Sensorik wird es zukunftig moeglich sein, Separatoren und die zugehoerigen Prozesszusammenhange zu verstehen und diese oekologisch/oekonomisch optimal auszulegen und zu betreiben. Hierzu wurde ein Instrumentarium bestehend aus Methoden und Loesungen erarbeitet, das daruber hinaus auf analoge Problemstellungen komplexer maschinenbaulicher Anlagen anwendbar sein wird.
Grosse Datenmengen sind nicht nur das Ergebnis der Entwicklungen im Bereich von Heimautomatisierung und des Internet of Things. Zur Auswertung von Datenmengen sind Methoden und Verfahren entstanden, die mit den Begriffen "Data Mining", "Knowledge Discovery" oder "Big Data" verknupft sind. Der Anwender kann aus kommerziellen und Open-Source-Anwendungen wahlen, die versprechen, vollkommen neue Erkenntnisse aus seinen Daten zu generieren. Vergleichbar mit einem Werkzeugkasten muss der Nutzer nur einen oder mehrere der darin zur Verfugung stehenden Algorithmen fur die Datenanalyse wahlen, um neue und spannende Einblicke zu erhalten. Doch ist es wirklich so einfach? Kai Jannaschk geht diesen und weiteren Fragen nach. Dazu stellt er ein Modell fur ein systematisches und glaubwurdiges Data Mining vor. Weiterhin skizziert der Autor einen Ansatz zur Systematisierung von Algorithmen und Verfahren in der Datenanalyse.Der Autor Aktuell arbeitet Kai Jannaschk als Software- und Datenbankentwickler in Industrie und Wirtschaft. Sein Aufgabengebiet umfasst die Bereiche Konzeption, Entwurf und Umsetzung von Informationssystemen sowie Strukturierung und Aufbau von Infrastrukturen fur die Datenverarbeitung.
Andreas Gadatsch und Holm Landrock zeigen an typischen Beispielen aus der Praxis, wie datengetriebene Geschaftsmodelle entstehen. Sie erlautern, wie sich Big-Data-Projekte rechnen und wie man am einfachsten an die Analyse grosser Datenmengen herangeht. Eine Bewertung der zentralen Aspekte von Projekten und der dort eingesetzten Technologien erleichtert den Lesern die tagliche Praxis im IT-Management. Die Autoren stellen Hadoop als eine der wichtigen Big-Data-Technologien vor.
Dieses Buch hilft Unternehmen und Organisationen bei der Konzeption und Implementierung von Terminologiemanagementloesungen. Es stellt dar, wie Fachwortschatze professionell erarbeitet, bereinigt und verwaltet werden - Grundvoraussetzung fur den Aufbau einer Corporate Language. Daruber hinaus zeigen die Autoren, wie Terminologiemanagementprozesse sinnvoll in die ein- und mehrsprachige Dokumentationserstellung eingebunden werden koennen. |
You may like...
Computational Fluid Dynamics in Fire…
Guan Heng Yeoh, Kwok Kit Yuen
Hardcover
|