![]() |
![]() |
Your cart is empty |
||
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Aufgrund der sehr schnellen technologischen Entwicklung sind Kommunikationssysteme seit Jahren kontinuierlichen Veranderungen unterworfen. Der Trend zu universellen Kommunikationsnetzen setzt sich bis auf die Anwendungsebene fort, wo WWW, E-Mail und Technologien des Daten- und Dokumentenaustauschs zunehmend eine Basis bilden. Vor diesem Hintergrund erhalten klassische WAN-Anwendungen wie Telefon- oder Videokonferenzen Einzug in die lokalen Netze von Unternehmen, wahrend ehemals reine LAN-Anwendungen wie Workgroup- oder Workflow-Systeme uber Weitverkehrsnetze betrieben werden. Das Buch bietet einen umfassenden und aktuellen Uberblick uber diese technischen und anwendungsbezogenen Entwicklungen. Ein Lehrbuch und Nachschlagewerk sowohl fur Studenten als auch fur Praktiker."
Ausgehend von der Programmierung moderner Hochleistungsalgorithmen stellen die Autoren das mathematische und programmtechnische Umfeld der Zahl Pi ausfuhrlich dar. So werden zur Berechnung von Pi sowohl die arithmetischen Algorithmen, etwa die FFT-Multiplikation, die super-linear konvergenten Verfahren von Gauss, Brent, Salamin, Borwein, die Formeln von Ramanujan und Borwein-Bailey-Plouffe bis zum neuen Tropfel-Algorithmus behandelt. Der Leser findet viel Anregendes wie auch Skurriles, etwa interessante Anmerkungen zur Quadratur des Kreises. Die beigelegte CD-ROM bietet dem User mannigfaltigen Nutzen, z.B. die ausgefuhrte Langzahlarithmetik hfloat im C++ Source-Code, die FFT- Multiplikation und Algorithmen zur Pi-Berechnung. Die zweite, uberarbeitete Auflage nimmt zahlreiche Leseranregungen auf und berichtet uber die wichtigsten neuesten Ergebnisse der Pi-Forschung. Zahlreiche Verweise auf Internetquellen, ausfuhrlicher Index und Literaturverzeichnis erganzen das Buch."
Computer-unterstutztes kooperatives Lernen ist ein zunehmend an Bedeutung gewinnendes interdisziplinares Forschungsfeld. Das Buch prasentiert die Proceedings der ersten deutschsprachigen Tagung zum Thema. In einem qualitatsorientierten Auswahlprozess wurden 15 Beitrage ausgewahlt, die einen hervorragenden Einblick in den Stand der Diskussion im deutschen Sprachraum geben."
Moderne dezentrale Organisations- und Produktionskonzepte sind nur dann erfolgreich, wenn gleichzeitig in den Unternehmen ein effizientes Informationsmanagement aufgebaut wird. Bausteine des Informationsmanagements betreffen die unterschiedlichsten Gestaltungsfelder, wie Koordination und Kooperation, Organisations- und IT-Entwicklung. Die Autoren beschreiben anschaulich und anhand mehrerer Beispiele aus Unternehmen den Weg zur erfolgreichen Umsetzung dieser Konzepte in die Praxis.
Internet, World Wide Web, Provider, Online-Dienste ... -
allgegenwartige Schlagworte der Informations- und
Kommunikationstechnologie. Was ist das Internet? Welchen Nutzen
bietet es Medizinern in Beruf und Ausbildung? Welche spezifisch
medizinischen Informations- und Kommunikationsdienste erschliessen
sich online? Wie erhalt man Zugang zum Internet und den
Online-Diensten? Welche medizinischen Dienste zeichnen sich bereits
fur die Zukunft ab? Wie kann man eigene Inhalte im Internet
positionieren?
Der Schwerpunkt des Buches liegt auf der integrierenden Sichtweise von Planung und Kontrolle (PuK), Organisation und Informationstechnologie (IT). Wiederholungs- und Vertiefungsfragen am Ende eines jeden Kapitels ermoglichen dem Leser eine gezielte und systematische Aufarbeitung des behandelten Lernstoffs.
Durch die stetig steigende Komplexitat von Finanzprodukten und
-problemlosungen sowie deren steuerlicher Behandlung, wird eine
geeignete Systemunterstutzung zunehmend wichtiger fur
finanzwirtschaftlich fundierte Entscheidungen.
Information spielt heute im Wirtschaftsgeschehen eine uberragende Rolle. Die Bedeutung der Information und des gesamten Umgangs mit Information schlagt sich auch im Ausbildungsbereich nieder. Das Studium der Prozesse und Massnahmen zur effizienten Gewinnung und Nutzung von Information und zur Gestaltung effizienter Informationsverarbeitung ist fur Studenten unverzichtbar. Dieses Lehrbuch vermittelt Wirtschaftswissenschaftlern systematisch die wesentlichen Kenntnisse fur das Verstandnis des Zusammenwirkens von Hard- und Software im betrieblichen Einsatz. Ein Anhang mit Loesungen zu den im Buch enthaltenen UEbungsbeispielen will den praxisbezogenen Ansatz des Buches betonen und den Zugang zur Informationswirtschaft erleichtern. Die 2. Auflage wurde insbesondere durch ein Kapitel uber Netzwerke und Erganzungen zu Speichermedien und Codierung erweitert und aktualisiert.
Nach einer einleitenden Zusammenfassung der wichtigsten Basiskenntnisse zu Director und der Programmierung mit Lingo sowie grundsAtzlichen Hinweisen zur Strukturierung einer Multimedia-Anwendung werden in den praktischen Aoebungen Module einer prototypischen Applikation erstellt, die auch zur weiteren Bearbeitung auf der beiliegenden Hybrid-CD-ROM fA1/4r Macintosh und Windows zur VerfA1/4gung stehen. Das vorliegende Arbeitsbuch eignet sich besonders fA1/4r Anwender von Macromedia Director 6.5/6.0 und, eingeschrAnkt, auch 5.0.
Gunnar Teege untersucht den Losungsansatz der anpassbaren Groupware. Dabei ist das System flexibel genug, um Benutzern und Benutzergruppen eine individuelle Gestaltung zu ermoglichen."
Die Fahigkeit, kundenindividuelle Problemlosungen zeitnah anbieten
zu konnen, entwickelt sich zu einem herausragenden Erfolgsfaktor im
modernen Bankgeschaft. Hierarchisch gepragte
Organisationsstrukturen behindern allerdings eine konsequente
Ausrichtung der Finanzdienstleistungserstellung an den
individuellen Kundenbedurfnissen.
Even though many data analytics tools have been developed in the past years, their usage in the field of cyber twin warrants new approaches that consider various aspects including unified data representation, zero-day attack detection, data sharing across threat detection systems, real-time analysis, sampling, dimensionality reduction, resource-constrained data processing, and time series analysis for anomaly detection. Further study is required to fully understand the opportunities, benefits, and difficulties of data analytics and the internet of things in today's modern world. New Approaches to Data Analytics and Internet of Things Through Digital Twin considers how data analytics and the internet of things can be used successfully within the field of digital twin as well as the potential future directions of these technologies. Covering key topics such as edge networks, deep learning, intelligent data analytics, and knowledge discovery, this reference work is ideal for computer scientists, industry professionals, researchers, scholars, practitioners, academicians, instructors, and students.
Scheitert bei strategischen Entscheidungsprozessen die Zurechnung von Zahlungskonsequenzen an Praktikabilitatsaspekten, werden oft intuitive, formal nicht nachvollziehbare Vorgehensweisen gewahlt. Dieses Buch schlagt demgegenuber fur Situationen, in denen die Investitionsrechnung nicht anwendbar ist, den Einsatz von Multi-Criteria-Verfahren vor. Am Beispiel des Analytischen Hierarchie-Prozesses zeigen ausfuhrlich tabellierte Fallstudien auf, wie Controller in einer interaktiven Arbeitsbeziehung mit dem Management strategische Entscheidungen fundieren koennen. Unterstutzende Individual- und Komplettloesungen fur den PC werden vorgestellt und evaluiert.
Ausgehend von den Grundlagen der Netzwerksicherheit stellen die Autoren die unterschiedlichen Sicherheitsaspekte bei der UEbertragung von Daten und die einschlagigen Software- und Hardwareloesungen dar. In diesem Kontext werden auch Firewall-Konzepte behandelt. Heute gebrauchliche Verschlusselungsverfahren wie etwa PGP und PEM werden auf ihre Eignung bei Anwendungen untersucht. Der Leser lernt ausserdem, wie er mit Watermarking und Signaturen Copyrights auf Bilder, Video und Audio erzeugen und auswerten kann. Zudem diskutieren die Autoren ausfuhrlich die Sicherheitsprobleme elektronischer Zahlungssysteme und vergleichen dabei mehrere im Test befindliche Systeme.
Dieses Lehrbuch gibt erstmals eine Gesamtdarstellung des Forschungs- und Entwicklungsbereichs F derierte Datenbanksysteme. Ein zentrales Ziel dieser Systeme ist die Integration bestehender und bislang getrennt verwalteter Datenbest nde, insbesondere heterogener Datenbanken. Dabei geht es um einen einheitlichen und transparenten Zugriff, der auch neue, system bergreifende Anwendungen erlaubt, bei gleichzeitiger Erhaltung der Autonomie der urspr nglichen Systeme. Konzepte, Probleme und L sungsans tze sowie verschiedene Einsatzbereiche werden exemplarisch vorgestellt. Als wesentliche Grundlagen werden Schemaintegration, semantische Integrit t und Transaktionsverwaltung behandelt. Weitere Themen sind Multidatenbanksprachen, Anfragebearbeitung und -optimierung, Sicherheit und aktuelle Systementwicklungen.
Reale Optimierungsprobleme erfordern die Berechnung hochkomplexer Computermodelle. Die dazu notwendige Rechenleistung kann kostengunstig durch Workstation-Cluster bereitgestellt werden, die die Leistungsfahigkeit von Mini-Supercomputern erreichen und oft nur zu einem geringen Teil ausgelastet sind. Im Buch wird auf Basis von OMT ein objektorientierter Ansatz fur die verteilte Loesung von Optimierungsproblemen entwickelt und in ein Prototyp-System umgesetzt. Der in C++ implementierte Prototyp verfugt uber eine graphische Oberflache zur Steuerung der Optimierungsrechnung und zeigt, wie existierende Softwarepakete aus Fortran oder C in die verteilte Berechnung integriert werden koennen.
Die Entwicklung eines Werkzeugs, das vor allem weniger erfahrene Entwickler bereits wahrend der objektorientierten Systemanalyse bei der Uberprufung ihrer Entwurfe unterstutzt, wird in diesem Buch beschrieben. Mit Hilfe von Softwaremassen werden Stellen des Entwurfs indentifiziert, die hinterfragt werden sollten. Der Entwickler wird durch eine "Modellkritik" dazu angeregt, sich mit den bewerteten, als qualitatsfordernd anerkannten Eigenschaften auseinanderzusetzen. Er erhalt zudem Hinweise, die ihm helfen, seinen Entwurf selbstkritisch und kontextspezifisch zu hinterfragen. Das Buch motiviert die Bewertung der verschiedenen Eigenschaften durch Softwaremasse, zeigt die Herleitung des zugrundeliegenden Bewertungsansatzes und beschreibt die Entwicklung eines unterstutzenden Werkzeugs."
KLAPPENTEXT: Alan Turings automatentheoretische UEberlegungen spielen eine massgebliche Rolle, wenn es gilt, die Moeglichkeiten und Grenzen von Computern und Menschen zu untersuchen. Dieses Buch vermittelt eine brauchbare Kenntnis der Automatentheorie (und ihrer Weiterungen in Logik, Computerwissenschaft und Alltag) jenen Lesern, die den Umgang mit Formalismen nicht gewohnt sind. Bei Wahrung aller wunschenswerten Stringenz bleibt die Darlegung anschaulich und konstruktiv. Die mitgelieferte PC-Software foerdert den konkreten Umgang mit Automaten und erlaubt dem Leser, eigene Maschinen-Entwurfe zu realisieren. Er erwirbt damit auch die Voraussetzungen fur jede hoehere Programmiersprache.
Richard D. Cramer has been doing baseball analytics for just about as long as anyone alive, even before the term "sabermetrics" existed. He started analyzing baseball statistics as a hobby in the mid-1960s, not long after graduating from Harvard and MIT. He was a research scientist for SmithKline and in his spare time used his work computer to test his theories about baseball statistics. One of his earliest discoveries was that clutch hitting-then one of the most sacred pieces of received wisdom in the game-didn't really exist. In When Big Data Was Small Cramer recounts his life and remarkable contributions to baseball knowledge. In 1971 Cramer learned about the Society for American Baseball Research (SABR) and began working with Pete Palmer, whose statistical work is credited with providing the foundation on which SABR is built. Cramer cofounded STATS Inc. and began working with the Houston Astros, Oakland A's, Yankees, and White Sox, with the help of his new Apple II computer. Yet for Cramer baseball was always a side interest, even if a very intense one for most of the last forty years. His main occupation, which involved other "big data" activities, was that of a chemist who pioneered the use of specialized analytics, often known as computer-aided drug discovery, to help guide the development of pharmaceutical drugs. After a decade-long hiatus, Cramer returned to baseball analytics in 2004 and has done important work with Retrosheet since then. When Big Data Was Small is the story of the earliest days of baseball analytics and computer-aided drug discovery.
Das Controlling wird heute als Koordination der Sachfunktionen der Fuhrung, wie Planung, Kontrolle und Informationsversorgung, definiert. In diesem Buch wird, ausgehend von dieser koordinationsorientierten Controlling-Konzeption systematisch eine dafur geeignete Architektur der EDV-Unterstutzung hergeleitet. Sie besteht in ihrem Kern aus den Instrumenten der Daten- und Funktionsintegration, die auf die Sachfunktionen der Fuhrung angewandt werden. Aufbauend auf dieser EDV-Architektur entwickelt der Autor ein fur das koordinationsorientierte Controlling relevantes Datenmodell, das sich als Referenzmodell einsetzen lasst, um unternehmensspezifische Controlling-Informationssysteme entwerfen zu konnen. Dazu dienen insbesondere die zahlreichen, abgebildeten Datenstrukturen und ein Fallbeispiel zur Planung."
Dieses Buch hat eine lange Geschichte und fuhrt die Erfahrungen vieler Menschen zusammen. Das Ganze begann Mitte der 80er Jahre mit ersten Beratungen zur sozialvertraglichen Regelung von SAP-Einfuh rungsprozessen. Vor diesem Erfahrungshintergrund beantragten die Institute BIT e. V., FORBA e. V. und Forbit e. V. Anfang der 90er als AFOS GbR ein Forschungsprojekt mit dem Titel "Gestaltungsmoglichkeiten integrierter Standardsoftware am Beispiel der Softwareprodukte R/2 und R/3 von SAP." Das Projekt wurde von der Landesregierung Nordrhein Westfalen (im Programm "Sozial vertragliche Technikgestaltung") gefordert. Fur dieses Projekt stellte dankenswerterweise die SAP-AG nicht nur ihre Software zur Verfugung, sondern bot in Workshops und Einzelgesprachen den Projektmitgliedern Gelegenheit zum Informations- und Erfahrungsaustausch. In den ca. drei Projektjahren konnten weiterhin uber systematische Fallstudien in SAP-Anwenderbetrieben, Uberprufungen am eigenen SAP-System, parallele Beratungsprozesse und Schulungen Erfahrungen gesammelt werden. Daruber hinaus wurde mit Hilfe zahlreicher Einzelpersonen, die als Experten ihre Erfahrungen mit SAP, praktischer Organisation von betrieblichen Grossprojekten und humaner Arbeitssystemgestaltung zur Verfugung stellten, ein kontinuierlicher Lernprozess organisiert, der bis heute andauert. Mit der Konzeption und dem Schreiben dieses Buches wurde Ende 1994 unter dem Arbeitstitel "Soziales Pflichtenheft SAP" begonnen. Es wurde seitdem mehrfach konzeptionell verandert und den Entwicklungen bzw. praktischen Erfahrungen angepasst. Neue Ideen und Konzepte wurden ausprobiert so wie der schnellen Weiterentwicklung der SAP-Software gefolgt. Kurz, es fiel schwer, einen Schnitt zu machen. Mit der Verabschiedung des neuen Arbeitsschutzgesetzes (August 1996), dem Releasestand 3."
Dieses Buch ist die deutschsprachige Ausgabe von "Maple V Mathematics Learning Guide," einem der beiden von Waterloo Maple Software herausgegebenen Handbucher zu dem neuen Release 4 des Computeralgebraprogramms Maple V. Das Buch ist als Einstieg in das Programm konzipiert und stellt insbesondere die neuen Eigenschaften von Release 4 heraus. Die Graphikmoglichkeiten von Maple bilden einen Schwerpunkt."
Handbook of Big Data provides a state-of-the-art overview of the analysis of large-scale datasets. Featuring contributions from well-known experts in statistics and computer science, this handbook presents a carefully curated collection of techniques from both industry and academia. Thus, the text instills a working understanding of key statistical and computing ideas that can be readily applied in research and practice. Offering balanced coverage of methodology, theory, and applications, this handbook: Describes modern, scalable approaches for analyzing increasingly large datasets Defines the underlying concepts of the available analytical tools and techniques Details intercommunity advances in computational statistics and machine learning Handbook of Big Data also identifies areas in need of further development, encouraging greater communication and collaboration between researchers in big data sub-specialties such as genomics, computational biology, and finance.
Das Buch wendet sich als ein umfassender Kurs uber Realisierungsformen verteilter Informationssysteme und deren Grundlagen an Studierende, Wissenschaftler und Praktiker. Es vermittelt Grundlagenwissen uber die in den verschiedenen Teilbereichen auftretenden Problemstellungen und diskutiert die technologischen Alternativen. Fur Studenten eignet sich das Buch zum Selbststudium. Anhand eingestreuter Ubungsaufgaben und Musterlosungen kann das Gelernte uberpruft werden. Fur Wissenschaftler stellt das Buch einen "roten Faden" durch dieses breite Gebiet dar; uber Literaturhinweise konnen die interessierenden Themen weiterverfolgt werden. Dem Praktiker vermittelt das Buch einen Uberblick uber die wesentlichen Zusammenhange und hilft, gravierende Fehlentscheidungen bei der Realisierung solcher Systeme zu vermeiden." |
![]() ![]() You may like...
Object-Oriented Analysis and Design for…
Raul Sidnei Wazlawick
Paperback
R1,186
Discovery Miles 11 860
Foundations of Object-Oriented Languages…
J.W. de Bakker, W-.P.De Roever, …
Paperback
R1,707
Discovery Miles 17 070
OCA Java SE 8 Programmer I Exam Guide…
Kathy Sierra, Bert Bates
Paperback
Advances in Object-oriented Database…
Asuman Dogac, Alexandros Biliris, …
Hardcover
R2,625
Discovery Miles 26 250
Visual Basic 2012 How to Program…
Paul Deitel, Harvey Deitel, …
Paperback
R2,493
Discovery Miles 24 930
|