|
Books > Computing & IT > Applications of computing > Databases > Data capture & analysis
Jurgen Hoelsch erarbeitet einen neuen Ansatz zur Optimierung von
verschachtelten SQL-Anfragen (Nested Queries), einem wichtigen
Teilgebiet der Datenbankforschung. Es gelingt ihm, diese Anfragen
im gleichen Schritt wie alle ubrigen Optimierungen zu behandeln.
Dazu werden SQL-Anfragen mithilfe der Non-First Normal Form
(NF2)-Algebra dargestellt, die ursprunglich dazu entwickelt wurde,
Anfragen auf verschachtelten Tabellen zu beschreiben. Da diese
Algebra im Gegensatz zur relationalen Algebra den heutigen Stand
von SQL nahezu 1:1 abbilden kann, koennen bekannte und auch neue
Optimierungstechniken fur verschachtelte Anfragen formalisiert
werden. Die Anwendbarkeit wird anhand der praktischen Umsetzung des
Ansatzes in einem Anfrageoptimierer und den daraus resultierenden
Performance-Gewinnen demonstriert.
Schritt fur Schritt zu den Konzepten Die Autoren fuhren den Leser
von den mathematischen Grundlagen zu den konkreten Methoden der
Bioinformatik. Das Buch wendet sich damit an alle, die
bioinformatische Methoden und Softwarepakete verwenden wollen, sie
aber nicht als Black Boxes akzeptieren moechten. Ein besonderes
Highlight ist die schrittweise Implementierung wichtiger
Algorithmen der Bioinformatik im Computeralgebra-Programm
Mathematica, um die Konzepte auch auf der informatischen Ebene zu
verstehen. Das Themenspektrum reicht von bioinformatischen
Alltagsfragen bis in die Systembiologie. Die zweite, stark
erweiterte Auflage geht auch auf eine Reihe sehr aktueller Themen
der Bioinformatik ein, etwa Next-Generation Sequencing (NGS),
GWAS-Daten und Protein-Interaktions-Netzwerke. Der Inhalt ist
spannend und leicht verstandlich.
Das an Studienanfanger der Mathematik gerichtete Lehrbuch bietet
eine breit angelegte Einfuhrung in verschiedene Facetten der
computerorientierten Mathematik. Es ermoeglicht eine fruhzeitige
und wertvolle Auseinandersetzung mit computerorientierten Methoden,
Denkweisen und Arbeitstechniken innerhalb der Mathematik. Hierzu
werden grundlegende mathematische Teilgebiete behandelt, die eine
enge Beziehung zu computerorientierten Aspekten haben: Graphen,
mathematische Algorithmen, Rekursionsgleichungen,
computerorientierte lineare Algebra, Zahlen, Polynome und ihre
Nullstellen. Anhand des mathematischen Kernstrangs werden Einblicke
in die Modellierung, Analyse und algorithmische Aufbereitung
fundamentaler mathematischer Sachverhalte gegeben. Eine
Besonderheit des Buches ist die Verwendung des sich immer starker
in Forschung und Lehre verbreitenden, frei verfugbaren
Software-Systems Sage. Das Buch eignet sich besonders gut zur
Komplementierung der klassischen Grundvorlesungen in Analysis und
linearer Algebra.
Es kommt nicht oft vor, dass ein einzelnes Problem ein ganzes
mathematisches Gebiet hervorruft. Das allseits bekannte 4-Farben
Problem war solch ein singulares Ereignis: Aus den
Loesungsversuchen entwickelte sich die Graphentheorie, die heute zu
den unverzichtbaren Grundlagen der Diskreten Mathematik und
Informatik und weiterer angewandter Wissenschaften gehoert. Das
Buch versucht zweierlei: Es will erstens alle wichtigen Begriffe,
Ideen und Satze fur eine Einfuhrung in die Graphentheorie im
Bachelorstudium bereitstellen, und zweitens ein tieferes
Verstandnis fur dieses wunderbare Gebiet vermitteln, durch einen
Ruckblick, wie alles mit dem 4-Farben Problem begann, und einen
Ausblick auf die erstaunliche Loesung und den damit aufgeworfenen
Fragen.
A theoretical and practical guide to using corpus linguistic
techniques in stylistic analysis The use of corpora in stylistics
has increased substantially in recent years but until now there has
been no book detailing the theoretical basis and methodological
practices of corpus stylistics. This book surveys the field and
sets the agenda for this fast-developing area. Focusing on how to
use off-the-shelf corpus software, such as AntConc, Wmatrix, and
the Brigham Young University (BYU) corpus interface, this
step-by-step guide explains the theory and practice of using corpus
methods and tools for stylistic analysis. Eight original case
studies demonstrate how to use corpus tools to analyse style in a
range of texts, from the contemporary to the historical. McIntyre
and Walker explain how to develop appropriate research questions
for corpus stylistic analysis, construct and annotate corpora, make
sense of statistics, and analyse corpus data. In addition, the book
provides practical advice on how to manage the transition from
quantitative results to qualitative analysis, and explores how
theories, models and frameworks from stylistics can be used to
enhance the qualitative phase of corpus analysis. Supported by
detailed instructions on how to access and use relevant corpus
software, this is a user's guide to doing corpus stylistic
analysis. For students and researchers in stylistics new to the use
of corpus methods and theories, the book presents a 'how-to' guide;
for corpus linguists it opens the door to the theories, models and
frameworks developed in stylistics that are of value to mainstream
corpus linguistics.
Das Buch vermittelt umfassende Grundlagen moderner Techniken des
verteilten und parallelen Datenmanagements, die das Fundament
moderner Informationssysteme bilden. Ausgehend von einer
Betrachtung der Architekturvarianten, die sich aus verteilten sowie
parallelen Hardwareinfrastrukturen ergeben, werden die Bereiche
Datenverteilung, Anfrageverarbeitung sowie Konsistenzsicherung
behandelt. Hierbei werden jeweils Verfahren und Techniken fur
klassische verteilte, parallele sowie moderne massiv-verteilte bzw.
massiv-parallele Architekturen vorgestellt und hinsichtlich ihrer
Eigenschaften diskutiert. Damit schlagen die Autoren die Brucke
zwischen klassischen Verfahren und aktuellen Entwicklungen im
Cloud- und Big Data-Umfeld.
Ralf Bruns und Jurgen Dunkel bieten eine kompakte Einfuhrung in die
Grundprinzipien von Complex Event Processing (CEP), das eine extrem
leistungsfahige Softwaretechnologie zur systematischen Analyse von
massiven Datenstroemen in Echtzeit darstellt. Die Autoren stellen
die wesentlichen Sprachkonzepte der Ereignisverarbeitung Schritt
fur Schritt vor. Eine Fallstudie aus dem M2M-Bereich verdeutlicht
die praktische Anwendung von CEP. Moderne Unternehmen stehen vor
der Herausforderung mit immer groesseren Datenmengen umgehen zu
mussen. Neben immensen statischen Datenbestanden ist es
entscheidend, auch kontinuierlich eintreffende Datenstroeme
effizient zu nutzen, um geschaftliche Entscheidungen
situationsabhangig treffen zu koennen. Mit CEP ist es moeglich,
hochfrequente Datenstroeme intelligent zu analysieren und daraus
zeitnah operative Unternehmensentscheidungen abzuleiten. CEP steht
fur eine neue Qualitat von Unternehmensanwendungen - agil und
effizient.
Marco Munstermann prasentiert eine Aktivitatserkennung und eine
Verhaltensermittlung von Personen in ihrer hauslichen Umgebung
sowie einen quantifizierten Vergleich zwischen dem Normalverhalten
und neu beobachteten Tagesverlaufen. Eine derart technisch
unterstutzte Pflege kann dem demografischen Wandel und dem
Fachkraftemangel in der Pflege entgegenwirken, indem die
Pflegekraft zuverlassig auf Verhaltensanderungen hingewiesen und
eine effizientere Pflege gewahrleistet wird, bei der gleichzeitig
mehr Zeit fur den Gepflegten bleibt. Das System ist im Rahmen von
zwei durch das Bundesministerium fur Bildung und Forschung
gefoerderten Forschungsprojekten entstanden.
|
Information Security and Cryptology
- 10th International Conference, Inscrypt 2014, Beijing, China, December 13-15, 2014, Revised Selected Papers
(Paperback, 2015 ed.)
Dongdai Lin, Moti Yung, Jianying Zhou
|
R3,036
Discovery Miles 30 360
|
Ships in 10 - 15 working days
|
|
This book constitutes the thoroughly refereed post-conference
proceedings of the 10th International Conference on Information
Security and Cryptology, Inscrypt 2014, held in Beijing, China, in
December 2014. The 29 revised full papers presented were carefully
reviewed and selected from 93 submissions. The papers are organized
in topical sections on privacy and anonymity, multiparty and
outsource computation, signature and security protocols, lattice
and public key cryptography, block cipher and hash function,
authentication and encryption, elliptic curve, and cryptographic
primitive and application.
Das Zukunftsprojekt "Industrie 4.0", das ein zentrales Element der
Hightech-Strategie der Bundesregierung darstellt, zielt auf die
Informatisierung der klassischen Industrien, wie z. B. der
industriellen Produktion. Auf dem Weg zum Internet der Dinge soll
durch die Verschmelzung der virtuellen mit der physikalischen Welt
zu Cyber-Physical Systems und dem dadurch moeglichen
Zusammenwachsen der technischen Prozesse mit den Geschaftsprozessen
der Produktionsstandort Deutschland in ein neues Zeitalter gefuhrt
werden. Das Technologieprogramm "Autonomik fur Industrie 4.0" des
Bundesministeriums fur Wirtschaft und Energie (BMWi) ist Teil des
Zukunftsprojekts "Industrie 4.0". Im Kontext dieses Programms ist
der vorliegende Band entstanden. Das Buch gibt einen UEberblick
uber moegliche Wege in die die Zukunft der Arbeit unter den
Bedingungen von Autonomik und Industrie 4.0. Zentrale
Herausforderungen, Chancen und Risiken werden aus Sicht der
Forschung, der Industrie und der Sozialpartner benannt.
Beispielhafte Gestaltungsloesungen aus den Bereichen Produktions-
und Automatisierungstechnik, Robotik, Virtual Engineering,
Landmaschinen und Lernfabriken illustrieren die im Buch
dargestellten Trends.
Diskrete und kontinuierliche Methoden der mathematischen
Optimierung werden in diesem Lehrbuch integriert behandelt. Nach
einer Einfuhrung werden konvexe Mengen (mit einer Anwendung auf
notwendige Optimalitatsbedingungen bei Ungleichungsrestriktionen)
behandelt, gefolgt von einer genaueren Betrachtung des Spezialfalls
von Polyedern und dessen Zusammenhang zum Linearen Programmieren.
Eine ausfuhrliche Darstellung des Simplexverfahrens schliesst
diesen Teil ab. Danach wird die Konvexitat von Funktionen
(inklusive einiger Abschwachungen) untersucht und fur ein
grundliches Studium von Optimalitatskriterien sowie der
Lagrange-Dualitat verwendet. Schliesslich folgen noch ein Ausblick
auf allgemeine Algorithmen sowie ein kurzer Anhang zur affinen
Geometrie. In der Neuauflage ist Anordnung und Darstellung des
behandelten Stoffs nochmals grundlich im Sinne der aktuellen
BA-Studiengange Mathematik, Wirtschaftswissenschaften und
Informatik uberarbeitet worden.
Informationsgesellschaft, Information als Wettbewerbsfaktor,
Informationsflut: Diese Stichworte verdeutlichen die
unternehmerische und gesellschaftliche Bedeutung von Informationen.
Doch nicht nur Information allein, sondern auch die Systeme, die
Informationen verarbeiten, speichern und ubertragen sowie die
Technologien, auf denen sie beruhen, verdienen Aufmerksamkeit.
Informationsmanagement hat die Aufgabe, den im Hinblick auf das
Unternehmensziel bestmoeglichen Einsatz der Ressource Information
zu gewahrleisten. Es zahlt zu den wesentlichen Bestandteilen
heutiger Unternehmensfuhrung. Das Lehrbuch vermittelt in 13
Einheiten die Grundlagen des Informationsmanagements. Dabei werden
neben den Managementaufgaben der Informationswirtschaft, der
Systeme und der Technologien auch ausgewahlte Fuhrungsaufgaben des
Informationsmanagementsbehandelt. Jede Lehreinheit beginnt mit
einem UEberblick uber die behandelten Themen und schliesst mit
einer Zusammenfassung sowie Aufgaben zur Wiederholung ab. So
richtet sich dieses Buch insbesondere an Bachelorstudenten in den
Fachern Wirtschaftsinformatik, BWL und Informatik.
Das Buch orientiert sich an drei thematischen Schwerpunkten. Nach
einer Einleitung zum Forschungsstand widmet sich der erste
Schwerpunkt Das elektronische Wegetagebuch Praxisberichten bzw.
Methodenkonzepten. Der zweite Schwerpunkt fokussiert die
technischen Aspekte der Erfassung von Wegedaten. Dabei wird auf
unterschiedliche Ortungstechnologien Bezug genommen, auf Methoden
der Ortung und auf Anwendungsfalle eingegangen. Der dritte
Schwerpunkt richtet den Blick auf den Nutzer. Hier stehen vor allem
Fragen zum Datenschutz und zur Akzeptanz sowie zur
Nutzerintegration im Postprozessing der Datenaufbereitung im
Vordergrund. Das Buch schliesst mit einer Zusammenfassung der
wesentlichen Ergebnisse und einem Ausblick uber Anforderungen an
ein Smartphone basiertes Wegetracking als wissenschaftliche
Methode."
Die Architektur integrierter Informationssysteme ARIS hat sich zur
Optimierung von Geschaftsprozessen und zur Einfuhrung von
Anwendungssystemen auch international durchgesetzt. In diesem Buch
werden die ARIS-Methoden zur Modellierung und
informationstechnischen Realisierung von Geschaftsprozessen mittels
der Unified Modeling Language (UML) detailliert beschrieben. Das
resultierende Informationsmodell ist Grundlage eines systematischen
und rationellen Methodeneinsatzes bei der Entwicklung von
Anwendungssystemen. Der Einsatz der ARIS-Methoden wird an
praxisrelevanten Fragestellungen veranschaulicht, z.B.
Wissensmanagement, Umsetzung von Workflow-Systemen oder Einfuhrung
von Standardsoftware, speziell SAP R/3.
Das Lernpaket vermittelt medienadaquat die notwendigen Kenntnisse,
um Konzeptionen und Drehbucher fur interaktive Lernprogramme zu
erstellen. Das Paket enthalt eine CD-ROM mit dem interaktiven
multimedialen Lernprogramm, eine Referenz-CD-ROM mit
professionellen und praxiserprobten Beispielen sowie ein
umfassendes Handbuch. Von den Qualitatskriterien bis zum Einsatz
von Computer- und Web-Based-Training, vom Medienrecht bis zur
Projektorganisation bietet das Lernpaket alles fur die
Qualifikation zum Projektleiter fur CBT-Entwicklungen.
Nearly every large corporation and governmental agency is taking a
fresh look at their current enterprise-scale business intelligence
(BI) and data warehousing implementations at the dawn of the "Big
Data Era"...and most see a critical need to revitalize their
current capabilities. Whether they find the frustrating and
business-impeding continuation of a long-standing "silos of data"
problem, or an over-reliance on static production reports at the
expense of predictive analytics and other true business
intelligence capabilities, or a lack of progress in achieving the
long-sought-after enterprise-wide "single version of the truth" -
or all of the above - IT Directors, strategists, and architects
find that they need to go back to the drawing board and produce a
brand new BI/data warehousing roadmap to help move their
enterprises from their current state to one where the promises of
emerging technologies and a generation's worth of best practices
can finally deliver high-impact, architecturally evolvable
enterprise-scale business intelligence and data warehousing. Author
Alan Simon, whose BI and data warehousing experience dates back to
the late 1970s and who has personally delivered or led more than
thirty enterprise-wide BI/data warehousing roadmap engagements
since the mid-1990s, details a comprehensive step-by-step approach
to building a best practices-driven, multi-year roadmap in the
quest for architecturally evolvable BI and data warehousing at the
enterprise scale. Simon addresses the triad of technology, work
processes, and organizational/human factors considerations in a
manner that blends the visionary and the pragmatic.
Das Buch beschreibt die Potenziale zwischenbetrieblicher
Kooperationen in Logistiknetzwerken sowie den
unternehmensubergreifenden Einsatz von mySAP-Loesungen. Funf
Fallstudien aus der Automobilindustrie (Bosch GmbH, Goodyear Tire
& Rubber Company, Schenker AG, Porsche AG, Elektronischer
Marktplatz SupplyOn) demonstrieren den Praxiseinsatz von
mySAP-Loesungen. Die Neuauflage mit erweitertem Autorenteam und
noch mehr Fallstudien ist vollstandig uberarbeitet. Sie tragt den
aktuellen Herausforderungen an den Aufbau von Kooperationen sowohl
aus Management-Sicht als auch aus Software-Perspektive Rechnung.
|
|