|
|
Books > Computing & IT > Applications of computing > Artificial intelligence > Natural language & machine translation
Dieses erste Lehrbuch zur Formalen Begriffsanalyse gibt eine
systematische Darstellung der mathematischen Grundlagen und ihrer
Verbindung zu Anwendungen in der Informatik, insbesondere in der
Datenanalyse und Wissensverarbeitung. Das Buch vermittelt vor allem
Methoden der graphischen Darstellung von Begriffssystemen, die sich
in der Wissenskommunikation bestens bewahrt haben. Theorie und
graphische Darstellung werden dabei eng miteinander verknupft. Die
mathematischen Grundlagen werden vollstandig abgehandelt und durch
zahlreiche Beispiele anschaulich gemacht. Da zur
Wissensverarbeitung immer starker der Computer genutzt wird,
gewinnen formale Methoden begrifflicher Analyse uberall an
Bedeutung. Das Buch macht die dafur grundlegende Theorie in
kompakter Form zuganglich."
As spoken natural language dialog systems technology continues to
make great strides, numerous issues regarding dialog processing
still need to be resolved. This book presents an exciting new
dialog processing architecture that allows for a number of
behaviors required for effective human-machine interactions,
including: problem-solving to help the user carry out a task,
coherent subdialog movement during the problem-solving process,
user model usage, expectation usage for contextual interpretation
and error correction, and variable initiative behavior for
interacting with users of differing expertise. The book also
details how different dialog problems in processing can be handled
simultaneously, and provides instructions and in-depth result from
pertinent experiments. Researchers and professionals in natural
language systems will find this important new book an invaluable
addition to their libraries.
In der Kognitionswissenschaft geht man davon aus, da die h-heren
geistigen Leistungen des Menschen auf informationsverarbeitenden
Prozessen beruhen. Als Symbolismus wird die Auffassung bezeichnet,
nach der die menschlicheInformationsverarbeitung nach den gleichen
Prinzipien funktioniert wie bei einem typischen Computer: durch die
Manipulation bedeutungstragender Zeichennach formalen regeln. Im
Gegensatz dazu vertritt der Konnektionismus dieThese, da die
menschliche Informationsverarbeitung als stetige
Aktivierungsausbreitung in einem neuronalen Netz verstanden werden
m}sse. Gro er Wert wurde in dieser interdisziplin{ren Arbeit auf
die verst{ndliche Darstellung symbolischer und konnektionistischer
Informationsverarbeitung gelegt, so da sich dieses Buch auch f}r
Interessenten aus dem Bereich der Philosophie, der Psychologie und
der Linguistik bestens eignet, einen Einstieg in die
Kognitionswissenschaft zu finden. Demjenigen, der mit den
jeweiligen Verarbeitungsmechanismen bereits vertraut ist, bietet es
einen ]berblick }ber die gegenw{rtige philosophische Diskussion um
das pro und contra beider Modelle zur Erkl{rung geistiger Prozesse.
Das vorliegende Buch ist der Tagungsband zur GWAI-91, der 15.
Fachtagung f}rK}nstliche Intelligenz (KI) der Gesellschaft f}r
Informatik, die im September 1991 in Bonn stattfand. Es enth{lt die
Schriftfassungen von 29 begutachteten Vortr{gen, wobei die
Schwerpunkte der Beitr{ge in den Bereichen Deduktion,
Sprachverarbeitung, Wissensrepr{sentation und Expertensysteme
liegen. Weitere Themen entstammen den Bereichen MaschinellesLernen,
Planen, Automatisches Programmieren und Konnektionismus. Die
Hauptvortr{ge wurden unter dem Aspekt ausgew{hlt, da au erhalb der
KI und deren "traditionellen" Nachbardisziplinen wie Philosophie,
Psychologie und Linguistik, neue Zug{nge der Beschreibung und
Erkl{rung kognitiver Ph{nomene erm-glicht werden. Diese sind durch
Wissenschaftsgebiete wie z.B. Neurophysiologie und
Evolutionsbiologie gepr{gt.
Das Buch ist eine Einfuhrung in die logische Programmierung in der
Form eines Kurses, in dem die Grundlagen der logischen
Programmierung, die logische Programmiersprache Prolog und ihre
Programmierpraxis, sowie einige Anwendungen vorgestellt werden.
Nach einer kurzen Begriffsbestimmung der logischen Programmierung
wird das sogenannte reine Prolog als Programmiersprache anhand von
Beispielen eingefuhrt. Die logischen Hintergrunde werden dabei nur
angedeutet. Anschliessend werden die Erweiterungen vorgestellt, die
Prolog zur vollen Programmiersprache machen. Es folgen etablierte
Programmiertechniken, die Prolog wie jede andere Programmiersprache
besitzt. Mit diesen Vorkenntnissen ist es nun leichter, die
theoretischen Grundlagen der logischen Programmierung zu verstehen.
Es wird gezeigt, wie Logik zur Wissensdarstellung und zur Ableitung
von weiterem Wissen verwendet werden kann. Ferner wird der Weg von
der Pradikatenlogik zur logischen Programmiersprache Prolog
nachvollzogen. Den Schluss bilden Anwendungen aus den Gebieten
wissensbasierte Systeme und Computerlinguistik."
Das Buch enth{lt eine Auseinandersetzung mit Theorie und Praxis von
Human- und Maschinen}bersetzung, eine weltweite Dokumentation der
Systeme zur Maschinellen ]bersetzung, von Softwaretools und
Terminologiedatenbanken sowie eine ca. 2000 Titel umfassende
Bibliographie der verf}gbaren Fachli- teratur aus den Jahren 1985
bis 1989/90.
In der generativen Phonologie lasst sich im Unterschied zur
generativen Syntax der Wechsel von einem derivationellen Modell
nicht so leicht dokumentieren. Phonologische Reprasentationen
werden in diesem Band nicht als notarielle Variante zur linearen
Phonologie verstanden, sondern als Ebene, auf der universelle
Beschrankungen gelten.Folgende Problembereiche werden u.a.
behandelt: - die phonetische Beschrankung phonologischer Segmente-
universelle Beschrankungen suprasegmentaler Strukturen- Modelle der
Interaktion von Phonologie und Morphologi
Der vorliegende Sam mel band gibt zum groBten Teil die Beitrage
wieder, die auf dem Anwender-Workshop "Praxisanwendungen des
computergestOtzten Publizierens" anlaBlich der BIGTECH im November
1987 in Berlin gehalten wurden. Wie der Workshop gezeigt hat und es
sich auch in den meisten Beitragen wiederspie- gelt, ist der
gesamte Druckvorstufenbereich, von der Erfassung der Texte beim
Autor bis hin zur Ganzseitenbelichtung der Druckplatten, ja sogar
der Druckausgabe nur einzelner Exemplare Ober leistungsfahige
Laser-Drucksysteme (Stichwort: "Elektroni- sches Drucken") in
Bewegung geraten. Wie die zukOnfiige Aufgabenverteilung inner- halb
der grafischen Industrie aussehen wird, ist mit Sicherheit auch von
den weiteren technologischen . Entwicklungen und den
Anwendererfordernissen abhangig Bereits jetzt ist deutlich zu
erkennen, daB das Professionelle Elektronische Publizieren
zukOnfiig um die Komponente einer computergestOtzten
Dokumentenverarbeitung erganzt werden muB. Aile Probleme sind auch
beim Professionellen Elektronischen Publizieren noch nicht
ausgeraumt, so daB es auch noch kein System gibt, mit dem man
wirklich alles problemfrei bewaltigen kann. Wie der Workshop aber
gezeigt hat, wird die Kommuni- kation zwischen den verschiedenen
Systemen allmahlich Wirklichkeit. Die Beitrage stellen den "State
of the Art" im Bereich des Professionellen Publizierens, das auch
als Computer Aided Publishing (CAP) bezeichnet wird, dar.
Zielsetzung des Workshops war eine Bestandsaufnahme der gegenwMigen
Situation und der sich abzeichnenden Entwicklungstrends. Sowohl die
arbeitsorganisatorische als auch technische Intergration bzw. die
Integration zwischen Arbeitsablaufen und dem angebotenen
Leistungsspektren der Software-Systeme werden in den Beitragen
dargestellt. VI Es wird das gesamte Spektrum von professioneller
DTP-Software bis hin zu den Problemen bei integrierten
Dokumentations- und Publikationsanwendungen ange- sprochen.
Wissensbasierte Systeme wurden in den letzten Jahren uber die
Stadien des Experimentierens, der Forschung und der Entwicklung
hinaus zu interessanten Produkten der Informationsindustrie und
werden immer mehr zu wichtigen Arbeitsmitteln fur Fachleute und
Mitarbeiter in der Wirtschaft, in der Verwaltung und im
Bildungsbereich. Die GI-Kongresse uber wissensbasierte Systeme
sollen eine grossere Offentlichkeit uber den Stand der Entwicklung
unterrichten, sowohl in den Entwurfsmethoden und
Konstruktionstechniken als auch in der industriellen Anwendung. Ein
wesentliches Ziel dabei ist es, auf das grosse Potential an
Anwendungsmoglichkeiten hinzuweisen und intensivere Kooperationen
zwischen verschiedenen Gebieten anzuregen. Im vorliegenden
Tagungsband des 2. Internationalen GI-Kongresses "Wissensbasierte
Systeme", der 1987 wieder im Rahmen der Fachmesse SYSTEMS in
Munchen stattfand, werden neben den Expertensystemen im engeren
Sinne auch graphische Systeme, Techniken der Computeranimation,
kooperative Hilfssysteme, intelligente tutorielle Systeme und
entscheidungsunterstutzende Systeme behandelt. Grossen Raum nimmt
die Prasentation von Gemeinschaftsprojekten ein; insbesondere
werden die KI-Verbundprojekte des BMFT und eine Reihe von
ESPRIT-Projekten vorgestellt. Dieses Buch wendet sich an alle, die
Interesse an Informatik und ihren Anwendungen haben; es soll nicht
nur Wissenschaftler, sondern insbesondere auch Praktiker und
mogliche Anwender informieren und zu neuen Ideen anregen. Und es
soll Wissenschaft und Praxis zu fruchtbarer Diskussion und
Zusammenarbeit stimulieren. Neben vielen deutschen Autoren aus
Forschung und Praxis kommen Wissenschaftler aus mehreren
europaischen Landern und aus den USA zu Wort.
Das Buch behandelt die Worterkennung in kontinuierlicher Sprache,
eine im Rahmen des automatischen Verstehens gesprochener Sprache
auftretende und im Gegensatz zur Einzelworterkennung auch heute
noch nicht vollstandig geloste Aufgabenstellung. Nach einer
einfuhrenden vereinheitlichenden Darstellung einschlagiger
Techniken des Mustervergleichs (String Matching, Dynamic Time
Warping, Hidden Markov Modelling) fur die Erkennung isoliert
gesprochener Worter werden die Ansatze verallgemeinert, so dass
Worter auch in fliessender Rede ohne a priori Kenntnis der
Wortgrenzen lokalisierbar sind. Mehrere alternative Modelle zur
Beschreibung von Lautahnlichkeiten sowie Verfahren zur
Gutebewertung der erzeugten Worthypothesen stehen dann im Zentrum
der weiterfuhrenden Uberlegungen. Im experimentellen Teil ist der
Aufbau eines konkreten Systems zur Generierung von Worthypothesen
beschrieben, das den Rahmen bildet fur die nachfolgenden
vergleichenden Untersuchungen, in deren Verlauf bekannte und vom
Autor neu entwickelte Verfahren einander kritisch gegenubergestellt
werden. Der Leser findet in dem Buch etwa zu gleichen Teilen
kritische Aufarbeitung der Standardmethoden, neue Verfahren und die
Beschreibung praktischer Erfahrungen bei der Anwendung der
Worterkennungsalgorithmen auf grosse Datenmengen. Anwendungen des
Dargestellten sind nicht nur im engeren Bereich der Automatischen
Spracherkennung denkbar. Auch in Gegenstandsbereichen, in denen
Strukturen sequentiell-linearer Beschaffenheit, etwa zeitabhangiger
Muster, eine Rolle spielen, kommt eine Losung von Klassifikations-
und Lokalisierungsproblemen mit Hilfe der beschriebenen Ansatze in
Betracht.
Das Thema der Untersuchung ist die algorithmische Generierung einer
naturlichsprachlichen Beschreibung einer Bildfolge, wobei von einer
symbolischen Reprasentation der Bildfolge ausgegangen wird, die im
wesentlichen die erkannten Objekte, sowie deren Ort und
Orientierung fur jedes Bild der Folge enthalt. Fragen der
Textgenerierung werden in umfassender Weise unter dem Aspekt der
Beschreibung visueller zeitveranderlicher Daten behandelt, fur die
ein Verfahren zum Erzeugen koharenter Beschreibungstexte angegeben
wird. Dem Verfahren liegt der Gedanke zugrunde, dem Horer/Leser den
Aufbau einer mentalen Vorstellung von den beschriebenen Bewegungen
zu ermoglichen. Insbesondere wird ein Computerprogramm vorgestellt,
das NAOS-System, das von der Erkennung von Teilbereichen einer
Bildfolge, die durch ein Verb beschrieben werden konnen, bis zur
Ausgabe des koharenten Beschreibungstextes alle notwendigen
Prozesse beispielhaft integriert. NAOS verbindet damit zwei bisher
weitgehend separat verfolgte Teilbereiche der Kunstlichen
Intelligenz, Bildverstehen und Verarbeitung naturlicher Sprache.
Die umfassende Behandlung der Fragestellung reicht von der
theoretischen Diskussion bis zur praktischen Implementation.
Dieses Buch behandelt jene kognitiven Strukturen und Prozesse, die
der menschlichen Sprachverarbeitung zugrundeliegen. Das hier
vorgestellte Modell geht von zwei parallel arbeitenden Subsystemen
im Sprachverarbeitungsprozess aus:
Der vorliegende Samrnelband dokumentiert die GLDV-Jahrestagung 1985
"Sprachverarbei- tung in Information und Dokumentation". Die
Gesellschaft fur Linguistische Datenver- arbeitung veranstaltete
die Tagung in Kooperation mit der Fachgruppe 3 "Naturlich-
sprachliche Systeme" im FA 1.2 der Gesellschaft fur Informatik
(GI). Das programrnkomitee, besetzt mit Christopher Habel,
Hans-Dieter Lutz, Wolfgang Wahlster und den Herausgebern, die auch
die Tagung organisierten, wahlte die Beitrage unter dem
Gesichtspunkt einer aufgeschlossenen Zusamrnenarbeit von Informa-
tionswissenschaft, Kunstlicher Intelligenz und Linguistischer
Datenverarbeitung aus. Rainer Kuhlen entwickelt in seinem
Einleitungsreferat den Bezugsrahmen fur die weiteren Beitrage. Er
weist nachdrucklich auf die handlungsorientierte Zielsetzung von
Informationssystemen hin und auf die daraus resultierende Forderung
an Wissen- schaftler, bei ihren Beitragen zur Gestaltung von
Informationssystemen die pragma- tische Ausrichtung des
Gesamtsystems angemessen zu berucksichtigen. Die lebhafte
Diskussion uber die zinzelnen Vortrage wahrend der Tagung machte
deutlich, wie sehr in einem Wissenschaftsfeld generell akzeptierte
Leitvorstellungen Raum fur kontrare Meinungen und
fruchtbar-heterogene Forschungsansatze lassen (oder schaffen). Wie
verschieden die in der Forschung vertretenen Gesichtspunkte sind,
zeigt schon die thematische Grobgruppierung der Vortrage, die als
Gliederung des Tagungsbandes beibehalten wurde. Die in diesem Band
nicht festgehaltenen Diskussionsveranstaltungen uber "LDV-Aus-
bildung und-Berufsperspektiven" (Betreuung Hans-Dieter Lutz) und
"Verbundforschung" (Betreuung Tobias Bruckner und Brigitte
Endres-Niggemeyer) mit ihrem teilweise mehr als lebhaften Verlauf
trugen dem Bedarf nach fachlicher und wissenschafts- politischer
Meinungsbildung Rechnung.
Work through interesting real-life business use cases to uncover
valuable insights from unstructured text using AWS AI services Key
Features Get to grips with AWS AI services for NLP and find out how
to use them to gain strategic insights Run Python code to use
Amazon Textract and Amazon Comprehend to accelerate business
outcomes Understand how you can integrate human-in-the-loop for
custom NLP use cases with Amazon A2I Book DescriptionNatural
language processing (NLP) uses machine learning to extract
information from unstructured data. This book will help you to move
quickly from business questions to high-performance models in
production. To start with, you'll understand the importance of NLP
in today's business applications and learn the features of Amazon
Comprehend and Amazon Textract to build NLP models using Python and
Jupyter Notebooks. The book then shows you how to integrate AI in
applications for accelerating business outcomes with just a few
lines of code. Throughout the book, you'll cover use cases such as
smart text search, setting up compliance and controls when
processing confidential documents, real-time text analytics, and
much more to understand various NLP scenarios. You'll deploy and
monitor scalable NLP models in production for real-time and batch
requirements. As you advance, you'll explore strategies for
including humans in the loop for different purposes in a document
processing workflow. Moreover, you'll learn best practices for
auto-scaling your NLP inference for enterprise traffic. Whether
you're new to ML or an experienced practitioner, by the end of this
NLP book, you'll have the confidence to use AWS AI services to
build powerful NLP applications. What you will learn Automate
various NLP workflows on AWS to accelerate business outcomes Use
Amazon Textract for text, tables, and handwriting recognition from
images and PDF files Gain insights from unstructured text in the
form of sentiment analysis, topic modeling, and more using Amazon
Comprehend Set up end-to-end document processing pipelines to
understand the role of humans in the loop Develop NLP-based
intelligent search solutions with just a few lines of code Create
both real-time and batch document processing pipelines using Python
Who this book is forIf you're an NLP developer or data scientist
looking to get started with AWS AI services to implement various
NLP scenarios quickly, this book is for you. It will show you how
easy it is to integrate AI in applications with just a few lines of
code. A basic understanding of machine learning (ML) concepts is
necessary to understand the concepts covered. Experience with
Jupyter notebooks and Python will be helpful.
From introductory NLP tasks to Transformer models, this new edition
teaches you to utilize powerful TensorFlow APIs to implement
end-to-end NLP solutions driven by performant ML (Machine Learning)
models Key Features Learn to solve common NLP problems effectively
with TensorFlow 2.x Implement end-to-end data pipelines guided by
the underlying ML model architecture Use advanced LSTM techniques
for complex data transformations, custom models and metrics Book
DescriptionLearning how to solve natural language processing (NLP)
problems is an important skill to master due to the explosive
growth of data combined with the demand for machine learning
solutions in production. Natural Language Processing with
TensorFlow, Second Edition, will teach you how to solve common
real-world NLP problems with a variety of deep learning model
architectures. The book starts by getting readers familiar with NLP
and the basics of TensorFlow. Then, it gradually teaches you
different facets of TensorFlow 2.x. In the following chapters, you
then learn how to generate powerful word vectors, classify text,
generate new text, and generate image captions, among other
exciting use-cases of real-world NLP. TensorFlow has evolved to be
an ecosystem that supports a machine learning workflow through
ingesting and transforming data, building models, monitoring, and
productionization. We will then read text directly from files and
perform the required transformations through a TensorFlow data
pipeline. We will also see how to use a versatile visualization
tool known as TensorBoard to visualize our models. By the end of
this NLP book, you will be comfortable with using TensorFlow to
build deep learning models with many different architectures, and
efficiently ingest data using TensorFlow Additionally, you'll be
able to confidently use TensorFlow throughout your machine learning
workflow. What you will learn Learn core concepts of NLP and
techniques with TensorFlow Use state-of-the-art Transformers and
how they are used to solve NLP tasks Perform sentence
classification and text generation using CNNs and RNNs Utilize
advanced models for machine translation and image caption
generation Build end-to-end data pipelines in TensorFlow Learn
interesting facts and practices related to the task at hand Create
word representations of large amounts of data for deep learning Who
this book is forThis book is for Python developers and programmers
with a strong interest in deep learning, who want to learn how to
leverage TensorFlow to simplify NLP tasks. Fundamental Python
skills are assumed, as well as basic knowledge of machine learning
and undergraduate-level calculus and linear algebra. No previous
natural language processing experience required.
Build and deploy an efficient data processing pipeline for machine
learning model training in an elastic, in-parallel model training
or multi-tenant cluster and cloud Key Features Accelerate model
training and interference with order-of-magnitude time reduction
Learn state-of-the-art parallel schemes for both model training and
serving A detailed study of bottlenecks at distributed model
training and serving stages Book DescriptionReducing time cost in
machine learning leads to a shorter waiting time for model training
and a faster model updating cycle. Distributed machine learning
enables machine learning practitioners to shorten model training
and inference time by orders of magnitude. With the help of this
practical guide, you'll be able to put your Python development
knowledge to work to get up and running with the implementation of
distributed machine learning, including multi-node machine learning
systems, in no time. You'll begin by exploring how distributed
systems work in the machine learning area and how distributed
machine learning is applied to state-of-the-art deep learning
models. As you advance, you'll see how to use distributed systems
to enhance machine learning model training and serving speed.
You'll also get to grips with applying data parallel and model
parallel approaches before optimizing the in-parallel model
training and serving pipeline in local clusters or cloud
environments. By the end of this book, you'll have gained the
knowledge and skills needed to build and deploy an efficient data
processing pipeline for machine learning model training and
inference in a distributed manner. What you will learn Deploy
distributed model training and serving pipelines Get to grips with
the advanced features in TensorFlow and PyTorch Mitigate system
bottlenecks during in-parallel model training and serving Discover
the latest techniques on top of classical parallelism paradigm
Explore advanced features in Megatron-LM and Mesh-TensorFlow Use
state-of-the-art hardware such as NVLink, NVSwitch, and GPUs Who
this book is forThis book is for data scientists, machine learning
engineers, and ML practitioners in both academia and industry. A
fundamental understanding of machine learning concepts and working
knowledge of Python programming is assumed. Prior experience
implementing ML/DL models with TensorFlow or PyTorch will be
beneficial. You'll find this book useful if you are interested in
using distributed systems to boost machine learning model training
and serving speed.
Build end-to-end industrial-strength NLP models using advanced
morphological and syntactic features in spaCy to create real-world
applications with ease Key Features Gain an overview of what spaCy
offers for natural language processing Learn details of spaCy's
features and how to use them effectively Work through practical
recipes using spaCy Book DescriptionspaCy is an industrial-grade,
efficient NLP Python library. It offers various pre-trained models
and ready-to-use features. Mastering spaCy provides you with
end-to-end coverage of spaCy's features and real-world
applications. You'll begin by installing spaCy and downloading
models, before progressing to spaCy's features and prototyping
real-world NLP apps. Next, you'll get familiar with visualizing
with spaCy's popular visualizer displaCy. The book also equips you
with practical illustrations for pattern matching and helps you
advance into the world of semantics with word vectors. Statistical
information extraction methods are also explained in detail. Later,
you'll cover an interactive business case study that shows you how
to combine all spaCy features for creating a real-world NLP
pipeline. You'll implement ML models such as sentiment analysis,
intent recognition, and context resolution. The book further
focuses on classification with popular frameworks such as
TensorFlow's Keras API together with spaCy. You'll cover popular
topics, including intent classification and sentiment analysis, and
use them on popular datasets and interpret the classification
results. By the end of this book, you'll be able to confidently use
spaCy, including its linguistic features, word vectors, and
classifiers, to create your own NLP apps. What you will learn
Install spaCy, get started easily, and write your first Python
script Understand core linguistic operations of spaCy Discover how
to combine rule-based components with spaCy statistical models
Become well-versed with named entity and keyword extraction Build
your own ML pipelines using spaCy Apply all the knowledge you've
gained to design a chatbot using spaCy Who this book is forThis
book is for data scientists and machine learners who want to excel
in NLP as well as NLP developers who want to master spaCy and build
applications with it. Language and speech professionals who want to
get hands-on with Python and spaCy and software developers who want
to quickly prototype applications with spaCy will also find this
book helpful. Beginner-level knowledge of the Python programming
language is required to get the most out of this book. A
beginner-level understanding of linguistics such as parsing, POS
tags, and semantic similarity will also be useful.
|
|