|
Books > Computing & IT > Applications of computing > Artificial intelligence > Natural language & machine translation
In der Kognitionswissenschaft geht man davon aus, da die h-heren
geistigen Leistungen des Menschen auf informationsverarbeitenden
Prozessen beruhen. Als Symbolismus wird die Auffassung bezeichnet,
nach der die menschlicheInformationsverarbeitung nach den gleichen
Prinzipien funktioniert wie bei einem typischen Computer: durch die
Manipulation bedeutungstragender Zeichennach formalen regeln. Im
Gegensatz dazu vertritt der Konnektionismus dieThese, da die
menschliche Informationsverarbeitung als stetige
Aktivierungsausbreitung in einem neuronalen Netz verstanden werden
m}sse. Gro er Wert wurde in dieser interdisziplin{ren Arbeit auf
die verst{ndliche Darstellung symbolischer und konnektionistischer
Informationsverarbeitung gelegt, so da sich dieses Buch auch f}r
Interessenten aus dem Bereich der Philosophie, der Psychologie und
der Linguistik bestens eignet, einen Einstieg in die
Kognitionswissenschaft zu finden. Demjenigen, der mit den
jeweiligen Verarbeitungsmechanismen bereits vertraut ist, bietet es
einen ]berblick }ber die gegenw{rtige philosophische Diskussion um
das pro und contra beider Modelle zur Erkl{rung geistiger Prozesse.
Das vorliegende Buch ist der Tagungsband zur GWAI-91, der 15.
Fachtagung f}rK}nstliche Intelligenz (KI) der Gesellschaft f}r
Informatik, die im September 1991 in Bonn stattfand. Es enth{lt die
Schriftfassungen von 29 begutachteten Vortr{gen, wobei die
Schwerpunkte der Beitr{ge in den Bereichen Deduktion,
Sprachverarbeitung, Wissensrepr{sentation und Expertensysteme
liegen. Weitere Themen entstammen den Bereichen MaschinellesLernen,
Planen, Automatisches Programmieren und Konnektionismus. Die
Hauptvortr{ge wurden unter dem Aspekt ausgew{hlt, da au erhalb der
KI und deren "traditionellen" Nachbardisziplinen wie Philosophie,
Psychologie und Linguistik, neue Zug{nge der Beschreibung und
Erkl{rung kognitiver Ph{nomene erm-glicht werden. Diese sind durch
Wissenschaftsgebiete wie z.B. Neurophysiologie und
Evolutionsbiologie gepr{gt.
Das Buch enth{lt eine Auseinandersetzung mit Theorie und Praxis von
Human- und Maschinen}bersetzung, eine weltweite Dokumentation der
Systeme zur Maschinellen ]bersetzung, von Softwaretools und
Terminologiedatenbanken sowie eine ca. 2000 Titel umfassende
Bibliographie der verf}gbaren Fachli- teratur aus den Jahren 1985
bis 1989/90.
Create next-level AI assistants and transform how customers
communicate with businesses with the power of natural language
understanding and dialogue management using Rasa Key Features
Understand the architecture and put the underlying principles of
the Rasa framework to practice Learn how to quickly build different
types of chatbots such as task-oriented, FAQ-like, and knowledge
graph-based chatbots Explore best practices for working with Rasa
and its debugging and optimizing aspects Book DescriptionThe Rasa
framework enables developers to create industrial-strength chatbots
using state-of-the-art natural language processing (NLP) and
machine learning technologies quickly, all in open source.
Conversational AI with Rasa starts by showing you how the two main
components at the heart of Rasa work - Rasa NLU (natural language
understanding) and Rasa Core. You'll then learn how to build,
configure, train, and serve different types of chatbots from
scratch by using the Rasa ecosystem. As you advance, you'll use
form-based dialogue management, work with the response selector for
chitchat and FAQ-like dialogs, make use of knowledge base actions
to answer questions for dynamic queries, and much more.
Furthermore, you'll understand how to customize the Rasa framework,
use conversation-driven development patterns and tools to develop
chatbots, explore what your bot can do, and easily fix any mistakes
it makes by using interactive learning. Finally, you'll get to
grips with deploying the Rasa system to a production environment
with high performance and high scalability and cover best practices
for building an efficient and robust chat system. By the end of
this book, you'll be able to build and deploy your own chatbots
using Rasa, addressing the common pain points encountered in the
chatbot life cycle. What you will learn Use the response selector
to handle chitchat and FAQs Create custom actions using the Rasa
SDK Train Rasa to handle complex named entity recognition Become
skilled at building custom components in the Rasa framework
Validate and test dialogs end to end in Rasa Develop and refine a
chatbot system by using conversation-driven deployment processing
Use TensorBoard for tuning to find the best configuration options
Debug and optimize dialogue systems based on Rasa Who this book is
forThis book is for NLP professionals as well as machine learning
and deep learning practitioners who have knowledge of natural
language processing and want to build chatbots with Rasa. Anyone
with beginner-level knowledge of NLP and deep learning will be able
to get the most out of the book.
Das Buch ist eine Einfuhrung in die logische Programmierung in der
Form eines Kurses, in dem die Grundlagen der logischen
Programmierung, die logische Programmiersprache Prolog und ihre
Programmierpraxis, sowie einige Anwendungen vorgestellt werden.
Nach einer kurzen Begriffsbestimmung der logischen Programmierung
wird das sogenannte reine Prolog als Programmiersprache anhand von
Beispielen eingefuhrt. Die logischen Hintergrunde werden dabei nur
angedeutet. Anschliessend werden die Erweiterungen vorgestellt, die
Prolog zur vollen Programmiersprache machen. Es folgen etablierte
Programmiertechniken, die Prolog wie jede andere Programmiersprache
besitzt. Mit diesen Vorkenntnissen ist es nun leichter, die
theoretischen Grundlagen der logischen Programmierung zu verstehen.
Es wird gezeigt, wie Logik zur Wissensdarstellung und zur Ableitung
von weiterem Wissen verwendet werden kann. Ferner wird der Weg von
der Pradikatenlogik zur logischen Programmiersprache Prolog
nachvollzogen. Den Schluss bilden Anwendungen aus den Gebieten
wissensbasierte Systeme und Computerlinguistik."
In der generativen Phonologie lasst sich im Unterschied zur
generativen Syntax der Wechsel von einem derivationellen Modell
nicht so leicht dokumentieren. Phonologische Reprasentationen
werden in diesem Band nicht als notarielle Variante zur linearen
Phonologie verstanden, sondern als Ebene, auf der universelle
Beschrankungen gelten.Folgende Problembereiche werden u.a.
behandelt: - die phonetische Beschrankung phonologischer Segmente-
universelle Beschrankungen suprasegmentaler Strukturen- Modelle der
Interaktion von Phonologie und Morphologi
Build and deploy an efficient data processing pipeline for machine
learning model training in an elastic, in-parallel model training
or multi-tenant cluster and cloud Key Features Accelerate model
training and interference with order-of-magnitude time reduction
Learn state-of-the-art parallel schemes for both model training and
serving A detailed study of bottlenecks at distributed model
training and serving stages Book DescriptionReducing time cost in
machine learning leads to a shorter waiting time for model training
and a faster model updating cycle. Distributed machine learning
enables machine learning practitioners to shorten model training
and inference time by orders of magnitude. With the help of this
practical guide, you'll be able to put your Python development
knowledge to work to get up and running with the implementation of
distributed machine learning, including multi-node machine learning
systems, in no time. You'll begin by exploring how distributed
systems work in the machine learning area and how distributed
machine learning is applied to state-of-the-art deep learning
models. As you advance, you'll see how to use distributed systems
to enhance machine learning model training and serving speed.
You'll also get to grips with applying data parallel and model
parallel approaches before optimizing the in-parallel model
training and serving pipeline in local clusters or cloud
environments. By the end of this book, you'll have gained the
knowledge and skills needed to build and deploy an efficient data
processing pipeline for machine learning model training and
inference in a distributed manner. What you will learn Deploy
distributed model training and serving pipelines Get to grips with
the advanced features in TensorFlow and PyTorch Mitigate system
bottlenecks during in-parallel model training and serving Discover
the latest techniques on top of classical parallelism paradigm
Explore advanced features in Megatron-LM and Mesh-TensorFlow Use
state-of-the-art hardware such as NVLink, NVSwitch, and GPUs Who
this book is forThis book is for data scientists, machine learning
engineers, and ML practitioners in both academia and industry. A
fundamental understanding of machine learning concepts and working
knowledge of Python programming is assumed. Prior experience
implementing ML/DL models with TensorFlow or PyTorch will be
beneficial. You'll find this book useful if you are interested in
using distributed systems to boost machine learning model training
and serving speed.
Der vorliegende Sam mel band gibt zum groBten Teil die Beitrage
wieder, die auf dem Anwender-Workshop "Praxisanwendungen des
computergestOtzten Publizierens" anlaBlich der BIGTECH im November
1987 in Berlin gehalten wurden. Wie der Workshop gezeigt hat und es
sich auch in den meisten Beitragen wiederspie- gelt, ist der
gesamte Druckvorstufenbereich, von der Erfassung der Texte beim
Autor bis hin zur Ganzseitenbelichtung der Druckplatten, ja sogar
der Druckausgabe nur einzelner Exemplare Ober leistungsfahige
Laser-Drucksysteme (Stichwort: "Elektroni- sches Drucken") in
Bewegung geraten. Wie die zukOnfiige Aufgabenverteilung inner- halb
der grafischen Industrie aussehen wird, ist mit Sicherheit auch von
den weiteren technologischen . Entwicklungen und den
Anwendererfordernissen abhangig Bereits jetzt ist deutlich zu
erkennen, daB das Professionelle Elektronische Publizieren
zukOnfiig um die Komponente einer computergestOtzten
Dokumentenverarbeitung erganzt werden muB. Aile Probleme sind auch
beim Professionellen Elektronischen Publizieren noch nicht
ausgeraumt, so daB es auch noch kein System gibt, mit dem man
wirklich alles problemfrei bewaltigen kann. Wie der Workshop aber
gezeigt hat, wird die Kommuni- kation zwischen den verschiedenen
Systemen allmahlich Wirklichkeit. Die Beitrage stellen den "State
of the Art" im Bereich des Professionellen Publizierens, das auch
als Computer Aided Publishing (CAP) bezeichnet wird, dar.
Zielsetzung des Workshops war eine Bestandsaufnahme der gegenwMigen
Situation und der sich abzeichnenden Entwicklungstrends. Sowohl die
arbeitsorganisatorische als auch technische Intergration bzw. die
Integration zwischen Arbeitsablaufen und dem angebotenen
Leistungsspektren der Software-Systeme werden in den Beitragen
dargestellt. VI Es wird das gesamte Spektrum von professioneller
DTP-Software bis hin zu den Problemen bei integrierten
Dokumentations- und Publikationsanwendungen ange- sprochen.
Wissensbasierte Systeme wurden in den letzten Jahren uber die
Stadien des Experimentierens, der Forschung und der Entwicklung
hinaus zu interessanten Produkten der Informationsindustrie und
werden immer mehr zu wichtigen Arbeitsmitteln fur Fachleute und
Mitarbeiter in der Wirtschaft, in der Verwaltung und im
Bildungsbereich. Die GI-Kongresse uber wissensbasierte Systeme
sollen eine grossere Offentlichkeit uber den Stand der Entwicklung
unterrichten, sowohl in den Entwurfsmethoden und
Konstruktionstechniken als auch in der industriellen Anwendung. Ein
wesentliches Ziel dabei ist es, auf das grosse Potential an
Anwendungsmoglichkeiten hinzuweisen und intensivere Kooperationen
zwischen verschiedenen Gebieten anzuregen. Im vorliegenden
Tagungsband des 2. Internationalen GI-Kongresses "Wissensbasierte
Systeme", der 1987 wieder im Rahmen der Fachmesse SYSTEMS in
Munchen stattfand, werden neben den Expertensystemen im engeren
Sinne auch graphische Systeme, Techniken der Computeranimation,
kooperative Hilfssysteme, intelligente tutorielle Systeme und
entscheidungsunterstutzende Systeme behandelt. Grossen Raum nimmt
die Prasentation von Gemeinschaftsprojekten ein; insbesondere
werden die KI-Verbundprojekte des BMFT und eine Reihe von
ESPRIT-Projekten vorgestellt. Dieses Buch wendet sich an alle, die
Interesse an Informatik und ihren Anwendungen haben; es soll nicht
nur Wissenschaftler, sondern insbesondere auch Praktiker und
mogliche Anwender informieren und zu neuen Ideen anregen. Und es
soll Wissenschaft und Praxis zu fruchtbarer Diskussion und
Zusammenarbeit stimulieren. Neben vielen deutschen Autoren aus
Forschung und Praxis kommen Wissenschaftler aus mehreren
europaischen Landern und aus den USA zu Wort.
Das Buch behandelt die Worterkennung in kontinuierlicher Sprache,
eine im Rahmen des automatischen Verstehens gesprochener Sprache
auftretende und im Gegensatz zur Einzelworterkennung auch heute
noch nicht vollstandig geloste Aufgabenstellung. Nach einer
einfuhrenden vereinheitlichenden Darstellung einschlagiger
Techniken des Mustervergleichs (String Matching, Dynamic Time
Warping, Hidden Markov Modelling) fur die Erkennung isoliert
gesprochener Worter werden die Ansatze verallgemeinert, so dass
Worter auch in fliessender Rede ohne a priori Kenntnis der
Wortgrenzen lokalisierbar sind. Mehrere alternative Modelle zur
Beschreibung von Lautahnlichkeiten sowie Verfahren zur
Gutebewertung der erzeugten Worthypothesen stehen dann im Zentrum
der weiterfuhrenden Uberlegungen. Im experimentellen Teil ist der
Aufbau eines konkreten Systems zur Generierung von Worthypothesen
beschrieben, das den Rahmen bildet fur die nachfolgenden
vergleichenden Untersuchungen, in deren Verlauf bekannte und vom
Autor neu entwickelte Verfahren einander kritisch gegenubergestellt
werden. Der Leser findet in dem Buch etwa zu gleichen Teilen
kritische Aufarbeitung der Standardmethoden, neue Verfahren und die
Beschreibung praktischer Erfahrungen bei der Anwendung der
Worterkennungsalgorithmen auf grosse Datenmengen. Anwendungen des
Dargestellten sind nicht nur im engeren Bereich der Automatischen
Spracherkennung denkbar. Auch in Gegenstandsbereichen, in denen
Strukturen sequentiell-linearer Beschaffenheit, etwa zeitabhangiger
Muster, eine Rolle spielen, kommt eine Losung von Klassifikations-
und Lokalisierungsproblemen mit Hilfe der beschriebenen Ansatze in
Betracht.
Das Thema der Untersuchung ist die algorithmische Generierung einer
naturlichsprachlichen Beschreibung einer Bildfolge, wobei von einer
symbolischen Reprasentation der Bildfolge ausgegangen wird, die im
wesentlichen die erkannten Objekte, sowie deren Ort und
Orientierung fur jedes Bild der Folge enthalt. Fragen der
Textgenerierung werden in umfassender Weise unter dem Aspekt der
Beschreibung visueller zeitveranderlicher Daten behandelt, fur die
ein Verfahren zum Erzeugen koharenter Beschreibungstexte angegeben
wird. Dem Verfahren liegt der Gedanke zugrunde, dem Horer/Leser den
Aufbau einer mentalen Vorstellung von den beschriebenen Bewegungen
zu ermoglichen. Insbesondere wird ein Computerprogramm vorgestellt,
das NAOS-System, das von der Erkennung von Teilbereichen einer
Bildfolge, die durch ein Verb beschrieben werden konnen, bis zur
Ausgabe des koharenten Beschreibungstextes alle notwendigen
Prozesse beispielhaft integriert. NAOS verbindet damit zwei bisher
weitgehend separat verfolgte Teilbereiche der Kunstlichen
Intelligenz, Bildverstehen und Verarbeitung naturlicher Sprache.
Die umfassende Behandlung der Fragestellung reicht von der
theoretischen Diskussion bis zur praktischen Implementation.
Dieses Buch behandelt jene kognitiven Strukturen und Prozesse, die
der menschlichen Sprachverarbeitung zugrundeliegen. Das hier
vorgestellte Modell geht von zwei parallel arbeitenden Subsystemen
im Sprachverarbeitungsprozess aus:
Der vorliegende Samrnelband dokumentiert die GLDV-Jahrestagung 1985
"Sprachverarbei- tung in Information und Dokumentation". Die
Gesellschaft fur Linguistische Datenver- arbeitung veranstaltete
die Tagung in Kooperation mit der Fachgruppe 3 "Naturlich-
sprachliche Systeme" im FA 1.2 der Gesellschaft fur Informatik
(GI). Das programrnkomitee, besetzt mit Christopher Habel,
Hans-Dieter Lutz, Wolfgang Wahlster und den Herausgebern, die auch
die Tagung organisierten, wahlte die Beitrage unter dem
Gesichtspunkt einer aufgeschlossenen Zusamrnenarbeit von Informa-
tionswissenschaft, Kunstlicher Intelligenz und Linguistischer
Datenverarbeitung aus. Rainer Kuhlen entwickelt in seinem
Einleitungsreferat den Bezugsrahmen fur die weiteren Beitrage. Er
weist nachdrucklich auf die handlungsorientierte Zielsetzung von
Informationssystemen hin und auf die daraus resultierende Forderung
an Wissen- schaftler, bei ihren Beitragen zur Gestaltung von
Informationssystemen die pragma- tische Ausrichtung des
Gesamtsystems angemessen zu berucksichtigen. Die lebhafte
Diskussion uber die zinzelnen Vortrage wahrend der Tagung machte
deutlich, wie sehr in einem Wissenschaftsfeld generell akzeptierte
Leitvorstellungen Raum fur kontrare Meinungen und
fruchtbar-heterogene Forschungsansatze lassen (oder schaffen). Wie
verschieden die in der Forschung vertretenen Gesichtspunkte sind,
zeigt schon die thematische Grobgruppierung der Vortrage, die als
Gliederung des Tagungsbandes beibehalten wurde. Die in diesem Band
nicht festgehaltenen Diskussionsveranstaltungen uber "LDV-Aus-
bildung und-Berufsperspektiven" (Betreuung Hans-Dieter Lutz) und
"Verbundforschung" (Betreuung Tobias Bruckner und Brigitte
Endres-Niggemeyer) mit ihrem teilweise mehr als lebhaften Verlauf
trugen dem Bedarf nach fachlicher und wissenschafts- politischer
Meinungsbildung Rechnung.
Um der starken Nachfrage nach Ausbildung und Fortbildung im Bereich
der Kunstlichen Intelligenz Rechnung zu tragen, wurde vom
Fachausschuss 1.2 ''Kunstliche Intelligenz und Mustererkennung" der
Gesellschaft fur Informatik vom 5. -16. Marz 1984 in DasseI
(Solling) eine zweiwoechige Fruhjahrsschule durchgefuhrt. Diese
Fruhjahrsschule war die Nachfolgeveranstaltung zur KIFS-82, die im
Marz 1982 in Teisendorf stattfand. Die diesjahrige KIFS stand unter
dem Themenschwerpunkt "Reprasentation von Wissen und
naturlichsprachliche Systeme". Das Kursangebot umfasste:
Gruldkurse: - Bildverstehen (B. Neumann, Hamburg) - Automatisches
Beweisen (J. Siekmann, Kaiserslautern) - Naturlichsprachliche
Systeme (W. Wahlster, Saarbrucken) Aufbaukurse: - Inferenzmethoden
(W. Bibel, Munchen) - Parser als integraler Bestandteil von
Sprachverarbeitungssystemen (T. Christaller, Hamburg) - Lernen und
Wissensakquisition (Ch. Habel & C.-R. Rollinger, Berlin) -
Techniken der Wissensdarstellung (J. Laubseh, Stuttgart) -
Textverstehen und Textproduktion (U. Quasthoff-Hartmann,
Bielefeld). - Semantik odelle in der Kunstlichen Intelligenz (C.
Schwind, Marseille) Spezialkurse: - LISP (G. Goerz, Erlangen) -
LISP 2 (H. Stoyan, Erlangen) - PROLOG (H. Gust & M. Koenig,
Osnabruck/ Berlin) Die Durchfuhrung der Spezialkurse, die eine
Einfuhrung bzw. Vertiefung der fur die KI wichtigsten
Programmiersprachen zum Ziel hatten, erfolgte auf Kleinrechnern
(verschiedener Hersteller) und zum Teil auf einer LISP aschine. Die
Rechner wurden ausserdem fur UEbungen und Vorfuhrungen zu einigen
der weiteren Kurse verwendet. Hierdurch wurde es moeglich, die im
Vorlesungsteil der Kurse erworbenen theoretischen Kenntnisse,
teilweise sogar am Rechner anzuwenden.
Computational science, in collaboration with engineering, acts as a
bridge between hypothesis and experimentation. It is essential to
use computational methods and their applications in order to
automate processes as many major industries rely on advanced
modeling and simulation. Computational science is inherently
interdisciplinary and can be used to identify and evaluate
complicated systems, foresee their performance, and enhance
procedures and strategies. Applications of Computational Science in
Artificial Intelligence delivers technological solutions to improve
smart technologies architecture, healthcare, and environmental
sustainability. It also provides background on key aspects such as
computational solutions, computation framework, smart prediction,
and healthcare solutions. Covering a range of topics such as
high-performance computing and software infrastructure, this
reference work is ideal for software engineers, practitioners,
researchers, scholars, academicians, instructors, and students.
Take your NLP knowledge to the next level by working with
start-of-the-art transformer models and problem-solving real-world
use cases, harnessing the strengths of Hugging Face, OpenAI,
AllenNLP, and Google Trax Key Features Pretrain a BERT-based model
from scratch using Hugging Face Fine-tune powerful transformer
models, including OpenAI's GPT-3, to learn the logic of your data
Perform root cause analysis on hard NLP problems Book
DescriptionTransformers are...well...transforming the world of AI.
There are many platforms and models out there, but which ones best
suit your needs? Transformers for Natural Language Processing, 2nd
Edition, guides you through the world of transformers, highlighting
the strengths of different models and platforms, while teaching you
the problem-solving skills you need to tackle model weaknesses.
You'll use Hugging Face to pretrain a RoBERTa model from scratch,
from building the dataset to defining the data collator to training
the model. If you're looking to fine-tune a pretrained model,
including GPT-3, then Transformers for Natural Language Processing,
2nd Edition, shows you how with step-by-step guides. The book
investigates machine translations, speech-to-text, text-to-speech,
question-answering, and many more NLP tasks. It provides techniques
to solve hard language problems and may even help with fake news
anxiety (read chapter 13 for more details). You'll see how
cutting-edge platforms, such as OpenAI, have taken transformers
beyond language into computer vision tasks and code creation using
Codex. By the end of this book, you'll know how transformers work
and how to implement them and resolve issues like an AI detective!
What you will learn Find out how ViT and CLIP label images
(including blurry ones!) and create images from a sentence using
DALL-E Discover new techniques to investigate complex language
problems Compare and contrast the results of GPT-3 against T5,
GPT-2, and BERT-based transformers Carry out sentiment analysis,
text summarization, casual speech analysis, machine translations,
and more using TensorFlow, PyTorch, and GPT-3 Measure the
productivity of key transformers to define their scope, potential,
and limits in production Who this book is forIf you want to learn
about and apply transformers to your natural language (and image)
data, this book is for you. A good understanding of NLP, Python,
and deep learning is required to benefit most from this book. Many
platforms covered in this book provide interactive user interfaces,
which allow readers with a general interest in NLP and AI to follow
several chapters of this book.
Work through interesting real-life business use cases to uncover
valuable insights from unstructured text using AWS AI services Key
Features Get to grips with AWS AI services for NLP and find out how
to use them to gain strategic insights Run Python code to use
Amazon Textract and Amazon Comprehend to accelerate business
outcomes Understand how you can integrate human-in-the-loop for
custom NLP use cases with Amazon A2I Book DescriptionNatural
language processing (NLP) uses machine learning to extract
information from unstructured data. This book will help you to move
quickly from business questions to high-performance models in
production. To start with, you'll understand the importance of NLP
in today's business applications and learn the features of Amazon
Comprehend and Amazon Textract to build NLP models using Python and
Jupyter Notebooks. The book then shows you how to integrate AI in
applications for accelerating business outcomes with just a few
lines of code. Throughout the book, you'll cover use cases such as
smart text search, setting up compliance and controls when
processing confidential documents, real-time text analytics, and
much more to understand various NLP scenarios. You'll deploy and
monitor scalable NLP models in production for real-time and batch
requirements. As you advance, you'll explore strategies for
including humans in the loop for different purposes in a document
processing workflow. Moreover, you'll learn best practices for
auto-scaling your NLP inference for enterprise traffic. Whether
you're new to ML or an experienced practitioner, by the end of this
NLP book, you'll have the confidence to use AWS AI services to
build powerful NLP applications. What you will learn Automate
various NLP workflows on AWS to accelerate business outcomes Use
Amazon Textract for text, tables, and handwriting recognition from
images and PDF files Gain insights from unstructured text in the
form of sentiment analysis, topic modeling, and more using Amazon
Comprehend Set up end-to-end document processing pipelines to
understand the role of humans in the loop Develop NLP-based
intelligent search solutions with just a few lines of code Create
both real-time and batch document processing pipelines using Python
Who this book is forIf you're an NLP developer or data scientist
looking to get started with AWS AI services to implement various
NLP scenarios quickly, this book is for you. It will show you how
easy it is to integrate AI in applications with just a few lines of
code. A basic understanding of machine learning (ML) concepts is
necessary to understand the concepts covered. Experience with
Jupyter notebooks and Python will be helpful.
|
|