|
Books > Computing & IT > Applications of computing > Artificial intelligence > Natural language & machine translation
Dieses erste Lehrbuch zur Formalen Begriffsanalyse gibt eine
systematische Darstellung der mathematischen Grundlagen und ihrer
Verbindung zu Anwendungen in der Informatik, insbesondere in der
Datenanalyse und Wissensverarbeitung. Das Buch vermittelt vor allem
Methoden der graphischen Darstellung von Begriffssystemen, die sich
in der Wissenskommunikation bestens bewahrt haben. Theorie und
graphische Darstellung werden dabei eng miteinander verknupft. Die
mathematischen Grundlagen werden vollstandig abgehandelt und durch
zahlreiche Beispiele anschaulich gemacht. Da zur
Wissensverarbeitung immer starker der Computer genutzt wird,
gewinnen formale Methoden begrifflicher Analyse uberall an
Bedeutung. Das Buch macht die dafur grundlegende Theorie in
kompakter Form zuganglich."
An informative and comprehensive overview of the state-of-the-art
in natural language generation (NLG) for interactive systems, this
guide serves to introduce graduate students and new researchers to
the field of natural language processing and artificial
intelligence, while inspiring them with ideas for future research.
Detailing the techniques and challenges of NLG for interactive
applications, it focuses on the research into systems that model
collaborativity and uncertainty, are capable of being scaled
incrementally, and can engage with the user effectively. A range of
real-world case studies is also included. The book and the
accompanying website feature a comprehensive bibliography, and
refer the reader to corpora, data, software and other resources for
pursuing research on natural language generation and interactive
systems, including dialog systems, multimodal interfaces and
assistive technologies. It is an ideal resource for students and
researchers in computational linguistics, natural language
processing and related fields.
In der Kognitionswissenschaft geht man davon aus, da die h-heren
geistigen Leistungen des Menschen auf informationsverarbeitenden
Prozessen beruhen. Als Symbolismus wird die Auffassung bezeichnet,
nach der die menschlicheInformationsverarbeitung nach den gleichen
Prinzipien funktioniert wie bei einem typischen Computer: durch die
Manipulation bedeutungstragender Zeichennach formalen regeln. Im
Gegensatz dazu vertritt der Konnektionismus dieThese, da die
menschliche Informationsverarbeitung als stetige
Aktivierungsausbreitung in einem neuronalen Netz verstanden werden
m}sse. Gro er Wert wurde in dieser interdisziplin{ren Arbeit auf
die verst{ndliche Darstellung symbolischer und konnektionistischer
Informationsverarbeitung gelegt, so da sich dieses Buch auch f}r
Interessenten aus dem Bereich der Philosophie, der Psychologie und
der Linguistik bestens eignet, einen Einstieg in die
Kognitionswissenschaft zu finden. Demjenigen, der mit den
jeweiligen Verarbeitungsmechanismen bereits vertraut ist, bietet es
einen ]berblick }ber die gegenw{rtige philosophische Diskussion um
das pro und contra beider Modelle zur Erkl{rung geistiger Prozesse.
Das vorliegende Buch ist der Tagungsband zur GWAI-91, der 15.
Fachtagung f}rK}nstliche Intelligenz (KI) der Gesellschaft f}r
Informatik, die im September 1991 in Bonn stattfand. Es enth{lt die
Schriftfassungen von 29 begutachteten Vortr{gen, wobei die
Schwerpunkte der Beitr{ge in den Bereichen Deduktion,
Sprachverarbeitung, Wissensrepr{sentation und Expertensysteme
liegen. Weitere Themen entstammen den Bereichen MaschinellesLernen,
Planen, Automatisches Programmieren und Konnektionismus. Die
Hauptvortr{ge wurden unter dem Aspekt ausgew{hlt, da au erhalb der
KI und deren "traditionellen" Nachbardisziplinen wie Philosophie,
Psychologie und Linguistik, neue Zug{nge der Beschreibung und
Erkl{rung kognitiver Ph{nomene erm-glicht werden. Diese sind durch
Wissenschaftsgebiete wie z.B. Neurophysiologie und
Evolutionsbiologie gepr{gt.
Das Buch enth{lt eine Auseinandersetzung mit Theorie und Praxis von
Human- und Maschinen}bersetzung, eine weltweite Dokumentation der
Systeme zur Maschinellen ]bersetzung, von Softwaretools und
Terminologiedatenbanken sowie eine ca. 2000 Titel umfassende
Bibliographie der verf}gbaren Fachli- teratur aus den Jahren 1985
bis 1989/90.
Create next-level AI assistants and transform how customers
communicate with businesses with the power of natural language
understanding and dialogue management using Rasa Key Features
Understand the architecture and put the underlying principles of
the Rasa framework to practice Learn how to quickly build different
types of chatbots such as task-oriented, FAQ-like, and knowledge
graph-based chatbots Explore best practices for working with Rasa
and its debugging and optimizing aspects Book DescriptionThe Rasa
framework enables developers to create industrial-strength chatbots
using state-of-the-art natural language processing (NLP) and
machine learning technologies quickly, all in open source.
Conversational AI with Rasa starts by showing you how the two main
components at the heart of Rasa work - Rasa NLU (natural language
understanding) and Rasa Core. You'll then learn how to build,
configure, train, and serve different types of chatbots from
scratch by using the Rasa ecosystem. As you advance, you'll use
form-based dialogue management, work with the response selector for
chitchat and FAQ-like dialogs, make use of knowledge base actions
to answer questions for dynamic queries, and much more.
Furthermore, you'll understand how to customize the Rasa framework,
use conversation-driven development patterns and tools to develop
chatbots, explore what your bot can do, and easily fix any mistakes
it makes by using interactive learning. Finally, you'll get to
grips with deploying the Rasa system to a production environment
with high performance and high scalability and cover best practices
for building an efficient and robust chat system. By the end of
this book, you'll be able to build and deploy your own chatbots
using Rasa, addressing the common pain points encountered in the
chatbot life cycle. What you will learn Use the response selector
to handle chitchat and FAQs Create custom actions using the Rasa
SDK Train Rasa to handle complex named entity recognition Become
skilled at building custom components in the Rasa framework
Validate and test dialogs end to end in Rasa Develop and refine a
chatbot system by using conversation-driven deployment processing
Use TensorBoard for tuning to find the best configuration options
Debug and optimize dialogue systems based on Rasa Who this book is
forThis book is for NLP professionals as well as machine learning
and deep learning practitioners who have knowledge of natural
language processing and want to build chatbots with Rasa. Anyone
with beginner-level knowledge of NLP and deep learning will be able
to get the most out of the book.
Das Buch ist eine Einfuhrung in die logische Programmierung in der
Form eines Kurses, in dem die Grundlagen der logischen
Programmierung, die logische Programmiersprache Prolog und ihre
Programmierpraxis, sowie einige Anwendungen vorgestellt werden.
Nach einer kurzen Begriffsbestimmung der logischen Programmierung
wird das sogenannte reine Prolog als Programmiersprache anhand von
Beispielen eingefuhrt. Die logischen Hintergrunde werden dabei nur
angedeutet. Anschliessend werden die Erweiterungen vorgestellt, die
Prolog zur vollen Programmiersprache machen. Es folgen etablierte
Programmiertechniken, die Prolog wie jede andere Programmiersprache
besitzt. Mit diesen Vorkenntnissen ist es nun leichter, die
theoretischen Grundlagen der logischen Programmierung zu verstehen.
Es wird gezeigt, wie Logik zur Wissensdarstellung und zur Ableitung
von weiterem Wissen verwendet werden kann. Ferner wird der Weg von
der Pradikatenlogik zur logischen Programmiersprache Prolog
nachvollzogen. Den Schluss bilden Anwendungen aus den Gebieten
wissensbasierte Systeme und Computerlinguistik."
In der generativen Phonologie lasst sich im Unterschied zur
generativen Syntax der Wechsel von einem derivationellen Modell
nicht so leicht dokumentieren. Phonologische Reprasentationen
werden in diesem Band nicht als notarielle Variante zur linearen
Phonologie verstanden, sondern als Ebene, auf der universelle
Beschrankungen gelten.Folgende Problembereiche werden u.a.
behandelt: - die phonetische Beschrankung phonologischer Segmente-
universelle Beschrankungen suprasegmentaler Strukturen- Modelle der
Interaktion von Phonologie und Morphologi
Build and deploy an efficient data processing pipeline for machine
learning model training in an elastic, in-parallel model training
or multi-tenant cluster and cloud Key Features Accelerate model
training and interference with order-of-magnitude time reduction
Learn state-of-the-art parallel schemes for both model training and
serving A detailed study of bottlenecks at distributed model
training and serving stages Book DescriptionReducing time cost in
machine learning leads to a shorter waiting time for model training
and a faster model updating cycle. Distributed machine learning
enables machine learning practitioners to shorten model training
and inference time by orders of magnitude. With the help of this
practical guide, you'll be able to put your Python development
knowledge to work to get up and running with the implementation of
distributed machine learning, including multi-node machine learning
systems, in no time. You'll begin by exploring how distributed
systems work in the machine learning area and how distributed
machine learning is applied to state-of-the-art deep learning
models. As you advance, you'll see how to use distributed systems
to enhance machine learning model training and serving speed.
You'll also get to grips with applying data parallel and model
parallel approaches before optimizing the in-parallel model
training and serving pipeline in local clusters or cloud
environments. By the end of this book, you'll have gained the
knowledge and skills needed to build and deploy an efficient data
processing pipeline for machine learning model training and
inference in a distributed manner. What you will learn Deploy
distributed model training and serving pipelines Get to grips with
the advanced features in TensorFlow and PyTorch Mitigate system
bottlenecks during in-parallel model training and serving Discover
the latest techniques on top of classical parallelism paradigm
Explore advanced features in Megatron-LM and Mesh-TensorFlow Use
state-of-the-art hardware such as NVLink, NVSwitch, and GPUs Who
this book is forThis book is for data scientists, machine learning
engineers, and ML practitioners in both academia and industry. A
fundamental understanding of machine learning concepts and working
knowledge of Python programming is assumed. Prior experience
implementing ML/DL models with TensorFlow or PyTorch will be
beneficial. You'll find this book useful if you are interested in
using distributed systems to boost machine learning model training
and serving speed.
Der vorliegende Sam mel band gibt zum groBten Teil die Beitrage
wieder, die auf dem Anwender-Workshop "Praxisanwendungen des
computergestOtzten Publizierens" anlaBlich der BIGTECH im November
1987 in Berlin gehalten wurden. Wie der Workshop gezeigt hat und es
sich auch in den meisten Beitragen wiederspie- gelt, ist der
gesamte Druckvorstufenbereich, von der Erfassung der Texte beim
Autor bis hin zur Ganzseitenbelichtung der Druckplatten, ja sogar
der Druckausgabe nur einzelner Exemplare Ober leistungsfahige
Laser-Drucksysteme (Stichwort: "Elektroni- sches Drucken") in
Bewegung geraten. Wie die zukOnfiige Aufgabenverteilung inner- halb
der grafischen Industrie aussehen wird, ist mit Sicherheit auch von
den weiteren technologischen . Entwicklungen und den
Anwendererfordernissen abhangig Bereits jetzt ist deutlich zu
erkennen, daB das Professionelle Elektronische Publizieren
zukOnfiig um die Komponente einer computergestOtzten
Dokumentenverarbeitung erganzt werden muB. Aile Probleme sind auch
beim Professionellen Elektronischen Publizieren noch nicht
ausgeraumt, so daB es auch noch kein System gibt, mit dem man
wirklich alles problemfrei bewaltigen kann. Wie der Workshop aber
gezeigt hat, wird die Kommuni- kation zwischen den verschiedenen
Systemen allmahlich Wirklichkeit. Die Beitrage stellen den "State
of the Art" im Bereich des Professionellen Publizierens, das auch
als Computer Aided Publishing (CAP) bezeichnet wird, dar.
Zielsetzung des Workshops war eine Bestandsaufnahme der gegenwMigen
Situation und der sich abzeichnenden Entwicklungstrends. Sowohl die
arbeitsorganisatorische als auch technische Intergration bzw. die
Integration zwischen Arbeitsablaufen und dem angebotenen
Leistungsspektren der Software-Systeme werden in den Beitragen
dargestellt. VI Es wird das gesamte Spektrum von professioneller
DTP-Software bis hin zu den Problemen bei integrierten
Dokumentations- und Publikationsanwendungen ange- sprochen.
Wissensbasierte Systeme wurden in den letzten Jahren uber die
Stadien des Experimentierens, der Forschung und der Entwicklung
hinaus zu interessanten Produkten der Informationsindustrie und
werden immer mehr zu wichtigen Arbeitsmitteln fur Fachleute und
Mitarbeiter in der Wirtschaft, in der Verwaltung und im
Bildungsbereich. Die GI-Kongresse uber wissensbasierte Systeme
sollen eine grossere Offentlichkeit uber den Stand der Entwicklung
unterrichten, sowohl in den Entwurfsmethoden und
Konstruktionstechniken als auch in der industriellen Anwendung. Ein
wesentliches Ziel dabei ist es, auf das grosse Potential an
Anwendungsmoglichkeiten hinzuweisen und intensivere Kooperationen
zwischen verschiedenen Gebieten anzuregen. Im vorliegenden
Tagungsband des 2. Internationalen GI-Kongresses "Wissensbasierte
Systeme", der 1987 wieder im Rahmen der Fachmesse SYSTEMS in
Munchen stattfand, werden neben den Expertensystemen im engeren
Sinne auch graphische Systeme, Techniken der Computeranimation,
kooperative Hilfssysteme, intelligente tutorielle Systeme und
entscheidungsunterstutzende Systeme behandelt. Grossen Raum nimmt
die Prasentation von Gemeinschaftsprojekten ein; insbesondere
werden die KI-Verbundprojekte des BMFT und eine Reihe von
ESPRIT-Projekten vorgestellt. Dieses Buch wendet sich an alle, die
Interesse an Informatik und ihren Anwendungen haben; es soll nicht
nur Wissenschaftler, sondern insbesondere auch Praktiker und
mogliche Anwender informieren und zu neuen Ideen anregen. Und es
soll Wissenschaft und Praxis zu fruchtbarer Diskussion und
Zusammenarbeit stimulieren. Neben vielen deutschen Autoren aus
Forschung und Praxis kommen Wissenschaftler aus mehreren
europaischen Landern und aus den USA zu Wort.
Das Thema der Untersuchung ist die algorithmische Generierung einer
naturlichsprachlichen Beschreibung einer Bildfolge, wobei von einer
symbolischen Reprasentation der Bildfolge ausgegangen wird, die im
wesentlichen die erkannten Objekte, sowie deren Ort und
Orientierung fur jedes Bild der Folge enthalt. Fragen der
Textgenerierung werden in umfassender Weise unter dem Aspekt der
Beschreibung visueller zeitveranderlicher Daten behandelt, fur die
ein Verfahren zum Erzeugen koharenter Beschreibungstexte angegeben
wird. Dem Verfahren liegt der Gedanke zugrunde, dem Horer/Leser den
Aufbau einer mentalen Vorstellung von den beschriebenen Bewegungen
zu ermoglichen. Insbesondere wird ein Computerprogramm vorgestellt,
das NAOS-System, das von der Erkennung von Teilbereichen einer
Bildfolge, die durch ein Verb beschrieben werden konnen, bis zur
Ausgabe des koharenten Beschreibungstextes alle notwendigen
Prozesse beispielhaft integriert. NAOS verbindet damit zwei bisher
weitgehend separat verfolgte Teilbereiche der Kunstlichen
Intelligenz, Bildverstehen und Verarbeitung naturlicher Sprache.
Die umfassende Behandlung der Fragestellung reicht von der
theoretischen Diskussion bis zur praktischen Implementation.
Das Buch behandelt die Worterkennung in kontinuierlicher Sprache,
eine im Rahmen des automatischen Verstehens gesprochener Sprache
auftretende und im Gegensatz zur Einzelworterkennung auch heute
noch nicht vollstandig geloste Aufgabenstellung. Nach einer
einfuhrenden vereinheitlichenden Darstellung einschlagiger
Techniken des Mustervergleichs (String Matching, Dynamic Time
Warping, Hidden Markov Modelling) fur die Erkennung isoliert
gesprochener Worter werden die Ansatze verallgemeinert, so dass
Worter auch in fliessender Rede ohne a priori Kenntnis der
Wortgrenzen lokalisierbar sind. Mehrere alternative Modelle zur
Beschreibung von Lautahnlichkeiten sowie Verfahren zur
Gutebewertung der erzeugten Worthypothesen stehen dann im Zentrum
der weiterfuhrenden Uberlegungen. Im experimentellen Teil ist der
Aufbau eines konkreten Systems zur Generierung von Worthypothesen
beschrieben, das den Rahmen bildet fur die nachfolgenden
vergleichenden Untersuchungen, in deren Verlauf bekannte und vom
Autor neu entwickelte Verfahren einander kritisch gegenubergestellt
werden. Der Leser findet in dem Buch etwa zu gleichen Teilen
kritische Aufarbeitung der Standardmethoden, neue Verfahren und die
Beschreibung praktischer Erfahrungen bei der Anwendung der
Worterkennungsalgorithmen auf grosse Datenmengen. Anwendungen des
Dargestellten sind nicht nur im engeren Bereich der Automatischen
Spracherkennung denkbar. Auch in Gegenstandsbereichen, in denen
Strukturen sequentiell-linearer Beschaffenheit, etwa zeitabhangiger
Muster, eine Rolle spielen, kommt eine Losung von Klassifikations-
und Lokalisierungsproblemen mit Hilfe der beschriebenen Ansatze in
Betracht.
Dieses Buch behandelt jene kognitiven Strukturen und Prozesse, die
der menschlichen Sprachverarbeitung zugrundeliegen. Das hier
vorgestellte Modell geht von zwei parallel arbeitenden Subsystemen
im Sprachverarbeitungsprozess aus:
Der vorliegende Samrnelband dokumentiert die GLDV-Jahrestagung 1985
"Sprachverarbei- tung in Information und Dokumentation". Die
Gesellschaft fur Linguistische Datenver- arbeitung veranstaltete
die Tagung in Kooperation mit der Fachgruppe 3 "Naturlich-
sprachliche Systeme" im FA 1.2 der Gesellschaft fur Informatik
(GI). Das programrnkomitee, besetzt mit Christopher Habel,
Hans-Dieter Lutz, Wolfgang Wahlster und den Herausgebern, die auch
die Tagung organisierten, wahlte die Beitrage unter dem
Gesichtspunkt einer aufgeschlossenen Zusamrnenarbeit von Informa-
tionswissenschaft, Kunstlicher Intelligenz und Linguistischer
Datenverarbeitung aus. Rainer Kuhlen entwickelt in seinem
Einleitungsreferat den Bezugsrahmen fur die weiteren Beitrage. Er
weist nachdrucklich auf die handlungsorientierte Zielsetzung von
Informationssystemen hin und auf die daraus resultierende Forderung
an Wissen- schaftler, bei ihren Beitragen zur Gestaltung von
Informationssystemen die pragma- tische Ausrichtung des
Gesamtsystems angemessen zu berucksichtigen. Die lebhafte
Diskussion uber die zinzelnen Vortrage wahrend der Tagung machte
deutlich, wie sehr in einem Wissenschaftsfeld generell akzeptierte
Leitvorstellungen Raum fur kontrare Meinungen und
fruchtbar-heterogene Forschungsansatze lassen (oder schaffen). Wie
verschieden die in der Forschung vertretenen Gesichtspunkte sind,
zeigt schon die thematische Grobgruppierung der Vortrage, die als
Gliederung des Tagungsbandes beibehalten wurde. Die in diesem Band
nicht festgehaltenen Diskussionsveranstaltungen uber "LDV-Aus-
bildung und-Berufsperspektiven" (Betreuung Hans-Dieter Lutz) und
"Verbundforschung" (Betreuung Tobias Bruckner und Brigitte
Endres-Niggemeyer) mit ihrem teilweise mehr als lebhaften Verlauf
trugen dem Bedarf nach fachlicher und wissenschafts- politischer
Meinungsbildung Rechnung.
Um der starken Nachfrage nach Ausbildung und Fortbildung im Bereich
der Kunstlichen Intelligenz Rechnung zu tragen, wurde vom
Fachausschuss 1.2 ''Kunstliche Intelligenz und Mustererkennung" der
Gesellschaft fur Informatik vom 5. -16. Marz 1984 in DasseI
(Solling) eine zweiwoechige Fruhjahrsschule durchgefuhrt. Diese
Fruhjahrsschule war die Nachfolgeveranstaltung zur KIFS-82, die im
Marz 1982 in Teisendorf stattfand. Die diesjahrige KIFS stand unter
dem Themenschwerpunkt "Reprasentation von Wissen und
naturlichsprachliche Systeme". Das Kursangebot umfasste:
Gruldkurse: - Bildverstehen (B. Neumann, Hamburg) - Automatisches
Beweisen (J. Siekmann, Kaiserslautern) - Naturlichsprachliche
Systeme (W. Wahlster, Saarbrucken) Aufbaukurse: - Inferenzmethoden
(W. Bibel, Munchen) - Parser als integraler Bestandteil von
Sprachverarbeitungssystemen (T. Christaller, Hamburg) - Lernen und
Wissensakquisition (Ch. Habel & C.-R. Rollinger, Berlin) -
Techniken der Wissensdarstellung (J. Laubseh, Stuttgart) -
Textverstehen und Textproduktion (U. Quasthoff-Hartmann,
Bielefeld). - Semantik odelle in der Kunstlichen Intelligenz (C.
Schwind, Marseille) Spezialkurse: - LISP (G. Goerz, Erlangen) -
LISP 2 (H. Stoyan, Erlangen) - PROLOG (H. Gust & M. Koenig,
Osnabruck/ Berlin) Die Durchfuhrung der Spezialkurse, die eine
Einfuhrung bzw. Vertiefung der fur die KI wichtigsten
Programmiersprachen zum Ziel hatten, erfolgte auf Kleinrechnern
(verschiedener Hersteller) und zum Teil auf einer LISP aschine. Die
Rechner wurden ausserdem fur UEbungen und Vorfuhrungen zu einigen
der weiteren Kurse verwendet. Hierdurch wurde es moeglich, die im
Vorlesungsteil der Kurse erworbenen theoretischen Kenntnisse,
teilweise sogar am Rechner anzuwenden.
From introductory NLP tasks to Transformer models, this new edition
teaches you to utilize powerful TensorFlow APIs to implement
end-to-end NLP solutions driven by performant ML (Machine Learning)
models Key Features Learn to solve common NLP problems effectively
with TensorFlow 2.x Implement end-to-end data pipelines guided by
the underlying ML model architecture Use advanced LSTM techniques
for complex data transformations, custom models and metrics Book
DescriptionLearning how to solve natural language processing (NLP)
problems is an important skill to master due to the explosive
growth of data combined with the demand for machine learning
solutions in production. Natural Language Processing with
TensorFlow, Second Edition, will teach you how to solve common
real-world NLP problems with a variety of deep learning model
architectures. The book starts by getting readers familiar with NLP
and the basics of TensorFlow. Then, it gradually teaches you
different facets of TensorFlow 2.x. In the following chapters, you
then learn how to generate powerful word vectors, classify text,
generate new text, and generate image captions, among other
exciting use-cases of real-world NLP. TensorFlow has evolved to be
an ecosystem that supports a machine learning workflow through
ingesting and transforming data, building models, monitoring, and
productionization. We will then read text directly from files and
perform the required transformations through a TensorFlow data
pipeline. We will also see how to use a versatile visualization
tool known as TensorBoard to visualize our models. By the end of
this NLP book, you will be comfortable with using TensorFlow to
build deep learning models with many different architectures, and
efficiently ingest data using TensorFlow Additionally, you'll be
able to confidently use TensorFlow throughout your machine learning
workflow. What you will learn Learn core concepts of NLP and
techniques with TensorFlow Use state-of-the-art Transformers and
how they are used to solve NLP tasks Perform sentence
classification and text generation using CNNs and RNNs Utilize
advanced models for machine translation and image caption
generation Build end-to-end data pipelines in TensorFlow Learn
interesting facts and practices related to the task at hand Create
word representations of large amounts of data for deep learning Who
this book is forThis book is for Python developers and programmers
with a strong interest in deep learning, who want to learn how to
leverage TensorFlow to simplify NLP tasks. Fundamental Python
skills are assumed, as well as basic knowledge of machine learning
and undergraduate-level calculus and linear algebra. No previous
natural language processing experience required.
Build cutting edge machine and deep learning systems for the lab,
production, and mobile devices Key Features Understand the
fundamentals of deep learning and machine learning through clear
explanations and extensive code samples Implement graph neural
networks, transformers using Hugging Face and TensorFlow Hub, and
joint and contrastive learning Learn cutting-edge machine and deep
learning techniques Book DescriptionDeep Learning with TensorFlow
and Keras teaches you neural networks and deep learning techniques
using TensorFlow (TF) and Keras. You'll learn how to write deep
learning applications in the most powerful, popular, and scalable
machine learning stack available. TensorFlow 2.x focuses on
simplicity and ease of use, with updates like eager execution,
intuitive higher-level APIs based on Keras, and flexible model
building on any platform. This book uses the latest TF 2.0 features
and libraries to present an overview of supervised and unsupervised
machine learning models and provides a comprehensive analysis of
deep learning and reinforcement learning models using practical
examples for the cloud, mobile, and large production environments.
This book also shows you how to create neural networks with
TensorFlow, runs through popular algorithms (regression,
convolutional neural networks (CNNs), transformers, generative
adversarial networks (GANs), recurrent neural networks (RNNs),
natural language processing (NLP), and graph neural networks
(GNNs)), covers working example apps, and then dives into TF in
production, TF mobile, and TensorFlow with AutoML. What you will
learn Learn how to use the popular GNNs with TensorFlow to carry
out graph mining tasks Discover the world of transformers, from
pretraining to fine-tuning to evaluating them Apply self-supervised
learning to natural language processing, computer vision, and audio
signal processing Combine probabilistic and deep learning models
using TensorFlow Probability Train your models on the cloud and put
TF to work in real environments Build machine learning and deep
learning systems with TensorFlow 2.x and the Keras API Who this
book is forThis hands-on machine learning book is for Python
developers and data scientists who want to build machine learning
and deep learning systems with TensorFlow. This book gives you the
theory and practice required to use Keras, TensorFlow, and AutoML
to build machine learning systems. Some machine learning knowledge
would be useful. We don't assume TF knowledge.
|
You may like...
Dvorak
Hans-Hubert Schonzeler
Hardcover
R464
Discovery Miles 4 640
|