|
Books > Computing & IT > Computer hardware & operating systems > Mainframes & minicomputers
This book provides a hands-on, application-oriented guide to the
language and methodology of both SystemVerilog Assertions and
SystemVerilog Functional Coverage. Readers will benefit from the
step-by-step approach to functional hardware verification using
SystemVerilog Assertions and Functional Coverage, which will enable
them to uncover hidden and hard to find bugs, point directly to the
source of the bug, provide for a clean and easy way to model
complex timing checks and objectively answer the question 'have we
functionally verified everything'. Written by a professional
end-user of ASIC/SoC/CPU and FPGA design and Verification, this
book explains each concept with easy to understand examples,
simulation logs and applications derived from real projects.
Readers will be empowered to tackle the modeling of complex
checkers for functional verification, thereby drastically reducing
their time to design and debug. This updated second edition
addresses the latest functional set released in IEEE-1800 (2012)
LRM, including numerous additional operators and features.
Additionally, many of the Concurrent Assertions/Operators
explanations are enhanced, with the addition of more examples and
figures. * Covers in its entirety the latest IEEE-1800 2012 LRM
syntax and semantics; * Covers both SystemVerilog Assertions and
SystemVerilog Functional Coverage language and methodologies; *
Provides practical examples of the what, how and why of Assertion
Based Verification and Functional Coverage methodologies; *
Explains each concept in a step-by-step fashion and applies it to a
practical real life example; * Includes 6 practical LABs that
enable readers to put in practice the concepts explained in the
book.
This book-presents new methods and tools for the integration and
simulation of smart devices. The design approach described in this
book explicitly accounts for integration of Smart Systems
components and subsystems as a specific constraint. It includes
methodologies and EDA tools to enable multi-disciplinary and
multi-scale modeling and design, simulation of multi-domain
systems, subsystems and components at all levels of abstraction,
system integration and exploration for optimization of functional
and non-functional metrics. By covering theoretical and practical
aspects of smart device design, this book targets people who are
working and studying on hardware/software modelling, component
integration and simulation under different positions (system
integrators, designers, developers, researchers, teachers, students
etc.). In particular, it is a good introduction to people who have
interest in managing heterogeneous components in an efficient and
effective way on different domains and different abstraction
levels. People active in smart device development can understand
both the current status of practice and future research directions.
* Provides a comprehensive overview of smart systems design,
focusing on design challenges and cutting-edge solutions; * Enables
development of a co-simulation and co-design environment that
accounts for the peculiarities of the basic subsystems and
components to be integrated; * Describes development of modeling
and design techniques, methods and tools that enable multi-domain
simulation and optimization at various levels of abstraction and
across different technological domains.
This book introduces readers to various radiation soft-error
mechanisms such as soft delays, radiation induced clock jitter and
pulses, and single event (SE) coupling induced effects. In addition
to discussing various radiation hardening techniques for
combinational logic, the author also describes new mitigation
strategies targeting commercial designs. Coverage includes novel
soft error mitigation techniques such as the Dynamic Threshold
Technique and Soft Error Filtering based on Transmission gate with
varied gate and body bias. The discussion also includes modeling of
SE crosstalk noise, delay and speed-up effects. Various mitigation
strategies to eliminate SE coupling effects are also introduced.
Coverage also includes the reliability of low power
energy-efficient designs and the impact of leakage power
consumption optimizations on soft error robustness. The author
presents an analysis of various power optimization techniques,
enabling readers to make design choices that reduce static power
consumption and improve soft error reliability at the same time.
This book explains for readers how 3D chip stacks promise to
increase the level of on-chip integration, and to design new
heterogeneous semiconductor devices that combine chips of different
integration technologies (incl. sensors) in a single package of the
smallest possible size. The authors focus on heterogeneous 3D
integration, addressing some of the most important challenges in
this emerging technology, including contactless, optics-based, and
carbon-nanotube-based 3D integration, as well as signal-integrity
and thermal management issues in copper-based 3D integration.
Coverage also includes the 3D heterogeneous integration of power
sources, photonic devices, and non-volatile memories based on new
materials systems.
Even as spending on digital transformation continues to skyrocket,
mainframes nevertheless have major advantages for global
enterprises. These systems still process huge amounts of
information and allow for highly secure transactions. In this
practical book, author Tom Taulli shows software developers how to
pursue a hybrid approach by integrating traditional mainframes and
applications with modern digital systems. By the end of this book,
you'll have a solid understanding of the mainframe architecture and
ecosystem, including core concepts and technologies such as COBOL,
REXX, JCL, Db2, VSAM, and CICS. You'll also learn how to blend in
newer technologies such as the cloud, AI and machine learning, and
microservices. This handbook is indispensable for enterprises
looking to thrive in the new digital world. Learn strategies and
approaches for mainframe DevOps Create, update, and maintain
existing mainframe code, and analyze and resolve common errors
Apply modern approaches to the mainframe, including microservices,
APIs, cloud, and AI and machine learning Work with datasets and
databases and put together effective reports Understand how to work
with modern cloud systems, like AWS, for pursuing data migration
This book constitutes the refereed proceedings of the First International Symposium on Handheld and Ubiquitous Computing, HUC'99, held in Karlsruhe, Germany in September 1999.The 23 revised full papers presented together with four invited keynote contributions, 26 reviewed posters, and two panel statements were carefully reviewed and selected from a large number of paper submissions. The papers are organized in topical sections on handheld and wearable appliances, location-based services, smart devices and smart environments, handhelds in distributed systems, handheld and wearable CSCW, context-aware mobile applications, interacting with environment, and interacting with handhelds.
In a competitive world, research in manufacturing systems plays an
important role in creating, updating and improving the technologies
and management practices of the economy. This volume presents some
of the most recent results in stochastic manufacturing systems.
Experts from the fields of applied mathematics, engineering and
management sciences review and substantially update the recent
advances in the control and optimization of manufacturing systems.
Recent Advances in Control and Optimization of Manufacturing
Systems consists of eight chapters divided into three parts which
focus on Optimal Production Planning, Scheduling and Improvability
and Approximate Optimality and Robustness. This book is intended
for researchers and practitioners in the fields of systems theory,
control and optimization, and operation management as well as in
applied probability and stochastic processes.
The next generation of computer system designers will be less
concerned about details of processors and memories, and more
concerned about the elements of a system tailored to particular
applications. These designers will have a fundamental knowledge of
processors and other elements in the system, but the success of
their design will depend on the skills in making system-level
tradeoffs that optimize the cost, performance and other attributes
to meet application requirements. This book provides a new
treatment of computer system design, particularly for
System-on-Chip (SOC), which addresses the issues mentioned above.
It begins with a global introduction, from the high-level view to
the lowest common denominator (the chip itself), then moves on to
the three main building blocks of an SOC (processor, memory, and
interconnect). Next is an overview of what makes SOC unique (its
customization ability and the applications that drive it). The
final chapter presents future challenges for system design and SOC
possibilities.
Die Unified Modeling Language (UML) hat sich zur dominanten
Modellierungssprache entwickelt. Als weiterer Trend ist zu
beobachten, dass "agile" Methoden immer breiter eingesetzt werden.
Der Band bietet eine Einfuhrung in die Entwicklungsmethodik, die
UML mit Elementen agiler Methoden kombiniert. Im Tutorial wird
beschrieben, wie UML eingesetzt wird. Dabei werden Klassen-,
Objekt- und Sequenzdiagramme, Statecharts sowie die Object
Constraint Language (OCL) anhand vieler Beispiele erlautert. Die 2.
Auflage basiert auf UML 2.3 sowie der Java-Version 6.
Die Unified Modeling Language (UML) hat sich zur dominanten
Modellierungssprache entwickelt, "agile" Methoden werden inzwischen
bei vielen Softwareentwicklungen eingesetzt. In dem Buch wird ein
Ansatz vorgestellt, der UML mit Elementen agiler Methoden
kombiniert und deshalb fur den Einsatz in Anwendungsdomanen
besonders geeignet ist. Die 2. Auflage wurde durchgehend
uberarbeitet und basiert auf UML 2.3 sowie der Java-Version 6. Auf
der Internetseite http: //www.se-rwth.de/mbse ist weiterfuhrendes
Material bereitgestellt.
This book is concerned with techniques for formal theorem-proving,
with particular reference to Cambridge LCF (Logic for Computable
Functions). Cambridge LCF is a computer program for reasoning about
computation. It combines the methods of mathematical logic with
domain theory, the basis of the denotational approach to specifying
the meaning of program statements. Cambridge LCF is based on an
earlier theorem-proving system, Edinburgh LCF, which introduced a
design that gives the user flexibility to use and extend the
system. A goal of this book is to explain the design, which has
been adopted in several other systems. The book consists of two
parts. Part I outlines the mathematical preliminaries, elementary
logic and domain theory, and explains them at an intuitive level,
giving reference to more advanced reading; Part II provides
sufficient detail to serve as a reference manual for Cambridge LCF.
It will also be a useful guide for implementors of other programs
based on the LCF approach.
Dieses Buch stellt die elementaren mathematischen Aspekte in der
Quanteninformatik im strikten Formalismus der Mathematik dar. Dem
Leser wird zunachst das erforderliche mathematische Grundwissen
bereit gestellt. Mit diesem Instrumentarium werden dann die
Grundsatzen der Quantenmechanik formuliert und die fur die
Quanteninformatik relevanten Aspekte erlautert. Eine Vielzahl von
Aufgaben, deren Loesungen im Anhang dargeboten werden, gibt dem
Leser Gelegenheit sein Verstandnis zu uberprufen und zu vertiefen.
Ausgehend vom Shannon-Wiener-Zugang zur mathematischen
Informationstheorie beginnt das Buch mit einer Abgrenzung der
Begriffe Nachricht und Information und der axiomatischen Zuordnung
einer Informationsmenge zu einer Wahrscheinlichkeit. Im zweiten
Teil werden abzahlbare Wahrscheinlichkeitsraume untersucht, deren
mittlere Informationsmenge zur Definition der Shannon-Entropie
fuhrt; dabei werden drei klassische Anwendungen der
Shannon-Entropie in der statistischen Physik, der mathematischen
Statistik und der Nachrichtentechnik vorgestellt, und es wird ein
erster Einblick in den Bereich Quanteninformation gegeben. Der
dritte Teil behandelt die informationstheoretische Analyse
dynamischer Systeme. Das Buch baut auf Bachelor-Wissen auf und legt
grossen Wert auf exakte Beweisfuhrung.
Das Buch behandelt die in modernen Hochleistungsprozessoren zum
Einsatz kommenden Techniken. Nach einer einfuhrenden Beschreibung
von Programmiermodellen werden zunachst skalare Prozessoren, die
Mikroprogrammierung und die Fliessbandverarbeitung diskutiert.
Die in operationsparallel arbeitenden Prozessoren angewandten
Prinzipien kommen zur Sprache. Dabei werden die
Multimedia-Einheiten (SIMD-Einheiten), Feldrechner, Vektorrechner,
Signalprozessoren, VLIW-Prozessoren und Prozessoren mit
kontrollflussgesteuertem Datenfluss erortert zum Teil auch unter
Einbeziehung der bei diesen Verfahren bedeutsamen
Ubersetzerbautechniken. Im Zusammenhang mit den ebenfalls
behandelten superskalaren Prozessoren werden die gangigen Verfahren
zur Operationsparallelisierung, zum Reordering von Befehlen, zur
Datenflussspekulation und zur Kontrollflussspekulation beschrieben.
Zum Abschluss beschaftigt sich das Buch mit Techniken zum Aufbau
von im Hardware/Software-Codedesign arbeitenden Prozessoren.
Die einzelnen Kapitel sind so aufgebaut, dass zunachst die Idee
eines Prinzips sowie eine Umsetzung beschrieben wird. Anschliessend
werden Schwachstellen herausgearbeitet und darauf aufbauend
verbesserte Umsetzungen prasentiert.
Das Buch vermittelt nicht nur die Ideen der im Prozessorbau zum
Einsatz kommenden Verfahren, sondern insbesondere die fur eine
Umsetzung erforderlichen Details, die vielfach bis hinab zur
Registertransferschaltung fuhren. Es enthalt zahlreiche Bilder bzw.
Tabellen und Beispiele. "
Nachdem die ersten Fuzzy-Regler Anfang der siebziger Jahre
entwickelt und in der Praxis erprobt wurden, hat das Gebiet der
Fuzzy-Regelung in den vergangenen Jahrzehnten einen gewaltigen
Fortschritt erfahren. Die zugrunde liegenden mathematischen und
technischen Konzepte sind umfassend analysiert worden, und
mittlerweile werden Fuzzy-Regler in vielen industriellen
Anwendungen routinemassig eingesetzt. Das Ziel dieses Buches ist
eine kritische Bestandsaufnahme der Fuzzy-Regler aus Sicht der
klassischen Regelungstechnik. Der Schwerpunkt dieses Buches liegt
in der Darstellung von Themen, die fur den Anwender von besonderem
Interesse sind. Hierzu zahlen insbesondere die (Selbst-)
Einstellung, Optimierung und Stabilitatsanalyse von Fuzzy-Reglern.
Ausgehend von einer detaillierten Einfuhrung in die Gebiete
Fuzzy-Systeme und Regelungstechnik wird der Leser systematisch an
aktuelle Forschungsergebnisse herangefuhrt."
Das Buch gibt einen umfassenden UEberblick uber die Hardware- und
Software-Konzepte, auf denen moderne Rechnersysteme beruhen, von
den Arbeitsplatzrechnern bis zu den Supercomputern und den
zukunftigen massiv-parallelen Rechnern. Im Anschluss an die
Betrachtung der Architektur sequentieller Rechner, ihrer
Prozessoren und ihrer Speicherhierarchien werden die Grundlagen fur
die Parallelarbeit dargelegt. Zunachst werden die Prinzipien der
Parallelarbeit im Prozessor behandelt, was zu den VLIW-Maschinen
und den superskalaren Prozessoren fuhrt, und die damit verbundenen
Compilerprobleme eroertert. Ein Kapitel ist den SIMD-Architekturen
in Form der Vektormaschinen oder der Anordnungen gleichartiger
Rechnerelemente gewidmet. Ein eigenes Kapitel stellt ausfuhrlich
und mit Beispielen die Prinzipien der Datenstruktur-Architekturen
und der Sprach-Architekturen dar. Datenstruktur-Architekturen sind
dahingehend optimiert, datenparallele Anwendungen mit komplexen
Datenstrukturtypen moeglichst effizient zu bearbeiten.
Sprach-Architekturen dienen der Unterstutzung von Sprachen wie Lisp
und Prolog. Datenflussarchitekturen werden in einem eigenen Kapitel
ausfuhrlich behandelt. Die letzten drei Kapitel sind den
Parallelrechnern gewidmet: Aus den Programmiermodellen fur
massiv-parallele Architekturen werden die verschiedenen
Architekturformen abgeleitet. Die Eigenschaften der einzelnen
Architekturformen, die zentrale Frage der Kommunikationslatenz und
die spezifischen Softwarefragen werden grundlich behandelt. Das
Buch zeichnet sich durch eine sehr systematische Darstellung aus
sowie auch dadurch, dass nicht nur auf die Hardware-Architekturen
eingegangen wird, sondern ebenso sehr auf die relevanten Fragen der
Systemsoftware und Programmierung.
Das vorliegende Buch ist der 2. Teil einer Einfuhrung in die
wesentlichen Problembereiche der KI-Programmierung. Dabei dienen
Sprachentwicklung, -implementierung und -benutzung als neuartige
einheitliche Sichtweise. Die Grundidee ist, dass es zu jedem
Problem ein angepasstes Verarbeitungsmodell (eine abstrakte
Maschine) gibt, das mit Hilfe einer zugeordneten Programmiersprache
operabel gemacht werden kann. Programmiersprachen konnen jedoch
auch uminterpretiert werden, indem ihnen konzeptionell ein neues
Verarbeitungsmodell zugrunde gelegt wird. Diese Ausdrucksvielfalt
fuhrt zu verschiedenen "Programmierstilen." Um den angehenden
KI-Programmierer mit KI-Programmiersprachen
(Wissensreprasentationsformalismen) und ihrer Implementierung
vertraut zu machen, wird eine Reihe etablierter oder zeitweise
wichtiger Sprachen vorgestellt. Das Besondere an diesem
Sprachspektrum ist die Vielfalt der Verarbeitungsmodelle, auf denen
die Sprachen beruhen, und die Unterschiedlichkeit der
Programmierstile, denen der Programmierer folgen kann. Im ersten
Band werden Funktions-, Muster-, Operator- und Logik-orientierte
Formen der Programmierung behandelt und an einem durchgehenden
Problembeispiel vorgestellt. Im vorliegenden zweiten Band stehen
Relations-, Regel-, Plan-, Anweisungs- und Objekt-orientierte
Formen sowie die ATN-Programmierung (Augmented Transition Networks)
im Vordergrund."
|
You may like...
Sweet Tooth
Michael Lashley
Hardcover
R535
Discovery Miles 5 350
|