Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
|||
Showing 1 - 9 of 9 matches in All Departments
It is always a special honor to chair the European Dependable Computing C- ference (EDCC). EDCC has become one of the well-established conferences in the ?eld of dependability in the European research area. Budapest was selected as the host of this conference due to its traditions in organizing international scienti?c events and its traditional role of serving as a meeting point between East and West. EDCC-5 was the ?fth in the series of these high-quality scienti?c conf- ences. In addition to the overall signi?cance of such a pan-European event, this year's conference was a special one due to historic reasons. The roots of EDCC date back to the moment when the Iron Curtain fell. Originally, two groups of scientists from di?erent European countries in Western and Eastern Europe - who were active in research and education related to dependability created a - joint forum in order to merge their communities as early as in 1989. This trend has continued up to today. This year's conference was the ?rst one where the overwhelming majority of the research groups belong to the family of European nations united in the European Union. During the past 16 years we observed that the same roots in all the professional, cultural and scienti?c senses led to a seamless integration of these research communities previously separated ar- ?cially for a long time. EDCC has become one of the main European platforms to exchange new - searchideasinthe?eldofdependability.
In den Proceedings zur 5. Internationalen GI/ITG/GMA-Tagung }ber Fehlerorientierte Rechensysteme in N}rnberg standen Tests, Diagnose und Fehlerbehandlung als Leitthemen im Mittelpunkt. Allerdings wurden auch die Themen Zuverl{ssigkeit, Verf}gbarkeit und Sicherheit in Hard- und Softwaresystemen behandelt. Der Tagungsband gibt mit eingeladenen und eingereichten Beitr{gen, die von einem internationalen Programmausschu~ sorgf{ltig ausgew{hlt wurden, eine ]bersicht }ber den Stand der Forschung, Entwicklung und Anwendungen aller Fehlertoleranz- und Zuverl{ssigkeitsaspekte.
In the last decade of Computer Science development, we can observe a growing interest in fault-tolerant computing. This interest is the result of a rising number of appl'ications where reliable operation of computing systems is an essential requirement. Besides basic research in the field of fault-tolerant computing, there is an increasing num- ber of systems especially designed to achieve fault-tolerance. It is the objective of this conference to offer a survey of present research and development activities in these areas. The second GI/NTG/GM~ Conference on Fault-Tolerant Computing Systems has had a preparatory time of about two years. In March 1982, the first GI conference concerning fault-tolerant computing systems was held in Munich. One of the results of the conference was to bring an organiza- tional framework to the FTC community in Germany. This led to the founding of the common interest group "Fault-Tolerant Computing Systems" of the Gesellschaft fur Informatik (GI), the Nachrichtentechnische Gesellschaft (NTG), and the Gesellschaft fur MeB- und Regelungstechnik (VDI/VDE-GMR) in November 1982. At that time, it was also decided to schedule a biannual conference on fault-tolerant computing systems. One of the goals of this second conference is to strengthen the relations with the international FTC community; thus, the call for papers was extended not only to German-speaking countries, but to other countries as well.
This volume is the record and product of the Summer School on the Physics and Mathematics of the Nervous System, held at the International Centre for Theoretical Physics in Trieste from August 21-31, 1973, and jointly organized by the Institute for Information Sciences, University of Tlibingen and by the Centre. The school served to bring biologists, physicists and mathemati cians together to exchange ideas about the nervous system and brain, and also to introduce young scientists to the field. The program, attended by more than a hundred scientists, was interdisciplinary both in character and participation. The primary support for the school was provided by the Volkswagen Foundation of West Germany. We are particularly indebted to Drs. G. Gambke, M. -L Zarnitz, and H. Penschuck of the Foundation for their in terest in and help with the project. The school also received major support from the International Centre for Theoretical Physics in Trieste and its sponsoring agencies, including the use of its excellent facili ties. We are deeply indebted to Professor A. Salam for his kind co operation and also to Professor P. Budini, Dr. A. M. Hamende, and to the many members of the Centre staff whose hospitality and efficiency con tributed so much to the success of the school. We are pleased to acknow ledge the generous id and cooperation of the University of Tlibingen and would like to thank its President, A."
Heutzutage ist es fast schon eine Selbstverstandlichkeit, dass in immer kurzeren Ab standen neuartige Rechnertypen auf dem Markt erscheinen. Insbesondere die Mi kroprozessoren haben in den letzten Jahren eine sturmische Entwicklung erfahren und viele der Architekturkonzepte, die zunachst den Grossrechnern vorbehalten wa ren, haben in die Architekturen der Mikroprozessoren Eingang gefunden. In anderen Worten, viele der grundlegenden Ideen, welche die Architektur von Rechnern be treffen, existieren schon seit langer Zeit. Sie haben sich trotz all der Fortschritte im Detail und in der Rechnertechnologie in erstaunenswerter Weise als ausserordentlich tragfahig erwiesen. Noch heute spiegeln die meisten Rechnerarchitekturen die Grundzuge des sogenannten von Neumannschen Architekturkonzepts wider. Es ist ein Anliegen dieses Buchs, gerade diese grundlegenden Ideen herauszustellen, und nicht so sehr, auf die detaillierte Beschreibung heute verbreiteter Rechnertypen ein zugehen. Deshalb wurde auch auf die Beschreibung einzelner Mikroprozessoren weitgehend verzichtet. Daruber gibt es eine umfangreiche Literatur. Dennoch wer den alle wichtigen Architekturaspekte moderner Mikroprozessoren behandelt. Das Buch beginnt mit der Erlauterung des Begriffs Architektur. Anschliessend wer den die wichtigsten Aspekte der Architekturbewertung angesprochen (Kapitel 1). Die Klassifizierung der gangigsten Rechnerarchitekturen ist Inhalt von Kapitel 2. Parallelrechner bilden dabei einen Schwerpunkt. Die ersten beiden Kapitel sollen zum einen eine Ubersicht uber die Architekturlandschaft vermitteln und zum ande ren dem Leser das Einordnen von Architekturkonzepten, wie sie in den folgenden Kapiteln behandelt werden, erleichtern. Danach wird zunachst der Aufbau der Zentraleinheit eines Rechners behandelt (Kapitel 3)."
Als vor fast 40 Jahren ein Entwicklungsteam seiner hohen Direktion das Konzept und Teile einer neuen Rechenanlage vorstellte, machte das Wort vom "Elefanten" die Runde. Dessen ungeachtet machten sich einige Entwick- ler bereits Gedanken dariiber, wie man ein "Team" von etwa vier solchen Elefanten" zusammenbringen konnte, urn die damals anstehende Aufgabe " einer automatisierten Flugsicherung bewaJtigen zu konnen. Eine Elefantenherde? Mitnichten - schon damals gab es "Konzeptionisten", welche den "Elefanten" der auBeren Dimension nach sehrumpfen sahen. AI- lerdings gab erst die Technik integrierter Bauteile die Moglichkeit, den Ele- fanten bzw. Monoprozessor auf einem Chip zu realisieren und ihn damit auf die ihm gemaB Grosse zu reduzieren: Ein Chip als Ausgangspunkt bzw. als Einzeller einer neuen Generation von Automaten-Wesen, die sich aus Tausenden von solchen Einheiten zusammensetzt. Der Vergleieh mit der Darwin'schen Evolution liegt nahe. Die Natur benotigte einige Milliarden von Jahren fUr eine entsprechende Entwieklung vom Einzeller zu hoheren Organismen.
Eine Programmiersprache ist ein Notationssystem, in dem Anweisungen fur eine Rechenanlage formuliert werden koennen. Sie ist aber gleichermassen auch ein Werkzeug zur Beschreibung von Problemen und deren Loesungswegen. Deshalb hat eine neue Programmiersprache immer dann ihre Berechtigung, wenn sie im Vergleich zum Bestehenden neue, machtigere Konzepte und adaquatere Abstraktionsmittel anbietet, die das Loesen von Problemen erleichtern und es erlauben, Loesungen verstandlicher darzustellen. In den nachsten Kapiteln werden wir die Elemente der Programmiersprache Modula-2 (MODUlar programming LAnguage; im folgenden werden wir Modula synonym mit Modula-2 verwenden) im einzelnen vorstellen und den Umgang mit ihnen an vielen Beispielen vorfuhren. Im folgenden aber sei fur den jenigen, der bereits Erfahrung mit Programmieren hat, dargelegt, was Modula-2 gegenuber Pascal beispielsweise an Neuem zu bieten hat. Das wichtigste neue Abstraktionsmittel der Programmiersprache Modula-2 ist ihr Modulkonzept. Mit ihm lassen sich Programme in uberschaubare und voneinander weitgehend unabhangige Teile - in sogenannte Moduln - gliedern, deren Aufspaltung in Definitions- und Implementationsteil (Definitionsmodul und Implementationsmodul) ein separates UEbersetzen ermoeglicht. Diese Moduln koennen in einer Programmbi bliothek abgelegt werden. In ihrem Definitionsteil wird von den Details der Real isierung der Modulfunktion abstrahiert. Er beschreibt, was das Modul leistet, nicht wie.
Dieses Buch ist aus einer Vorlesung flir Studenten der Informatik hervorgegangen, die in ein regelmassig angebotenes Praktikum in Systemprogrammierung einfuhren soll. Ziel dieser Vorlesung ist die Vermittlung grundlegender Methoden der systemnahen Programmierung, wahrend im Praktikum vor allem der Einsatz einer hoeheren Program- miersprache fur Probleme der systemnahen Programmierung geubt werden soll. Kenntnisse in einer hoeheren Programmiersprache, vorzugsweise Pascal, Modula-2 oder C, werden deshalb vorausgesetzt. Das Buch richtet sich aber nicht nur an Informatikstudenten, sondern in erster Linie auch an die Benutzer von Personal Computern, vor allem an solche, die sich intensiver mit der Programmierung ihres Rechners befassen wollen, als dies fur die Erstellung reiner Anwendersoftware noetig ware. Sie koennen namlich, im Vergleich zu den Benutzern eines grossen Systems, die vorhandenen Resourcen ihres Rechners gezielter, auf die jeweilige Anwendung abgestimmt, nutzen. Dazu sind jedoch einige Kenntnisse in systemnaher Programmierung erforderlich. Bis auf wenige Ausnahmen habe ich mich bemuht, dem Leser nur vollstandige Pro- grammbeispiele anzubieten. Deshalb wird er sich zuweilen auch mit weniger wichtigen Details befassen mussen. Er kann dafur aber sicher sein, dass die Beispiele lauffahig sind und getestet wurden. Das Buch gl edert sich in zwei Teile. Teil I soll die Grundprinzipien der modularen, systemnahen Programmierung vermitteln und diese an Hand der Behandlung von Ausnahmen demonstrieren. Teil II befasst sich mit der concurrenten Programmierung. Dabei steht die Entwicklung und die Modellierung ganzer Prozess-Systeme im Vordergrund.
Dieses Buch ist aus Vorlesungen hervorgegangen, die der Autor in den Jahren 1974 - 1979 am Institut fur Informationsverarbeitung der Universit t Tubingen gehalten hat. Die Vorlesungsreihe stand unter dern Bemlihen, eine urnfassende Theorie der Leistungsbestirnrnung komplexer Systeme (insbesondere von Computersystemen) anzubieten. In diesem Zusarnrnenhang erschien es notwendig, auch auf Fragen und neuere Ergebnisse der Zuverl ssigkeitstheorie einzugehen. Zuver l ssigkeit und Verfugbarkeit sind ja wesentliche Aspekte der Leis tung eines jeden Systems. In Kapitel 2 wird ein nun schon klassisches Gebiet der Zuverl s sigkeitstheorie behandelt, n lich die statische oder auch fehler maskierende Redundanz. Sodann wird an Hand von Beispielen erl u tert, was unter einem fehlertoleranten System zu verstehen ist (Kapitel 3). Als Beispiel dienen uns Mehrrechnersysteme (multi processing systems). Es liegt nahe, die Kornrnunikationsstruktur sol cher Systeme, wie auch die der Nachrichtentechnik, durch Graphen zu beschreiben. Die Bestirnrnung ihrer Zuverl ssigkeit wird uns des halb auf Optimierungsaufgaben aus der Graphentheorie fuhren und insbesondere mit Problemen der Algorithmen- und Komplexitatstheorie konfrontieren. Eine, im Hinblick auf Fehlertoleranz besonders wich tige Eigenschaft der Mehrrechnersysteme ist ihre prinzipielle F higkeit zur Selbstdiagnose. Mit ihr werden wir uns anschlieBend befassen. Selbstdiagnose kennt man zwar von jeher bei biologischen und sozi06konomischen Systernen, in technologischen Systemen lieB sie sich jedoch bisher kaurn verwirklichen, da sie ein intelligen tes Systemverhalten voraussetzt. Diese Situation hat sich mit dem Erscheinen des Mikropro essors grundlegend ge ndert. Fur die Ent wick lung zukunftiger Computersysteme werden Fehlertoleranz und Selbstdiagnose zweifellos eine irnrner gr6Bere Bedeutung erlangen."
|
You may like...
|