|
|
Showing 1 - 14 of
14 matches in All Departments
|
High Performance Computing in Science and Engineering, Garching/Munich 2007 - Transactions of the Third Joint HLRB and KONWIHR Status and Result Workshop, Dec. 3-4, 2007, Leibniz Supercomputing Centre, Garching/Munich, Germany (Hardcover, 2009 ed.)
Siegfried Wagner, Matthias Steinmetz, Arndt Bode, Matthias Brehm
|
R4,157
Discovery Miles 41 570
|
Ships in 18 - 22 working days
|
For the fourth time, the Leibniz Supercomputing Centre (LRZ) and
the Com- tence Network for Technical, Scienti c High Performance
Computing in Bavaria (KONWIHR) publishes the results from scienti c
projects conducted on the c- puter systems HLRB I and II (High
Performance Computer in Bavaria). This book reports the research
carried out on the HLRB systems within the last three years and
compiles the proceedings of the Third Joint HLRB and KONWIHR Result
and Reviewing Workshop (3rd and 4th December 2007) in Garching. In
2000, HLRB I was the rst system in Europe that was capable of
performing more than one Tera op/s or one billion oating point
operations per second. In 2006 it was replaced by HLRB II. After a
substantial upgrade it now achieves a peak performance of more than
62 Tera op/s. To install and operate this powerful system, LRZ had
to move to its new facilities in Garching. However, the situation
regarding the need for more computation cycles has not changed much
since 2000. The demand for higher performance is still present, a
trend that is likely to continue for the foreseeable future. Other
resources like memory and disk space are currently in suf cient
abundance on this new system.
This volume of High Performance Computing in Science and
Engineering is fully dedicated to the final report of KONWIHR, the
Bavarian Competence Network for Technical and Scientific High
Performance Computing. It includes the transactions of the final
KONWIHR workshop, that was held at Technische Universitat Munchen,
October 14-15, 2004, as well as additional reports of KONWIHR
research groups. KONWIHR was established by the Bavarian State
Government in order to support the broad application of high
performance computing in science and technology throughout the
country. KONWIHR is a supporting action to the installation of the
German supercomputer Hitachi SR 8000 in the Leibniz Computing
Center of the Bavarian Academy of Sciences. The report covers
projects from basic research in computer science to develop tools
for high performance computing as well as applications from
biology, chemistry, electrical engineering, geology, mathematics,
physics, computational fluid dynamics, materials science and
computer science."
|
High Performance Computing in Science and Engineering, Munich 2004 - Transactions of the Second Joint HLRB and KONWIHR Status and Result Workshop, March 2-3, 2004, Technical University of Munich, and Leibniz-Rechenzentrum Munich, Germany (Paperback, 2005 ed.)
Siegfried Wagner, Werner Hanke, Arndt Bode, Franz Durst
|
R2,708
Discovery Miles 27 080
|
Ships in 18 - 22 working days
|
Leading-edge research groups in the field of scientific computing
present their outstanding projects using the High Performance
Computer in Bavaria (HLRB), Hitachi SR8000-F1, one of the top-level
supercomputers for academic research in Germany. The projects
address modelling and simulation in the disciplines Biosciences,
Chemistry, Chemical Physics, Solid-State Physics, High-Energy
Physics, Astrophysics, Geophysics, Computational Fluid Dynamics,
and Computer Science. The authors describe their scientific
background, their resource requirements with respect to top-level
supercomputers, and their methods for efficient utilization of the
costly high-performance computing power. Contributions of
interdisciplinary research projects that have been supported by the
Competence Network for Scientific High Performance Computing in
Bavaria (KONWIHR) complete the broad range of supercomputer
research and applications covered by this volume.
|
High Performance Computing in Science and Engineering, Munich 2002 - Transactions of the First Joint HLRB and KONWIHR Status and Result Workshop, October 10-11, 2002, Technical University of Munich, Germany (Paperback, Softcover reprint of the original 1st ed. 2003)
Siegfried Wagner, Werner Hanke, Arndt Bode, Franz Durst
|
R1,469
Discovery Miles 14 690
|
Ships in 18 - 22 working days
|
High-Performance Computers (HPC) have initiated a revolutionary
develop ment in research and technology since many complex and
challenging prob lems in this area can only be solved by HPC and a
network in modeling, algo rithms and software. In 1998 the Deutsche
Forschungsgemeinschaft (German Research Association) recommended to
install an additional Federal High Performance Computer followed by
the one in Stuttgart. In January 1999 the Wissenschaftsrat (German
Science Council) decided that the Leibniz Rechenzentrum (Computing
Center) of the Bavarian Academy of Sciences in Munich should run
the second Federal High-Performance Computer in Ger many. The
investment cost of this Hochstleistungsrechner in Bayern (HLRB) was
borne by the Federal Government of Germany and the Free State of
Bavaria whereas the operating cost was at the expense of the
Bavarian Gov ernment only. The operation of the HLRB is organized
in combination with the - Leibniz-Rechenzentrum (LRZ) of the
Bavarian Academy of Sciences as the operating authority of the HLRB
- Steering Committee of the HLRB - Competence Network for
Technical/Scientific High-Performance Comp- ing in Bavaria
(KONWIHR). In 2000 a Hitachi SR8000-Fl was installed. It was the
first Teraflops Com puter in Germany and reached a peak performance
of two Teraflops after an extension at the end of 2001. The goal of
HLRB is to provide computer facil ities necessary to solve
challenging scientific and technological problems that cannot be
solved on big servers but require large (storage) high-performance
(very fast) computers and efficient software.
|
Cloud Computing - First International Conference, CloudComp 2009, Munich, Germany, October 19-21, 2009, Revised Selected Papers (Paperback, Edition.)
Dimiter Avresky, Michel Diaz, Arndt Bode, Bruno Ciciani, Eliezer Dekel
|
R1,409
Discovery Miles 14 090
|
Ships in 18 - 22 working days
|
Welcome totheproceedings ofCloudComp 2009. A computing cloudis more
thana collection of computer resources, because itpro vides
mechanisms to manage those resources. In a cloud computing
platform, software is migrating from the desktop to the "clouds,"
promising users, at any time and anywhere, access totheirprograms
anddata. Thisyear, 44 academic, industrial andstudent papers from
all overthe world were submitted, of which 17were accepted as
regular longpapers. Additionally, threewere included as shortpapers
on hottopics. The Program Committee appreciates the time
andeffortall of the researchers put into preparing theirpapers.
Many thanks also to themembers oftheProgram Committee
andtheexternal reviewers foralloftheirhard workin reading,
evaluating, and providing detailed feedback. Without the contribu
tions of both of these groups, CloudComp would not have been such a
lively symposium. The symposium featured keynote addresses by Jesus
Villasante, Head of Unit, European Commission, Dane Walther,
Director of Custom Engineering, Akamai Technologies Inc. Cambridge,
MA, USA, Greg Malewicz, Google, Mountain View, CA, USA, andMauro
Campanella, Consortium GARR, Italy. A scientific visitof the
Leibniz Supercomputer Centre (LRZ), Bavarian Academy of Science,
Garching (Munich), was organized during the conference. The visit
was hosted byProf.A. Bode. We feel that the symposium willgrow and
develop in its service to the research community within
bothacademia andindustry."
|
Parallel Virtual Machine - EuroPVM'96 - Third European PVM Conference, Munich, Germany, October, 7 - 9, 1996. Proceedings (Paperback, 1996 ed.)
Arndt Bode, Jack Dongarra, Thomas Ludwig, Vaidy Sunderam
|
R1,543
Discovery Miles 15 430
|
Ships in 18 - 22 working days
|
This book constitutes the refereed proceedings of the Third
European Conference on the Parallel Virtual Machine, EuroPVM '96,
the 1996 European PVM users' group meeting, held in Munich,
Germany, in October 1996.
The parallel virtual machine, PVM, was developed at the University
of Tennessee and Oak Ridge National Laboratory in cooperation with
Emory University and Carnegie Mellon University to support
distributed computing. This volume comprises 51 revised full
contributions devoted to PVM. The papers are organized in topical
sections on evaluation of PVM; Applications: CFD solvers; tools for
PVM; non-numerical applications; extensions to PVM; etc.
Parallel processing offers a solution to the problem of providing
the processing power necessary to help understand and master the
complexity of natural phenomena and engineering structures. By
taking several basic processing devices and connecting them
together the potential exists of achieving a performance many times
that of an individual device. However, building parallel
application programs is today recognized as a highly complex
activity requiring specialist skills and in-depth knowledge. PARLE
is an international, European based conference which focuses on the
parallel processing subdomain of informatics and information
technology. It is intended to become THE European forum for
interchange between experts in the parallel processing domain and
to attract both industrial and academic participants with a
technical programme designedto provide a balance between theory and
practice. This volume contains the proceedings of PARLE '93. The
PARLE conference came into existence in 1987 as an initiative from
the ESPRIT I programme and the format was revised in 1991/92. PARLE
'93 is the second conference with the new format and was held in
Munich.
|
High Performance Computing in Science and Engineering, Garching/Munich 2009 - Transactions of the Fourth Joint HLRB and KONWIHR Review and Results Workshop, Dec. 8-9, 2009, Leibniz Supercomputing Centre, Garching/Munich, Germany (Paperback, Softcover reprint of the original 1st ed. 2010)
Siegfried Wagner, Matthias Steinmetz, Arndt Bode, Markus Michael Muller
|
R6,030
Discovery Miles 60 300
|
Ships in 18 - 22 working days
|
The Leibniz Supercomputing Centre (LRZ) and the Bavarian Competence
Network for Technical and Scienti?c High Performance Computing
(KONWIHR) publish in the present book results of numerical
simulations facilitated by the High P- formance Computer System in
Bavaria (HLRB II) within the last two years. The papers were
presented at the Fourth Joint HLRB and KONWIHR Review and - sult
Workshop in Garching on 8th and 9th December 2009, and were
selected from all progress reports of projects that use the HLRB
II. Similar to the workshop two years ago, the majority of the
contributed papers belong to the area of computational ?uid
dynamics (CFD), condensed matter physics, astrophysics, chemistry,
computer sciences and high-energy physics. We note a considerable
increase of the user c- munity in some areas: Compared to 2007, the
number of papers increased from 6 to 12 in condensed matter physics
and from 2 to 5 in high-energy physics. Bio s- ences contributed
only one paper in 2007, but four papers in 2009. This indicates
that the area of application of supercomputers is continuously
growing and entering new ?elds of research. The year 2007 saw two
major events of particular importance for the LRZ. First, after a
substantial upgrade with dual-core processors the SGI Altix 4700
superc- puter reached a peak performance of more than 62 Tera?op/s.
And second, the n- pro?t organization Gauss Centre for
Supercomputing e. V. (GCS) was founded on April 13th.
I Die IuK-Strategie der TU Munchen.- IntegraTUM - Lehren aus einem
universitaren Grossprojekt.- Austausch universitarer Kernsysteme.-
Von der Verwaltungs-DV zum IT-Servicezentrum.- II
UEbersichtsbeitrage anderer Hochschulen.- Integriertes
Informationsmanagement am KIT Was bleibt? Was kommt?.- Integriertes
Informationsmanagement an der Westfalischen Wilhelms-Universitat
Munster - Das Projekt MIRO.- Integriertes Informationsmanagement:
Das IT-Servicezentrum der Universitat Augsburg.- III Service Desk.-
Erfahrungen im Aufbau des IT Service Desks der Technischen
Universitat Munchen.- Aufbau von organisationsubergreifenden
Fehlermanagementprozessen im Projekt IntegraTUM.- Unterstutzung der
IT-Service-Management-Prozesse an der Technischen Universitat
Munchen durch eine Configuration-Management-Database.- Einfuhrung
von Service Level Agreements an der Technischen Universitat
Munchen.- IV Identity- und Accessmanagement.- IntegraTUM
Teilprojekt Verzeichnisdienst: Identity & Access Management als
technisches Ruckgrat der Hochschul-IuK-Infrastruktur.-
Gasteverwaltung im integrierten Identity Management.- IntegraTUM
LDAP-Schemadesign: Entwicklungsstufen und Konzepte im Vergleich.-
Herausforderungen und Best Practices bei der Speicherung von
multi-valued Attributen in LDAP-basierten Verzeichnisdiensten.-
N-to-One-Provisionierung zwischen internen Satellitenverzeichnissen
des IntegraTUM-Metadirectory.- Workflow-Management fur
organisationsubergreifende Datenubertragung am Beispiel des
E-Learning-Systems der TUM.- Missbrauchspotential von
Verzeichnisdienst-Metadaten in LDAP-basierten System- und
Benutzerverwaltungen.- Konfigurations- und Sicherheitsmanagement in
heterogenen Verzeichnisdienstumgebungen.- Campus Single Sign-On und
hochschulubergreifendes Identity Management.-
Organisationsubergreifendes Management von
Foederations-Sicherheitsmetadaten auf Basis einer
Service-Bus-Architektur.- Modulare LDAP-Server-, -Protokoll und -
Funktionserweiterungen am Beispiel von OpenLDAP.- V E-Learning.-
E-Learning an der TUM: Entwicklung - Status Quo - Perspektiven.-
elecTUM: Umsetzung der eLearning-Strategie der Technischen
Universitat Munchen.- Stufenweise Integration von eLearning an der
Technischen Universitat Munchen.- Evaluation der zentralen
TUM-Lernplattform.- Zwischen Web 2.0, virtuellen Welten und
Game-based Learning - Einsatzszenarien und Prototypen im
Hochschulumfeld.- Herausforderungen fur kunftige Lernumgebungen am
Beispiel der Fakultat fur Medizin.- Professionelles Learning
Service Management an Hochschulen.- VI Bibliothek.- mediaTUM: Der
zentrale Medienserver der Technischen Universitat Munchen.-
Anbindung des SISIS-SunRise-Bibliothekssystems an das zentrale
Identitatsmanagement.- VII IuK-Basisdienste: Speicher, E-Mail und
Fakultatsinfrastruktur.- Integrierte Speichersystem-Architektur zur
Unterstutzung hochschulubergreifender IT-Dienste.- IntegraTUM
Teilprojekt E-Mail: Rezentralisierung von E-Mail-Services.-
IntegraTUM Teilprojekt E-Mail: Aufbau eines mandantenfahigen
Groupware-Services und seine Integration in Identity Management und
E-Mail Infrastruktur der Technischen Universitat Munchen.- Auf dem
Weg zur digitalen Fakultat - moderne IT Infrastruktur am Beispiel
des Physik-Departments der TU Munchen.
Als vor fast 40 Jahren ein Entwicklungsteam seiner hohen Direktion
das Konzept und Teile einer neuen Rechenanlage vorstellte, machte
das Wort vom "Elefanten" die Runde. Dessen ungeachtet machten sich
einige Entwick- ler bereits Gedanken dariiber, wie man ein "Team"
von etwa vier solchen Elefanten" zusammenbringen konnte, urn die
damals anstehende Aufgabe " einer automatisierten Flugsicherung
bewaJtigen zu konnen. Eine Elefantenherde? Mitnichten - schon
damals gab es "Konzeptionisten", welche den "Elefanten" der auBeren
Dimension nach sehrumpfen sahen. AI- lerdings gab erst die Technik
integrierter Bauteile die Moglichkeit, den Ele- fanten bzw.
Monoprozessor auf einem Chip zu realisieren und ihn damit auf die
ihm gemaB Grosse zu reduzieren: Ein Chip als Ausgangspunkt bzw. als
Einzeller einer neuen Generation von Automaten-Wesen, die sich aus
Tausenden von solchen Einheiten zusammensetzt. Der Vergleieh mit
der Darwin'schen Evolution liegt nahe. Die Natur benotigte einige
Milliarden von Jahren fUr eine entsprechende Entwieklung vom
Einzeller zu hoheren Organismen.
Die Datenmengen, die bei der Modellierung, der Simulation und der
Uberwachung von Umweltprozessen anfallen, sind heute schon so
gross, dass sie nur noch mit Supercomputersystemen in
verantwortbaren Zeiten sinnvoll bearbeitet werden konnen. Auch die
Ergebnisdaten mussen weiter analysiert und interpretiert werden,
sei es durch erfahrenes und DV-kundiges Fachpersonal, sei es durch
weitergehende Transformationen und geeignete Formen der
Darstellung. Die Visualisierung von Umweltdaten versucht, das
umfangreiche und komplexe Datenmaterial mit Werkzeugen der
Graphischen Datenverarbeitung in Form von Bildern darzustellen und
dabei die Modellvorstellungen der Wissenschaftler und Ingenieure
wiederzugeben, die in erster Linie Fachleute ihrer
wissenschaftlichen und technischen Disziplinen sind und erst danach
eventuell DV-Spezialisten. Dieser Band enthalt die Beitrage einer
Fachtagung, die der Fachbereich 4 "Informationstechnik und
Technische Nutzung der Informatik" der Gesellschaft fur Informatik
veranstaltet hat. Schwerpunkte der Tagung waren die Visualisierung
raumlicher Daten, die Anwendung von Hochleistungssystemen und die
Visualisierung und Interaktion in Umweltinformationssystemen.
Kapitel 2 umfaBt zuniichst eine verbale Beschreibung der fur die
Mikroprogrammierung wichtigen Begriffe und Techniken (Abschnitt
2.1), wobei zur Erliiuterung abstrakte Maschinen oder Maschinen-
elemente dargestellt werden. Danach folgt in Abschnitt 2.2,
aufbauend auf dem sogenannten Tupelmodell von Mikrooperationen,
eine formale Priizisierung der eingefuhrten Begriffe. Zur
Veranschaulichung werden in diesem Abschnitt Beispiele konkreter
mikroprogrammierter Maschinen verwendet. Es handelt sich dabei
jeweils urn Strukturen auf der Basis von Bitslice-Mikroprozessoren,
also denjenigen Elementen, die durch ihre weite Verbreitung und
flexible Nutzbarkeit in den letzten 5 Jahren zu einer deutlichen
Aufwertungder Bedeutung der Mikroprogrammierung im Rahmen der
Rechnerarchitektur gefuhrt haben. Das Tupelmodell und die auf ihm
aufbauenden Definitionen bilden die Basis fur die einheitliche
Darstellung der Optimierungsprobleme in den folgenden Kapiteln 3
und 4. 2. 1 Mikroprogrammierung, eine verbale EinfUhrung 2.1.1
Mikroprogrammierung: eine Realisierung des Leitwerkes von Rechnern
Mikroprogrammierung ist eine strukturierte Losung der Realisierung
des Leitwerkes von Rechnern. 1m Gegensatz zu der festverdrahteten
Leitwerk-Realisierung, wo die fUr die einzelnen Teilwerke
benotigten Steuersignale durch ein komplexes sequentielles
kombinatorisches Netzwerk erzeugt werden, wird bei den heute
iiblichen Techniken der Mikroprogrammierung die Steuerinformation
in Form von Mikro- programmen (MP), die meist in getrennten
Steuerspeichern, den Mikroprogrammspeichern (MPS) gehalten werden,
dargestellt.
Der vorliegende Band umfaBt den zweiten Teil eines Vorlesungszyklus
Uber Rechnerarchitektur, der an der Universitat Erlangen-NUrnberg
fUr Informatik-Studenten nach dem Vorexamen angeboten wird. Wahtend
sich der Teil 1 mit den Grundlagen und Verfahren der
Rechnerarchitektur befaBt (BODE, HXNDLER, 1980), wird im zweiten
Band die Verbindung zwischen den eingefUhrten theoretischen
Verfahren einerseits und existierenden und zukUnftigen Rechnern und
Konzepten andererseits hergestellt. Als gemeinsamer Leitfaden fUr
die Darstellung der verschiedenen Rechnerstrukturen vom einfachen
PRINCETON-Rechner (BURKS, GOLDSTINE, Von NEUMANN, 1946) bis zum
hochparallelen Entwurf des Mega-Mikropro zessors mit einer Million
Prozessoren (WITTIE, 1976) wird im ersten Kapitel das Erlanger
Klassifikations System (ECS) eingefUhrt. Die Koordinaten dieses
Klassifikationssystems definieren gleichzeitig eine Reihe weiterer
Kapitel dieses Buches, da sie typische Rechnerstruktu ren
beschreiben. 1m zweiten Kapitel werden als Vertreter dreier
wichtiger Varianten von klassischen Universalrechnern die Familien
CDC 6600 und Nachfolger (CYBER), IBM System 360/370 und Nachfolger
sowie Burroughs B 5000 und Nachfolger diskutiert. Als Vertreter von
Universalrechnern werden hier GroBrechner eingefUhrt, da diese auf
m(Sglichst groBe Leistung, hohen Bedienungskomfort und
Zuverlassigkeit ausgerichtet sind, d.h. es wurden keine KOsten
gescheut, technologisch und organisatorisch h(Schst entwickelte
L(Ssungen anzustreben. Die in Mini- und Microrechnerarchi tekturen
vorfindlichen Eigenschaften werden daher im allgemeinen eine echte
Untermenge der in den beschriebenen GroBrechnern realisierten
Eigenschaften sein, weswegen sich eine detaillierte Besprechung
dieser Elemente vom Standpunkt der Rechnerarchitektur in vielen
Fallen erUbrigt."
Das vor1iegende Buch umfa t den 1. Tei1 eines zweisemestrigen
Vor1esungs- zyk1us Uber Rechnerarchitektur. Es richtet sich an
Personen mit Grundkennt- nissen in Informatik. Der Vor1esungszyk1us
wird im Informatik-Studium an der Universitat Er1angen-NUrnberg a1s
Grund1agenkurs nach dem Vordip10m angeboten. Die Rechnerarchitektur
ist ein Kerngebiet der Informatik, das in a11e vier Bereiche dieser
Wissenschaft hineinreicht: Es gilt, die physika1ischen E1emen- te
einer Rechenan1age (Hardware) durch geeignete Anordnungen
(physika1isch und 10gisch) so miteinander zu verbinden, daB das
jewei1ige Einsatzzie1 (Anwendung) optimal rea1isiert ist. Das
Zusammenspie1 der Einze1tei1e wird dabei weitgehend durch das
Betriebssystem Uberwacht, so da sich die Rech- nerarchitektur also
auch mit der Software beschaftigen muB. Sch1ieB1ich gilt es auch
noch, durch geeignete Methoden der Theorie der Informatik aus der
Abstraktion gewisser realer Rechnerkonfigurationen einerseits und
der an- fa11enden Aufgabenprofi1e andererseits optima1e
Prob1em1osungen zu gewinnen. Die Rechnerarchitektur befa t sich
also nicht nur mit einer Bestandsaufnahme bestehender
Rechnermode11e oder -rea1isierungen. Man erkennt, da ihre zweite
Aufgabe darUberhinaus darin besteht, die Kategorisierung und
kritische Bewer- tung dieser Mode11e nach verschiedensten Kriterien
vorzunehmen. Sch1ie lich 5011 die Rechnerarchitektur a1s drittes
versuchen, den ProzeB des Entwurfes von Rechenan1agen bei gegebener
Aufgabenste11ung zu beschreiben, urn fUr die einze1nen
Entwurfsentscheidungen praktische Hi1fen zu geben.
|
You may like...
Dryf
Cecilia Steyn
Paperback
R295
R264
Discovery Miles 2 640
Check & Mate
Ali Hazelwood
Paperback
R286
R260
Discovery Miles 2 600
Katastrofe
De Wet Hugo
Paperback
R170
R152
Discovery Miles 1 520
|