![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Computer software packages > Computer graphics software
Leistungsf{hige Visualisierungssysteme sind Grundlage f}r ergonomisch gute Mensch-Maschine Schnittstellen. Applikationsspektrum und Einsatzbreite f}r solche Systeme werden einerseits durch die Visualisierungsm-glichkeiten und andererseits durch wirtschaftliche Aspekte bestimmt. Auf der Basis einer Abstraktion vom konkreten Bild hin zu verschiedenen Bildrepr{sentationen wird ein Strukturmodell f}r Visualisierungssysteme entwickelt. Anhand dieses Modells wird der Stand der Technik }bersichtlich dargestellt und mit den Anforderungen verglichen. Das Ergebnis zeigt sehr deutlich die Zusammenh{nge zwischen den klassischen Fachdisziplinen Graphische Datenverarbeitung, Bildverarbeitung und Videotechnik. Gerade f}r die Entwicklung zuk}nftiger multimedialer Systeme ist das Erkennen und die Synthese der verschiedenen Ans{tze aus diesen Disziplinen von hoher Bedeutung. Dem Entwickler von Visualisierungssystemen liefert dieses Buch wertvolle Hinweise beim Erkennen potentieller Systemengp{sse und konkrete L-sungswege f}r typische Problemstellungen.
In der vorliegenden Arbeit wird ein Abri~ der Tradition der algorithmischen Bilderzeugung dargelegt; die Begriffe des computergraphischen Realismus, desIdealismus und des Naturalismus werden beleuchtet. Forderungen an Verfahren zur Erzeugung m|glichst naturgetreuer Computergraphiken werden erarbeitet. Ein Verfahren der sogenannten nicht-exakten perspektivischen Projektion wird entwickelt, welches die erforderliche Pr{zision computergraphischer Darstellungen dreidimensionaler Szenen auf die Beantwortung der Frage nach der Gr|~e von im Bild tolerierbaren Fehlern zur}ckf}hrt. Die nicht-exakte perspektivische Projektion erlaubt bei der Modellierungcomputergraphisch darzustellender dreidimensionsaler Szenen eine Ersetzung von dreidimensionalen Szeneteilen durch zweidimensionale ikonisch-photographische Komponenten (Kulissen). Die Arbeit beinhaltet die Beschreibung einer exemplarischen Anwendung der entwickelten Verfahren. Diese Anwendung ist die me~technische Modellierung und Rekonstruktion eines mittelalterlichen Kirchengeb{udes. Anhand dieser Anwendung wird das Kalk}l der nicht-exakten perspektivischen Projektion verifiziert. Auflistungen konkret auftretender Bildfehler erm|glichen die Absch{tzung tolerierbarer Gr|~en dieser Bildfehler. Eine illustrierende Bilddokumentation von der Visualisierung des Kirchengeb{udes erg{nzt die theoretischen Darstellungen der Arbeit.
Das Buch behandelt in ausf}hrlicher Darstellung ausgew{hlte Fallstudien der Analyse dynamischer Systeme in Medizin, Biologie und \kologie von aktueller Bedeutung. Dabei werden sowohl grundlegende und allgemeing}ltige Fragestellungen, als auch spezielle anwendungsbezogene Probleme behandelt. Die Darstellungsweise ist auf Interdisziplinarit{t hin ausgerichtet, so da sowohl die notwendigen Grundlageninformationen, das Detailwissen, als auch die aktuelle Literatur zum jeweiligen Gebiet sofort verf}gbar ist. Das Buch eignet sich zum einen als Nachschlagewerk, aber auch als Einstiegswerk in Fragestellungen aus Medizin, \kologie, Umweltqualit{t und Mathematik mit den Schwerpunkten Systemanalyse und Simulation.
In vielen verschiedenen Disziplinen der Natur- und Ingenieurwissenschaften produzieren Messverfahren, Experimente und Computersimulationen immer grosser werdende Mengen von Ergebnisdaten. Diese Daten sind oft so komplex, dass spezielle Verfahren zur graphischen Darstellung eingesetzt werden mussen, um uberhaupt eine Interpretation und eine Analyse der Ergebnisse zu ermoglichen. Viele dieser Quellen produzieren Daten, die uber drei raumliche Koordinaten definiert sind. Solche Daten werden Volumendaten genannt. Beispiele fur solche Datenquellen sind Finite-Element-Simulationen, bildgebende Verfahren in der Medizin und Materialprufung sowie Elektronenverteilungen in Chemie und Physik. Zur Visualisierung dieser Volumendaten werden in den letzten Jahren besondere graphische Vefahren entwickelt. Das Buch enthalt Beitrage nahezu aller fuhrenden deutschen Wissenschaftler auf diesem Gebiet und gibt einen Uberblick uber die Forschungs- und Entwicklungsaktivitaten. "
Die sachgerechte Prasentation von umweltbezogenen Daten gewinnt aufgrund der steigenden Komplexitat der Umweltprobleme eine immer grossere Bedeutung. Aufgrund der Unterschiede in den Benutzerkreisen werden die Anforderungen an Visualisierungstechniken breiter. Das Buch gibt einen Uberblick uber den derzeitigen Stand in Forschung und Praxis. Dabei werden Querbezuge zu Simulation und Modellbildung, Umweltinformationssystemen und Schnittstellenproblematik hergestellt.
Internetzwerke, bestehend aus miteinander gekoppelten lokalen und offentlichen Datennetzen (LAN, WAN), sowie Methoden und Werkzeuge fur ihre Entwurfsplanung und Leistungsoptimierung sind die zentralen Themen dieser Monographie. Eine kompakte Einfuhrung in das uberaus komplexe Gebiet der Rechnernetzkopplung wird anhand von Uberblicken uber grundlegende Techniken zur Netzkopplung, die Normung von Internetzwerkarchitekturen und Techniken zur Leistungsbewertung von Internetzwerken gegeben. Ein neu entwickeltes Simulationssystem und ein Leistungsmesssystem fur Internetzwerke werden vorgestellt. Ebenfalls behandelt wird ein kombinierter Einsatz dieser beiden Systeme zur Entwurfsplanung und Leistungsoptimierung von Internetzwerken. Das Buch endet mit einer exemplarischen Anwendung beider Werkzeuge zur Realisierung eines prototypischen OSI-Internetzwerks. Das Buch ist an einen wissenschaftlich orientierten Leserkreis gerichtet; das Verstandnis wird durch viele Abbildungen wesentlich unterstutzt.
Die in den vergangenen Jahren ausserordentlich gesteigerte Leistungsfahigkeit sowohl der Arbeitsplatzrechner als auch der Kommunikationstechnik fur ihre Vernetzung erschliessen sinnvolle Anwendungsmoglichkeiten fur immer weitere und umfangreichere Arbeitsbereiche. Die 19. Jahrestagung der GI greift wichtige Fragen hierzu auf und setzt sich mit einer Fulle von Einzelthemen auseinander. Dabei wendet sie sich gleichermassen an Entwickler, Anwender, Wissenschaftler und Studenten.
Am Fallbeispiel einer Verteiler-LKW-Tatigkeit wird eine Computersimulation als arbeitswissenschaftliches Instrumentarium zur Beurteilung von Belastungen und Beanspruchungen bei der Fahrzeugfuhrung vorgestellt. Hierzu werden Merkmale der Arbeitsumgebung in Form von Stressoren dargestellt, wahrend die personalen Bedingungen durch Schlusselqualifikationen abgebildet werden, wodurch die Aufdeckung von Wirkungszusammenhangen ermoglicht wird. Fur verschiedene Versuchsbedingungen konnen unterschiedliche Auspragungen der Schlusselqualifikationen nachgewiesen werden. Anhand einer vergleichenden Untersuchung der unterschiedlichen Wirkung von Schalt- bzw. Automatikgetriebe auf den Fahrer wird die Eignung der beschriebenen Simulation demonstriert.
Die in den vergangenen Jahren ausserordentlich gesteigerte Leistungsfahigkeit sowohl der Arbeitsplatzrechner als auch der Kommunikationstechnik fur ihre Vernetzung erschliessen sinnvolle Anwendungsmoglichkeiten fur immer weitere und umfangreichere Arbeitsbereiche. Die 19. Jahrestagung der GI greift wichtige Fragen hierzu auf und setzt sich mit einer Fulle von Einzelthemen auseinander. Dabei wendet sie sich gleichermassen an Entwickler, Anwender, Wissenschaftler und Studenten.
Die Gesellschaft fOr Informatik fOhrt ihre 18. Jahrestagung an der Universitat Hamburg durch. Der Fachbereich Informatik hat sich als Veranstalter fOr das Leitthema "Vernetzte und kom- plexe Informatik-Systeme" entschieden. Aufgrund der rapide fortschreitenden Technologie und dadurch erschlossener neuer Anwendungsbereiche werden komplexe Systeme in tech- nischer oder gesellschaftlicher Umgebung zunehmend durch informatikspezifische Gesichts- punkte bestimmt. Dies rechtfertigt den Begriff "Informatik-System" als Zusammenfassung aller in der Informatik betrachteten Methoden des Entwurfs und der Handhabung solcher Systeme. Vernetztheit und Komplexitat bestimmen in unterschiedlichen Erscheinungsformen die strukturellen Probleme der Informatik. Haufig stehen diese beiden Problemkreise in starker Abhangigkeit zueinander. Komplexe Systeme erzwingen Modularitat, um sie beherrschbar zu gestalten, wahrend stark vernetzte Systeme andererseits eine Form von Komplexitat zeigen, die zur Zeit noch hechst unbefriedigend verstanden wird. Eine besondere Form von Vernetztheit stellen verteilte Systeme dar. Ais innere Betriebs- form kennen sie zur Leistungssteigerung von Rechensystemen beitragen, als au Bere Be- triebsform tragen sie der Verteiltheit von Anwendungsproblemen Rechnung. Konkrete Auspragungen verteilter und vernetzter Informatik-Systeme finden sich in den verschiedensten Formen, von der Mikroelektronik Ober Rechnerarchitekturen bis hin zu Soft- ware-Systemen mit Anwendung in Technik und Gesellschaft. Letztere stellen oft selbst kom- plexe und verteilte Systeme dar, was sich zunehmend in den entsprechenden Informatik- Anwendungen widerspiegelt.
Der Band enthalt die Beitrage zum 5. Symposium Simulationstechnik, das im September 1988 an der RWTH Aachen stattfand. Die Vortrage reflektieren den State-of-the-Art der Simulationstechnik in allen Anwendungsbereichen. Das Ziel dieser von ASIM veranstalteten Reihe von Symposien ist es, den Austausch von Ideen und Erfahrungen von Fachleuten und Interessenten zu fordern, die auf dem Gebiet der Modellbildung und Simulation in Theorie und Praxis tatig sind. Dieses Tagungsziel wird vor dem Hintergrund der zunehmend breiten Bedeutung, die der Simulation als modernem Entwicklungs- und Analysehilfsmittel zukommt, immer wichtiger. Neue Hard- und Softwarekonzepte ermoglichen die Entwicklung hochkomplexer Systeme. Das vielfaltige Zusammenwirken der Systemkomponenten zu untersuchen und zu bewerten, ist ohne den Einsatz leistungsfahiger Simulationswerkzeuge undenkbar. Dies erfordert konsequenterweise auch Weiterentwicklungen auf dem Gebiet der Simulationstechnik und der ihr jeweils zugrunde liegenden Methodik. Der Erfahrungsaustausch im Rahmen einer solchen Tagung bietet allen Teilnehmern in gleicher Weise Vorteile: Einerseits erlangen Praktiker fruhzeitig Kenntnis von neuen Konzepten und Werkzeugen, und andererseits konnen Theoretiker fruhzeitig die vielfaltigen in der Praxis auftretenden Probleme bei der Entwicklung neuer Methoden bewerten und berucksichtigen. Der Band ist thematisch gegliedert in die drei Teile Modellbildung und Simulationstechnik, Simulationswerkzeuge sowie Anwendungen.
Der Band enthalt die Beitrage zum 4. Symposium Simulationstechnik, der ASIM, das vom 9.-11. September 1987 an der ETH Zurich stattfand. Die Vortrage reflektieren den State-of-the-Art der Simulationstechnik in allen Anwendungsbereichen. Drei umfangreiche Hauptvortrage mit den Themenkreisen Simulation in der Fertigungstechnik, Simulation des Verhaltens von Chemikalien in Fliessgewassern und Schaltkreissimulation geben einen Uberblick uber den Stand und die zukunftigen Entwicklungen der Simulationstechnik in wichtigen Anwendungsgebieten und bei Einsatz modernster Mittel. Bei den siebzig regularen Vortragen nehmen Probleme aus der Fertigungstechnik sowie Logik- und Schaltkreissimulationen und den zugehorigen neuen Verfahren besonders breiten Raum ein. Daruber hinaus finden sich auch zahlreiche Vortrage uber neue mathematische Verfahren, Optimierungsmethoden und Software, Simulationsumgebungen, Probleme des parallelen Rechnens, Simulationshardware sowie uber Anwendungen aus unterschiedlichensten Gebieten.
Das vorliegende Buch behandelt die Synchronisation als eine der zentralen Funktionen zur Aufrechterhaltung der Integritat in Datenbanksystemen. Der Schwerpunkt liegt dabei auf einer umfassenden Analyse des Einflusses von Synchronisationsmassnahmen auf das Leistungsverhalten von Datenbanksystemen. Nach einer kurzen Einfuhrung in die wesentlichen konzeptionellen Aspekte der Synchronisation werden ausfuhrlich die Implementierungsaspekte der Synchronisationskomponente in Datenbanksystemen diskutiert. Da durch Synchronisationsmassnahmen in praktischen Umstanden moglicherweise erheblich in die parallelen Ablaufe von Transaktionen eingegriffen wird, ist die Auswahl geeigneter Synchronisationsverfahren von entscheidender Bedeutung fur die Leistungsfahigkeit von Datenbanksystemen. Hierin wird mit Hilfe des Verfahrens der Trace-getriebenen Simulation der Versuch gemacht, die Charakteristiken praktischer Anwendungen auf den quantitativen Vergleich von Synchronisationsverfahren zu ubertragen, was in dieser Form bisher noch nicht durchgefuhrt wurde. Die dabei erhaltenen Ergebnisse werden ausfuhrlich diskutiert und im Hinblick auf die Brauchbarkeit neuartiger Synchronisationsverfahren fur praktische Anwendungen bewertet. Synchronisationsmassnahmen zur Aufrechterhaltung der Integritat in Datenbanksystemen erfordern erhebliche Eingriffe in die parallelen Ablaufe im Mehrbenutzerbetrieb mit entsprechenden Konsequenzen auf die Gesamtleistung des Systems. Es wird eine umfassende Analyse der Leistungsfahigkeit von Synchronisationsverfahren auf der Basis eines mit empirischen Daten getriebenen Simulationsmodells beschrieben.
Dies ist der Tagungsband der 4. GI/ITG-Fachtagung "Messung, Modellierung und Bewertung von Rechensystemen", Erlangen, 29. September-1. Oktober 1987. Tagungsinhalt ist der Austausch neuer Ideen und Erfahrungen bei der quantitativen Untersuchung von Rechensystemen. Dabei werden einerseits das volle methodische Spektrum - Messinstrumentierung/Messung - Modellbildung/simulative und mathematische Modellanalyse - Bewertung und Synthese in leistungsorientierter bzw. leistungs-/zuverlassigkeitsorientierter Sicht abgedeckt sowie andererseits uber praktische Erfahrungen beim Einsatz dieser Methoden und Techniken bei Entwurf, Implementierung/ Installierung und Betrieb einzelner und vernetzter Rechensysteme berichtet. Die Beitrage (13 in Englisch, 11 in Deutsch) behandeln Methoden und Techniken der Beschreibung von Systemen hinsichtlich ihrer Leistungsfahigkeit und Zuverlassigkeit: (Hard- und Software-) Mess- und Monitorsysteme, Charakterisierung von Systembelastungen, Erstellung und simulative/mathematische/hybride Analyse von Systemmodellen, Erfahrungen bei der Bewertung und Optimierung von Rechensystemen.
Alan Turing was one of the most important and influential thinkers of the 20th century. This volume makes his key writings available to a non-specialist readership for the first time. They make fascinating reading both in their own right and for their historic significance: contemporary computational theory, cognitive science, and artificial intelligence life all spring from this ground-breaking work.
Simulanten sind uns als Menschen bekannt, die durch "vorgespielte" Symptome den Eindruck erwecken wollen, an einer bestimmten Krankheit zu leiden. Der Simulant besitztdaherdas wichtigste Merkmal fur den naturwissenschaftlichen Begriff Simulation, bei dem ebenfalls in Modellspielen mit einfachen Spielregeln die Realitat imitiert wird. Ein Modell ist immer durch die Anzahl seiner Parameter begrenzt, kann also niemals allgemeingultig sein. Ausgehend von leicht zu durchschauenden Modellen aus den Themenkreisen Astronomie, Biologie, Chemie und Dokumentation von Ergebnissen sollen 22 kleine Anwendungen mit GW-BASIC und Lotus 1-2-3 vorgestellt werden. Simulation soll hier als Hilfsmittel fur die Erstellung von Prognosen oder einfachen Spiel ergebnissen von Modellen obiger Themenkreise verstanden werden. Naturlich stellt der Abstraktionsumfang eines jeden Modells den begrenzenden Faktor fur die Anwendung im Schulbereich dar, da diese Fahigkeit zur Abstraktion alters- und schultypabhangig ist: Doch auch dort, wo die naturlichen Modelle (Versuchstiere) unersetzbar sind, unterstutzt der PC das "Erlebnis" am Tierversuch, wenn er eine ubersichtliche und schnelle Versuchs auswertung liefert. Daher ist auch ein Programm, welches Realwerte liefert, in die Samm lung der Simulationsprogramme mitaufgenommen worden."
Mit der vorliegenden Schri ft werden mindestens drei verschiedene liele verfolgt. lunachst soll eine EinfUhrung in wesentliche Aspekte der derzeitigen Denkpsychologie gegeben werden. Seit der kognitiven Neube sinnung der Psychologie gegen Mitte der 5Der Jahre, hat auf einigen Gebieten dieser Wissenschaft eine sehr rapide Entwicklung eingesetzt, die unvermindert anhalt. Dabei w-urden teilweise Anregungen aufgenom men, oder auch wieder entdeckt, die schon vor Jahrzehnten (z. B. Selz, 1913,1922) oder gar einem Jahrhundert (Donders, 1968/9) fo.rmuliert worden waren. Dank der enormen Wei terentwi ckl ung der Formalwissen schaften, Mathematik, Statistik, Informatik, urn nur einige zu nennen, konnten einige der alten und viele neue Konzepte auf ganz anderem Niveau entwickelt werden. Es wurde ein nie gekanntes Ausma(3 an Prazi sion und Formalisierung erreicht. Diese Entwicklung i t keineswegs abgeschlossen, ja, sie hat soeben erst richtig begonnen! Dies in Um rissen darzulegen ist das erste liel: Dabei werden nicht nur verschie dene Ansatze dargestellt, sondern auch deren phi losophischer und er kenntnistheoretischer Hintergrund umrissen. Die Darstellung strebt keine Ausgewogenheit oder gar Vollstandigkeit an, vielmehr werden deu deutli ch Schwerpunkte gesetzt. Neben dieser unverblilmt theoretischen Ausrichtung gibt es eine wei tere lielsetzung, die man als learning-by-doing kennzeichnen konnte. Es werden zahlreiche Denkprobleme angegeben, die der Leser selbst liisen sollte, bevor er die Ergebnisse entsprechender Untersuchungen rezi pi ert. Di ese ei gene Denkarbei t kann zwei erlei bewi rken. t: rstens kann man dabei seine eigenen Denkanstrengungen verfolgen (z. B. indem man sich Notizen macht und so erste Verhaltensdaten gewinnt)."
Keine einfache Antwort kann es nach B. ULRICH (LOELF 1982) auf die Frage geben: "Lasst sich Schadigung beweisen? - Wie werden Waldoekosysteme durch Deposition und Akkumulation von Luftverunreinigungen geschadigt?" "Das Waldoekosystem besteht nicht nur aus Baumen, die groesste Artenvielfalt liegt vielmehr bei den im Boden lebenden Mikroorganismen und Tieren vor, deren Aufgabe im oekosystem die Recyclierung der von den Pflanzen gebildeten Biomasse ist. Die einzelnen Glieder eines Waldoekosystems sind so eng mitein- ander vernetzt und aufeinander angewiesen, dass man nicht eines verandern oder schadigen kann, ohne damit auch andere zu beeinflussen" (a. a. O., S. 9). "Am Anfang objektiver Erkenntnis", so fahrt ULRICH fort, "steht also nicht das Experiment, sondern die Beobachtung und der Entwurf eines ganzheitlichen Bildes, in dem alles vorhandene Wissen und alle Beobachtungen integriert sind. Die Beobachtungen mussen sich auf das gesamte oekosystem erstrecken, also nicht nur auf die oberirdischen Baumteile oder gar nur auf den Zu- wachs, sondern auch auf die Wurzeln, auf die Mikroorganismen und auf die an der Zersetzung beteiligte Tiergemeinschaft. Ein Geschehen von der Kom- plexitat der Schadigung eines Waldoekosystems kann grundsatzlich nicht be- wiesen werden, weil weder die Kausalkette im einzelnen nachvollzogen werden kann (analytischer Beweis (AEnderung durch d. Hrsg. )) noch die simpelste Voraussetzung eines experimentellen naturwissenschaftlichen Beweises ge- geben ist: die beliebige Wiederholbarkeit (statistischer Wahrscheinlich- keitsbeweis). " 2 Die Lange dieses Eingangszitates ist ungewoehnlich.
Das "2. Symposium Simulationstechnik" fand vom 25. - 27. September 1984 an der Technischen Universitat Wien statt. Die Veranstaltung setzte die Reihe einer von ASlM/Bl, der deutschsprachigen Simulationsvereinigung (FachausschuB 4.5 der Besellschaft fUr lnformatik) ins Leben gerufenen Tagungen fort, die 1982 mit dem "1. Symposium Simulationstechnik" in Erlangen startete und 1983 mit dem "First European Simulation .Congress' in Aachen fortgesetzt wurde. Die Wiener Tagung zeigte auch das Wachsen und die Bedeutung von ASIM auf: 120 Aut oren prasentierten ihre Beitrage ca. 220 Teilnehmern. Die Beitrige wurden von einem internationalen Programmkomitee (W. Ameling, RWTH Aachen; I. Bausch-Gall; F. Breitenecker, TU Wien; F.E. Cellier, University of Arizona; W. Kleinert, TU Wien; D. M611er, Universitit Mainz; B. Schmid, Unlversitat Erlangen; R. Trappl, Universitat Wlen, A. Weinmann, TU Wien) sorgfaltig ausgewahlt und spiegeln den State-of-the-Art der Simulation in Theorle und Praxis wieder. Um der graBen Bedeutung der Simulation in der Anwendung gerecht zu werden, wurde nicht die ubliche Eintellung der Beltrage In Methodologie, Software-Hardware und Anwendung verwendet, sondern nach Anwendungsgruppen eingeteilt, namlich Simulation von Rechensystemen, Schaltkreissimulation, Simulation in energleerzeugenden und energieverteilenden Systemen, Simulation In Verfahrenstechnik, Simulation in betrlebswirtschaftlichen Anwendungen, Simulationshardware, Modellbildungs- und Softwaremethodik, Ausbildung, Simulation in Biologie und Medizin, Demonstration von Simulationssoft- und Hardware, Simulationssprachen und Simulationssoftware ftir kontinuierliche und diskrete Systeme, Fahrzeug- und Flugsimulation, Simulation in okologie, Simulation in technischen Anwendungen. FUnf Hauptvortrlge mit den Themenkreisen Modellvalidierung, "analytische" Simulationssoftware, Robotics, Rad-Schiene-Dynamik und Computer der ftinften Generation arbeiteten auch die Zukunft der Siaulation heraus.
The modern ecologist usually works in both the field and laboratory, uses statistics and computers, and often works with ecological concepts that are model-based, if not model-driven. How do we make the field and laboratory coherent? How do we link models and data? How do we use statistics to help experimentation? How do we integrate modeling and statistics? How do we confront multiple hypotheses with data and assign degrees of belief to different hypotheses? How do we deal with time series (in which data are linked from one measurement to the next) or put multiple sources of data into one inferential framework? These are the kinds of questions asked and answered by "The Ecological Detective." Ray Hilborn and Marc Mangel investigate ecological data much as a detective would investigate a crime scene by trying different hypotheses until a coherent picture emerges. The book is not a set of pat statistical procedures but rather an approach. The Ecological Detective makes liberal use of computer programming for the generation of hypotheses, exploration of data, and the comparison of different models. The authors' attitude is one of exploration, both statistical and graphical. The background required is minimal, so that students with an undergraduate course in statistics and ecology can profitably add this work to their tool-kit for solving ecological problems.
Der vorliegende Band enthalt aIle Referate, die auf dem Workshop "Simulationsmethoden in der Medizin und Biologie" vom 29.Sept.1977 bis 1.0kt.1977 in Hannover gehalten wurden sowie zwei Arbeiten, die auf einer Posterausstellung des Workshop vorgestellt wurden. Auf eine Publikation der Diskussionen muBte leider verzichtet werden, da aus der Bandaufzeichnung keine brauchbare Reproduktion gewonnen werden konnte. Die Referate sind nicht in der Reihenfolge, in der sie gehalten wurden, publiziert, sondern wurden zu sieben thematisch geschlossenen .Abschnitten zusammengefaBt. Damit solI dem Leser eine leichtere Orientierung ermoglicht werden. Dem Rektor der Medizinischen Hochschule Hannover danken wir fUr die Bereitstellung der Raume und der organisatorischen Moglichkeiteri zur DurchfUhrung des Workshop. Unserem Kollegen, Herrn Prof. Dr.-Ing. Chr. Hartung, der gemeinsam mit uns fUr die Organisation und Leitung der Veranstaltung verantwortlich war, sind wir zu besonderem Dank verpflichtet. Der tatkraftigen UnterstUtzung unserer Mitarbeiter in der Abteilung fUr Biometrie sowie einer groBzUgigen Spende der Fir- ma Siemens verdanken wir einen reibungslosen und, wie wir hoffen, aIle Teilnehmer zufriedenstellenden Ablauf des Workshop. Besonde- ren Dank schulden wir Frau Schmeetz fUr ihren Einsatz bei der Orga- nisation und DurchfUhrung des Workshop sowie beim Korrekturlesen der t-lanuskripte. SchlieBlich gilt unser Dank auch allen Referenten und dem Springer-Verlag, der sich bereit erklart hat, die Referate im Rahmen der Serie "t-1edizinische Informatik und Statistik" zu verof- fentlichen.
Erste AnstoBe, mich mit Simulationsmodellen des Herzkreislaufsystems zu befassen, gingen von einer Arbeitsgemeinschaft "Biomechanik des Herzkreislaufsystems" der drei Hannoverschen Hochschulen (Technische Universitat, Tierarztl ichl iche Hochschule und Medizinische Hochschule) aus. Der Entwicklung digitaler und analoger Model Ie zur Simulation regelbarer mechanischer Vorgange des Herzkreislaufsystems kam innerhalb der interdiszipl inaren Arbeitsgemeinschaft eine Funktion zu. Mathemat i sch-phys i ka Ii sche, integrative exper i mente I Ie und k lin i sche Ges i chtspunkte so I I ten in den Mode I I en quant if i z i ert i h ren N i edersch lag f i nden. Anfang 1972 Arbeitsgemeinschaft wegen fehlender loste sich die Forschungsmittel auf. FU r meine Arbeit an der Entwicklung eines digitalen Simulationsmodel Is des geregelten Herzkreislaufsystems gingen dadurch zwei wichtige Bindungen verloren, naml ich dle RUckkopp lung zu exper i mente I I en und zu k lin i sche Arbe i tsgruppen. Das vorl iegende Ergebnis meiner Arbeit hat daher zwangslaufig einen mehr "theoretischen" Charakter. Seine "praktische" klinischen Auswertung in der exper i mente I I en und Herzkreislaufforschung steht noch aus.
A comprehensive introduction to 3D modeling, from the fundamental ideas of topology to in-depth examples that will help you take your projects to the next level Key Features Overcome complex topology problems while working through projects Learn to topologize quad-based and non-quad-based meshes with step-by-step examples Optimize your models by reducing the triangle count to improve performance Book DescriptionThis book is an introduction to modeling and an in-depth look at topology in Blender, written by a Blender topology specialist with years of experience with the software. As you progress through its chapters, you'll conquer the basics of quad-based topology using triangles and Ngons, and learn best practices and things to avoid while modeling and retopologizing. The pages are full of illustrations and examples with in-depth explanations that showcase each step in an easy-to-follow format. Squeaky Clean Topology in Blender starts by introducing you to the user interface and navigation. It then goes through an overview of the modeling techniques and hotkeys that will be necessary to understand the examples. With the modeling basics out of the way, the next stop on our journey is topology. Working through projects like a character and a sci-fi blaster, the book will illustrate and work through complex topology problems, and present solutions to those problems. These examples focus on deforming character models, non-deforming hard surface models, and optimizing these models by reducing the triangle count. By the end of this book, you will be able to identify the general flow of a shape's topology, identify and solve issues in your topology, and come out with a model ready for UV unwrapping, materials, and rigging. What you will learn Identify the general flow of a model's topology, and what might cause issues Understand the topology of a character, and the joints that they make up Handle non-quad based topology Lay out your meshes for UV seams Explore and use hotkeys to get things done faster Optimize models for a reduced triangle count Who this book is forThis book is for character modelers, sculptors, poly modelers, and hard surface modelers. Whether you're looking for an introduction to modeling, optimizing high poly or sculpted models, or just a deeper dive into the subject of topology, this book will walk you through the topology workflow from beginning to end. |
You may like...
Contemporary Perspectives in Data Mining…
Kenneth D. Lawrence, Ronald K. Klimberg
Hardcover
R2,544
Discovery Miles 25 440
Developing Churn Models Using Data…
Goran Klepac, Robert Kopal, …
Hardcover
R4,646
Discovery Miles 46 460
Intelligent Analysis of Multimedia…
Siddhartha Bhattacharyya, Hrishikesh Bhaumik, …
Hardcover
R5,617
Discovery Miles 56 170
|