![]() |
Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
||
|
Books > Computing & IT > Computer software packages > Computer graphics software > General
Dieses Buch beschreibt die aktuellen Einsatzmoglichkeiten
neuronaler Netze fur technische Anwendungen. Neben einer
Kurzeinfuhrung in das grundlegende Verstandnis neuronaler Netze
bietet es eine Ubersicht uber Anwendungen aus unterschiedlichen
Gebieten, bei denen mit neuronalen Netzen bessere Ergebnisse
erzielt wurden als mit herkommlichen Verfahren. Im einzelnen wird
der schrittweise Aufbau eines komplexen Systems mit Hilfe
neuronaler Netze gezeigt. Fur einen tieferen Einstieg in diese
erfolgversprechende Technologie und zur Unterstutzung der
Entwicklungsarbeit werden ausfuhrliche Hinweise auf weiterfuhrende
Literatur und auf Werkzeuge gegeben.
Die Grundlagen der Regelungsteclutik gehOren weiterhin zum Grundwissen eines In genieurs und werden in seinem Berufsleben frillier oder spater von ibm verlangt. Es gibt eine Vielzahl von Lehrbiichem zu diesem Thema, die diese Grundlagen von verschiedenen Standpunkten aus darlegen. Mit diesem Buch wird versucht, die grund legenden Begriffe und Verfahren der klassischen Regelungstechnik darzustellen und durch das beigefiigte Simulationsprogramm zu veranschaulichen. Damitwird dem Leser die Maglichkeit gegeben, nicht nur die Theorie zu studieren, sondem auch zu experi mentieren. Durch die Simulationsexperimente solI dem Leser geholfen werden, die theoretischen Zusammenhiinge tiefer zu verstehen und durch visue11e Prasentation bes ser zu verarbeiten. Durch zahlreiche und verschiedenartigeAufgaben kann sich der Leser die Anwendungstrategien der betrachteten Verfahren aneignen. Urn die Inhalte des Buches zu verstehen, sind die minimalen Kenntnisse der haheren Mathematik erforderlich. Jedes Kapitel des Buches stellt eine Einfiihrung in das jeweilige Gebiet dar. Ich habe dabei versucht, die theoretischen Grundlagen durch zahlreiche Beispiele zu illustrieren . . 1m ersten Kapitel wird die Wirkungsweise einer Regelung erlautert. Die Kapitel zwei und drei behandeln die Analyse der linearen Ubertragungsglieder im Zeitbereich, im Bildbereich der Laplace-Transformation und im Frequenzbereich. Dabei wird ausfiihr lich aufwichtige Fragen wie das Aufstellen, Linearisieren und Normieren der Gleichun gen und deren Uisung eingegangen. Hier wird das Fundament fUr weitere Betrachtun gen gelegt."
Turbulente gasf|rmige Ph{nomene wie Wolken, Rauch, Dunst, Flammen etc. werden ben|tigt, um den Realit{tseindruck rechnergenerierter Bilder von Au~enszenen zu erh|hen. Solche Effekte werden sowohl im Bereich der optischen Simulation (Flug- und Fahrsimulatoren) als auch als Spezialeffektef}r rechnergenerierte Animation ben|tigt. Die Schwierigkeit dabei ist einerseits, da~ solche gasf|rmigen Objekte recht komplex sind, andererseits,da~ sie einer Dynamik in Form einer turbulenten Ver{nderung ihrer Form mit der Zeit unterliegen. In diesem Buch werden alle wichtigen existierendenVerfahren zur Generierung solcher Effekte evaluiert und mit vollkommen neuenAlgorithmen erweitert und erg{nzt. Als Basis der Modellierung dienen geeignet parametrisierte fraktale Strukturen; um dynamische turbulente Bewegung zu imitieren, werden zeitvariante Fraktale eingef}hrt. Die Visualisierung von Volumendaten wird ebenfalls detailliert erl{utert. Sowohldie Theorie als auch die Algorithmen werden mit Hilfe zahlreicher Abbildungen ausf}hrlich evaluiert und diskutiert. Das Buch wendet sich prim{r an computergraphikorientierte Berufe (Computeranimateur, Ingenieur, Software-Entwickler, Sumulationstechniker), die solche Effekte modellieren und visualisieren wollen oder sich mit der Visualisierung von Volumendaten, z.B. im Bereich der Medizin oder Ingenieurwissenschaften, besch{ftigen. Die detaillierte Behandlung des Stoffes, der systematische und anschauliche Aufbau des Buches sowie die zahlreichen Abbildungen machen es auch f}r den Studenten, Hobby-Programmierer und interessierten Laien attraktiv.
Das Buch stellt umfassend die wissenschaftlichen Grundlagen und die
Technologie des Imaging dar. Dabei werden unter Imaging die
Techniken der integrierten rechnergestutzten Verarbeitung,
Speicherung und Kommunikation von Bilddaten verstanden. Durch
seinen lehrbuchahnlichen Charakter richtet sich das Buch an
Studenten hoherer Fachsemester (Informatik, Wirtschaftsinformatik,
Elektrotechnik, Nachrichtentechnik u.a.), aber auch an Anwender
kommerzieller Applikationen von Imaging-Technologien.
Diskrete ereignisgesteuerte Simulation ist seit mehreren Jahrzehnten nicht nur im technischen Bereich, sondern auch weit daruber hinaus eine aner kannte und sehr wichtige Analysetechnik, mit der komplexe Ablaufe der Realitat gezielt untersucht werden konnen. Eine vielversprechende Moglich keit zur Reduzierung des typischerweise hohen Rechenaufwandes von Simu lationsexperimenten besteht in einer verteilten, asynchronen Ausfuhrung des Simulationsmodells auf einem Mehrprozessorsystem. Das zentrale Problem bei diesem Ansatz ist die notwendige Synchronisation, mit der die durch die modellierte Realitat meist nur implizit vorgegebenen kausalen Abhangigkei ten eingehalten werden. Dieses Buch gibt eine hervorragende Einfuhrung in das Gebiet verteil ter ereignisgesteuerter Simulation. Es vermittelt neben einem umfassenden Uberblick uber den Stand der Technik auch viele neue Ideen. Bemerkens wert ist insbesondere, dass neben Losungen fur das zentrale Synchronisati onsproblem auch andere Probleme betrachtet werden, die durch die Ver teilung neu hinzukommen und beim Einsatz verteilter Simulation in der Praxis eine wichtige Rolle spielen. So tritt durch die nichtdeterministische, asynchrone Ausfuhrung von Simulationsmodellen die Schwierigkeit der Re produzierbarkeit von Simulationslaufen auf, zu dem erstmalig eine Losung angegeben wird. Auch auf das Problem der Modellierung inharent globaler Daten wird ausfuhrlich eingegangen."
Leistungsf{hige Visualisierungssysteme sind Grundlage f}r ergonomisch gute Mensch-Maschine Schnittstellen. Applikationsspektrum und Einsatzbreite f}r solche Systeme werden einerseits durch die Visualisierungsm-glichkeiten und andererseits durch wirtschaftliche Aspekte bestimmt. Auf der Basis einer Abstraktion vom konkreten Bild hin zu verschiedenen Bildrepr{sentationen wird ein Strukturmodell f}r Visualisierungssysteme entwickelt. Anhand dieses Modells wird der Stand der Technik }bersichtlich dargestellt und mit den Anforderungen verglichen. Das Ergebnis zeigt sehr deutlich die Zusammenh{nge zwischen den klassischen Fachdisziplinen Graphische Datenverarbeitung, Bildverarbeitung und Videotechnik. Gerade f}r die Entwicklung zuk}nftiger multimedialer Systeme ist das Erkennen und die Synthese der verschiedenen Ans{tze aus diesen Disziplinen von hoher Bedeutung. Dem Entwickler von Visualisierungssystemen liefert dieses Buch wertvolle Hinweise beim Erkennen potentieller Systemengp{sse und konkrete L-sungswege f}r typische Problemstellungen.
In der vorliegenden Arbeit wird ein Abri~ der Tradition der algorithmischen Bilderzeugung dargelegt; die Begriffe des computergraphischen Realismus, desIdealismus und des Naturalismus werden beleuchtet. Forderungen an Verfahren zur Erzeugung m|glichst naturgetreuer Computergraphiken werden erarbeitet. Ein Verfahren der sogenannten nicht-exakten perspektivischen Projektion wird entwickelt, welches die erforderliche Pr{zision computergraphischer Darstellungen dreidimensionaler Szenen auf die Beantwortung der Frage nach der Gr|~e von im Bild tolerierbaren Fehlern zur}ckf}hrt. Die nicht-exakte perspektivische Projektion erlaubt bei der Modellierungcomputergraphisch darzustellender dreidimensionsaler Szenen eine Ersetzung von dreidimensionalen Szeneteilen durch zweidimensionale ikonisch-photographische Komponenten (Kulissen). Die Arbeit beinhaltet die Beschreibung einer exemplarischen Anwendung der entwickelten Verfahren. Diese Anwendung ist die me~technische Modellierung und Rekonstruktion eines mittelalterlichen Kirchengeb{udes. Anhand dieser Anwendung wird das Kalk}l der nicht-exakten perspektivischen Projektion verifiziert. Auflistungen konkret auftretender Bildfehler erm|glichen die Absch{tzung tolerierbarer Gr|~en dieser Bildfehler. Eine illustrierende Bilddokumentation von der Visualisierung des Kirchengeb{udes erg{nzt die theoretischen Darstellungen der Arbeit.
Das Buch behandelt in ausf}hrlicher Darstellung ausgew{hlte Fallstudien der Analyse dynamischer Systeme in Medizin, Biologie und \kologie von aktueller Bedeutung. Dabei werden sowohl grundlegende und allgemeing}ltige Fragestellungen, als auch spezielle anwendungsbezogene Probleme behandelt. Die Darstellungsweise ist auf Interdisziplinarit{t hin ausgerichtet, so da sowohl die notwendigen Grundlageninformationen, das Detailwissen, als auch die aktuelle Literatur zum jeweiligen Gebiet sofort verf}gbar ist. Das Buch eignet sich zum einen als Nachschlagewerk, aber auch als Einstiegswerk in Fragestellungen aus Medizin, \kologie, Umweltqualit{t und Mathematik mit den Schwerpunkten Systemanalyse und Simulation.
In vielen verschiedenen Disziplinen der Natur- und Ingenieurwissenschaften produzieren Messverfahren, Experimente und Computersimulationen immer grosser werdende Mengen von Ergebnisdaten. Diese Daten sind oft so komplex, dass spezielle Verfahren zur graphischen Darstellung eingesetzt werden mussen, um uberhaupt eine Interpretation und eine Analyse der Ergebnisse zu ermoglichen. Viele dieser Quellen produzieren Daten, die uber drei raumliche Koordinaten definiert sind. Solche Daten werden Volumendaten genannt. Beispiele fur solche Datenquellen sind Finite-Element-Simulationen, bildgebende Verfahren in der Medizin und Materialprufung sowie Elektronenverteilungen in Chemie und Physik. Zur Visualisierung dieser Volumendaten werden in den letzten Jahren besondere graphische Vefahren entwickelt. Das Buch enthalt Beitrage nahezu aller fuhrenden deutschen Wissenschaftler auf diesem Gebiet und gibt einen Uberblick uber die Forschungs- und Entwicklungsaktivitaten. "
Die sachgerechte Prasentation von umweltbezogenen Daten gewinnt aufgrund der steigenden Komplexitat der Umweltprobleme eine immer grossere Bedeutung. Aufgrund der Unterschiede in den Benutzerkreisen werden die Anforderungen an Visualisierungstechniken breiter. Das Buch gibt einen Uberblick uber den derzeitigen Stand in Forschung und Praxis. Dabei werden Querbezuge zu Simulation und Modellbildung, Umweltinformationssystemen und Schnittstellenproblematik hergestellt.
Internetzwerke, bestehend aus miteinander gekoppelten lokalen und offentlichen Datennetzen (LAN, WAN), sowie Methoden und Werkzeuge fur ihre Entwurfsplanung und Leistungsoptimierung sind die zentralen Themen dieser Monographie. Eine kompakte Einfuhrung in das uberaus komplexe Gebiet der Rechnernetzkopplung wird anhand von Uberblicken uber grundlegende Techniken zur Netzkopplung, die Normung von Internetzwerkarchitekturen und Techniken zur Leistungsbewertung von Internetzwerken gegeben. Ein neu entwickeltes Simulationssystem und ein Leistungsmesssystem fur Internetzwerke werden vorgestellt. Ebenfalls behandelt wird ein kombinierter Einsatz dieser beiden Systeme zur Entwurfsplanung und Leistungsoptimierung von Internetzwerken. Das Buch endet mit einer exemplarischen Anwendung beider Werkzeuge zur Realisierung eines prototypischen OSI-Internetzwerks. Das Buch ist an einen wissenschaftlich orientierten Leserkreis gerichtet; das Verstandnis wird durch viele Abbildungen wesentlich unterstutzt.
Die in den vergangenen Jahren ausserordentlich gesteigerte Leistungsfahigkeit sowohl der Arbeitsplatzrechner als auch der Kommunikationstechnik fur ihre Vernetzung erschliessen sinnvolle Anwendungsmoglichkeiten fur immer weitere und umfangreichere Arbeitsbereiche. Die 19. Jahrestagung der GI greift wichtige Fragen hierzu auf und setzt sich mit einer Fulle von Einzelthemen auseinander. Dabei wendet sie sich gleichermassen an Entwickler, Anwender, Wissenschaftler und Studenten.
Am Fallbeispiel einer Verteiler-LKW-Tatigkeit wird eine Computersimulation als arbeitswissenschaftliches Instrumentarium zur Beurteilung von Belastungen und Beanspruchungen bei der Fahrzeugfuhrung vorgestellt. Hierzu werden Merkmale der Arbeitsumgebung in Form von Stressoren dargestellt, wahrend die personalen Bedingungen durch Schlusselqualifikationen abgebildet werden, wodurch die Aufdeckung von Wirkungszusammenhangen ermoglicht wird. Fur verschiedene Versuchsbedingungen konnen unterschiedliche Auspragungen der Schlusselqualifikationen nachgewiesen werden. Anhand einer vergleichenden Untersuchung der unterschiedlichen Wirkung von Schalt- bzw. Automatikgetriebe auf den Fahrer wird die Eignung der beschriebenen Simulation demonstriert.
Die in den vergangenen Jahren ausserordentlich gesteigerte Leistungsfahigkeit sowohl der Arbeitsplatzrechner als auch der Kommunikationstechnik fur ihre Vernetzung erschliessen sinnvolle Anwendungsmoglichkeiten fur immer weitere und umfangreichere Arbeitsbereiche. Die 19. Jahrestagung der GI greift wichtige Fragen hierzu auf und setzt sich mit einer Fulle von Einzelthemen auseinander. Dabei wendet sie sich gleichermassen an Entwickler, Anwender, Wissenschaftler und Studenten.
Die Gesellschaft fOr Informatik fOhrt ihre 18. Jahrestagung an der Universitat Hamburg durch. Der Fachbereich Informatik hat sich als Veranstalter fOr das Leitthema "Vernetzte und kom- plexe Informatik-Systeme" entschieden. Aufgrund der rapide fortschreitenden Technologie und dadurch erschlossener neuer Anwendungsbereiche werden komplexe Systeme in tech- nischer oder gesellschaftlicher Umgebung zunehmend durch informatikspezifische Gesichts- punkte bestimmt. Dies rechtfertigt den Begriff "Informatik-System" als Zusammenfassung aller in der Informatik betrachteten Methoden des Entwurfs und der Handhabung solcher Systeme. Vernetztheit und Komplexitat bestimmen in unterschiedlichen Erscheinungsformen die strukturellen Probleme der Informatik. Haufig stehen diese beiden Problemkreise in starker Abhangigkeit zueinander. Komplexe Systeme erzwingen Modularitat, um sie beherrschbar zu gestalten, wahrend stark vernetzte Systeme andererseits eine Form von Komplexitat zeigen, die zur Zeit noch hechst unbefriedigend verstanden wird. Eine besondere Form von Vernetztheit stellen verteilte Systeme dar. Ais innere Betriebs- form kennen sie zur Leistungssteigerung von Rechensystemen beitragen, als au Bere Be- triebsform tragen sie der Verteiltheit von Anwendungsproblemen Rechnung. Konkrete Auspragungen verteilter und vernetzter Informatik-Systeme finden sich in den verschiedensten Formen, von der Mikroelektronik Ober Rechnerarchitekturen bis hin zu Soft- ware-Systemen mit Anwendung in Technik und Gesellschaft. Letztere stellen oft selbst kom- plexe und verteilte Systeme dar, was sich zunehmend in den entsprechenden Informatik- Anwendungen widerspiegelt.
Der Band enthalt die Beitrage zum 5. Symposium Simulationstechnik, das im September 1988 an der RWTH Aachen stattfand. Die Vortrage reflektieren den State-of-the-Art der Simulationstechnik in allen Anwendungsbereichen. Das Ziel dieser von ASIM veranstalteten Reihe von Symposien ist es, den Austausch von Ideen und Erfahrungen von Fachleuten und Interessenten zu fordern, die auf dem Gebiet der Modellbildung und Simulation in Theorie und Praxis tatig sind. Dieses Tagungsziel wird vor dem Hintergrund der zunehmend breiten Bedeutung, die der Simulation als modernem Entwicklungs- und Analysehilfsmittel zukommt, immer wichtiger. Neue Hard- und Softwarekonzepte ermoglichen die Entwicklung hochkomplexer Systeme. Das vielfaltige Zusammenwirken der Systemkomponenten zu untersuchen und zu bewerten, ist ohne den Einsatz leistungsfahiger Simulationswerkzeuge undenkbar. Dies erfordert konsequenterweise auch Weiterentwicklungen auf dem Gebiet der Simulationstechnik und der ihr jeweils zugrunde liegenden Methodik. Der Erfahrungsaustausch im Rahmen einer solchen Tagung bietet allen Teilnehmern in gleicher Weise Vorteile: Einerseits erlangen Praktiker fruhzeitig Kenntnis von neuen Konzepten und Werkzeugen, und andererseits konnen Theoretiker fruhzeitig die vielfaltigen in der Praxis auftretenden Probleme bei der Entwicklung neuer Methoden bewerten und berucksichtigen. Der Band ist thematisch gegliedert in die drei Teile Modellbildung und Simulationstechnik, Simulationswerkzeuge sowie Anwendungen.
Der Band enthalt die Beitrage zum 4. Symposium Simulationstechnik, der ASIM, das vom 9.-11. September 1987 an der ETH Zurich stattfand. Die Vortrage reflektieren den State-of-the-Art der Simulationstechnik in allen Anwendungsbereichen. Drei umfangreiche Hauptvortrage mit den Themenkreisen Simulation in der Fertigungstechnik, Simulation des Verhaltens von Chemikalien in Fliessgewassern und Schaltkreissimulation geben einen Uberblick uber den Stand und die zukunftigen Entwicklungen der Simulationstechnik in wichtigen Anwendungsgebieten und bei Einsatz modernster Mittel. Bei den siebzig regularen Vortragen nehmen Probleme aus der Fertigungstechnik sowie Logik- und Schaltkreissimulationen und den zugehorigen neuen Verfahren besonders breiten Raum ein. Daruber hinaus finden sich auch zahlreiche Vortrage uber neue mathematische Verfahren, Optimierungsmethoden und Software, Simulationsumgebungen, Probleme des parallelen Rechnens, Simulationshardware sowie uber Anwendungen aus unterschiedlichensten Gebieten.
Das vorliegende Buch behandelt die Synchronisation als eine der zentralen Funktionen zur Aufrechterhaltung der Integritat in Datenbanksystemen. Der Schwerpunkt liegt dabei auf einer umfassenden Analyse des Einflusses von Synchronisationsmassnahmen auf das Leistungsverhalten von Datenbanksystemen. Nach einer kurzen Einfuhrung in die wesentlichen konzeptionellen Aspekte der Synchronisation werden ausfuhrlich die Implementierungsaspekte der Synchronisationskomponente in Datenbanksystemen diskutiert. Da durch Synchronisationsmassnahmen in praktischen Umstanden moglicherweise erheblich in die parallelen Ablaufe von Transaktionen eingegriffen wird, ist die Auswahl geeigneter Synchronisationsverfahren von entscheidender Bedeutung fur die Leistungsfahigkeit von Datenbanksystemen. Hierin wird mit Hilfe des Verfahrens der Trace-getriebenen Simulation der Versuch gemacht, die Charakteristiken praktischer Anwendungen auf den quantitativen Vergleich von Synchronisationsverfahren zu ubertragen, was in dieser Form bisher noch nicht durchgefuhrt wurde. Die dabei erhaltenen Ergebnisse werden ausfuhrlich diskutiert und im Hinblick auf die Brauchbarkeit neuartiger Synchronisationsverfahren fur praktische Anwendungen bewertet. Synchronisationsmassnahmen zur Aufrechterhaltung der Integritat in Datenbanksystemen erfordern erhebliche Eingriffe in die parallelen Ablaufe im Mehrbenutzerbetrieb mit entsprechenden Konsequenzen auf die Gesamtleistung des Systems. Es wird eine umfassende Analyse der Leistungsfahigkeit von Synchronisationsverfahren auf der Basis eines mit empirischen Daten getriebenen Simulationsmodells beschrieben.
Dies ist der Tagungsband der 4. GI/ITG-Fachtagung "Messung, Modellierung und Bewertung von Rechensystemen", Erlangen, 29. September-1. Oktober 1987. Tagungsinhalt ist der Austausch neuer Ideen und Erfahrungen bei der quantitativen Untersuchung von Rechensystemen. Dabei werden einerseits das volle methodische Spektrum - Messinstrumentierung/Messung - Modellbildung/simulative und mathematische Modellanalyse - Bewertung und Synthese in leistungsorientierter bzw. leistungs-/zuverlassigkeitsorientierter Sicht abgedeckt sowie andererseits uber praktische Erfahrungen beim Einsatz dieser Methoden und Techniken bei Entwurf, Implementierung/ Installierung und Betrieb einzelner und vernetzter Rechensysteme berichtet. Die Beitrage (13 in Englisch, 11 in Deutsch) behandeln Methoden und Techniken der Beschreibung von Systemen hinsichtlich ihrer Leistungsfahigkeit und Zuverlassigkeit: (Hard- und Software-) Mess- und Monitorsysteme, Charakterisierung von Systembelastungen, Erstellung und simulative/mathematische/hybride Analyse von Systemmodellen, Erfahrungen bei der Bewertung und Optimierung von Rechensystemen.
Alan Turing was one of the most important and influential thinkers of the 20th century. This volume makes his key writings available to a non-specialist readership for the first time. They make fascinating reading both in their own right and for their historic significance: contemporary computational theory, cognitive science, and artificial intelligence life all spring from this ground-breaking work.
Simulanten sind uns als Menschen bekannt, die durch "vorgespielte" Symptome den Eindruck erwecken wollen, an einer bestimmten Krankheit zu leiden. Der Simulant besitztdaherdas wichtigste Merkmal fur den naturwissenschaftlichen Begriff Simulation, bei dem ebenfalls in Modellspielen mit einfachen Spielregeln die Realitat imitiert wird. Ein Modell ist immer durch die Anzahl seiner Parameter begrenzt, kann also niemals allgemeingultig sein. Ausgehend von leicht zu durchschauenden Modellen aus den Themenkreisen Astronomie, Biologie, Chemie und Dokumentation von Ergebnissen sollen 22 kleine Anwendungen mit GW-BASIC und Lotus 1-2-3 vorgestellt werden. Simulation soll hier als Hilfsmittel fur die Erstellung von Prognosen oder einfachen Spiel ergebnissen von Modellen obiger Themenkreise verstanden werden. Naturlich stellt der Abstraktionsumfang eines jeden Modells den begrenzenden Faktor fur die Anwendung im Schulbereich dar, da diese Fahigkeit zur Abstraktion alters- und schultypabhangig ist: Doch auch dort, wo die naturlichen Modelle (Versuchstiere) unersetzbar sind, unterstutzt der PC das "Erlebnis" am Tierversuch, wenn er eine ubersichtliche und schnelle Versuchs auswertung liefert. Daher ist auch ein Programm, welches Realwerte liefert, in die Samm lung der Simulationsprogramme mitaufgenommen worden."
Mit der vorliegenden Schri ft werden mindestens drei verschiedene liele verfolgt. lunachst soll eine EinfUhrung in wesentliche Aspekte der derzeitigen Denkpsychologie gegeben werden. Seit der kognitiven Neube sinnung der Psychologie gegen Mitte der 5Der Jahre, hat auf einigen Gebieten dieser Wissenschaft eine sehr rapide Entwicklung eingesetzt, die unvermindert anhalt. Dabei w-urden teilweise Anregungen aufgenom men, oder auch wieder entdeckt, die schon vor Jahrzehnten (z. B. Selz, 1913,1922) oder gar einem Jahrhundert (Donders, 1968/9) fo.rmuliert worden waren. Dank der enormen Wei terentwi ckl ung der Formalwissen schaften, Mathematik, Statistik, Informatik, urn nur einige zu nennen, konnten einige der alten und viele neue Konzepte auf ganz anderem Niveau entwickelt werden. Es wurde ein nie gekanntes Ausma(3 an Prazi sion und Formalisierung erreicht. Diese Entwicklung i t keineswegs abgeschlossen, ja, sie hat soeben erst richtig begonnen! Dies in Um rissen darzulegen ist das erste liel: Dabei werden nicht nur verschie dene Ansatze dargestellt, sondern auch deren phi losophischer und er kenntnistheoretischer Hintergrund umrissen. Die Darstellung strebt keine Ausgewogenheit oder gar Vollstandigkeit an, vielmehr werden deu deutli ch Schwerpunkte gesetzt. Neben dieser unverblilmt theoretischen Ausrichtung gibt es eine wei tere lielsetzung, die man als learning-by-doing kennzeichnen konnte. Es werden zahlreiche Denkprobleme angegeben, die der Leser selbst liisen sollte, bevor er die Ergebnisse entsprechender Untersuchungen rezi pi ert. Di ese ei gene Denkarbei t kann zwei erlei bewi rken. t: rstens kann man dabei seine eigenen Denkanstrengungen verfolgen (z. B. indem man sich Notizen macht und so erste Verhaltensdaten gewinnt)."
Keine einfache Antwort kann es nach B. ULRICH (LOELF 1982) auf die Frage geben: "Lasst sich Schadigung beweisen? - Wie werden Waldoekosysteme durch Deposition und Akkumulation von Luftverunreinigungen geschadigt?" "Das Waldoekosystem besteht nicht nur aus Baumen, die groesste Artenvielfalt liegt vielmehr bei den im Boden lebenden Mikroorganismen und Tieren vor, deren Aufgabe im oekosystem die Recyclierung der von den Pflanzen gebildeten Biomasse ist. Die einzelnen Glieder eines Waldoekosystems sind so eng mitein- ander vernetzt und aufeinander angewiesen, dass man nicht eines verandern oder schadigen kann, ohne damit auch andere zu beeinflussen" (a. a. O., S. 9). "Am Anfang objektiver Erkenntnis", so fahrt ULRICH fort, "steht also nicht das Experiment, sondern die Beobachtung und der Entwurf eines ganzheitlichen Bildes, in dem alles vorhandene Wissen und alle Beobachtungen integriert sind. Die Beobachtungen mussen sich auf das gesamte oekosystem erstrecken, also nicht nur auf die oberirdischen Baumteile oder gar nur auf den Zu- wachs, sondern auch auf die Wurzeln, auf die Mikroorganismen und auf die an der Zersetzung beteiligte Tiergemeinschaft. Ein Geschehen von der Kom- plexitat der Schadigung eines Waldoekosystems kann grundsatzlich nicht be- wiesen werden, weil weder die Kausalkette im einzelnen nachvollzogen werden kann (analytischer Beweis (AEnderung durch d. Hrsg. )) noch die simpelste Voraussetzung eines experimentellen naturwissenschaftlichen Beweises ge- geben ist: die beliebige Wiederholbarkeit (statistischer Wahrscheinlich- keitsbeweis). " 2 Die Lange dieses Eingangszitates ist ungewoehnlich. |
You may like...
A Beginner's Guide to Image Shape…
Jyotismita Chaki, Nilanjan Dey
Paperback
R1,395
Discovery Miles 13 950
The Frugal Book Promoter - 3rd Edition…
Carolyn Howard-Johnson
Hardcover
The Pedagogy of the Social Sciences…
Jamie P Halsall, Michael Snowden
Hardcover
Literacy in Science, Technology, and the…
Dennis Adams, Mary Hamm
Hardcover
|