Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
|||
Showing 1 - 4 of 4 matches in All Departments
Das vorliegende Buch soll die grosse Lucke zwischen Theorie und Praxis des Operations Research schliessen helfen. Wahrend einerseits die Forschung auf diesem Gebiet machtig und mit guten Resultaten vorangetrieben wird, sind andererseits die erfolgreichen Anwendungen auf praktische Probleme noch nicht uberaus zahlreich. Welches sind die Grunde fur diesen Ruckstand der praktischen Anwendung? Das Studium der vier Teile des Buches soll zeigen, wie einige inter- essante und bedeutende praktische Optimierungsprobleme geloest wor- den sind und wie ahnliche Probleme angepackt werden koennen. Da realistische Probleme meistens kompliziert und nicht leicht uberblick- bar sind, wurde bei der Beschreibung der Problemstellung darauf geachtet, dass die wichtigsten Gegebenheiten und Zusammenhange in den Vordergrund geruckt und Nebensachlichkeiten nur am Rande erwahnt werden. Folgende bekannte und wichtige Methoden des Operations Research wurden zur Loesung der Probleme verwendet: lineare und quadratische Optimierung, dynamische Optimierung, Netzwerkfluss-Algorithmus (Out of Kilter-Methode) und Branch-and-Bound. Dass aber auch heuristische Verfahren zweckmassig und erfolgreich eingesetzt werden koennen, zeigt der 2. Teil des Buches. In allen Fallen waren die Ver- fasser bemuht, die Methoden ausfuhrlich, korrekt und moeglichst gut verstandlich darzustellen. Eines geht aus allen Loesungsbeschreibungen der Probleme dieses Buches mit D utlichkeit hervor: die dominierende Rolle, die der Computer bei der Berechnung der Resultate und Aufbereitung der Daten spielt. Der Computer hat fur den Operations Research-Praktiker eine ahnliche Bedeutung wie das Auto fur den Taxichauffeur. Ohne dieses Hilfsmittel kann man wohl planen und vorbereiten, doch nie ein praktisches Resultat erzielen.
Als A. N. Kolmogoroff 1933 die Wahrscheinlichkeitsrechnung als selb- stindige mathematische Disziplin maBtheoretisch begrundete, stand auch die mathematische Statistik inmitten einer fruchtbaren Entwicklung. Be- sondere Verdienste haben sich einerseits K. Pearson und J. Neyman und anderseits R. A. Fisher erworben. Letzterer gilt auch als Begrunder der statistischen Versuchsplanung. Vergessen wollen wir aber nicht, daB die Wurzeln der Theorie statisti- scher Schlusse (Inferenztheorie) auf Jakob Bernoulli I zuruckgehen, der zum erstenmal in der posthum veroffentlichten Ars conjectandi [3] die "Gesamtheit aller moglichen statistischen Beobachtungen als ein im Sin- ne der Wahrscheinlichkeitsrechnung meBbares Kollektiv" interpretiert hat. Die klassische Statistik zerfillt im wesentlichen in zwei Bereiche: I Testen von Hypothesen II Schitzen von Parametern (Punkt- und Intervallschitzung) Zentrale Begriffe sind dabei Macht eines Tests sowie Effizienz und Suf- fizienz einer Schitzfunktion. Allgemeine Kriterien statistischer Infe- renz sind etwa das Maximum-Likelihoodprinzip oder das Fiduzialkonzept von R. A. Fisher. Abgesehen von wenigen Ausnahmen beschrinkte sich die klassische Theorie auf I) ein I-stufiges Experiment, d.h. der Stichprobenumfang ist zum vorn- herein fixiert 2) Entscheidungsprobleme der oben erwihnten Typen I und II. 225 Abraham Wald hat 1950 eine allgemeine statistische Entscheidungstheorie entwickelt, deren Grundzuge in seinem Standardwerk "Statistical Decision Functions" aufgezeichnet sind [54]. Charakteristiken dieser neuen Theorie sind: a) Zulassung mehrstufiger Experimente ("multi-stage experimentation") b) Verallgemeinerung auf mehrere Aktionen oder Letztentscheidungen (multi-decision problem) c) Bewertung der entstandenen Verluste bei statistischen Entscheidungen sowie der anfallenden Stichprobenkosten d) Interpretation des statistischen Inferenzproblems als 2-Personen- NuIIsummenspiel zwischen dem Statistiker (I. Spieler) und der Um- welt (2. Spieler).
|
You may like...
Discovering Daniel - Finding Our Hope In…
Amir Tsarfati, Rick Yohn
Paperback
|