Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
|||
Showing 1 - 1 of 1 matches in All Departments
Studienarbeit aus dem Jahr 2007 im Fachbereich Informatik - Theoretische Informatik, Note: 2, Hochschule Zittau/Gorlitz; Standort Zittau, Veranstaltung: Algorithmen und Komplexitat, 5 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: Es ist mehrfach festgestellt worden, dass schnellere Rechner nur einen geringen Einfluss auf die Aufwandsordnung haben, d.h. sie leisten nur einen begrenzten Beitrag zur schnelleren/effizienteren Verarbeitung eines Verfahrens. Die einzige Losung besteht in dem Suchen und Finden immer besserer und schnellerer Algorithmen zur Losung konkreter Probleme. Eine Kategorie von immer besseren Berechnungsverfahren sind die Probabilistischen Algorithmen. Diese Algorithmen verwenden Zufallsbits um ihren Ablauf zu steuern, was soviel bedeutet, dass sie im Laufe der Berechnung, also wahrend der Laufzeit des Algorithmuses, Zufallszahlen benutzen. Diese Algorithmen haben mehrere Vorteile gegenuber ihren deterministischen Vettern. Sie sind in den meisten Fallen - schneller (bezuglich Laufzeit); - benotigen weniger Speicher; - sind einfacher zu verstehen und damit ...; - ... einfacher zu implementieren als die schnellsten deterministischen Algorithmen fur das selbe Problem. Der Nachteil pobabilistischer Algorithmen ist, dass sie zufallig auch worst-case-Entscheidungen treffen konnen. Ebenfalls nachteilig ist die Tatsache, dass diese Algorithmen falsche Aussagen produzieren (Monte Carlo-Algorithmen) konnen oder erst gar nicht terminieren, weil eine ungunstige Zufallszahlenauswahl so getroffen wurde, dass die Berechnung in eine Sackgasse fuhrt (Las Vegas-Algorithmus).
|
You may like...
Snyman's Criminal Law
Kallie Snyman, Shannon Vaughn Hoctor
Paperback
|