Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
|||
Showing 1 - 8 of 8 matches in All Departments
Temporal logic has developed over the last 30 years into a powerful formal setting for the specification and verification of state-based systems. Based on university lectures given by the authors, this book is a comprehensive, concise, uniform, up-to-date presentation of the theory and applications of linear and branching time temporal logic; TLA (Temporal Logic of Actions); automata theoretical connections; model checking; and related theories. All theoretical details and numerous application examples are elaborated carefully and with full formal rigor, and the book will serve as a basic source and reference for lecturers, graduate students and researchers.
This book constitutes the refereed proceedings of the 16th International Conference on Formal Engineering Methods, ICFEM 2014, held in Luxembourg, Luxembourg, in November 2014. The 28 revised full papers presented were carefully reviewed and selected from 73 submissions. The papers cover a wide range of topics in the area of formal methods and software engineering and are devoted to advancing the state of the art of applying formal methods in practice. They focus in particular on combinations of conceptual and methodological aspects with their formal foundation and tool support.
Temporal logic has developed over the last 30 years into a powerful formal setting for the specification and verification of state-based systems. Based on university lectures given by the authors, this book is a comprehensive, concise, uniform, up-to-date presentation of the theory and applications of linear and branching time temporal logic; TLA (Temporal Logic of Actions); automata theoretical connections; model checking; and related theories. All theoretical details and numerous application examples are elaborated carefully and with full formal rigor, and the book will serve as a basic source and reference for lecturers, graduate students and researchers.
ThisvolumecontainstheproceedingsofIFM2010, the8thInternationalConf- ence on Integrated Formal Methods. The conference took place October 12-14, 2010, atthe INRIA researchcenterandthe LORIAlaboratoryinNancy, France. Previous editions were held in York, Dagstuhl, Turku, Canterbury, Eindhoven, Oxford, and Dusseldorf ] . The IFM conference series seeks to promote research into the combination of di?erent formal methods, including the combination of formal with semiformal methods, for system development. Such combinations are useful in order to apprehend di?erent aspects of systems, including fu- tional correctness, security, performance, and fault-tolerance. The conference provides a forum for discussing recent advances in the state of the art and for disseminating the results among the academic and industrial community. IFM2010received59submissions, coveringthespectrumofintegratedformal methods and ranging from formal and semiformal notations, semantics, re?- ment, veri?cation, and model transformations to type systems, logics, tools, and case studies. Each submission was reviewed by at least three members of the Program Committee. The committee decided to accept 20 papers. The conf- ence programalso included invited talks by Christel Baier, John Fitzgerald, and Rajeev Joshi. The conference was preceded by a day dedicated to the Wo- shop on Formal Methods for Web Data Trust and Security (WTS 2010)and two tutorials, one on the veri?cation of C# programs using Spec# and Boogie 2, + by Rosemary Monahan, and the other on the TLA proof system, by Denis Cousineau and Stephan Mer
The RPC-memory specification problem was proposed by Broy and
Lamport as a case study in the formal design of distributed and
concurrent systems. As a realistic example typical for operating
systems and hardware design, the RPC-memory problem was used as the
basis for comparing various approaches to formal specification,
refinement, and verification.
This book constitutes the refereed proceedings of the 7th International Conference on Interactive Theorem Proving, ITP 2016, held in Nancy, France, in August 2016. The 27 full papers and 5 short papers presented were carefully reviewed and selected from 55 submissions. The topics range from theoretical foundations to implementation aspects and applications in program verification, security and formalization of mathematical theories.
Studienarbeit aus dem Jahr 2010 im Fachbereich Jura - Andere Rechtssysteme, Rechtsvergleichung, Note: 10 Punkte, Universitat Bayreuth, Sprache: Deutsch, Anmerkungen: Diese Arbeit wurde im Rahmen eines Seminars uber Rechtsvergleichung im Verfassungsrecht angefertigt. In der Bewertung wurde hervorgehoben, dass das selbst gewahlte Thema enorm anspruchsvoll und schwer abzugrenzen sei, der Bearbeiter aber einen souveranen Stil an den Tag lege und das Thema mit erfreulicher Vielfalt darstelle., Abstract: Rechtsvergleichung und Kulturvergleichung Die Arbeit setzt sich neben der Entstehung von Recht und Kultur vorrangig mit den reziproken Einflussen auseinander. Dabei werden moglichst alle kulturellen und naturlichen Einflusse auf das Recht untersucht. (Sprache, Zeitverstandnis, Geologie, Religion etc.) Daruber hinaus werden die einzelne Rechtskreise naher betrachtet. Im dritten Teil der Arbeit wird auf Rechtsvergleichung in der deutschen Legislative und Judikative abgestellt. Der Autor hat sich ferner darum bemuht Theorienlehre zur praktischen Anwendung von Rechtsvergleichung zusammenzutragen. Fur diese Arbeit wurde umfangreich Literatur aus unterschiedlichsten Wissenschaftsdisziplinen (Soziologie, Philosophie, Ethnologe, Rechtswissenschaft etc.) verarbeitet und im Literaturverzeichnis aufgelistet, so dass diese Arbeit auch zur Quellensuche dienen kann.
Diplomarbeit aus dem Jahr 2003 im Fachbereich BWL - Investition und Finanzierung, Note: 1,7, Universitat der Bundeswehr Munchen, Neubiberg (Wirtschafts- und Organisationswissenschaften), Sprache: Deutsch, Abstract: Inhaltsangabe: Einleitung: In den letzten Jahren haben sich das Umfeld und die Bedingungen beim Agieren auf dem Finanzmarkt durch die weite Verbreitung und den Einsatz von hochentwickelter Informations- und Kommunikationstechnologie in Verbindung mit ausgefeilten Analysemethoden geandert. Zu beobachten waren mit der Geburt der New Economy ein massiver Boom in den 90er Jahren und eine starke Rezession Anfang 2000. Auf einigen Markten entstanden durch hohen Kapitalzufluss sog. spekulative Blasen'; Gleichgewichtspreise wichen weit von den Fundamentalwerten ab. Solch langerfristig bestehende Ungleichgewichte waren die Wurzel fur die Krisen und den Kollaps in einigen Asiatischen Landern. Die Entstehung und das Platzen dieser Blasen konnte durch die gangigen Finanzmarktmodelle nicht erklart werden; es entstand Anfang der 90er Jahre der Begriff des Herdenverhaltens, welcher die in der Empirie beobachtbaren Vorgange erklaren sollte. Hierzu gibt es interessante Ansatze. Die Entwicklung hochdifferenzierter Geld- und Kapitalmarktprodukte, die sich gegenseitig erganzen, sich wechselseitig absichern und sich konkurrierend auf den Preis anderer Finanzinstrumente auswirken, lassen sich abhangig von der zugrundeliegenden und zur Anwendung kommenden Theorie mathematisch errechnen bzw. zumindest approximieren. Im Alltag des Finanzgeschaftes sind es diese Fluktuationen, die von Arbitrageuren in Marktpreise umgesetzt werden und uber den Erfolg oder Misserfolg entscheiden konnen. Es wird deutlich, dass solche komplexe rechnerische Aufgaben nur von Computern zeitgerecht geleistet werden konnen; die Geldinstitute brauchen Expertensysteme. Die grossen Finanzinstitute sind heute nach ihrer internen Aufgabenstellung weitgehend Informationsprozessoren und damit letztlich reine Dat
|
You may like...
|