Kirjailija
Ingo Wegener
Kirjat ja teokset yhdessä paikassa: 11 kirjaa, julkaisuja vuosilta 1979-2025, suosituimpien joukossa Anorexia nervosa. Vertaile teosten hintoja ja tarkista saatavuus suomalaisista kirjakaupoista.
11 kirjaa
Kirjojen julkaisuhaarukka 1979-2025.
Complexity theory is the theory of determining the necessary resources for the solution of algorithmic problems and, therefore, the limits of what is possible with the available resources. An understanding of these limits prevents the search for non-existing efficient algorithms. This textbook considers randomization as a key concept and emphasizes the interplay between theory and practice: New branches of complexity theory continue to arise in response to new algorithmic concepts, and its results - such as the theory of NP-completeness - have influenced the development of all areas of computer science. The topics selected have implications for concrete applications, and the significance of complexity theory for today's computer science is stressed throughout.
Die theoretische Informatik ist älter als die praktische, angewandte oder technische Informatik. Daher ist sie als wissenschaftliche Disziplin bereits weiter ausgebaut als andere Bereiche der Informatik und ihre Ergebnisse sind schwerer zugänglich, da sie auf ein größeres und tieferes Fundament aufbauen. Stark verästelte Theorien ten dieren dazu, sich als Selbstzweck aufzufassen und als l'art pour l'art betrieben zu werden. In der vorliegenden Einführung in die theoretische Informatik begegnen wir dieser Gefahr, indem wir die Orientierung moderner Theorien an den Anwendun gen in den Mittelpunkt stellen. Schon Novalis (1772-1801) hat darauf hingewiesen, dass die Theorie häufig den Anwendungen vorauseilt: "Wenn die Theorie auf die Erfahrung warten sollte, so käme sie nie zustande. " Nicht immer sind die Anwendungen von Ergebnissen der theoretischen Informatik so direkt zu sehen wie die Anwendungen anderer Zweige der Informatik. Dies gilt insbesondere für negative Resultate. Dabei sind deren Konsequenzen klar. Wenn wir beweisen, dass es bestimmte für die Praxis wünschenswerte Werkzeuge oder Algorithmen nicht geben kann, muss die unsinnige, weil hoffnungslose Arbeit an diesen Werkzeugen oder Algorithmen eingestellt und statt dessen die Suche nach bestmöglichen Auswegen begonnen werden. Andererseits sind positive Resultate nicht automatisch anwendungsorientiert. Exis tenzaussagen oder Algorithmen mit exponentieller oder noch größerer Laufzeit sind häufig praktisch wertlos. Das Neue an der vorliegenden Einführung in die theore tische Informatik ist die konsequent algorithmenorientierte Sichtweise (zum didak tischen Hintergrund siehe Wegener (1995)). Stets wurde bei positiven Resultaten eine Umsetzung in praktisch und theoretisch effizienteAlgorithmen angestrebt.
Complexity theory is the theory of determining the necessary resources for the solution of algorithmic problems and, therefore, the limits of what is possible with the available resources. An understanding of these limits prevents the search for non-existing efficient algorithms. This textbook considers randomization as a key concept and emphasizes the interplay between theory and practice: New branches of complexity theory continue to arise in response to new algorithmic concepts, and its results - such as the theory of NP-completeness - have influenced the development of all areas of computer science. The topics selected have implications for concrete applications, and the significance of complexity theory for today's computer science is stressed throughout.
Die Komplexitätstheorie ist inzwischen eine ausgefeilte Theorie. Viele wichtige und nützliche Ergebnisse sind schwer vermittelbar, da der Weg zu Ergebnissen für konkrete Probleme lang und beschwerlich ist. Während die NP-Vollständigkeitstheorie die gesamte Informatik beeinflußt hat, werden die neueren Ergebnisse in der Ausbildung an den Rand gedrängt. Dieses Lehrbuch trifft eine Auswahl unter den Ergebnissen, so dass die Bedeutung der Komplexitätstheorie für eine moderne Informatik in den Mittelpunkt rückt.
Starthilfe Informatik
Hans-Jürgen Appelrath; Dietrich Boles; Volker Claus; Ingo Wegener
Vieweg+Teubner Verlag
2002
nidottu
Die Starthilfen erleichtern den Übergang vom Abitur ins Studium. Für die Informatik stellt sich dabei die Frage: Wie hilft man beim Einstieg in dieses Fach, über das - etwa im Gegensatz zu Mathematik und Physik - vor allem bei Schülern und Schülerinnen oftmals falsche Vorstellungen herrschen? Die Autoren der "Starthilfe Informatik" wählen den Weg, dem Leser zunächst die zentralen Begriffe "Algorithmus" und "Datenstrukturen" bzgl. Darstellungsformen, Effizienz und Programmiermethodik näherzubringen. Eine Einführung in die objektorientierte Softwareentwicklung und ein Überblick über Kerngebiete der Praktischen Informatik runden den Band ab. Mit diesem Wissen sollte der inhaltliche Einstieg ins Informatikstudium problemlos gelingen. Das Buch steht im Rahmen des Projektes http://InterDoc.OFFIS.Uni-Oldenburg.de>InterDoc online zur Verfügung.
Branching Programs and Binary Decision Diagrams
Ingo Wegener
Society for Industrial Applied Mathematics,U.S.
2000
sidottu
Finite functions (in particular, Boolean functions) play a fundamental role in computer science and discrete mathematics. This book describes representations of Boolean functions that have small size for many important functions and which allow efficient work with the represented functions. The representation size of important and selected functions is estimated, upper and lower bound techniques are studied, efficient algorithms for operations on these representations are presented, and the limits of those techniques are considered. This book is the first comprehensive description of theory and applications. Research areas like complexity theory, efficient algorithms, data structures, and discrete mathematics will benefit from the theory described in this book. The results described within have applications in verification, computer-aided design, model checking, and discrete mathematics. This is the only book to investigate the representation size of Boolean functions and efficient algorithms on these representations.
Kompendium Theoretische Informatik — eine Ideensammlung
Ingo Wegener
Vieweg+Teubner Verlag
1996
nidottu
Das "Kompendium Theoretische Informatik - eine Ideensammlung" erganzt das Lehrbuch "Theoretische Informatik - eine algorithmenorientierte Einfuhrung" vom gleichen Autor. An Stelle von formalen Beweisen werden die wesentlichen Ideen herausgearbeitet und vorgestellt. Die Vertiefung und Auffrischung von Kenntnissen in Theoretischer Informatik wird unterstutzt. Die Ideensammlung wird erganzt durch Ubungsaufgaben mit Losungen und Losungsmethoden sowie Testfragen mit knappen Antworten.
Die Theoretische Informatik ist älter als die Praktische, Angewandte oder Techni sche Informatik. Daher ist sie als wissenschaftliche Disziplin bereits weiter ausgebaut als andere Bereiche der Informatik, und ihre Ergebnisse sind schwerer zugänglich, da sie auf ein größeres und tieferes Fundament aufbauen. Stark verästelte Theorien tendieren dazu, sich als Selbstzweck aufzufassen und als l'art pour l'art betrieben zu werden. In der vorliegenden Einführung in die Theoretische Informatik begegnen wir dieser Gefahr, indem wir die Orientierung moderner Theorien an den Anwendun gen in den Mittelpunkt stellen. Schon Novalis (1772~ 1801) hat darauf hingewiesen, daß die Theorie häufig den Anwendungen vorauseilt: "Wenn die Theorie auf die Erfahrung warten sollte, so käme sie nie zustande. " Nicht immer sind die Anwendungen von Ergebnissen der Theoretischen Informatik so direkt zu sehen wie die Anwendungen anderer Zweige der Informatik. Dies gilt insbesondere für negative Resultate. Dabei sind deren Konsequenzen klar. Wenn wir beweisen, daß es bestimmte für die Praxis wünschenswerte Werkzeuge oder Algorithmen nicht geben kann, muß die unsinnige, weil hoffnungslose Arbeit an diesen Werkzeugen oder Algorithmen eingestellt und statt dessen die Suche nach bestmöglichen Auswegen begonnen werden. Andererseits sind positive Resultate nicht automatisch anwendungsorientiert. Exi stenzaussagen oder Algorithmen mit exponentieller oder noch größerer Laufzeit sind häufig praktisch wertlos. Das Neue an der vorliegenden Einführung in die Theore tische Informatik ist die konsequent algorithmenorientierte Sichtweise (zum didak tischen Hintergrund siehe Wegener (1992)). Stets wurde bei positiven Resultaten eine Umsetzung in praktisch und theoretisch effizienteAlgorithmen angestrebt.
Der erfolgreiche Einsatz von Rechnern bei der Lösung von Problemen in fast allen Lebensbereichen beruht u.a. auf der technologischen Entwicklung, die zu schnelle ren Rechnern mit größerem Speicher führte, auf der größeren Benutzerfreundlich keit der Rechner und auf effizienteren Algorithmen zur Lösung der betrachteten Probleme. Dieses Buch befaßt sich mit dem Entwurf effizienter Algorithmen für grundlegende Probleme, die häufig als Teilprobleme in komplexeren Problemen auftreten. Während auf der unteren Ebene der Hardware von Rechnern, also in Schaltkreisen, Schaltwerken und VLSI-Chips, schon immer mit einem hohen Grad an Parallelität gearbeitet wurde, konnte auf höherer Ebene lange Zeit nur sequentiell gerechnet werden. Dies ändert sich nun durch die Entwicklung von Rechnern mit immer mehr Prozessoren. Das Buch legt daher einen Schwerpunkt auf Algorithmen, die gleich zeitig bezüglich paralleler Rechenzeit und Hardwaregröße (bei Hardwarelösungen) bzw. bezüglich paralleler Rechenzeit, Zahl der benutzten Prozessoren und Spei cherplatz (bei Softwarelösungen) effizient sind. Es werden effiziente Algorithmen für den Entwurf optimaler P LA's diskutiert. Danach werden die grundlegenden arithmetischen Funktionen Addition, Subtrak tion, Multiplikation und Division, die symmetrischen Funktionen, die auch als Zählfunktionen bezeichnet werden können, und Speicherzugriffsfunktionen behan delt. In diesem Teil des Buches werden vor allem Hardwarelösungen präsentiert. Für das Rechnen mit Matrizen, einfache Probleme auf Graphen, Sortierprobleme und Probleme der Elementaren Zahlentheorie werden effiziente Softwarelösungen vorgestellt. Das Buch enthält außerdem allgemeine Methoden der automatischen Parallelisierung sequentieller Algorithmen,Reduktionskonzepte zum Vergleich der Komplexität der behandelten Probleme und effiziente Simulationen zwischen den benutzten Rechenmodellen.
In den vergangenen drei Jahrzehnten findet man sowohl in theo retisch ausgerichteten als auch in anwendungsorientierten Zeit schriften in zunehmendem Maße Beiträge zum Thema "Suchen". Dabei ist auffallend, daß sehr verschiedenartige Probleme als Suchpro bleme klassifiziert werden und daß Forscher der verschiedenen Fach richtungen häufig sehr wenig über Ergebnisse, die in ihnen nicht vertrauten Gebieten erzielt wurden, informiert sind. Mit diesem Buch wird ein Versuch unternommen, das umfangreiche Material so darzustellen, daß dem Leser ein schneller Einstieg in den Fragenkreis und ein möglichst umfassender Uberblick ermöglicht wird. Es war unser Ziel, die wesentlichen Arbeiten auf dem Gebiet nach neuestem Stand zu behandeln, aber wir erheben keinen Anspruch auf Vollständigkeit in irgendeinem Sinne, da schon der Rahmen dieses Buches einem solchen Verlangen nicht gerecht werden kann. Bei einigen Arbeiten, die es an sich verdient hätten, ausführlich dargestellt zu werden, haben wir uns deshalb auf die Angabe ihrer Ergebnisse beschränkt. Der interessierte Forscher wird so in den Stand versetzt, sich seinen Weg durch die Literatur selbst zu bahnen. Das Buch dürfte für den Experten als Nachschlagewerk nütz lich sein. Aber unser Hauptanliegen ist es, jedem Leser mit der Bereit schaft und der Fähigkeit zu abstraktem, formalen Denken einen Zu gang zu den grundlegenden Ideen, Methoden und Resultaten des Ge bietes zu ermöglichen, die noch nicht in Büchern erschienen sind, aber von ihrer Bedeutung her eine weitere Verbreitung verdienen.