Bachelor- und Master-Abschlussarbeiten
Prof. Dr. Wolfgang Konen, Angewandte Informatik und Mathematik |
BA-/MA-Abschlussarbeiten
QQ2-Projekte WPP-/MP-Projekte
Stellenangebote
Hinweise Anfertigung
Themenangebote Durchgeführte Arbeiten Herausragende Arbeiten
ACHTUNG: Arbeiten ab 2012 finden sich hier
(!)
Arbeiten 2005 – 2015, die ich als Erstkorrektor betreut habe (chronologisch):
Arbeiten, die ich als Zweitkorrektor betreut habe (chronologisch):
Datum |
Autor |
Thema (DA=Diplomarbeit, BA=Bachelorarbeit, MT=Master-Thesis) |
Erstkorrektor |
Juni 2012 |
Martin Zaefferer |
MT Event Detection Software for Water Quality Monitoring (CANARY) (Preisträger im FESTO-Förderpreis 2012 und Ferchau-Förderpreis 2012) |
Bartz-Beielstein |
Feb 2010 |
Robert Giacinto |
BA Evaluation von Multiagentensystemen zur Erstellung von virtuellen Wegesystemen einschließlich Erstellung eines Prototypen (Abstract) |
Stenzel |
Aug 2009 |
Tobias Zimmer |
DA Erstellung einer GUI für
die Optimierungssoftware SPOT (Preisträger im FESTO-Förderpreis 2009) |
Bartz-Beielstein |
Feb 2009 |
Florian Gebauer |
BA Photorealistic Exterior Design - Wie erstellt man fotorealistische Außenbereiche mit Hilfe der 3D Software Maya ? |
Stenzel |
Aug 2007 |
Michaela Fege |
DA Hybride neuronale Prognose und Anwendung auf Kläranlagendaten |
Westenberger |
Aug 2006 |
Manuel Klöckner |
DA Konzipierung und Test technischer Analysekennzahlen für die modellgestützte Prognose von Aktienkaufempfehlungen |
Westenberger |
Juli 2006 |
Andreas Lehmann |
Plassmann |
|
Aug 2005 |
Serhat Cinar |
DA Entwicklung einer Methodologie für ein hybrides neuronales Prognosesystem und Test an Anwendungsbeispielen (2. Platz im Kienbaum-Förderpreis 2006) |
Westenberger |
Feb 2005 |
Anna Klassen |
BA Evaluation der Einsetzbarkeit lernfähiger neuronaler Netze für das strategische Brettspiel „4-Gewinnt“ |
Westenberger |
Arbeiten, die im Labor für Mathematik (mit Unterstützung von Peter Wagner) durchgeführt wurden:
Datum |
Autor |
Thema (DA=Diplomarbeit, BA=Bachelorarbeit) |
Betreuer |
Juli 2005 |
Liane Ziethen-Aksoy |
DA Modellierung raumbezogener Informationen mit Dreiecksnetzen |
Roehrig / Faeskorn |
Machine learning tasks for board games which rely
solely on self-play methods remain rather challenging up till today. The
perhaps most impressive breakthrough in this field was achieved by Tesauro's TD-Gammon, which was able to learn the game
backgammon at expert level with a self-play variant of the temporal difference
learning (TDL) algorithm. Since then, many studies attempted to replicate some
of TD-Gammon's success by applying TDL to other board games, however, mostly
with mixed results.
In an earlier work [Thill 2012] on the board game
Connect-4 it was found that a rich feature set is required to successfully
learn a near-perfect strategy. Several millions of self-play training games were
necessary in order to generate strong Connect-4 agents.
In a case study, we compare several state-of-the-art
step-size adaptation algorithms with respect to their sensitivity towards
certain meta parameters. In the further course of this thesis, the benefits of
eligibility traces are evaluated. Additionally, several learning rate
algorithms are extended to eligibility traces and their performance is
examined. Eligibility traces improve the speed of learning by a factor of two
for our Connect-4 task.
Overall, with several additional enhancements, the
number of training games to learn Connect-4 could be reduced to slightly more
than 100 000, which is an improvement by a factor of 13, compared to previously
published results.
Finally, the learning framework for Connect-4 is
applied to the strategic board game Dots-and-Boxes and the main problems
observed are discussed. Keywords: Machine Learning, Reinforcement Learning, Online adaptable learning Rates, Connect-4, Dots-and-Boxes,
Temporal Difference Learning, Eligibility Traces, Self-Play.
Samineh Bagheri,
February 2015:
Efficient Surrogate Assisted Optimization for Constrained Black-Box
Problems
Modern real-world optimization problems are often high dimensional and
subject to many constraints. These problems are typically expensive in terms of
cost and computational time. In order to optimize such problems, conventional
constraint-based solvers require a high number of function evaluations which
are not affordable in practice. Employment of fast surrogate models to
approximate objective and constraint functions is a known approach for
efficient optimization. The performance of the RBF interpolation is not
dependent on the dimensionality of the optimization tasks. This is why in the
area of surrogate-assisted optimization a lot of attention is devoted to RBF
modeling. As an example for such a solver, COBRA is a constrained-based
efficient optimizer that outperforms many other algorithms on a large number of
benchmarks. COBRA-R is a variant of COBRA extended with several algorithms such
as a different initialization method and a novel repair technique.
In this thesis, after investigating the strengths and weaknesses of
COBRA-R, we introduced several extensions to enhance the overall performance of
COBRA-R. Our investigation showed that the RBF surrogates cannot provide a
suitable model for steep functions. Therefore, problems with steep objective or
constraint functions have to be modified in order to be optimized with the
COBRA-R approach. Additionally, the performance of COBRA-R is highly sensitive
to the correct selection of a parameter called DRC. Also, the surrogate models
appeared to be wrong for the problems with highly varying input ranges.
Moreover, it was observed that sometimes a bad initial design could cause an
early stagnation.
The extended COBRA-R called self-adaptive
COBRA-R intends to overcome these mentioned obstacles by including three
extra steps: 1. Rescaling the input space to [0; 1]d
(if it is necessary). 2. Automatic parameter/function(s) adaptation according
to the information gained from the initial
population. 3. Random start mechanism to avoid occasional bad solutions
due to a few unfortunate initial designs. We evaluate our approach by using 11
G-problems and a high dimensional automotive problem (MOPTA08) as benchmark. We
also report negative results where SACOBRA-R still shows a bad behavior and
gives indications for possible improvements.
Keywords: nonlinear optimization, constrained optimization, expensive
function, surrogate models, Radial Basis Functions, efficient optimization.
Reinforcement Learning mit N-Tupel-Systemen für Vier Gewinnt
Die Untersuchung maschineller Lernverfahren für Brettspiele stellt auch heute noch ein sehr interessantes Forschungsgebiet dar. Dies liegt vor allem daran, dass das Erlernen komplexer Spiele wie Schach oder Go nach wie vor als sehr anspruchsvoll gilt.
Während Menschen in der Lage sind, gewisse Zusammenhänge bzw. Gesetzmäßigkeiten in Spielen zu erkennen und daraus die richtigen Rückschlüsse zu ziehen, ist dies für ein Computerprogramm deutlich schwieriger. Aus diesem Grund müssen die Entwickler häufig viel spieltheoretisches Wissen in das Programm einbringen, damit der Lernprozess überhaupt fähig ist, auf die besonderen spielspezifischen Merkmale zu achten.
In dieser Arbeit wird die Anwendung von sogenannten N-Tupel-Systemen – in Kombination mit einer Reinforcement-Learning-Trainingsumgebung – auf das Spiel „Vier Gewinnt“ untersucht. N-Tupel sind nach gewissen Gesetzmäßigkeiten zufällig zusammengestellte Felder auf dem Spielfeld, mithilfe derer eine Vielzahl von komplexen Merkmalen (Features) erzeugt wird. Der Agenten approximiert damit eine Nutzenfunktion, sodass er Stellungsbewertungen vornehmen kann.
Um diese Funktion zu erlernen, werden die N-Tupel-Systeme mithilfe des Temporal Difference Learnings (TDL), einem Algorithmus zur Lösung von RL-Problemen, trainiert. Das Training der Agenten erfolgte ausschließlich durch Self-Play (kein Lehrer während des Trainings). Dennoch gelingt es in dieser Arbeit, Agenten mit hoher Spielstärke zu trainieren, vergleichbar stark zu einem perfekten Spieler. Insbesondere die N-Tupel-Systeme, die eine sehr große Zahl an Features generieren und die passenden selektieren, tragen zu den außerordentlich guten Ergebnissen bei.
(Paper / PDF, 5.2MB)
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiterentwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data übertragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewegungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
Gestenerkennung mit Slow Feature Analysis (SFA) - Klassifizierung von beschleunigungsbasierten 3D-Gesten des Wii-Controller
Die Grundidee der Arbeit ist es, die Slow Feature Analysis (SFA) auf ihre Einsatzmöglichkeiten zur Gestenerkennung zu untersuchen. SFA ist ein Lernalgorithmus, der aus den Neurowissenschaften stammt und aus sich schnell verändernden Signalen langsamse Merkmalskombinationen herausfiltert. Als Gesten werden in diesem Fall beschleunigungsbasierte dreidimensionale Signale des Wii-Controllers betrachtet.
Im Bereich der Gestenerkennung erzielt die SFA im Vergleich zu anderen gängigen Verfahren, wie RF, HMM oder simplen linearen Klassifikatoren vergleichbare und teilweise sogar wesentlich bessere Ergebnisse, auch bei der Erkennung von Gesten unbekannter Personen. Es werden ferner Ansätze zur Segmentierung kontinuierlicher Beschleunigungsdaten in Gesten und Nichtgesten untersucht.
(Extended Abstract / PDF, 4.0MB!)
Robert Giacinto ,
Februar 2010:
Evaluation
of Multi Agent Systems for their Use in the Creation of Virtual Road Networks
Including the Development of a Prototype
The growing
need for high-quality graphic content in computer games makes it necessary to
find new ways to produce it with already available resources. In some areas,
the use of procedural techniques for the computer-assisted generation of
required assets has proven its worth. The simulation and generation of virtual
cities or other urban structures is especially interesting for the use of
procedural methods and is still in the early stages with respect to the
computer game industry. This paper’s goal is to present a system design that
generates a virtual road system based on an extendable system of people’s
needs; it develops according to the interactions of the agents with the
simulated world. It will be shown that individual agents without any global
knowledge or available planning authority will achieve simulation results
applicable in computer games, using nothing but pheromone-based communication,
following the example of eusocial insects..
Jannis Bloemendal, Februar 2009:
Schnelle Verfahren zur Objektregistrierung in der Bildverarbeitung am Beispiel der Gesichtsstabilisierung
This work
describes fast image registration methods applied to face stabilisation.
For comparison of registration accuracy we develop a new measure, which
represents the visual perception. To evaluate the methods an extensive test set
of image sequences is created. An optimization of an existing algorithm and a
new method based on logarithmic search and normalized cross correlation is
provided. The new method accomplishs good results and
is capable to create superresolution images of an
image sequence. It is shown that the superresolutionimproves
face recognition, especially in cases where the original image sequence is of
low quality (noise, insufficient lighting or poor resolution).
(Paper / PDF, 4.6MB!)
Implementierung eines Echtzeitverfahrens zur
Erstellung von Bildmosaiken aus endoskopischen Videosequenzen
Bei endoskopischen Operationen ist es oft wichtig, aus
Videosequenzen, die mehreren Aufnahmen unter einem eher beengten Gesichtsfeld
enthalten, ein Übersichtsbild zu erstellen, in dem mehrere kleine Bilder
automatisch zu einem größeren Bildmosaik zusammenmontiert sind. Hierbei
wurde auf eine bestehende Implementierung in Matlab
(nicht echtzeitfähig), die auf den Methoden des Optical Flow beruht,
zurückgegriffen. Ziel war die Umsetzung in Java und Performanceoptimierung.
Ergebnis der Arbeit ist die Erstellung einer ausbaufähigen, objektorientierten
Software in Java, die gegebene Videodaten automatisch in Echtzeit (ca. 30
Frames/s) verarbeitet.
Entwicklung eines JOGL-basierten Frameworks zur
Darstellung von Game Physics
Im Umfang der Diplomarbeit wird ein Rahmenwerk (Framework) für das
Wahlpflichtfach „Spiele, Simulation, dynamische Systeme“ erstellt, in dem
mittels Java und OpenGL mit wenig Aufwand komplexe Spiele-Physiksimulationen
(Game Physics) erstellt werden können. Das Framework basiert hierbei auf dem
Java-Binding JOGL, welches eine Schnittstelle zwischen Java und OpenGL
darstellt. Da das neue Framework in Java entwickelt wird, sind ausführliche
Performanceuntersuchungen bezüglich des alten C/C++ -Frameworks und des neuen
Frameworks ein weiterer Bestandteil der Diplomarbeit. Abschließend wird
exemplarisch eine dynamische 2D-Rauch Simulation basierend auf „Real-Time Fluid
Dynamics“ im neuen Framework realisiert.
Vergleichende Untersuchung von Multi-Task-Learning zu herkömmlichen neuronalen Netzen am Beispiel der Prognose
Beim Multitask-Learning (MTL) werden verschiedene, zueinander in Beziehung stehende Aufgaben (Tasks) von einem Neuronalen Netz gleichzeitig gelernt. Dadurch können MTL-Netze auch bei stark gestörten Inputdaten besser generalisieren. Die Originalarbeiten von R. Caruana wenden diese Technik auf Klassifikationsprobleme an. Im Rahmen der Diplomarbeit wurde diese Technik erstmals für die Prognose von Zeitreihen adaptiert und genutzt. Am Beispiel der Prognose von Flugbuchungen, einem umfangreichen Realwelt-Problem mit typischen, starken Störeinflüssen, wird gezeigt, dass MTL-Netze eine bessere Generalisierungsleistung liefern als konventionelle Backprop-Netze. Im Rahmen der Diplomarbeit wurde ein Java-basierter Neural-Net-Trainer entwickelt, der neben konventionellem Backprop auch die Besonderheiten des MTL-Verfahrens abbildet.
© Wolfgang Konen, 2005 - 2014