Bachelor- und Master-Abschlussarbeiten

Prof. Dr. Wolfgang Konen, Angewandte Informatik und Mathematik

BA-/MA-Abschlussarbeiten        QQ2-Projekte          WPP-/MP-Projekte            Stellenangebote       Hinweise Anfertigung

Themenangebote        Durchgeführte Arbeiten          Herausragende Arbeiten   

 

 

Durchgeführte Arbeiten 2005 – 2015

ACHTUNG: Arbeiten ab 2012 finden sich hier (!)

Arbeiten 2005 – 2015, die ich als Erstkorrektor betreut habe (chronologisch):

Datum 

Autor

Thema (DA=Diplomarbeit, BA=Bachelorarbeit, MT=Master-Thesis, CS=Case Study)

Juni 2015

Markus Thill

MT Temporal Difference Learning Methods with Automatic Step-Size Adaption for Strategic Board Games: Connect-4 and Dots-and-Boxes  (Abstract / PDF 0.9MB)

Feb 2015

Samineh Bagheri

MT Efficient Surrogate Assisted Optimization for Constrained Black-Box Problems  (Abstract / PDF 1.7MB) (3. Platz im beim Erzquell-Förderpreis 2015 und Preisträgerin des DAAD-Preises 2014 der FH Köln)

Nov 2014

Samineh Bagheri,
Markus Thill

CS Temporal Coherence in TD-Learning for Strategic Board Games  (PDF 0.7MB) (Samineh Bagheri ist Preisträgerin des DAAD-Preises 2014 der FH Köln)  

Okt 2013

Danny Pape

BA Realisierung einer Bilderkennung zur Filterung von Produktinformationen auf mobilen Android-Geräten  (PDF 2.4MB)

Aug 2013

Renée Schulz

MT Entwicklung und Vergleich von Verfahren zur Verbesserung der Gestenerkennung für den Einsatz in Natural User Interfaces  (PDF 1.7MB) Schlagworte: HMM (Hidden Markov Modelle), Kinect. (3. Platz im Opitz-Innovationspreis 2014). Frau Schulz ist ferner Preisträgerin im Ferchau-Förderpreis 2013.

Apr 2013

Ricardo Ramos Guerra,
Jörg Stork

CS Building and analyzing SVM ensembles with Bagging and AdaBoost on big data sets  (PDF 0.8MB)

Juli 2012

Markus Thill

BA Reinforcement Learning mit N-Tupel-Systemen für Vier Gewinnt (Abstract / PDF 1.7MB) (1. Platz im beim Opitz-Innovationspreis 2013 sowie Preisträger im FESTO-Förderpreis 2012 und Ferchau-Förderpreis 2012)

Apr 2012

Daniel Bertram

MT Untersuchungen zur Varianzreduktion beschleunigungsbasierter 3D-Gestendaten (PDF) (3. Platz im CBC-Förderpreis 2013)

Apr 2012

Adrian Rennertz

BA Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data (Abstract / PDF 2.2MB) (3. Platz im CBC-Förderpreis 2012)

Sep 2011

David Brochhaus

DA Entwicklung und Implementierung lokaler Merkmale zur Posenschätzung in 3D-Tiefendaten (Preisträger im FESTO-Förderpreis 2012)

Jul 2010

Kristine Hein

MT Gestenerkennung mit Slow Feature Analysis (SFA) - Klassifizierung von beschleunigungsbasierten 3D-Gesten des Wii-Controllers (Abstract / Extended Abstract / PDF, 2.3MB)
(3. Platz im Opitz-Förderpreis 2011)

Aug 2009

Vitaly Morozov

DA Automatische und videobasierte Erstellung einer Endoskopmaske (PDF 1.5MB)

Juni 2009

Eugen Sewergin

MT Optimierung eines neuen Logarithmic-Search-Verfahrens zum Image Mosaicing unter Einsatz des CUDA-Frameworks (PDF 1.5MB / Vortrag)

Feb 2009

Jannis Bloemendal

DA Schnelle Verfahren zur Objektregistrierung in der Bildverarbeitung am Beispiel der Gesichtsstabilisierung (Abstract / Paper / PDF, 2.6MB) (2. Platz im Opitz-Förderpreis 2009)

Nov 2008

Sangit Bela Gupta

DA Untersuchung eines neuen Pixelvergleichsmaßes zur Optimierung eines bestehenden Image-Mosaicing-Verfahrens endoskopischer Aufnahmen (Abstract / PDF, 3.8MB!)

Okt 2008

Jan Philipp Schwenck

DA Reinforcement Learning zum maschinellen Erlernen von Brettspielen am Beispiel des Strategiespiels „4-Gewinnt“ (Paper / PDF)

Aug 2008

Christian Zimmermann

DA Implementierung einer Benutzerschnittstelle zur medizinischen Evaluierung eines Image Mosaicing-Verfahrens in der Endoskopie (PDF)

Aug 2008

Marco Polak

DA Entwicklung einer Gestenerkennung auf Basis des Beschleunigungssensors in der Wii Remote (PDF)

Juli 2008

Patrick Fischer

MT Analyse und Ewntwicklung optischer Trackingverfahren für das dreidimensionale Skizzieren in der virtuellen Produktentwicklung (PDF 9.2MB / Paper) (3. Platz im RTL-Förderpreis 2009)

Aug 2007

Alexander Stroick

BA Optimierung des Metadatenmanagements eines Fernsehsenders zur verbesserten Archiv-Recherche (Abstract / PDF 2.5MB) (1. Platz im RTL-Förderpreis 2008)

Mai 2007

Martin Naderi

BA Implementierung eines Echtzeitverfahrens zur Erstellung von Bildmosaiken aus endoskopischen Videosequenzen   (Abstract / Paper / PDF)

Mär 2007

Adrian Dietzel

DA Entwicklung eines JOGL-basierten Frameworks zur Darstellung von Game Physics (Abstract / Paper / PDF)

Jan 2007

Bastian Müller

DA Konzeption und Realisierung eines E-Learning Planspiels zur Erlernung der Mechanismen des Emissionshandels

Aug 2006

Beate Breiderhoff

MT Verfahren zum automatisierten Image Mosaicing bei endoskopischen Videoaufnahmen (Abstract / Paper)

Juli 2005

Eugen Reinus

DA Vergleichende Untersuchung von Multi-Task-Learning zu herkömmlichen neuronalen Netzen am Beispiel der Prognose
(3. Platz im Kienbaum-Förderpreis 2006)

Arbeiten, die ich als Zweitkorrektor betreut habe (chronologisch):

Datum 

Autor

Thema (DA=Diplomarbeit, BA=Bachelorarbeit, MT=Master-Thesis)

Erstkorrektor

Juni 2012

Martin Zaefferer

MT Event Detection Software for Water Quality Monitoring (CANARY) (Preisträger im FESTO-Förderpreis 2012 und Ferchau-Förderpreis 2012)

Bartz-Beielstein

Feb 2010

Robert Giacinto

BA Evaluation von Multiagentensystemen zur Erstellung von virtuellen Wegesystemen einschließlich Erstellung eines Prototypen (Abstract)

Stenzel

Aug 2009

Tobias Zimmer

DA Erstellung einer GUI für die Optimierungssoftware SPOT

(Preisträger im FESTO-Förderpreis 2009)

Bartz-Beielstein

Feb 2009

Florian Gebauer

BA Photorealistic Exterior Design - Wie erstellt man fotorealistische Außenbereiche mit Hilfe der 3D Software Maya ?

Stenzel

Aug 2007

Michaela Fege

DA Hybride neuronale Prognose und Anwendung auf Kläranlagendaten

Westenberger

Aug 2006

Manuel Klöckner

DA Konzipierung und Test technischer  Analysekennzahlen für die modellgestützte Prognose von Aktienkaufempfehlungen

Westenberger

Juli 2006

Andreas Lehmann

BA Entwicklung eines Systems zur automatischen Extraktion von Merkmalsvektoren für die prosodische Steuerung von Sprachsynthese-Systemen

Plassmann

Aug 2005

Serhat Cinar

DA Entwicklung einer Methodologie für ein hybrides neuronales Prognosesystem und Test an Anwendungsbeispielen (2. Platz im Kienbaum-Förderpreis 2006)

Westenberger

Feb 2005

Anna Klassen

BA Evaluation der Einsetzbarkeit lernfähiger neuronaler Netze für das strategische Brettspiel „4-Gewinnt“

Westenberger

Arbeiten, die im Labor für Mathematik (mit Unterstützung von Peter Wagner) durchgeführt wurden:

Datum 

Autor

Thema (DA=Diplomarbeit, BA=Bachelorarbeit)

Betreuer

Juli 2005

Liane Ziethen-Aksoy

DA Modellierung raumbezogener Informationen mit Dreiecksnetzen 

Roehrig / Faeskorn

 

Bereits durchgeführte Arbeiten im Forschungsprojekt BV-3D-Endo:

Datum 

Autor

Thema (DA=Diplomarbeit, BA=Bachelorarbeit, MT=Master-Thesis)

Juni 2009

Eugen Sewergin

MT Optimierung eines neuen Logarithmic-Search-Verfahrens zum Image Mosaicing unter Einsatz des CUDA-Frameworks (PDF 1.5MB / Vortrag)

Feb 2009

Jannis Bloemendal

DA Schnelle Verfahren zur Objektregistrierung in der Bildverarbeitung am Beispiel der Gesichtsstabilisierung (Abstract / Paper / PDF, 4.6MB!)

Nov 2008

Sangit Bela Gupta

DA Untersuchung eines neuen Pixelvergleichsmaßes zur Optimierung eines bestehenden Image-Mosaicing-Verfahrens endoskopischer Aufnahmen (Abstract / PDF, 6.7MB!)

Aug 2008

Christian Zimmermann

DA Implementierung einer Benutzerschnittstelle zur medizinischen Evaluierung eines Image Mosaicing-Verfahrens in der Endoskopie (PDF)

Juli 2008

Patrick Fischer

MT Analyse und Ewntwicklung optischer Trackingverfahren für das dreidimensionale Skizzieren in der virtuellen Produktentwicklung (Paper)

Mai 2007

Martin Naderi

BA Implementierung eines Echtzeitverfahrens zur Erstellung von Bildmosaiken aus endoskopischen Videosequenzen   (Abstract / Paper / PDF)

Aug 2006

Beate Breiderhoff

MT Verfahren zum automatisierten Image Mosaicing bei endoskopischen Videoaufnahmen (Abstract / Paper)

 


 

Zusammenfassungen herausragender Arbeiten

Markus Thill, June 2015:

Temporal Difference Learning Methods with Automatic Step-Size Adaption for Strategic Board Games: Connect-4 and Dots-and-Boxes  

Machine learning tasks for board games which rely solely on self-play methods remain rather challenging up till today. The perhaps most impressive breakthrough in this field was achieved by Tesauro's TD-Gammon, which was able to learn the game backgammon at expert level with a self-play variant of the temporal difference learning (TDL) algorithm. Since then, many studies attempted to replicate some of TD-Gammon's success by applying TDL to other board games, however, mostly with mixed results.

In an earlier work [Thill 2012] on the board game Connect-4 it was found that a rich feature set is required to successfully learn a near-perfect strategy. Several millions of self-play training games were necessary in order to generate strong Connect-4 agents.

In a case study, we compare several state-of-the-art step-size adaptation algorithms with respect to their sensitivity towards certain meta parameters. In the further course of this thesis, the benefits of eligibility traces are evaluated. Additionally, several learning rate algorithms are extended to eligibility traces and their performance is examined. Eligibility traces improve the speed of learning by a factor of two for our Connect-4 task.

Overall, with several additional enhancements, the number of training games to learn Connect-4 could be reduced to slightly more than 100 000, which is an improvement by a factor of 13, compared to previously published results.

Finally, the learning framework for Connect-4 is applied to the strategic board game Dots-and-Boxes and the main problems observed are discussed. Keywords: Machine Learning, Reinforcement Learning, Online adaptable learning Rates, Connect-4, Dots-and-Boxes, Temporal Difference Learning, Eligibility Traces, Self-Play.

(PDF 0.9MB)

 

Samineh Bagheri, February 2015:

Efficient Surrogate Assisted Optimization for Constrained Black-Box Problems

Modern real-world optimization problems are often high dimensional and subject to many constraints. These problems are typically expensive in terms of cost and computational time. In order to optimize such problems, conventional constraint-based solvers require a high number of function evaluations which are not affordable in practice. Employment of fast surrogate models to approximate objective and constraint functions is a known approach for efficient optimization. The performance of the RBF interpolation is not dependent on the dimensionality of the optimization tasks. This is why in the area of surrogate-assisted optimization a lot of attention is devoted to RBF modeling. As an example for such a solver, COBRA is a constrained-based efficient optimizer that outperforms many other algorithms on a large number of benchmarks. COBRA-R is a variant of COBRA extended with several algorithms such as a different initialization method and a novel repair technique.

In this thesis, after investigating the strengths and weaknesses of COBRA-R, we introduced several extensions to enhance the overall performance of COBRA-R. Our investigation showed that the RBF surrogates cannot provide a suitable model for steep functions. Therefore, problems with steep objective or constraint functions have to be modified in order to be optimized with the COBRA-R approach. Additionally, the performance of COBRA-R is highly sensitive to the correct selection of a parameter called DRC. Also, the surrogate models appeared to be wrong for the problems with highly varying input ranges. Moreover, it was observed that sometimes a bad initial design could cause an early stagnation.

The extended COBRA-R called self-adaptive COBRA-R intends to overcome these mentioned obstacles by including three extra steps: 1. Rescaling the input space to [0; 1]d (if it is necessary). 2. Automatic parameter/function(s) adaptation according to the information gained from the initial

population. 3. Random start mechanism to avoid occasional bad solutions due to a few unfortunate initial designs. We evaluate our approach by using 11 G-problems and a high dimensional automotive problem (MOPTA08) as benchmark. We also report negative results where SACOBRA-R still shows a bad behavior and gives indications for possible improvements.

Keywords: nonlinear optimization, constrained optimization, expensive function, surrogate models, Radial Basis Functions, efficient optimization.

(PDF 1.7MB)

 

Markus Thill, Juli 2012:

Reinforcement Learning mit N-Tupel-Systemen für Vier Gewinnt

Die Untersuchung maschineller Lernverfahren für Brettspiele stellt auch heute noch ein sehr interessantes Forschungsgebiet dar. Dies liegt vor allem daran, dass das Erlernen komplexer Spiele wie Schach oder Go nach wie vor als sehr anspruchsvoll gilt.

Während Menschen in der Lage sind, gewisse Zusammenhänge bzw. Gesetzmäßigkeiten in Spielen zu erkennen und daraus die richtigen Rückschlüsse zu ziehen, ist dies für ein Computerprogramm deutlich schwieriger. Aus diesem Grund müssen die Entwickler häufig viel spieltheoretisches Wissen in das Programm einbringen, damit der Lernprozess überhaupt fähig ist, auf die besonderen spielspezifischen Merkmale zu achten.

In dieser Arbeit wird die Anwendung von sogenannten N-Tupel-Systemen – in Kombination mit einer Reinforcement-Learning-Trainingsumgebung – auf das Spiel „Vier Gewinnt“ untersucht. N-Tupel sind nach gewissen Gesetzmäßigkeiten zufällig zusammengestellte Felder auf dem Spielfeld, mithilfe derer eine Vielzahl von komplexen Merkmalen (Features) erzeugt wird. Der Agenten approximiert damit eine Nutzenfunktion, sodass er Stellungsbewertungen vornehmen kann.

Um diese Funktion zu erlernen, werden die N-Tupel-Systeme mithilfe des Temporal Difference Learnings (TDL), einem Algorithmus zur Lösung von RL-Problemen, trainiert. Das Training der Agenten erfolgte ausschließlich durch Self-Play (kein Lehrer während des Trainings). Dennoch gelingt es in dieser Arbeit, Agenten mit hoher Spielstärke zu trainieren, vergleichbar stark zu einem perfekten Spieler. Insbesondere die N-Tupel-Systeme, die eine sehr große Zahl an Features generieren und die passenden selektieren, tragen zu den außerordentlich guten Ergebnissen bei.

(Paper / PDF, 5.2MB)

 

 

Adrian Rennertz , April 2012:

Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data

Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiterentwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data übertragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewegungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.

(PDF, 2.2MB)

 

 

Kristine Hein, Juli 2010:

Gestenerkennung mit Slow Feature Analysis (SFA) - Klassifizierung von beschleunigungsbasierten 3D-Gesten des Wii-Controller

Die Grundidee der Arbeit ist es, die Slow Feature Analysis (SFA) auf ihre Einsatzmöglichkeiten zur Gestenerkennung zu untersuchen. SFA ist ein Lernalgorithmus, der aus den Neurowissenschaften stammt und aus sich schnell verändernden Signalen langsamse Merkmalskombinationen herausfiltert. Als Gesten werden in diesem Fall beschleunigungsbasierte dreidimensionale Signale des Wii-Controllers betrachtet.

Im Bereich der Gestenerkennung erzielt die SFA im Vergleich zu anderen gängigen Verfahren, wie RF, HMM oder simplen linearen Klassifikatoren vergleichbare und teilweise sogar wesentlich bessere Ergebnisse, auch bei der Erkennung von Gesten unbekannter Personen. Es werden ferner Ansätze zur Segmentierung kontinuierlicher Beschleunigungsdaten in Gesten und Nichtgesten untersucht.

(Extended Abstract / PDF, 4.0MB!)

 

Robert Giacinto , Februar 2010:

Evaluation of Multi Agent Systems for their Use in the Creation of Virtual Road Networks Including the Development of a Prototype

The growing need for high-quality graphic content in computer games makes it necessary to find new ways to produce it with already available resources. In some areas, the use of procedural techniques for the computer-assisted generation of required assets has proven its worth. The simulation and generation of virtual cities or other urban structures is especially interesting for the use of procedural methods and is still in the early stages with respect to the computer game industry. This paper’s goal is to present a system design that generates a virtual road system based on an extendable system of people’s needs; it develops according to the interactions of the agents with the simulated world. It will be shown that individual agents without any global knowledge or available planning authority will achieve simulation results applicable in computer games, using nothing but pheromone-based communication, following the example of eusocial insects..

 

Jannis Bloemendal, Februar 2009:

Schnelle Verfahren zur Objektregistrierung in der Bildverarbeitung am Beispiel der Gesichtsstabilisierung

This work describes fast image registration methods applied to face stabilisation. For comparison of registration accuracy we develop a new measure, which represents the visual perception. To evaluate the methods an extensive test set of image sequences is created. An optimization of an existing algorithm and a new method based on logarithmic search and normalized cross correlation is provided. The new method accomplishs good results and is capable to create superresolution images of an image sequence. It is shown that the superresolutionimproves face recognition, especially in cases where the original image sequence is of low quality (noise, insufficient lighting or poor resolution).

(Paper / PDF, 4.6MB!)

 

 

Martin Naderi, Mai 2007:

Implementierung eines Echtzeitverfahrens zur Erstellung von Bildmosaiken aus endoskopischen Videosequenzen
Bei endoskopischen Operationen ist es oft wichtig, aus Videosequenzen, die mehreren Aufnahmen unter einem eher beengten Gesichtsfeld enthalten, ein Übersichtsbild zu erstellen, in dem mehrere kleine Bilder automatisch zu einem größeren Bildmosaik zusammenmontiert sind. Hierbei wurde auf eine bestehende Implementierung in Matlab (nicht echtzeitfähig), die auf den Methoden des Optical Flow beruht, zurückgegriffen. Ziel war die Umsetzung in Java und Performanceoptimierung. Ergebnis der Arbeit ist die Erstellung einer ausbaufähigen, objektorientierten Software in Java, die gegebene Videodaten automatisch in Echtzeit (ca. 30 Frames/s) verarbeitet.

(Paper / PDF)

 

Adrian Dietzel, März 2007:

Entwicklung eines JOGL-basierten Frameworks zur Darstellung von Game Physics
Im Umfang der Diplomarbeit wird ein Rahmenwerk (Framework) für das Wahlpflichtfach „Spiele, Simulation, dynamische Systeme“ erstellt, in dem mittels Java und OpenGL mit wenig Aufwand komplexe Spiele-Physiksimulationen (Game Physics) erstellt werden können. Das Framework basiert hierbei auf dem Java-Binding JOGL, welches eine Schnittstelle zwischen Java und OpenGL darstellt. Da das neue Framework in Java entwickelt wird, sind ausführliche Performanceuntersuchungen bezüglich des alten C/C++ -Frameworks und des neuen Frameworks ein weiterer Bestandteil der Diplomarbeit. Abschließend wird exemplarisch eine dynamische 2D-Rauch Simulation basierend auf „Real-Time Fluid Dynamics“ im neuen Framework realisiert.

(Paper / PDF)

 

Eugen Reinus, Juli 2005:

Vergleichende Untersuchung von Multi-Task-Learning zu herkömmlichen neuronalen Netzen am Beispiel der Prognose

Beim Multitask-Learning (MTL) werden verschiedene, zueinander in Beziehung stehende Aufgaben (Tasks) von einem Neuronalen Netz gleichzeitig gelernt. Dadurch können MTL-Netze auch bei stark gestörten Inputdaten besser generalisieren. Die Originalarbeiten von R. Caruana wenden diese Technik auf Klassifikationsprobleme an. Im Rahmen der Diplomarbeit wurde diese Technik erstmals für die Prognose von Zeitreihen adaptiert und genutzt. Am Beispiel der Prognose von Flugbuchungen, einem umfangreichen Realwelt-Problem mit typischen, starken Störeinflüssen,  wird gezeigt, dass MTL-Netze eine bessere Generalisierungsleistung liefern als konventionelle Backprop-Netze. Im Rahmen der Diplomarbeit wurde ein Java-basierter Neural-Net-Trainer entwickelt, der neben konventionellem Backprop auch die Besonderheiten des MTL-Verfahrens abbildet.

 

 

 


© Wolfgang Konen, 2005  - 2014