Loading...
 

Abgeschlossene Studentenarbeiten


Hier finden Sie eine Liste von Themen für Praktika, Bachelor- und Masterarbeiten (bzw. Studien- und Diplomarbeiten), die in den vergangenenen Semestern in der Arbeitsgruppe Multimediale Informationsverarbeitung bearbeitet wurden.

Eine Übersicht über aktuelle Themen finden Sie unter diesem Link.


Abgeschlossene Bachelor-/Masterarbeiten:

Abgeschlossene Bachelor-/Masterprojekte:



Abgeschlossene Arbeiten


Automatische bildbasierte Erkennung von Spielkarten auf dem Smartphone

Bachelorarbeit (mehrere Themen)

Das Startup Snapcardster entwickelt eine App, mit der eine Smartphone-Kamera als Kartenscanner für das Sammelkartenspiel Magic: The Gathering™ genutzt werden kann. Dabei kommen Methoden der Bildanalyse und Bilderkennung zum Einsatz, um die Karte in den Eingabebildern zu lokalisieren und anhand der dargestellten Illustration eindeutig zu bestimmen. Die Aufgabe wird zum einen dadurch erschwert, dass mittlerweile weit über 10.000 verschiedene Karten existieren, zum anderen dadurch, dass die Smartphone-Fotos oft Reflektionen, Verdeckungen oder stark texturierten Hintergrund enthalten und sich in Helligkeit und Farbton je nach Aufnahmesituation stark unterscheiden.

Sammlung von ''Magic: The Gathering™''-Karten
Sammlung von ''Magic: The Gathering™''-Karten


Zu diesem Projekt sind mehrere Bachelorarbeiten zu vergeben. Mögliche Aufgaben sind unter anderem:

  • Bildvorverarbeitung zur robusten Detektion der Karten in Kamerabildern unter realen Aufnahmebedingungen
  • Recherche, Implementierung und Bewertung verschiedener Methoden zur bildbasierten Klassfikation auf Grundlage von Machine Learning
  • Erzeugen von realistischen Testdaten aus digitalen Datenbanken aller Sammelkarten
  • Portierung von Methoden zur Bilderkennung und -klassifikation auf Smartphones (z. B. offline vs. Cloud Service)


Dokumente: Stellenausschreibung von Snapcardster

bearbeitet von: Christian Kiehn, Niklas Landfester, Julian Martin

betreut von: Johannes Brünger



Photometric Stereo mit mehreren Kameras

Masterprojekt/Masterarbeit

Image

Unter Photometric Stereo versteht man in der Computer Vision bildbasierte Verfahren zur Oberflächenrekonstruktion von Objekten, die mit verschiedenen Lichtbedingungen aufgenommen werden (vgl. [AG13]), z. B. mit Hilfe von mehreren Lichtquellen, die das Objekt aus verschiedenen Richtungen beleuchten.

Ziel dieser Masterarbeit ist die Untersuchung und Umsetzung von Verfahren zum Photometric Stereo unter Verwendung von mehreren Kameras und Lichtquellen. Teilaufgaben hierbei sind Kamerakalibrierung, Lokalisierung der Lichtquellen, robuste Rekonstruktion der Oberflächennormalen, sowie die Erweiterung des Verfahrens auf nicht-lambertsche Oberflächen. Praktische Anwendung soll das Verfahren in der Vermessung des Meeresbodens durch einen Unterwasserroboter finden. Eine praktische Einführung in die Thematik und erste Auseinandersetzung mit existierenden Verfahren kann zuvor im Rahmen eines Masterprojekts erfolgen.

Voraussetzungen: Programmierkenntnisse in C/C++, Grundlagen der Bildverarbeitung, 3D-Szenenrekonstruktion

Literatur und Links:

  • J. Ackermann, M. Goesele: A Survey of Photometric Stereo Techniques. Foundations and Trends® in Computer Graphics and Vision 9 (3-4), 2013, S. 149-254. http://dx.doi.org/10.1561/0600000065


bearbeitet von: Sascha Clausen

betreut von: Sandro Esquivel



Defokus-Schätzung multifokaler plenoptischer Kamerabilder

Bachelorarbeit

Aufnahme einer plenoptischen Kamera © Raytrix GmbH
Aufnahme einer plenoptischen Kamera © Raytrix GmbH


Eine Variante plenoptischer Kameras, wie sie Beispielsweise von der Kieler Firma Raytrix entwickelt werden, zeichnet sich durch ein Mikrolinsenarray (MLA) aus, das vor dem Bildsensor platziert wird. Diese Mikrolinsen agieren als eine Vielzahl kleiner Kameras. Durch die Mikrolinsen entstehen Bilder mit geringer Ortsauflösung, in diesem Fall 23px x 23px. Durch das Mikrolinsenarray entsteht allerdings, im Gegensatz zur klassischen Kamera, eine erhöhte Richtungsauflösung, da mehrere Mikrolinsen unter Umständen den gleichen Punkt in der Szene betrachten (allerdings aus leicht verschiedenen Richtungen). Etabliert man nun zwischen den Bildern der Mikrolinsen Korrespondenzen, so kann man die Entfernung der Szenenpunkte (Tiefe) berechnen, es kann also die Geometrie der Szene rekonstruiert werden.

Prinzipiell ist dies auch mit zwei normalen Kameras, einem sogenannten Stereo-System, möglich. In bestimmten Anwendungsgebieten, z. B. in der Mikroskopie oder der Makrophotographie, bereitet allerdings die geringe Tiefenschärfe der verwendeten Optiken Probleme bei der Korrespondenzfindung.

Ausschnitt der obigen Aufnahme © Raytrix GmbH
Ausschnitt der obigen Aufnahme © Raytrix GmbH


Eine Variante der MLA basierten plenoptischen Kamera ist wiederum die multifokale plenoptische Kamera. Hier werden die MLAs so angefertigt, dass die Mikrolinsen unterschiedliche Brennweiten besitzen (im Beispielbild gibt es drei Typen von Linsen). Jeder Mikrolinsentyp bildet damit einen bestimmten Entfernungsbereich hinreichend scharf auf die Bildebene ab.

In dieser Arbeit soll ein Verfahren entwickelt werden, das die Unschärfe (engl. defocus blur) der einzelnen Linsen bezüglich eines adäquaten Blur-Modells schätzt. Diese Information ist für zwei Anwendungsgebiete wertvoll: Zum einen hilft sie bei der Gewichtung bzw. Auswahl der Linsentypen für die Korrespondenzfindung und somit die Tiefenschätzung, zum anderen kann diese Information bei Rendering, also beim generieren künstlicher Ansichten mit neu gewählter Fokusebene verwendet werden.

Das Verfahren soll dahingehend optimiert werden, dass ein Echtzeiteinsatz möglich wird. Es bietet sich eine Analyse der einzelnen Mikrolinsen im Frequenzraum mit den Mitteln der Fourieranalyse an, andere Herangehensweisen sind aber auch durchaus denkbar.

Voraussetzungen: Sehr gute Kenntnisse in linearer Algebra, Interesse an Fourieranalyse, sehr gute C/C++ Kenntnisse

betreut von: Dr.-Ing. Oliver Fleischmann



Bachelorprojekt Powerbot 2015

Bachelorpraktikum

In dem Powerbot-Bachelorprojekt geht es darum, die mobile Roboterplattform "Powerbot" mit Software zu versehen. Der Powerbot verfügt über eine Vielzahl von Sensoren (Odometrie, Sonarsensoren, Farbkamera, Tiefenbildkamera) die zum selbständigen Navigieren, Kartieren, Wegfinden, etc. eingesetzt werden können.

Ziel:
Ziel der Bachelorprojekte ist es, gemeinsam (3 Gruppen à 2 Personen) eine Software zur robusten autonomen Navigation für den Roboter zu implementieren.

Voraussetzungen: Programmierkenntnisse in C++, Grundlagen der Bildverarbeitung

betreut von: Andreas Jordt

Link zur Projekt-Homepage: Projektmodul Powerbot 2015



Automatische Belichtungsanpassung von Video-Aufnahmen in der Überwachung von Produktionsprozessen in Stahlwerken

Bachelorarbeit

In dieser Bachelor-Arbeit soll untersucht werden, inwieweit es möglich ist, durch automatische Belichtungsanpassungen Details in überblendeten Videos zu erhalten.
Als Anwendung kann beispielsweise die Überwachung eines Produktionsprozesses in einem Stahlwerk gesehen werden. Dort muss mit einer einzelnen Kamera gleichzeitig die Qualität des Produktes und der sicherheitskritische Bereich um die Produktionsstätte herum überwacht werden.
Da bei längerer Belichtung zwar der Hintergrund theoretisch zu sehen ist, der glühende Stahl aber alles überblendet und bei kurzer Belichtung der Stahl gut zu sehen, aber der Hintergrund nicht zu sehen ist, könnte hier die Erzeugung eines Bildes aus verschieden lang belichteten Aufnahmen Abhilfe schaffen.

Kurze Belichtung
Kurze Belichtung
Mittlere Belichtung
Mittlere Belichtung
Lange Belichtung
Lange Belichtung


Schlagworte: Kameraansteuerung, Histogramme, HDR

bearbeitet von: Christian Risch

betreut von: Johannes Brünger



Automatische 3D-Vermessung von Innenräumen

Diplom-/Masterarbeit (mehrere Themen)
Image

In dieser Arbeit soll ein Verfahren zur 3D-Vermessung von Innenräumen entwickelt, implementiert und evaluiert werden. Ziel ist es, ein maßstabsgetreues 3D-Modell eines Innenraums aus den Daten einen Kamerasystems zu erzeugen, z. B. zum Erstellen von Grundrissplänen oder für Augmented-Reality-Anwendungen. Dabei soll eine einzelne Farbkamera zum Einsatz kommen, die auf einer Schwenk-Neige-Einheit montiert ist und zusätzlich mit einem Lasermessgerät gekoppelt ist.

Zur Rekonstruktion der Szene und Bestimmung der Kameraorientierung ("Structure from Motion") sollen Linien-Bildmerkmale verwendet werden. Die Posen der Schwenk-Neige-Einheit können hierbei als Vorschätzung in das Verfahren eingehen. Die Umgebung soll dabei als "Manhattan World" modelliert werden, d. h. als rechtwinklige Blockwelt. Durch die Integration der Lasermessdaten kann die Rekonstruktion maßstabsgerecht skaliert werden, wobei untersucht werden soll, welche Genaugkeiten erreicht werden können. Unter Verwendung der Kamerabilder kann außerdem ein texturiertes Modell des Innenraums erzeugt werden.

Zur Evaluation des Verfahrens soll außerdem ein Simulator entwickelt werden, mit welchem sich kontrolliert virtuelle Ansichten einer Testszene generieren lassen. Intrinsische Kalibrierung der Kamera sowie evtl. extrinsische Kalibrierung in Bezug auf das Koordinatensystem der Schwenk-Neige-Einheit stellen weitere Bestandteile des Verfahrens dar. Die Berechnung und Darstellung der Ergebnisse soll nach Möglichkeit in eine graphische Benutzeroberfläche integriert werden. Die Implementierung erfolgt in C/C++, wobei auf Bibliotheken wie BIAS und OpenCV zurückgegriffen wird.

Ein weiterer Teil des Projekts beschäftigt sich mit der Entwicklung eines Embedded Systems zur Aufnahme und Verarbeitung von Panoramadatensätzen. Hierbei wird ein Raspberry Pi als Steuereinheit verwendet. Konkrete Aufgaben sind hier der Systementwurf, die Portierung von Algorithmen auf den Raspberry Pi und die Entwicklung einer zuverlässigen Server-/Client-Architektur zur Kommunikation mit dem Aufnahmegerät.

Aufgaben:

  • Aufbau und Kalibierung eines Kamerasystems mit Schwenk-Neige-Einheit und Lasermessgerät
  • Bildaufnahme, Detektion und Verfolgen/Matchen von Linien-Bildmerkmalen
  • Orientierungsnachschätzung der Kamera und Erzeugen eines Kugelpanoramas
  • Entwicklung eines Simulators des Kamerasystems zum Rendern von virtuellen Szenen
  • Analyse der Genauigkeit der Kameraposeschätzung
  • Modellerzeugung durch Segmentierung der Daten in rechtwinklige Ebenen
  • Integration von automatischen Lasermessungen in die Bildaufnahme
  • Maßstabsgenaue Skalierung unter Verwendung der Lasermessdaten
  • Integration aller Komponenten in eine grafische Benutzeroberfläche
  • Portierung der Steuerungssoftware auf den Raspberry Pi
  • Entwicklung von Kommunikationsschnittstellen für die Steuerungssoftware auf dem Raspberry Pi


Voraussetzungen: Programmierkenntnisse in C/C++, Bildverarbeitung, Computergrafik, 3D-Szenenrekonstruktion

bearbeitet von: Delf Neumärker, Daniel Grevismühl, Florian Holdt, Hauke Schade, Robin Weiß

betreut von: Sandro Esquivel



Interaktive 3D-Rekonstruktion von Innenräumen aus Panoramabildern

Diplom-/Masterarbeit (mehrere Themen)

Das bildbasierte Erstellen von 3D-Modellen von Innenräumen ist ein aktuelles und noch nicht zufriedenstellend gelöstes Problem der Computer Vision, das für verschiedenste Anwender und Aufgabenstellungen von Interesse ist, z. B. für Innenarchitekten und Makler, Spezialeffekte in der Filmproduktion, aber auch im Bereich der Tatortermittlung. Es hat sich gezeigt, dass automatische allgemeine Verfahren zur 3D-Szenenrekonstruktion sich in diesem speziellen Anwendungsszenario in vielen Fällen nicht eignen. Insbesondere ist oft der Bewegungsspielraum entweder eingeschränkt oder der Benutzer ist nicht geschult, "gute" Kamerabewegungen nachzuvollziehen. Daher werden zunehmend einzelne Weitwinkelaufnahmen oder Panoramabilder bei der Rekonstruktion von Innenräumen betrachtet.

In dieser Studienarbeit soll eine Anwendung zur interaktiven 3D-Rekonstruktion von Innenräumen aus Panoramabildern erstellt werden. Wir nehmen dabei an, dass die Innenräume der "Manhattan World" entsprechen, also nur zueinander rechtwinklige Flächen enthalten und eine konstante Deckenhöhe aufweisen. Die Benutzerinteraktion soll sich auf wenige Operationen beschränken, nämlich dem Skizzieren des Grundrisses und das Markieren von Raumecken in den Panoramabildern. Die Anwendung kann in einer anschließenden Diplomarbeit durch Automatisierung von Bearbeitungsschritten erweitert werden. Hier spielt insbesondere die robuste Detektion von Linien und die Klassifikation mit den Fluchtpunkten der Manhattan World eine Rolle.

Image
Image

Teilansichten von Panoramabildern verschiedener Innenräume (oben), interaktiv rekonstruierte 3D-Modelle (unten)
(Abb. aus T. K. Dang et al.: A Semi-Interactive Panorama Based 3D Reconstruction Framework for Indoor Scenes)

Literatur und Links:


Voraussetzungen: Programmierkenntnisse in C/C++, Computergrafik, 3D-Szenenrekonstruktion

bearbeitet von: Marcus Schmöhl

betreut von: Sandro Esquivel



Visualisierungs- und Messsystem für 3D-Unterwassermodelle

Studien-/Bachelorarbeit

Image
Image
Image

Aufgabe:
Es soll ein System zur 3D-Visualisierung von Modellen mit automatischem Tracking der betrachtenden Person implementiert werden. In diesem Projekt geht es hauptsächlich darum, Modelle von Unterwasserszenen zu visualisieren, daher soll ein Shader implementiert werden, der in Echtzeit Wasser in die Visualisierung einfügt. Außerdem soll es der Person ermöglicht werden, in dem Modell Distanzen und evtl. Volumina zu messen.

Voraussetzungen: Programmierkenntnisse in C++, Einführung in die Bildverarbeitung

Lernziele:

  • Programmieren von Echtzeitanwendungen
  • Grundlagen der Bildverarbeitung (Tracking)
  • Visualisierung von bestehenden 3D-Modellen mit Methoden der Computer Grafik


Hinweis:
Diese Aufgabe soll von 2 Studenten im Team bearbeitet werden.

betreut von: Anne Jordt, Daniel Jung?



Echtzeitrendering von Point-Cloud-Surfaces in Webbrowsern

Bachelorarbeit

© Mario Botsch, Michael Spernat, Leif Kobbelt
© Mario Botsch, Michael Spernat, Leif Kobbelt


Ziel dieser Arbeit ist das Rendern von Punktwolken (Point-Clouds) in Echtzeit in aktuellen Webbrowsern.

Punktwolken beschreiben eine diskrete Approximation von dreidimensionalen Oberflächen. Moderne Messgeräte, z. B. Laserscanner oder Tiefenkameras (ToF, Kinect), aber auch Verfahren zur Rekonstruktion von dreidimensionalen Szenen aus zweidimensionalen Bilddaten, liefern als Ausgabedaten Punktwolken.

In dieser Arbeit sollen mit Hilfe von punktbasierten Renderingverfahren die durch die Punktwolken approximierten Oberflächen visualisiert werden. Punktbasierte Verfahren erlauben eine Visualisierung der Oberfläche ohne Generierung eines Meshes. Die Visualisierung soll vollständig im Browser mit Hilfe der Javascript Bibliothek three.js erfolgen. Dazu soll eine Client / Server Architektur entwickelt werden, die mit Hilfe von Websockets Datenströme von Punktwolken an den im Browser laufenden Javascript Client ausliefert. Als mögliches Einsatzszenario kann man sich an dieser Stelle einen Roboter, ausgestattet mit einer Tiefenkamera, z. B. der Kinect, vorstellen, der auf seiner Fahrt ständig neue Punktwolken an den Client überträgt.

Es gilt dabei zu Untersuchen, inweit sich bestimmte punktbasierte Renderingverfahren für diesen Einsatz eignen. Ferner soll ermittelt werden, welche Datenmenge in Echzeit sowohl über den Kommunikationskanal transportiert, als auch im Client in Echtzeit gerendert werden kann.

Das Entwickeln der Software erfordert die Verwendung von Javascript mit Hilfe von three.js, OpenGL, OpenGL Shadern und Websockets für die Clientarchitektur.

Für den Server soll die Programmiersprache C++ zum Einsatz kommen, um eine Anbindung an bestehende Projekte in der Arbeitsgruppe zu ermöglichen.

betreut von: Dr.-Ing. Oliver Fleischmann



Bachelorprojekt Powerbot 2013

Bachelorpraktikum

In dem Powerbot-Bachelorprojekt geht es darum, die mobile Roboterplattform "Powerbot" mit Software zu versehen. Der Powerbot verfügt über eine Vielzahl von Sensoren (Odometrie, Sonarsensoren, Farbkamera, Tiefenbildkamera) die zum selbständigen Navigieren, Kartieren, Wegfinden, etc. eingesetzt werden können.

Ziel:
Ziel der Bachelorprojekte ist es, gemeinsam (3 Gruppen à 2 Personen) die Powerbot-Software mit mit Hilfe des Roboterbetriebsystems ROS das Ballspielen beizubringen. Hierzu sollen Verfahren zur Wegfindung, Kollisionsvermeidung sowie Objekterkennung verwendet werden.

Voraussetzungen: Programmierkenntnisse in C++

betreut von: Andreas Jordt

Link zur Projekt-Homepage: Projektmodul Powerbot 2013



Optische Bildstabilisierung

Diplom-/Masterarbeit

In diesem Thema soll eine optische Bildstabilisierung implementiert und bewertet werden. Die Bildstabilisierung soll in einem ersten Ansatz den optischen Fluss von einem zum darauffolgenden Bild berechnen. Aus der Hauptrichtung des optischen Flusses kann die Kompensierung der Kamerabewegung erfolgen. Der zweite Ansatz soll basierend auf Sensordaten eines Rotationssensors realisiert werden.

Um eine sanfte Bildstabilisierung zu erreichen muss die optimale Anzahl der zu beachtenden Bilder ermittelt werden und eine geeignete Interpolation zwischen den Werten erfolgen. Die möglichen Bewegungen machen es erforderlich, sowohl stampfende als auch rollende Bewegungen auszugleichen. Um die Stabilisierung durchzuführen soll ein Ausschnitt aus dem aktuellen Kamerabild erzeugt werden. Die Randbereiche werden dabei abgeschnitten.

Das bewegungskompensierte Bild, welches am Ende dargestellt werden soll, muss demnach bei einer reinen Verschiebung nur direkt angezeigt werden. Bei einer zusätzlichen Rotation, was der Normalfall ist, muss es auch noch rotiert und interpoliert werden.

bearbeitet von: Merlin Manthey

betreut von: Markus Franke



Super-Resolution-Interpolation von Videosequenzen

Masterarbeit

Betrachtet man mehrere aufeinanderfolgende Bilder einer Videosequenz, so können bereits kleinste Bewegungen der Kamera Verschiebungen der aufgenommenen Szene verursachen. Jedoch sind die Objekte der Szene häufig nicht um ganze Pixel verschoben; bedingt durch die Bildfrequenz der Kamera bewegen sich die Verschiebungen im Subpixelbereich. Unter Ausnutzung der Bildinformationen mehrerer niedrig aufgelöster Bilder gelingt durch Super-Resolution-Verfahren die Rekonstruktion eines Bildes mit erhöhter Auflösung. Damit stellen diese Verfahren, insbesondere für Videosequenzen, eine interessante Alternative zu bekannten Interpolationsverfahren dar.

Zum Umfang der Arbeit gehört die Auswahl und Implementierung eines geeigneten Super-Resolution-Verfahrens zur Vergrösserung der Auflösung von Aufnahmen schiffbasierter Kameras. Zur Evaluation des Verfahrens soll ein Vergleich mit bekannten Interpolationsverfahren erfolgen (z. B. Nearest-Neighbor- / bikubische- / bilineare Interpolation).

Voraussetzungen: Programmierkenntnisse in C++, Grundlagen der Bildverarbeitung

Weiterführende Literatur:


bearbeitet von: Nils Eschger

betreut von: Markus Franke



Effiziente Videokompression für Farb- und Thermalkameras

Masterarbeit

Ziel dieser Arbeit ist die Untersuchung und Evaluation verschiedener Videokompressionsverfahren (H.264, MJPEG, ...), welche eine effiziente Netzwerkübertragung von Farbkamera- und Thermalkameraaufnahmen ermöglichen. Hierbei soll ein Kompromiss zwischen Kompression, Bildqualität und Dekodierungsaufwand gefunden werden, der sich für die gleichzeitige Übertragung von mehreren Videostreams von Server zu Client eignet.
Dazu sollen auch die Möglichkeiten einer automatischen Anpassung der Kompression bei einer variablen Anzahl von übertragenen Streams untersucht werden.

Zum Umfang der Arbeit gehört sowohl die Evaluation der Kompressionsverfahren, als auch die Implementierung der Client-Server Kommunikation für die Übertragung der Videodaten.

Voraussetzung: Programmierkenntnisse in C++

bearbeitet von: Daniel Zens

betreut von: Markus Franke



Bachelorprojekt Powerbot 2012

Bachelorpraktikum

In dem Powerbot-Bachelorprojekt geht es darum, die mobile Roboterplattform "Powerbot" mit Software zum autonomen Operieren auszustatten. Der Powerbot verfügt über eine Vielzahl von Sensoren (Odometrie, Sonarsensoren, Farbkamera, Tiefenbildkamera) die zum selbständigen Navigieren, Kartieren, Wegfinden, etc. eingesetzt werden können.

Image

Ziel:
Ziel der Bachelorprojekte ist es, gemeinsam (3 Gruppen à 2 Personen) die bestehende Powerbot-Software zu erweitern, so dass das autonome Verfolgen von Gegenständen oder Personen möglich ist. Hierzu sollen Verfahren zur Lokalisierung, Kartierung und Bildverarbeitung eingesetzt werden.

Voraussetzungen: Programmierkenntnisse in C++

betreut von: Andreas Jordt

Link zur Projekt-Homepage: Projektmodul Powerbot 2012



Bachelorprojekt Powerbot 2011

Bachelorpraktikum

Gruppenfoto des Bachelorprojekts Powerbot 2011

Image

Hier gibt es die 3D-Version des Gruppenfotos zum Download.



Helligkeitsausgleich in Fisheye-Kamerabildern von Kanalrohren

Bachelorarbeit
Image Image

Bei der bildbasierten Rekonstruktion von röhrenartigen Strukturen, z. B. Abwasserrohren [KB05] oder Kanalschächten [EKR09], tritt das Problem auf, dass die Kamerabilder tiefenbedingt zum Teil sehr unterschiedliche Helligkeitsprofile aufweisen. So nimmt etwa die Helligkeit zur Bildmitte hin sehr schnell ab, sobald entlang der Hauptachse der Röhren aufgenommen wird, während im Randbereich wiederum Reflexionen auftreten können. Dieses erschwert zum einen das Verfolgen von Merkmalspunkten zur Rekonstruktion oder das Erkennen von Schäden, zum anderen treten bei der Texturierung der resultierenden 3D-Modelle deutliche sichtbare Übergänge auf, die geeignet ineinander übergeblendet werden müssen.

In dieser Bachelorarbeit sollen verschiedene Verfahren zum Helligkeitsausgleich implementiert und verglichen werden, z. B. Verfahren, die auf einem radiometrischen Modell der Kamera und Szene beruhen, sowie klassische Verfahren aus dem Bereich des Image Blending. Als Anwendungsszenario dient dabei ein Projekt zur 3D-Vermessung von Kanalrohren und -schächten mit einer Fisheye-Kamera, das in Zusammenarbeit mit der Firma IBAK bearbeitet wurde. Ziel ist die Stabilisierung der Bildverarbeitung und das Erstellen realistisch texturierter 3D-Modelle aus Kamera- und Posedaten.

Voraussetzungen: Programmierkenntnisse in C/C++, Grundlagen der Bildverarbeitung

Literatur und Links:


bearbeitet von: Amir Kalali, Henry Grow

betreut von: Sandro Esquivel, Arne Petersen



Effiziente Implementierung der Projection einer Kamera im Unterwassergehäuse auf der GPU

Studien-/Bachelorarbeit

Ziel:
Die Lichtbrechung an Unterwassergehäusen für Kameras muss bei der Projektion von 2D-Punkten in 3D-Strahlen explizit berücksichtig werden. Die Berechnung der Lichtbrechung des Strahls auf seinem Weg durch das Unterwassergehäuse ist aufwendig und soll durch eine Implementierung auf der GPU effizienter werden.

Voraussetzungen: Programmierkenntnisse in C++

Arbeitsgebiete: Programmierung, GPU, Anwendung physikalischer Modelle

Lernziele: Vertiefen der Programmierkenntnisse in C++, Progammierung der GPU, Verständnis der Probleme in der Unterwasserphotographie

bearbeitet von: Lennart Husvogt

betreut von: Anne Sedlazeck



Farb- und Kontrastverbesserung in Unterwasserbildern

Bachelorarbeit

Ziel:
Ziel dieser Arbeit ist die Implementierung und der Vergleich verschiedener Algorithmen, die zur Verbesserung des Kontrastes und der Farben auf Unterwasserbildern eingesetzt werden.

Image Image

Aufgabenstellung:
In der ersten Projektphase sollen Algorithmen zur Verbesserung des Kontrastes und der Farben in Unterwasserbildern recherchiert werden.
Anschließend sollen geeignete Algorithmen implementiert und getestet werden.
In einer dritten Phase soll getestet werden, ob die Anwendung der Algorithmen einen Vorteil bei der Detektion und dem Matching von Merkmalen bringt.

Voraussetzungen: Programmierkenntnisse in C++

Arbeitsgebiete: Programmierung, Unterwasserfotographie, Detektion und Korrespondenzfindung von Merkmalen in Bildern, Anwendung physikalischer Modelle

Lernziele:

  • Vertiefen der Programmierkenntnisse in C++
  • Verständnis der Probleme in der Unterwasserphotographie
  • Einstieg in physikalische Modelle zur Lichtausbreitung Unterwasser


bearbeitet von: Robin Weiß

betreut von: Anne Sedlazeck


Created by sandro. Last Modification: Tuesday 16 of May, 2017 11:53:36 CEST by sandro.