Loading...
 

Seminar Visuelle Modellierung

Masterseminar/Seminar im Diplomstudiengang

UnivIS-Eintrag


Dozent: Prof. Dr.-Ing. Reinhard Koch
Betreuer: Dipl.-Inf. Sandro Esquivel
Seminar: 2 SWS, ECTS-Credits: 4, Modul: MSS0601

Zeit und Ort:
Donnerstag 10:15 - 11:45 Uhr, HRS 3 - R.101-103 (Institut für Informatik, Seminarraum Keller)

Aktuelle Termine im Seminar finden Sie auf dieser Seite. Um aktuelle Informationen per E-Mail zu erhalten, tragen Sie sich in die Mailingliste zum Seminar ein, indem Sie eine E-Mail mit dem Inhalt subscribe an MIP_Seminar [at] mip.informatik.uni-kiel.de schicken.


Voraussetzungen:
Es wird empfohlen, bereits eine Vorlesung zu 3D-Szenenrekonstruktion, Computergrafik oder Multimedialer Informationsverarbeitung besucht zu haben. Das Seminar richtet sich dabei an Studierende im Masterstudiengang, sowie Diplomstudierende mit Hauptfach Informatik im Hauptstudium.


Inhalt:
Im Seminar werden aktuelle Fragestellungen aus den Bereichen bildbasierte Szenenrepräsentationen, visuell-geometrische Rekonstruktionen und Computergrafik behandelt. Die Seminarteilnehmer sollen dabei eigenständig eine Präsentation über ein bestimmtes Thema vortragen. Typischerweise handelt es sich dabei um Artikel aus wissenschaftlichen Zeitschriften. Die Artikel sind in der Regel auf Englisch verfasst, wobei die Möglichkeit besteht, auch den Seminarvortrag auf Englisch zu halten. Eigene Vorschläge können bei der Themenvergabe ebenfalls berücksichtigt werden.


Themenübersicht

Zeitplan

11.04.2013       Vorbesprechung  
25.04.2013 Vortrag: Wie schreibe ich eine Seminararbeit? (Folien)
16.05.2013 Vortrag: Wie halte ich einen Seminarvortrag? (Folien)
27.05.2013 Deadline für die Seminarausarbeitungen  
20.06.2013 Seminarvortrag Evgenij Besel (Ausarbeitung)
  Seminarvortrag Mario Ide (Ausarbeitung)
27.06.2013 Seminarvortrag Andre Timpl (Ausarbeitung)
  Seminarvortrag Delf Neumärker (Ausarbeitung)
  Seminarvortrag Volker Behrends (Ausarbeitung)

Weitere Materialien

Kontakt

Prof. Dr.-Ing Reinhard Koch
Dipl.-Inf. Sandro Esquivel

Themen


3D-Rekonstruktion von Innenräumen aus Einzelbildern

vergeben

Das bildbasierte Erstellen von 3D-Modellen von Innenräumen ist ein aktuelles und noch nicht zufriedenstellend gelöstes Problem der Computer Vision, das für verschiedenste Anwender und Aufgabenstellungen von Interesse ist, z.B. für Innenarchitekten und Makler, Spezialeffekte in der Filmproduktion, etc. Schwierig ist insbesondere die Rekonstruktion aus einem einzelnen Kamerabild. Dieses Problem kann allerdings vereinfacht werden, indem man eine Manhattan World-Szene annimmt, d.h. eine Blockwelt, die im Wesentlichen aus orthogonal zueinander ausgerichteten Flächen besteht. Viele Innenräume erfüllen diese Annahme in ihrer grundlegenden Struktur.

In diesem Seminarthema soll ein automatisches Verfahren zur Rekonstruktion einer Manhattan World-Szene aus einem einzigen Kamerabild vorgestellt werden, das auf Linienmerkmalen beruht und ein Markov Random Field verwendet, um die einzelnen Bereiche des Bildes den verschiedenen Ebenen der Szene zuzuordnen. Aus dieser Segmentierung kann dann ein texturiertes Modell des sichtbaren Raums erstellt werden.

Image

Eingabebild (links), Segmentierung mittels Markov Random Field (Mitte) und erstelltes 3D-Modell (rechts)
(Abb. aus E. Delage, H. Lee, A. Y. Ng: Automatic Single-Image 3D Reconstruction of Indoor Manhattan World Scenes)

Literatur und Links:


bearbeitet von: Evgenij Besel

betreut von: Sandro Esquivel

Voraussetzung: Computergrafik, 3D-Szenenrekonstruktion

zurück nach oben



Real-Time Dense Surface Mapping and Tracking

vergeben

In dieser Seminararbeit wird KinectFusion vorgestellt, ein von Microsoft Research entwickeltes Echtzeitverfahren, welches gleichzeitig die Pose einer Kinect-Kamera schätzt und ein Voxelvolumen der Umgebung erstellt. Das Verfahren ist speziell für die parallele Verarbeitung auf der GPU optimiert und zeigt keine der üblichen Drift-Probleme der bekannten SLAM-Ansätze (= Simultaneous Localization and Mapping).

Literatur und Links:


bearbeitet von: Lars Stuckmann

betreut von: Andreas Jordt

Voraussetzung: Computer Vision

zurück nach oben



Sparse Subspace Clustering


vergeben

Klassifikationsprobleme, wie z.B. Gesichtserkennung und Handschrifterkennung aber auch Segmentierungsprobleme, wie z.B. Bewegungssegmentierung anhand von Punkt-Trajektorien, basieren
häufig auf der Annahme, dass sich Daten einer bestimmten Klasse, beispielsweise Bilder von Gesichtern einer bestimmten Person, in einem Merkmalsraum nahe beieinander befinden. Nahe beieinander heißt dabei, nahe bezüglich eines gewissen Ähnlichkeitsmaßes. Die Daten
bilden bezüglich dieses Ähnlichkeitsmaßes einen sogenannten Cluster. Das Problem, in einem Datensatz Cluster zu ermitteln, bezeichnet man als Clustering. Oft ist die Annahme valide, dass Daten
einer Klasse sich alle in einem Unterraum eines Vektorraums befinden. Das Problem diese Unterräume zu ermitteln bezeichnet man als Subspace Clustering.

Ziel der Seminararbeit soll es nun sein, einen neuen Algorithmus vorzustellen, das Sparse Subspace Clustering. Darin wird ausgenutzt, dass sich Punkte in einem Unterraum dünn als Linearkombinationen ihrer Nachbarn ausdrücken lassen. Das Problem lässt sich als konvexes Optimierungsproblem formulieren und ist durch konvexe Solver schnell lösbar.

Image Image Image

(Abb. aus E. Elhamifar, R. Vidal: Sparse Subspace Clustering: Algorithm, Theory, and Applications)

Literatur und Links:


bearbeitet von: Babak Alizadeh

betreut von: Oliver Fleischmann

Voraussetzung: Computer Vision, maschinelles Lernen

zurück nach oben



Automatisches Erzeugen texturierter Stadtmodelle

vergeben

Modelle von Städten werden für verschiedene Anwendungen benötigt, z. B. Städteplanung, Computerspiele, virtueller Tourismus oder Simulation. In diesem Seminar soll eine Methode zur automatischen Generierung von Stadtmodellen vorgestellt werden. Mit Hilfe von Grundrisskarten und LIDAR-Daten (optische Abstands-/Geschwindigkeitsmessung, dem Radar ähnlich) werden Modelle der Gebäude erstellt. Besondere Sorgfalt wird dem Gebäudedach gewidmet um der großen Vielfalt in städtischen Umgebungen Rechnung zu tragen. Die Gebäudemodelle werden anschließend texturiert, wodurch sie besser zu unterscheiden sind und ein realistisches Stadtbild erzeugt wird.

Image Image Image

(Abb. aus R. G. Laycock, A. M. Day: Automatic Techniques for Texture Mapping in Virtual Urban Environments)

Literatur und Links:


bearbeitet von: Mario Ide

betreut von: Daniel Jung?

Voraussetzung: Computergrafik

zurück nach oben



Objektverfolgung auf See mittels SIFT-Features

vergeben

Überfalle von Piraten auf Containerschiffe sind heute noch immer ein aktuelles Problem, da viele günstige Transportwege auf See durch gefährdete Gebiete führen. Trotz Unterstützung durch das Militär und privater Sicherheitsdienste ist es nicht immer möglich Überfalle durch die meist schwer bewaffneten Piraten zu vereiteln.

Im Rahmen des Projektes PITAS (Pirate and Terror Aversion System) soll ein System entwickelt werden, welches eine frühzeitige Erkennung von Bedrohungen durch Piraterie und Terror auf See ermöglicht, um rechtzeitig Sicherheitsmaßnahmen einleiten zu können. Das zeitnahe Erkennen und Verfolgen von Booten auf See soll hierbei unter anderem mit einem Kameraverbund, bestehend aus Zoom- und Thermalkamera, realisiert werden.

Diese Seminararbeit soll ein Verfahren vorstellen, welches durch den Einsatz von SIFT-Features Ziele auf See erkennen und verfolgen kann, sowohl auf Aufnahmen von Farb- als auch von Thermalkameras. Hierzu benutzt das Verfahren eine Trainingsphase mit Benutzereingabe, in der SIFT-Features von markierten Zielobjekten und vom Hintergrund separat gebündelt werden. Die extrahierten Features werden genutzt, um mit Hilfe eines Bag-of-Features-Ansatzes neue Zielobjekte in unbekannten Videosequenzen zu erkennen. Zur Verfolgung erkannter Objekte werden die SIFT-Features durch Heuristiken mit Features nachfolgender Bilder der Videosequenz verglichen.

Image Image

(Abb. aus T. Can, A. O. Karal?, T. Aytaç: Detection and Tracking of Sea-Surface Targets in Infrared and Visual Band Videos Using the Bag-of-Features Technique With Scale-Invariant Feature Transform)

Literatur und Links:


bearbeitet von: Andre Timpl

betreut von: Markus Franke

Voraussetzung: Computer Vision

zurück nach oben



Dichte 3D-Rekonstruktion aus mehreren Ansichten

vergeben

Literatur und Links:


bearbeitet von: Volker Behrends

betreut von: Johannes Brünger

Voraussetzung: 3D-Szenenrekonstruktion, Computergrafik

zurück nach oben



Hierarchische Rekonstruktion von Oberflächen

vergeben

Literatur und Links:


bearbeitet von: Delf Neumärker

betreut von: Anne Sedlazeck, Johannes Brünger

Voraussetzung: 3D-Szenenrekonstruktion

zurück nach oben



Created by sandro. Last Modification: Tuesday 19 of August, 2014 08:25:34 CEST by sandro.