Loading...
 

Seminar Visuelle Modellierung

Masterseminar/Seminar im Diplomstudiengang

UnivIS-Eintrag


Dozent: Prof. Dr.-Ing. Reinhard Koch
Betreuer: Dipl.-Inf. Sandro Esquivel
Seminar: 2 SWS, ECTS-Credits: 4, Modul: MSS0601

Zeit und Ort:
Do 10:15 - 11:45 Uhr, HRS 3 - R.101-103 (Institut für Informatik, Seminarraum Keller)


Voraussetzungen:
Es wird empfohlen, bereits eine Vorlesung zu 3D-Szenenrekonstruktion, Computergrafik oder Multimedialer Informationsverarbeitung besucht zu haben.
Das Seminar richtet sich dabei an Studierende im Masterstudiengang, sowie Diplomstudenten mit Hauptfach Informatik im Hauptstudium.

Das Seminar Visuelle Modellierung findet dieses Semester zusammen mit dem Seminar Algorithmen der Bioinformatik der Arbeitsgruppe Technische Informatik von Prof. Schimmler statt.

Inhalt:
Im Seminar werden aktuelle Fragestellungen aus den Bereichen bildbasierte Szenenrepräsentationen, visuell-geometrische Rekonstruktionen und Computergrafik behandelt.
Die Seminarteilnehmer sollen dabei eigenständig eine Präsentation über ein bestimmtes Thema vortragen. Typischerweise handelt es sich dabei um Artikel aus wissenschaftlichen Zeitschriften. Die Artikel sind in der Regel auf Englisch verfasst, wobei die Möglichkeit besteht, auch den Seminarvortrag auf Englisch zu halten. Eigene Vorschläge können bei der Themenvergabe ebenfalls berücksichtigt werden.


Themen

Zeitplan

12.04.2012 Vorstellung und Organisatorisches  
19.04.2012 Wie schreibe ich eine Seminararbeit? (Sandro Esquivel) Image PDF herunterladen
Wie halte ich einen Seminarvortrag? (Sandro Esquivel) Image PDF herunterladen
26.04.2012 fällt aus  
03.05.2012 Grundlagen der Bioinformatik (Lars Wienbrandt) Image ZIP herunterladen
10.05.2012 Einführung in die visuelle Modellierung (Reinhard Koch)  
17.05.2012 fällt aus  
24.05.2012 fällt aus  
31.05.2012 Unstructured Lumigraph Rendering (Tobias Börding) Image PDF herunterladen
  Scalable Multi-View Stereo Reconstruction (Lennart Husvogt) Image PDF herunterladen
03.06.2012 Deadline für schriftliche Ausarbeitungen  
07.06.2012 Light Field Rendering (Jan Hoffmann) Image PDF herunterladen
  HiTEC - Error Correction in Sequencing Dataim Seminar Algorithmen der Bioinformatik (Martin Roos)  
14.06.2012 Image Super-Resolution for Target Recognition (Dominik Wolters) Image PDF herunterladen
  Fast-CHI - Analyzing Gene-Gene Interactionsim Seminar Algorithmen der Bioinformatik (Benjamin Zingelmann)  
21.06.2012 DTAM - Dense Tracking and Mapping (Lars Borchert) Image PDF herunterladen
  PASHA - Parallelized Short Read Assemblyim Seminar Algorithmen der Bioinformatik (Ulf Rüegg)  
28.06.2012 Realistic Camera Models for CG (Claudius Zelenka) Image PDF herunterladen
  SHRiMP - Mapping of Short Color-Space Readsim Seminar Algorithmen der Bioinformatik (Timo Schulz)  

Weitere Materialien

Kontakt

Prof. Dr.-Ing Reinhard Koch
Dipl.-Inf. Sandro Esquivel




Light Field Rendering

vergeben

In diesem Seminarthema soll eine Möglichkeit vorgestellt werden, wie aus einem Satz von Bildern neue künstliche Ansichten derselben Szene generiert werden können. Die wegweisenden Arbeiten von Marc Levoy und Pat Hanrahan zum Thema "Light Field Rendering" stellen ein Verfahren vor, das ohne Geometrie- oder Tiefeninformation auskommt. Die verwendeten Lichtfelder können sehr groß werden, weshalb die Autoren eine zweistufige Kompression für Lichtfelder vorschlagen.

Dieses Thema ist eng verwandt mit einer weiteren Möglichkeit zum Rendern neuer Szenenansichten, dem "Lumigraph". Dieser erweitert das Light Field Rendering im wesentlichen um die Idee, irreguläre Stützstellen zu verwenden. Beide Verfahren können im Rahmen dieser Seminararbeit verglichen werden.

Image Image

Darstellung generierter Bilddaten bei unterschiedlichen Kompressionsraten (links), Parametrisierung des Lichtfelds (rechts)
(Abb. aus M. Levoy, P. Hanrahan: Light Field Rendering)

Literatur und Links:


bearbeitet von: Jan Hoffmann

Betreuer: Daniel Jung?

Voraussetzung: Computergrafik

zurück nach oben



Unstructured Lumigraph Rendering

vergeben

Der "Lumigraph" stellt neben Lichtfeldern eine weitere Möglichkeit dar, neue Ansichten einer 3D-Szene zu generieren, ohne dafür ein explizites 3D-Modell der Szene erstellen zu müssen.
Der originale Entwurf des Lumigraph in S. J. Gortlers et al.: The Lumigraph erweitert dabei das Light Field Rendering im wesentlichen um die Idee, irreguläre Stützstellen zu verwenden (siehe auch voriges Seminarthema).

Das originale Lumigraph-Verfahren erwartet, dass die Eingabekameras in bestimmten Konfigurationen vorliegen (z.B. Lage in einer Ebene). In diesem Seminarthema soll eine Arbeit vorgestellt werden, die Lumigraph Rendering so verallgemeinert, dass auch beliebige ungeordnete Kameraposen als Eingabe verwendet werden können.

Image Image

Rendering mittels Constrained Delaunay Triangulation des Blending Fields (links), Darstellung eines Camera Blending Fields (rechts)
(Abb. aus C. Buehler et al.: Unstructured Lumigraph Rendering)

Literatur und Links:


bearbeitet von: Tobias Börding

Betreuer: Daniel Jung?

Voraussetzung: Computergrafik

zurück nach oben



DTAM - Dense Tracking and Mapping

vergeben

In diesem Seminarthema soll eine Arbeit aus dem Bereich "Stucture from Motion" vorgestellt werden, also die 3D-Rekonstruktion einer unbekannten Szene aus Ansichten einer einzelnen Videokamera, deren Bewegung im Raum zunächst ebenfalls unbekannt ist.

Eine bekannte Klasse von Lösungsansätzen basiert auf dem MonoSLAM-Verfahren (SLAM = "simultaneous localization and mapping"), welches sich in der Regel auf das Verfolgen einzelner Merkmalspunkte stützt und dementsprechung auch nur eine punktweise Karte der Szene für die Registrierung erzeugt.

Richard Newcombe und Andrew Davison haben demgegenüber mit ihrem DTAM-Verfahren (DTAM = "dense tracking and mapping") ein System beschrieben, welches ein dichtes Modell der Umgebung in Form einer inversen Tiefenkarte erzeugt und diese simultan für das Verfolgen der Kamera verwendet. Das Modell wird dabei inkrementell erweitert und verbessert, indem eine globale photometrische Fehlerfunktion minimiert wird. Das vorgestellte Verfahren lässt sich z.B. unter Verwendung moderner GPU-Systeme gut parallelisieren und kann daher in Echtzeit durchgeführt werden.

Error Plugin execution pending approval

This plugin was recently added or modified. Until an editor of the site validates the parameters, execution will not be possible.

Video zu R. A. Newcombe et al.: DTAM: Dense Tracking und Mapping in Real-Time (Quelle: YouTube)

Literatur und Links:


bearbeitet von: Lars Borchert

Betreuer: Sandro Esquivel

Voraussetzung: 3D-Szenenrekonstruktion

zurück nach oben



Image Super-Resolution for Improved Automatic Target Recognition

vergeben

Diese Seminararbeit befasst sich mit dem Thema Super-Resolution für Aufnahmen von Thermalkameras, um eine verbesserte automatische Zielerfassung für infrarotgesteuerte Waffensysteme zu ermöglichen.

Bei Thermalkameras besteht das Problem, dass Geräte mit hoher Auflösung noch immer sehr teuer sind und außerdem aktiv gekühlt werden müssen, was deren Einsatz in Flugzeugen und Helikoptern erschwert. Deshalb werden meist passiv gekühlte Kameras verwendet, deren typische Auflösung jedoch bei nur 320 x 240 Pixeln oder weniger liegt, wodurch die Zielerfassung insbesondere bei Luftaufnahmen kleinerer Objekte ungenau ist. Das Ziel der vorgestellten Arbeit ist also die Verbesserung der Auflösung der Thermalkamera-Aufnahmen.

Hierbei wird ausgenutzt, dass aufeinanderfolgende Bilder einer Videosequenz, bedingt durch die sich bewegenden Kamera, Verschiebungen der Szenenobjekte aufweisen. Durch die hohe Bildfrequenz der Kamera befinden sich diese Verschiebungen oft im Subpixelbereich. Deshalb gelingt durch geeignete Registrierung mehrerer niedrig aufgelöster Aufnahmen und anschließender Interpolation die Erstellung einer Aufnahme mit vergrößerter Auflösung.

Image Image Image

Schematische Darstellung der Registrierung und Interpolation (links), Ergebnis für ein Beispielbild einer Thermalkamera (rechts)
(Abb. aus R. Wagner et al.: Image Super-Resolution for Improved Automatic Target Recognition)

Literatur und Links:


bearbeitet von: Dominik Wolters

Betreuer: Markus Franke

Voraussetzung: Multimediale Signal- und Bildverarbeitung

zurück nach oben



Realistic Camera Models for Computer Graphics

vergeben

Heutige Verfahren zum Erstellen computergenerierter Bilder basieren im Allgemeinen auf Raytracing-Verfahren. Diese werden zum Beispiel in Filmproduktionen eingesetzt, um nicht existierende Objekte oder Landschaften zu erschaffen.
Häufig werden Heuristiken in diese Verfahren eingebracht, um Effekte zu erzeugen, welche im Standardmodell nicht vorgesehen sind. Insbesondere für Effekte wie Tiefenschärfe oder andere Linseneffekte werden oft Heuristiken verwendet, die ähnliche Effekte erzeugen.
In diesem Seminarthema soll eine der früheren Arbeiten vorgestellt werden, die ein Verfahren beschreibt, das die realistische Modellierung von Linsensystemen für Raytracing erlaubt. Auf diesem Wege sind durch Linsen verursachte Effekte realistisch reproduzierbar. Diese Arbeit dient noch immer als theoretische Grundlage für aktuelle Verfahren in der Computergrafik.

Image Image

Beispiele für computergenerierte Szenen und die zugehörigen Linsensysteme (Abbildungen aus C. Kolb et al.: A Realistic Camera Model for Computer Graphics)

Literatur und Links:


bearbeitet von: Claudius Zelenka

Betreuer: Arne Petersen

zurück nach oben


Created by sandro. Last Modification: Monday 11 of June, 2012 09:45:05 CEST by sandro.