The Autonomous Cameraman: RoboDOP
Für viele Produktionen ist es finanziell nicht tragbar, Kameras durch Kameraleute bedienen zu lassen. Dies führt häufig dazu, dass statische Kameraeinstellungen genutzt werden, um verschiedene Perspektiven einzufangen. Bei beweglichen Objekten hat dies gegenüber einer dynamischen Kameraführung jedoch immer den Nachteil, dass sie sich nie genau an dem richtigen Punkt für eine optimale Erfassung befinden. Diesem Problem hat sich das Automatic Control Laboratory der ETH in Zusammenarbeit mit der Fachrichtung Cast / Audiovisual Media der ZHdK und dreicast angenommen. Gemeinsam entwickelten sie eine automatische Robotik-Lösung für Videoproduktionsfirmen in Form eines Kameraroboters, der auf hochmodernen neuronalen Netzen, modelgestützter prädiktiver Regelung und maschinellem Lernen basiert.
Das intelligente Kamerasystem ist in der Lage, bewegliche Objekte zu verfolgen, ohne dass Kameraleute eingesetzt werden müssen. Somit kann der/die Produzent/-in über längere Zeiträume Aufgaben ausführen, die sich wiederholen, und dabei präzisen, reproduzierbaren Bewegungsläufen folgen. Auch dynamische Aufnahmen sind möglich, ohne dass Kameraleute die Einstellungen anpassen müssen. Auf diese Weise lässt sich höhere Qualität ohne zusätzlich Kosten erzielen.
RoboDOP besteht aus einem Roboter-Kopfteil und einer Prozessoreinheit mit intelligenter Vision-Software, mit deren Hilfe die Orientierung und die Einstellungen der jeweils angeschlossenen Kameras und Objektive gesteuert werden. Die Bewegungsführung der Kamera imitiert dabei die Art und Weise, wie Kameraleute bewegliche Objekte erfassen. Nach dem Einrichtungsvorgang – d. h. Befestigung des RoboDOP-Kopfteils auf dem Stativ, Anschluss an den Live-Feed der Kamera und ein Netzwerkkabel zum Steuerungsrechner von Seervision – kalibriert sich RoboDOP auf die Kamera und das Objektiv und ist nun bereit, vom Bediener des Systems Befehle zu empfangen.
Das Produkt ist für Kommunikationsveranstaltungen wie Konferenzen, Unternehmenspräsentationen, Webcasts und Workshops geeignet. In Zukunft soll es dahingehend erweitert werden, dass es mithilfe mehrerer Kameras die Bewegungsläufe in weiteren Live-Veranstaltungsarten erfassen kann, darunter Sportereignisse und künstlerische Veranstaltungen wie Musikkonzerte und Theateraufführungen, bei denen dynamische Großaufnahmen einen wesentlichen Teil des Video-Storytelling ausmachen.
Team:
Nikos Kariotoglou, ETH Zürich
Reto Hofmann, ETH Zürich
Conrad von Grebel, dreicast GmbH
Martin Zimper, Cast / Audiovisual Media, ZHdK
Eric Andreae, Cast / Audiovisual Media, ZHdK
Laufzeit:
Januar - Dezember 2017
Projekttyp:
KTI gefördertes Forschung und Entwicklungs Projekt
Kooperation:
Automatic Control Laboratory of the ETHZ & Cast/Audiovisual Media ZHdK
Ort:
Galerie 1 (Level 4)