Freigeben über


maschinelles Sehen-Anwendungen für Mixed Reality Headsets

Organisiert in Verbindung mit CVPR 2019

Long Beach (CA)

Juni 17, 2019 (Nachmittag) - Hyatt Regency F

Organisatoren

  • Marc Pollefeys
  • Federica Bogo
  • Johannes Schönberger
  • Osman Ulusoy

Übersicht

Teaserbild

Mixed Reality-Headsets wie das Microsoft HoloLens werden zu leistungsstarken Plattformen für die Entwicklung von Anwendungen für maschinelles Sehen. Der HoloLens-Forschungsmodus ermöglicht die Maschinelles Sehen-Forschung auf einem Gerät, indem er Zugriff auf alle Rohbildsensordatenströme bietet – einschließlich Tiefe und IR. Da der Forschungsmodus seit Mai 2018 verfügbar ist, beginnen wir, einige interessante Demos und Anwendungen für HoloLens zu entwickeln.

Ziel dieses Workshops ist es, Studierende und Forscher zusammenzubringen, die sich für maschinelles Sehen für Mixed Reality-Anwendungen interessieren. Der Workshop bietet einen Ort, an dem Sie Demos und Anwendungen austauschen und voneinander lernen können, um Anwendungen zu erstellen oder in Mixed Reality zu portieren.

Wir empfehlen Einreichungen zu den Themen (Ego-zentrierte) Objekterkennung, Hand- und Benutzernachverfolgung, Aktivitätserkennung, SLAM, 3D-Rekonstruktion, Szenenverständnis, sensorbasierte Lokalisierung, Navigation und mehr.

Einreichung von Dokumenten

  • Einreichungsfrist: 17. Mai
  • Benachrichtigung an Autoren: 24. Mai

Die Einreichungen in Papier sollten die CVPR-Vorlage verwenden und sind auf 4 Seiten plus Referenzen beschränkt. Darüber hinaus empfehlen wir den Autoren, ein Video zu übermitteln, das ihre Bewerbung zeigt. Beachten Sie, dass Übermittlungen von zuvor veröffentlichten Arbeiten zulässig sind (einschließlich arbeiten, die für die Standard CVPR 2019-Konferenz akzeptiert wurden).

Übermittlungen können in das CMT hochgeladen werden: https://cmt3.research.microsoft.com/CVFORMR2019

Eine Teilmenge der Arbeiten wird für die mündliche Präsentation des Workshops ausgewählt. Wir empfehlen allen Autoren jedoch nachdrücklich, ihre Arbeit während der Demositzung zu präsentieren.

Zeitplan

  • 13:30-13:45: Begrüßung und Eröffnungsbemerkung.
  • 13:45-14:15: Keynote-Vortrag: Prof. Marc Pollefeys, ETH Zürich/Microsoft. Titel: Egozentrische maschinelles Sehen auf HoloLens.
  • 14:15-14:45: Keynote Talk: Prof. Kris Kitani, Carnegie Mellon University. Titel: Egozentrische Aktivitäts- und Posenvorhersagen.
  • 14:45-15:15: Keynote-Vortrag: Dr. Yang Liu, California Institute of Technology. Titel: Powering a Cognitive Assistant for the Blind with Augmented Reality( Powering a Cognitive Assistant for the Blind with Augmented Reality).
  • 15:15-16:15: Kaffeepause und Demos.
  • 16:15-16:45: Keynote-Vortrag: Prof. Kristen Grauman, University of Texas at Austin/Facebook AI Research. Titel: Mensch-Objekt-Interaktion in First-Person-Video.
  • 16:45-17:15: Mündliche Vorträge:
    • Registrierung leicht gemacht - eigenständige orthopädische Navigation mit HoloLens. F. Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
    • Stereo lernen, indem Sie mit einer HoloLens herumlaufen. H. Zhan, Y. Pekelny, O. Ulusoy.
  • 17:15-17:30: Schlussbemerkungen.