Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Organizado junto con CVPR 2019
Long Beach (CA)
17 de junio de 2019 (tarde) - Hyatt Regency F
Organizadores
- Marc Pollefeys
- Federica Bogo
- Johannes Schönberger
- Osman Ulusoy
Información general
Los cascos de realidad mixta, como los Microsoft HoloLens, se están convirtiendo en plataformas eficaces para desarrollar aplicaciones de visión informática. El modo de investigación de HoloLens permite la investigación de computer vision en el dispositivo al proporcionar acceso a todas las secuencias de sensor de imágenes sin procesar, incluida la profundidad y el ir. Como el modo de investigación ya está disponible desde mayo de 2018, estamos empezando a ver varias demostraciones y aplicaciones interesantes que se están desarrollando para HoloLens.
El objetivo de este taller es reunir a estudiantes e investigadores interesados en la visión informática para aplicaciones de realidad mixta. El taller proporcionará un lugar para compartir demostraciones y aplicaciones, y aprender entre sí para compilar o migrar aplicaciones a la realidad mixta.
Animamos envíos sobre los temas de reconocimiento de objetos (centrados en el ego), seguimiento de manos y usuarios, reconocimiento de actividad, SLAM, reconstrucción 3D, comprensión de escenas, localización basada en sensores, navegación y mucho más.
Envío en papel
- Fecha límite de envío en papel: 17 de mayo
- Notificación a los autores: 24 de mayo
Los envíos en papel deben usar la plantilla CVPR y están limitados a 4 páginas más referencias. Además, animamos a los autores a enviar un vídeo en el que se muestre su aplicación. Tenga en cuenta que se permiten envíos de trabajos publicados previamente (incluido el trabajo aceptado en la conferencia principal de CVPR 2019).
Los envíos se pueden cargar en cmt: https://cmt3.research.microsoft.com/CVFORMR2019
Se seleccionará un subconjunto de trabajos para su presentación oral en el taller. Sin embargo, animamos encarecidamente a todos los autores a presentar su trabajo durante la sesión de demostración.
Programación
- 13:30-13:45: Comentarios de bienvenida y apertura.
- 13:45-14:15: Discurso principal: Prof. Marc Pollefeys, ETH Zurich/Microsoft. Título: Computer Vision egocéntrica en HoloLens.
- 14:15-14:45: Discurso principal: Prof. Kris Kitani, Universidad Carnegie Mellon. Título: Actividad egocéntrica y Previsión de poses.
- 14:45-15:15: Discurso principal: Dr. Yang Liu, Instituto tecnológico de California. Título: Powering a Cognitive Assistant para ciegos con realidad aumentada.
- 15:15-16:15: Coffee break y demostraciones.
- 16:15-16:45: Discurso principal: Prof. Kristen Grauman, Universidad de Texas en Austin/Facebook AI Research. Título: Interacción entre objetos humanos en vídeo en primera persona.
- 16:45-17:15: Presentaciones orales:
- Registro fácil: navegación ortopédica independiente con HoloLens. F. Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
- Aprender estéreo caminando con un HoloLens. H. Zhan, Y. Pekelny, O. Ulusoy.
- 17:15-17:30: Comentarios finales.