fbpx

WWDC 2022: ¿Y la Realidad Aumentada?

Nos quedamos con “los crespos hechos” con el tema de realityOS en el WWDC pero Apple hizo anuncios interesante en relación con la Realidad Aumentada

Muchos nos quedamos “con los crespos hechos” cuando, al finalizar el keynote del WWDC 2022 el lunes pasado, nos dimos cuenta que Tim Cook y su equipo no iban a hablar ni a mostrar nada relacionado con Realidad Aumentada, ni con realityOS ni, mucho menos, con el nuevo dispositivo de realidad mixta que ya vio la junta directiva. Y es que la semana pasa tuvimos una avalancha de rumores y coincidencias que nos pusieron a soñar con el tema.

 

Sin embargo es importante tener en cuenta que el WWDC no es sólo una presentación de 2 horas sino que es un evento de 5 días y que dentro de la agenda hubo MUCHAS sesiones relacionadas con Realidad Aumentada.

 

 

El Martes hubo una sesión llamada Trae tu Mundo a la Realidad Aumentada en la que se demostró como usar ARKit, RealityKit y Object Capture (se acuerdan que les hablé el año pasado de esto?), otra titulada Cualidades de Excelentes Experiencias en RA y una última llamada Creando Escaneos de Habitaciones 3D paramétricos con RoomPlan en el que, calladamente, la compañía una nueva API para desarrolladores llamada RoomPlan con la cual usted puede capturar recopilar datos sobre una habitación y su contenido físico y escanearlos par volverlos digitales.

 

Es bien cool y, por lo que han mostrado algunos desarrolladores que la han probado, funciona muy bien.

 

 

Pero no son sólo estas sesiones.  Hay un tonelada de conferencias, laboratorios y digital lounges dedicados exclusivamente al tema de Realidad Aumentada (puede verlas aquí) y el lanzamiento de ARKit 6, el framework de Realidad Aumentada que Apple ha puesto a disposición de sus desarrolladores y que incluye, entre otros, la posibilidad de capturar video en 4K, mejora en la captura de movimiento y anclajes de plano y de ubicación, importantes para el mapeo de elementos digitales sobre contextos del mundo físico.

 

O mire lo que Brett Keaning mostró del Framework de Visión, una colección de algoritmos de visión computacional que existe desde 2017 y que incluye capacidades de flujo óptico para aplicaciones basadas en video con la que es posible segmentar personas en una imagen, estimar posición y trayectoria de objetos en videos y reconocer textos. Este framework es la base de Live Text que ahora, además de imágenes ahora sirve sobre video en iOS 16 / iPadOS 16 y que será fundamental para el funcionamiento de un headset de realidad aumentada que pueda entender el contexto de lo que el usuario está mirando.

 

Si, nos quedamos esperando algunas cosas pero creo que Apple sigue construyendo la arquitectura básica y los servicios base para que cuando esté lista la tecnología para lanzar las Apple Glass, estas sea un éxito.

 

Deja un comentario