fbpx

“Interacciones Cercanas”: Lo más intrigante que vi en el WWDC 2020

Los desarrolladores de iOS ahora pueden acceder a las funcionalidades de microlocalización que ofrece el chip H1

Lo más interesante del WWDC, y de cualquier evento de desarrolladores de una plataforma, son esas sesiones super específicas, super técnicas y super geeks de las que terminan saliendo implementaciones fantásticas de nuevas aplicaciones y servicios.

Y en el WWDC 2020 debo confesar que de todas las sesiones a las que asistí la más intrigante, la que más me llamó la atención y la que me puso a pensar en lo que será posible en 2 o 3 años gracias a su implementación fue una sobre un framework que Apple ha llamado Nearby Interactions (Interacciones Cercanas) y que utiliza el Chip de banda ultra ancha (Ultra WideBand) H1 que tanto nos llamó la atención cuando hicimos nuestra evaluación del iPhone 11 Pro Max (el chip está presente en todos los iPhone lanzados en 2019) y que por ahora, en iOS 13, sólo tiene una funcionalidad asociada a AirDrop.

 

“The Nearby Interaction framework streams distance and direction between opted-in Apple devices containing the U1 chip. Discover how this powerful combination of hardware and software allow you to create intuitive spatial interactions based on the relative position of two or more devices. We’ll walk you through this session-based API and show you how to deliver entirely new interactive experiences — all with privacy in mind.”

El nuevo framework permite a los desarrolladores crear aplicaciones que usan las capacidades del Chip H1 para crear “interacciones espaciales intuitivas”. Es decir nuevas formas de interactuar basadas en la posición y distancia entre 2 (o más) dispositivos con chips U1.

¿Cómo? Aprovechando las capacidades de microlocalización que ofrece el chip e integrándolo con acciones específicas.

¿Qué tan exacto es el Chip H1? Los chips de ultra banda ancha, también conocidos como UWB, tienen una precisión de 10cm. Y no sólo muestran la distancia entre dos chips sino que pueden mostrar la dirección relativa entre ellos.

Piense lo que puede hacer esto para aplicaciones de Navegación Interna (en un centro comercial o en un almacén). ¿O qué tal en una aplicación de control de distanciamiento social?

Ahora piense el impacto para servicios de taxi o ridesharing cuando el conductor y el pasajero pueden tener mediciones exactas y direccionales de dónde está el otro.

Piense en las posibilidades para juegos y aplicaciones de Realidad Aumentada multiusuario y las opciones de generar nuevas formas de interactuar con el contenido que hay en otro dispositivo.

Y ahora piense en la suma de esta tecnología con los App Clips que se anunciaron el lunes, en un modelo en el que al menos uno de los dispositivos ya no es un iPhone sino unos Apple Glasses.

O en el uso de esta tecnología en un juego con un visor de Realidad Virtual en el que se use el iPhone y los AirPods Pro para ofrecer una experiencia 3D tanto visual como auditiva (con el nuevo Spatial Sound).

Las posibilidades son infinitas. Y ahora que la tecnología está en manos de más de 23 millones de desarrolladores, más.

Un tema interesante: el uso de esta tecnología es de tipo Opt-In y está basado en sesiones. Es decir que cada uno de los usuarios tendrá que aceptar el uso de llaves funcionalidad de micro-localización por parte de su aplicación en cada caso que lo quiera hacer. El permiso generará tokens específicos para cada sesión y cada sesión caducará cuando uno de los usuarios cierre la aplicación. Con esto, se garantiza la privacidad de los usuarios y se eliminan las posibilidades de que la tecnología sea usada para seguir un usuario.

Ahora sólo nos falta esperar a ver hacia dónde llevan esta tecnología Apple y sus desarrolladores y qué tipo de experiencias construyen a partir de la misma.

 

Deja un comentario