fbpx

Apple publica ReALM un método para que Siri entienda mejor referencias indirectas

Apple sigue publicando modelos, mecanismos y herramientas de Inteligencia Artificial en la antesala del WWDC y el lanzamiento de iOS 18

Ha sido un año lleno de trabajo para Apple en términos de Inteligencia Artificial. Y no lo digo por el lanzamiento del “mejor laptop para Inteligencia Artificial” del planeta sino por la cantidad de papers y publicaciones que la compañía y sus investigadores han publicado en estos 3 meses que van del 2024 (dentro de las que destacaría MGIE y Keyframer) y que se complementan con la publicación de un  nuevo paper en el que la compañía describe un “sistema de referencia de resolución como modelo de lenguaje” o ReALM por sus siglas en inglés.

ReALM reconstruye el diseño visual de una pantalla utilizando representaciones de texto que luego ser convierten en la base de un LLM (Large Language Model) permitiendo resultados superiores a lo que puede ofrecer un LLM normal como lo es GPT-4 .

Lo interesante de la publicación es que muestra cómo un asistente digital podría interactuar de una manera más efectiva con el contenido de una pantalla o con una referencia indirecta (ej: muéstrame más información sobre “esto”).

Así, de ser incorporado en el sistema operativo (algo que estamos esperando ver en el WWDC de Junio próximo), ReALM podría permitir a los usuarios del iPhone, del iPad y del Mac interactuar con Siri de manera mucho más eficiente sin necesidad de instrucciones precisas y detalladas. Esto tiene el potencial de hacer que Siri (y los asistentes de voz) sean mucho más útiles en una variedad de condiciones.

Deja un comentario