“Apple se rindió”
“Esto suena a fracaso”
“Apple reemplaza OpenAI por Google”
“Siri será Gemini. Ya cómprense Android”
Estas son algunas de las frases que más he leído esta última semana, luego del anuncio de Google y Apple con respecto a un acuerdo plurianual para utilizar Gemini como base para los Foundational Models de Apple Intelligence y Siri. La bomba, porque más que una noticia fue una bomba, ha generado mucha especulación y, sobretodo, errores de interpretación, posiblemente por lo escueto del comunicado y porque Apple no ha dado mayores declaraciones al respecto.
Sin embargo, creo que hay 3 temas que creo que vale la pena aclarar. Temas que demuestran que si bien el acuerdo entre Apple y Google es super importante, la compañía sigue (y seguirá) trabajando en otros frentes, incluyendo algunos que involucran otros proveedores de soluciones de IA generativa:
1 – Hablemos de Gemini
No estamos hablando del Gemini que usted y yo ya usamos en la web o en la aplicación de iOS. Tampoco estamos hablando del que viene embebido en Android. Por medio de este acuerdo Google le dará a Apple una versión especifica de Gemini sobre la que Apple tendrá control en términos de uso, privacidad, seguridad y al que le podrá hacer tweaks dependiendo de cómo desee que funcione.
Esa versión correrá en los servidores de Apple bajo el modelo de Private Cloud Compute y la información personal de los usuarios con la que interactúe no será transmitida a Google y no será usada para entrenar el algoritmo.
2 – La relación con OpenAI
Muchos asumen que con este acuerdo la relación de Apple y OpenAI morirá. Pero ese no es el caso. Dentro de las extensiones de Siri seguirá estando la opción de usar OpenAI y. seguramente, modelos de otras compañías.
Y no sólo como extensión de Siri. Dentro del recién anunciado Apple Creator Studio, la compañía ha incorporado una tonelada de funcionalidades de IA. Una de ellas sirve para generar imágenes a partir de prompts. Es una funcionalidad soportada por un modelo de OpenAI.
De igual forma, ha incluido una opción para hacerle upscaling a imágenes que han sido insertadas en documentos de Pages, Numbers, Keynote y Pixelmator llamada Super Resolution. Esta, también, usa OpenAI, y lo hace de forma privada y anónima.
3 – La investigación interna continúa
Apple no está pensando en pausar o abandonar su investigación interna en temas de Inteligencia Artificial ni en dejar de usar sus descubrimientos y desarrollos para sus productos y servicios. Tan solo en lo que va corrido del año (al 19 de Enero que estoy publicando este artículo) la compañía ha publicado 14 papers relacionados con el tema. Papers que incluyen avances en Visión Computacional, Anotación de Datos, Data Science, Interacción Humano-Computadora, Procesamiento de Lenguaje Natural escrito y hablado, Search, Knowledge Bases y Salud, entre otros.
Métodos, Algoritmos, Modelos, Herramientas, Frameworks y Desarrollos que serán incorporados en el funcionamiento de sus productos, de sus servicios y de sus aplicaciones y que abarcan un espectro gigante de aplicabilidad. Mire por ejemplo estos tres:
NarrativeTrack: Evaluating Video Language Models Beyond the Frame
Imagine que usted está viendo una película con un amigo robot. Para entender la historia, el robot necesita hacer más que solo mirar una imagen; necesita recordar quiénes son las personas, incluso cuando la cámara se mueve o pasa el tiempo.
Los investigadores de Apple crearon algo llamado NarrativeTrack para ver si los “cerebros” de IA (llamados modelos) son realmente buenos para seguir una historia en un vídeo, o si solo están adivinando, determinar dónde hay glitches que afecten su entendimiento de la narrativa y crear mejores modelos.
Inferring Optical Tissue Properties from Photoplethysmography using Hybrid Amortized Inference
Seguro que ha visto como el Apple Watch tiene unas lucecitas en la parte de atrás que se usan para medir, por ejemplo su ritmo cardíaco, el nivel de oxigenación en su sangre o para permitirle tomarse un electrocardiograma. La luz que rebota en su muñeca trae muchos mensajes secretos, pero son difíciles de leer. A veces la inteligencia artificial (IA) es buena adivinando cosas, pero no siempre sabe explicar por qué lo sabe.
Los investigadores de Apple crearon un nuevo sistema para que la IA no solo “adivine”, sino que entienda la biología:
- PPGen: Es como un mapa que explica cómo la luz viaja a través de la piel y la sangre.
- HAI: Es un método para que la computadora aprenda a leer esas señales de luz de forma súper rápida y precisa, incluso si hay ruido o si el reloj se mueve un poco.
Gracias a este estudio, el Apple Watch puede llegar a ser mucho más inteligentes No solo nos dirá las pulsaciones, sino que podrá entender mejor cómo es la piel del usuario, cómo fluye la sangre y dar información más exacta sobre la salud del usuario, casi como si tuviera un pequeño laboratorio médico en la muñeca que entiende perfectamente cómo funciona el cuerpo por dentro.
MANZANO: A Simple and Scalable Unified Multimodal Model with a Hybrid Vision Tokenizer
Un equipo de casi 30 investigadores de Apple detalla un nuevo enfoque unificado que permite tanto la comprensión de imágenes como la generación de texto a imagen en un único modelo multimodal.
Esto es importante porque los modelos multimodales unificados actuales que admiten la generación de imágenes a menudo se enfrentan a compensaciones: sacrifican la comprensión visual para priorizar la generación de imágenes autorregresivas o priorizan la comprensión, sacrificando la fidelidad generativa.
Manzano, en cambio, puede entender lo que ve y crear imágenes desde cero utilizando algo que los investigadores han llamado “Tokenizador Híbrido”, permitiendo que el sistema (un iPhone, iPad o Mac, o un nuevo dispositivo que lance la compañía) entienda de manera más óptima el mundo real y puedan crear imágenes de una forma mucho más rápida, natural y profesional.
El acuerdo con Google es importantísimo; eso no se puede negar. Pero no es el único esfuerzo que Apple está realizando ni será el único camino. Al utilizar lo mejor de los modelos disponibles en el mercado para cada uno de los frentes en donde la Inteligencia Artificial agrega valor, Apple podrá ofrecer una experiencia única para sus usuarios





