¿Qué vendrá en 2025? algunos cosas obvias es que los agentes y los modelos de lenguaje más pequeños y eficientes seguirán dando forma a la industria. Pero, no solo eso, también hay otras 5 cinco opciones que debe conocer. Y evidentemente, a continuación se las proporcionaremos.
Todos los detalles sobre lo que viene a nivel de IA en el presente año 2025
Hay 5 cosas que no puede dejar de conocer entre ellas; los patios de recreo virtuales generativos, modelos de lenguaje de gran tamaño que “razonan” y mucho más. ¡Todo a continuación!
1. IA en 2025: patios de recreo virtuales generativos
Sí, es el año de los mundos virtuales generativos (también conocidos como videojuegos). Tuvimos un pequeño vistazo de esta tecnología en el mes de febrero, cuando Google DeepMind reveló un modelo generativo llamado Genie que podía tomar una imagen fija y convertirla en un juego de plataformas 2D de desplazamiento lateral con el que los jugadores podían interactuar. En el mes de diciembre, la firma presentó Genie 2, un modelo que tiene la capacidad de convertir una imagen inicial en un mundo virtual completo.
Otras empresas están desarrollando una tecnología similar. En el mes de octubre, las empresas emergentes de IA Decart y Etched revelaron un hack no oficial de Minecraft en el que cada cuadro del juego se genera sobre la marcha mientras juegas. Y World Labs, una empresa emergente cofundada por Fei-Fei Li (creador de ImageNet, el vasto conjunto de datos de fotos que impulsó el auge del aprendizaje profundo) está construyendo lo que llama modelos de mundos grandes o (LWM).
Una aplicación obvia son los videojuegos. Estos primeros experimentos tienen un tono lúdico y las simulaciones 3D generativas podrían usarse para explorar conceptos de diseño para nuevos juegos, convirtiendo un boceto en un entorno jugable sobre la marcha. Esto podría conducir a tipos de juegos totalmente nuevos.
Sin embargo, también podrían usarse para entrenar robots. World Labs quiere desarrollar la llamada inteligencia espacial (la capacidad de las máquinas de interpretar e interactuar con el mundo cotidiano), pero los investigadores en robótica escasean de buenos datos sobre escenarios del mundo real con los que entrenar esa tecnología. La creación de innumerables mundos virtuales y la introducción de robots virtuales en ellos para que aprendan mediante ensayo y error podrían ayudar a compensarlo, o al menos esto es lo que ha señalado, Will Douglas Heaven.
2. Modelos de lenguaje de gran tamaño que “razonan”
Cuando OpenAI presentó o1 en el mes de septiembre, introdujo un nuevo paradigma en el funcionamiento de los modelos de lenguaje de gran tamaño. Dos meses después, la empresa impulsó ese paradigma en casi todos los sentidos con o3, un modelo que podría cambiar esta tecnología para siempre.
La mayoría de los modelos, incluido el buque insignia de OpenAI, GPT-4, dan la primera respuesta que se les ocurre. A veces es correcta, a veces no. Pero los nuevos modelos de la empresa están entrenados para resolver sus respuestas paso a paso, descomponiendo los problemas difíciles en una serie de problemas más simples. Cuando un enfoque no funciona, prueban otro. Cabe aclarar que, esta técnica, conocida como “razonamiento”, puede hacer que esta tecnología sea más precisa, especialmente para problemas de matemáticas, física y lógica.
Inclusive, también es realmente crucial para los agentes. En el pasado mes de diciembre, Google DeepMind reveló un nuevo agente experimental de navegación web denominado “Mariner”. En medio de una demostración preliminar que la empresa entregó a MIT Technology Review, Mariner pareció quedarse atascado. Megha Goel, gerente de productos de la empresa, le había pedido al agente que le buscara una receta de galletas navideñas que se parecieran a las de una foto que ella le había dado. Mariner encontró una receta en la web y comenzó a agregar los ingredientes a la cesta de la compra en línea de Goel.
Luego se estancó; no podía decidir qué tipo de harina elegir. Goel observó cómo Mariner explicaba sus pasos en una ventana de chat: “Dice: ‘Usaré el botón Atrás del navegador para volver a la receta’”.
Lo cierto fue que, en vez de chocar contra un muro, el agente había dividido la tarea en acciones separadas y había elegido una que podría resolver el problema. Descubrir que hay que hacer clic en el botón Atrás puede parecer básico, pero para un robot sin mente es como una ciencia espacial. Y funcionó: Mariner volvió a la receta, confirmó el tipo de harina y siguió llenando la cesta de Goel.
Google DeepMind también está creando una versión experimental de Gemini 2.0, su último modelo de lenguaje a gran escala, que usa este enfoque paso a paso para la resolución de problemas, llamado Gemini 2.0 Flash Thinking.
Pero OpenAI y Google son solo la punta del iceberg. Numerosas empresas están creando modelos de lenguaje a gran escala que utilizan técnicas similares, lo que los hace mejores en una amplia gama de tareas, desde cocinar hasta incluso, codificar. Así que, espere mucho más revuelo sobre el razonamiento este año.
3. Es un momento de auge para la IA en la ciencia
Por si no lo sabía, uno de los usos más apasionantes de la Inteligencia Artificial (IA) es acelerar los descubrimientos en las ciencias naturales. Tal vez la mayor reivindicación del potencial de la IA en este frente se produjo el pasado mes de octubre, cuando la Real Academia Sueca de Ciencias otorgó el Premio Nobel de Química a Demis Hassabis y John M. Jumper, de Google DeepMind, por crear la herramienta “AlphaFold”, que tiene la capacidad de resolver el plegamiento de proteínas, y a David Baker por crear herramientas para ayudar a diseñar nuevas proteínas.
Es de esperar que esta tendencia continúe el año que viene y que veamos más conjuntos de datos y modelos destinados concretamente al descubrimiento científico. Las proteínas eran el objetivo perfecto para la IA, porque el campo contaba con excelentes conjuntos de datos existentes con los que se podían entrenar los modelos de IA.
La búsqueda está en marcha para encontrar el próximo gran descubrimiento. Un área potencial es la ciencia de los materiales. Meta ha publicado conjuntos de datos y modelos masivos que podrían ayudar a los científicos a utilizar la IA para descubrir nuevos materiales mucho más rápido, y en el mes de diciembre, Hugging Face, junto con la startup Entalpic, lanzó LeMaterial, el cual viene siendo un proyecto de código abierto que tiene como objetivo simplificar y acelerar la investigación de materiales. Su primer proyecto es un conjunto de datos que unifica, limpia y estandariza los conjuntos de datos de materiales más destacados.
Lo cierto es que, tener una herramienta de IA que tenga la capacidad de poder operar de manera similar a un científico, es una de las fantasías del sector tecnológico. En un manifiesto publicado en el mes de octubre del año pasado, el fundador de Anthropic, Dario Amodei, destacó la ciencia, especialmente la biología, como una de las áreas clave en las que una Inteligencia Artificial poderosa podría ayudar.
Algunos expertos señalan que todavía estamos muy lejos de este escenario. Pero el año que viene, podríamos ver pasos importantes en esa dirección.
4. Las empresas de IA se acercan más a la seguridad nacional
Otro aspecto fundamental es que, las empresas de IA dispuestas a prestar sus herramientas a la vigilancia fronteriza, la recopilación de inteligencia y así mismo, otras tareas de seguridad nacional pueden ganar mucho dinero.
El ejército estadounidense ha lanzado una serie de iniciativas que demuestran su deseo de adoptar la Inteligencia Artificial, desde el programa Replicator (que, inspirado en la guerra en Ucrania, promete gastar mil millones de dólares en pequeños drones) hasta la Célula de Capacidades Rápidas de Inteligencia Artificial, una unidad que lleva la IA a todo, desde la toma de decisiones en el campo de batalla hasta la logística. Los ejércitos europeos están bajo presión para aumentar su inversión en tecnología, provocada por las preocupaciones de que la administración de Donald Trump recorte el gasto en Ucrania. Las crecientes tensiones entre Taiwán y China también pesan mucho en las mentes de los planificadores militares.
En el presente año 2025, estas tendencias seguirán siendo una bendición para las empresas de tecnología de defensa como Palantir, Anduril y otras, que ahora se encuentran aprovechando datos militares clasificados para entrenar modelos de Inteligencia Artificial.
Los bolsillos profundos de la industria de defensa también tentarán a las empresas de IA tradicionales a sumarse. OpenAI anunció en el pasado mes de diciembre que se asociará con Anduril en un programa para derribar drones, completando un cambio de un año en su política de no trabajar con el ejército. Se une a las filas de Microsoft, Amazon y Google, que han trabajado con el Pentágono durante años.
Ahora bien, otros competidores de la IA, que están gastando miles de millones de dólares en entrenar y desarrollar nuevos modelos, se enfrentarán en el presente año 2025 a una mayor presión para pensar seriamente en los ingresos. Es posible que encuentren suficientes clientes no relacionados con la defensa que paguen generosamente por agentes de IA que puedan manejar tareas complejas, o industrias creativas dispuestas a gastar en generadores de imágenes y vídeos.
Pero también se verán cada vez más tentados a lanzarse al ruedo para conseguir lucrativos contratos del Pentágono. Es de esperar que las empresas se enfrenten a la duda de si trabajar en proyectos de defensa será visto como una contradicción con sus valores.
Argumentando que prestar sus modelos a los militares haría avanzar ese objetivo. En el presente año 2025, veremos cómo otros siguen su ejemplo.
5. Nvidia ve una competencia legítima
Sin duda Nvidia ha sido el líder durante un largo tiempo, sin embargo, este año 2025 una serie de fuerzas podrían cambiar eso. Por un lado, competidores gigantes como Amazon, Broadcom, AMD y otros han estado invirtiendo mucho en nuevos chips, y hay indicios tempranos de que estos podrían competir estrechamente con los de Nvidia, en particular en inferencia, donde el liderazgo de Nvidia es menos sólido.
Un número cada vez mayor de startups también están atacando a Nvidia desde un ángulo diferente. En vez de intentar mejorar marginalmente los diseños de Nvidia, las empresas emergentes como Groq están haciendo apuestas más arriesgadas en arquitecturas de chips totalmente nuevas que, con el tiempo suficiente, prometen proporcionar un entrenamiento más eficiente o efectivo. En el presente año 2025, estos experimentos todavía estarán en sus primeras etapas, pero es posible que un competidor destacado cambie la suposición de que los mejores modelos de IA dependen exclusivamente de los chips de Nvidia.
Como base de esta competencia, algunos expertos señalan que continuará la guerra geopolítica de los chips. Hasta ahora, esa guerra se ha basado en 2 estrategias. Por un lado, Occidente busca limitar las exportaciones a China de los mejores chips y las tecnologías para fabricarlos. Por otro lado, esfuerzos como la Ley CHIPS de EE. UU. apuntan a impulsar la producción nacional de semiconductores.
Donald Trump puede intensificar esos controles de exportación y ha prometido aranceles masivos a cualquier producto importado de China. En 2025, esos aranceles pondrían a Taiwán, del que Estados Unidos depende en gran medida debido al fabricante de chips TSMC, en el centro de las guerras comerciales. Esto se debe a que Taiwán ha señalado que ayudará a las empresas taiwanesas que operan en China a reubicarse de nuevo en la isla para ayudarlas a evitar los aranceles propuestos. Eso podría generar más críticas de Trump, quien ha expresado su frustración con el gasto estadounidense para defender a Taiwán de China.
Por el momento, no está claro cómo se desenvolverán estas fuerzas, pero solo incentivarán todavía más a los fabricantes de chips a reducir la dependencia de Taiwán, que es el propósito principal de la Ley CHIPS. Según comentan, conforme el gasto del proyecto de ley comience a circular, el próximo año podría traer la primera evidencia de si está impulsando materialmente la producción nacional de chips.