fbpx

Hablemos de GPT-4o y las nuevas capacidades de ChatGPT

OpenAI pone la barra altísima en la antesala de un mes en el que veremos una tonelada de anuncios relacionados con Inteligencia Artificial

La “O” en GPT-4o viene de onmi, as in onmi-modal, un modelo que no es sólo más rápido que su antecesor sino que mejora las capacidades de texto, visión y audio de cualquier aplicación -incluida ChatGPT- que utilice el modelo como base de conocimiento y funcionamiento.

Un modelo con un mejor funcionamiento, un menor consumo de energía, un menor costo y más capacidades, tal y cómo lo mostró la compañía durante su livestream, que aumenta las posibilidades de incorporar la IA en cualquier elemento, aplicación o dispositivo.

Y, claro, la compañía lo usó para mostrar las nuevas capacidades en ChatGPT. Gracias al nuevo modelo ahora usted puede escribirle o hablarle a ChatGPT e, incluso, mostrarle cosas para que este las analice y responda sobre ellas.

En los demos que vimos hoy, la compañía mostró conversaciones rápidas con ChatGPT, que respondió con una voz más expresiva que la que hemos oído en el pasado, que se detuvo cuando la interrumpieron y que, a pesar de ello, recordaba en qué estaba, el contexto de su conversación y se mantenía al corriente de lo que estaba haciendo.

Incluso, ChatGPT fue capaz de adoptar diferentes tonos emocionales durante la conversación y a veces respondió como si estuviera experimentando sentimientos propios.

“It feels like AI from the movies; and it’s still a bit surprising to me that it’s real. “Getting to human-level response times and expressiveness turns out to be a big change.” – Sam Altman, CEO | OpenAI

El anuncio, un día del comienzo del Google I/O le pone presión al gigante de Mountain View para mostrar las capacidades de Gemini y demostrar cómo puede mantenerse a la vanguardia tecnológica luego de un año de ataques incesantes de parte de Altman y su equipo y del equipo de Microsoft que, hoy por hoy, es el principal inversionista y cliente (y beneficiario) de OpenAI.

La compañía intentó “bajarle” el wow a lo mostrado por Mira Murati, con un teaser de lo que Gemini es capaz de hacer, interactuando con voz y la cámara y generando relaciones contextuales en sus respuestas.

Y entre los 2, más seguramente Microsoft la próxima semana, le pondrán presión a Apple para ver con qué sale, luego de que en el WWDC del año anterior el tema de IA pasara casi que de agache.

Deja un comentario