fbpx

Conozca el nuevo GPT-4o mini

GPT-4o mini un modelo multimodal nuevo, pequeño y al mismo tiempo económico.

Hace poco más de 2 meses, OpenAI lanzó GPT-4o, su modelo de Inteligencia Artificial (IA) más nuevo y poderoso que fue el primero en ser entrenado por la compañía de forma nativa para manejar entradas y salidas multimodales (texto, imagen, así como audio y, en última instancia, video) sin vincularse a otros modelos para obtener ayuda. Es de resaltar que, fue el modelo de IA más poderoso disponible públicamente en el mundo según los puntos de referencia de terceros en el momento de su lanzamiento, pero… poco tiempo después fue superado por Claude 3.5 Sonnet de Anthropic unas semanas más tarde, y desde entonces ambos han estado cabeza a cabeza. Pero, lo cierto es que, OpenAI no se detiene allí; el día de hoy anuncia una versión más pequeña de ese modelo, “GPT-4o mini”.

GPT-4o mini, según señala la compañía, es “el modelo pequeño más rentable del mercado”, que cuesta a los desarrolladores solo $ 0,15 USD por cada millón de tokens que ingresa un usuario, y un valor de $ 0,60 por cada millón que reciben del modelo, para aplicaciones y servicios de terceros creados sobre él utilizando las interfaces de programación de aplicaciones (API) de OpenAI.

Cabe aclarar que inclusive, es mucho más barato que GPT-4o, que cuesta $5,00 por 1 millón de tokens de entrada y un valor de $15 por 1 millón de tokens de salida. ¡Conozca todo sobre el nuevo GPT-4o mini a continuación aquí en TECHcetera!

GPT-4o mini un modelo multimodal nuevo, pequeño y al mismo tiempo económico

Los tokens, como seguramente ya lo sabrá, son los códigos numéricos que representan unidades semánticas, palabras, así como números y otros datos dentro de un modelo de lenguaje grande (LLM) o un modelo de lenguaje pequeño (SML), este último que parece ser GPT-4o mini. Hasta el momento, OpenAI no ha publicado la cantidad de parámetros o conexiones entre neuronas artificiales que tiene el modelo, lo que hace difícil decir qué tan grande o pequeño es, pero el nombre “mini” sin duda, claramente proporciona una indicación.

Olivier Godement, quien es director de productos de API de OpenAI, señaló ayer al medio de noticias VentureBeat, en una entrevista por teleconferencia que, GPT-4o mini es particularmente útil para empresas, startups y desarrolladores que “construyen cualquier agente”, desde un agente de atención al cliente hasta, según comenta, un agente financiero, puesto que estos suelen llevar a cabo “muchas llamadas a la API”, lo que resulta en un gran volumen de tokens ingresados ​​y emitidos por el modelo fuente subyacente, lo que tiene la posibilidad de aumentar rápidamente los costos.

Godement ha señalado, “El costo por inteligencia es tan bueno que espero que se use para todo tipo de soporte al cliente, ingeniería de software, escritura creativa, todo tipo de tareas. Cada vez que adoptamos un nuevo modelo, surgen nuevos casos, y creo que ese será aún más el caso de GPT-4o mini”.

Vale la pena destacar que, la decisión de lanzar GPT-4o mini también se produce antes del lanzamiento informado por Meta de su modelo masivo “Llama 3” de 400 mil millones de parámetros, esperado la próxima semana, y parece visiblemente diseñado para adelantarse a esa noticia y fundar en la mente de los desarrolladores que OpenAI continúa siendo el líder en Inteligencia Artificial de nivel empresarial.

60% más barato que GPT-3.5 Turbo para desarrolladores

Para colocar el costo de GPT-4o mini en perspectiva, es un 60% menos que GPT-3.5 Turbo, anteriormente el modelo más asequible entre las ofertas de OpenAI desde el lanzamiento de GPT-4o.

Al mismo tiempo, se pretende que el modelo funcione tan rápido como GPT-3.5 Turbo, transmitiendo cerca de 67 tokens por segundo.

Es de resaltar que, OpenAI presenta GPT-4o mini como un sucesor directo de GPT-3.5 Turbo, pero uno mucho más capaz, debido a que también tiene la capacidad de poder manejar entradas de texto y visión, a diferencia de GPT-3.5 Turbo, que únicamente podía manejar texto.

En algún momento en el futuro, OpenAI afirma que GPT-4o mini igualmente podrá generar imágenes y otras salidas multimodales, incluidos audio y video, así como aceptarlas como entradas. Pero, por el momento, solo estarán disponibles las entradas de texto e imágenes fijas/documentos.

Actualmente, GPT-4o mini supera a GPT-3.5 Turbo en una variedad de pruebas de rendimiento de terceros, así mismo, a otros modelos de categoría comparable como Gemini 1.5 Flash de Google y Claude 3 Haiku de Anthropic, e incluso al propio GPT-4 en algunas tareas.

Concretamente, OpenAI publicó puntos de referencia que muestran que GPT-4o mini obtiene un 82,0% en el punto de referencia Massive Multitask Language Understanding (MMLU), que incluye preguntas de opción múltiple sobre temas de matemáticas, ciencias, así como historia y mucho más, frente al 77,9% de Gemini Flash y el 73,8% de Claude Haiku.

Llegará a los dispositivos Apple este otoño

Además de todo lo anteriormente mencionado, es crucial señalar que, Godement comentó que GPT-4o mini estaría disponible este otoño a través de Apple Intelligence, el nuevo servicio de inteligencia artificial de Apple Inc., para sus dispositivos móviles y computadoras de escritorio Mac, programado para coincidir con el lanzamiento de su nuevo software iOS 18, como parte de la asociación entre OpenAI y Apple anunciada en el importante evento WWDC de este último el mes pasado.

Sin embargo, el modelo continuará ejecutándose en servidores en la nube de OpenAI, no en el dispositivo, lo que parecería anular una de las ventajas de ejecutar un modelo pequeño en primer lugar; una inferencia local que es, por naturaleza, más rápida, más segura y no requiere una conexión web.

Pero, Godement indicó que incluso al conectarse a los servidores en la nube de OpenAI, el modelo GPT-4o mini es mucho más rápido que otros disponibles de la empresa. Además, comentó que la mayoría de los desarrolladores externos con los que trabajaba OpenAI todavía no estaban interesados ​​en ejecutar los modelos de la empresa localmente, puesto que requeriría una configuración y un hardware informático mucho más intensivos de su parte.

Sin embargo, la introducción de GPT-4o mini plantea la posibilidad de que los clientes desarrolladores de OpenAI ahora tengan la capacidad de poder ejecutar el modelo localmente de forma más rentable y con menos hardware, por lo que Godement comentó que no estaba descartado que algún día se pudiera suministrar una solución de este tipo.

Reemplazar GPT-3.5 Turbo en ChatGPT…

Desde ya, GPT-4o mini reemplazará a GPT-3.5 Turbo entre las opciones para los suscriptores pagos de ChatGPT, incluidos los planes Plus y Teams, y la compatibilidad con ChatGPT Enterprise llegará la próxima semana. Es de resaltar que, el modelo aparecerá en el menú desplegable en la esquina superior izquierda de las aplicaciones web y de escritorio para Mac.

Sin embargo, los usuarios de ChatGPT no obtendrán una disminución de precio en sus suscripciones pagas por seleccionar GPT-4o mini: solo los desarrolladores que creen sobre la API se beneficiarán de los ahorros.

No obstante, los usuarios de ChatGPT tendrán acceso automáticamente a un modelo más nuevo, al mismo tiempo que, más rápido y más potente para tareas que GPT-3.5 Turbo, lo que sin duda es un gran beneficio.

OpenAI todavía no ha desaprobado ni eliminado paulatinamente el soporte para GPT-3.5 Turbo en sus API, debido a que la compañía no quiere obligar a los desarrolladores a actualizar o romper las aplicaciones que actualmente están construidas sobre este modelo más antiguo.

En cambio, la compañía cree que es probable que los desarrolladores migren de forma rápida y masiva al uso del nuevo modelo, puesto que supone una reducción significativa de costes y de igual forma, un aumento de la inteligencia y otras capacidades.

Deja un comentario