fbpx

OpenAI no quiere que te enamores del nuevo ChatGPT

OpenAI advierte sobre los riesgos emocionales asociados con su nuevo modelo de IA avanzado.

OpenAI (líder en IA), subió un comunicado en donde advierte sobre los riesgos emocionales asociados con su nuevo modelo de Inteligencia Artificial avanzado. Es de resaltar que, la advertencia se centra en la posibilidad de que los usuarios desarrollen una dependencia emocional hacia las interacciones con esta IA, la cual ha sido diseñada para mantener conversaciones más naturales y empáticas que sus predecesores.

OpenAI señaló que su modelo GPT-4o presenta un riesgo “moderado” en cuanto a su capacidad de persuasión, fundamentalmente en interacciones textuales, y que tiene la capacidad de llevar a los usuarios a desarrollar una dependencia emocional, especialmente debido a sus avances en tecnología de voz y de audio.

El modelo, que ha sido entrenado con grandes cantidades de datos para comprender y así mismo, responder de forma más humana, tiene la capacidad de poder crear la ilusión de una relación personal. Vale la pena destacar que, esto puede llevar a que algunos usuarios experimenten una conexión emocional más profunda de lo que es saludable, esencialmente si usan la IA como un sustituto de interacciones humanas reales. OpenAI no quiere que se enamore del nuevo ChatGPT y aquí le comentamos todos los detalles del porqué.

OpenAI advierte sobre los riesgos emocionales asociados con su nuevo modelo de IA avanzado

Recientemente, la compañía publicó un informe interno titulado “Tarjeta de Sistema de su modelo GPT-4o” (‘GPT-4o System Card’), en el cual se exponen los resultados de la investigación sobre la seguridad de este modelo de IA generativa.

El informe especifica que se ha evaluado de forma exhaustiva el modelo para identificar posibles riesgos, lo que ha permitido implementar medidas de seguridad antes de su uso en ChatGPT o en la API.

Una de las funciones más preocupantes es que esta Inteligencia Artificial (IA) tiene la capacidad de poder simular diálogos entre personajes, que es útil para escritores, así como también para guionistas o inclusive, para entrenamiento en habilidades de comunicación.

La compañía destacó que su investigación logró identificar un riesgo “moderado” en las capacidades de persuasión del modelo, y ha alertado sobre el riesgo de antropomorfización, que podría llevar a los usuarios a desarrollar una dependencia emocional al confiar en la Inteligencia Artificial debido a sus características análogas a las humanas.

Es crucial tener presente que de las 4 categorías generales de riesgo, que incluyen ciberseguridad, amenazas biológicas, así como autonomía del modelo y persuasión, OpenAI reveló este nivel de riesgo en la última.

Esto viene siendo fundamentalmente relevante en el formato de texto del modelo, donde los investigadores observaron que GPT-4o tiene la capacidad de influir en las opiniones de los usuarios.

Utilizarla de forma consciente… 

Por su parte, OpenAI recalcó la importancia de usar la tecnología de forma consciente y al mismo tiempo equilibrada, recordando a los usuarios que, aunque la Inteligencia Artificial puede proporcionar compañía y apoyo en ciertos contextos, no tiene que reemplazar las relaciones humanas auténticas.

Además de todo esto, han instado a la comunidad tecnológica y así mismo, a los desarrolladores, a considerar las implicaciones éticas y emocionales de sus creaciones.

No se debe pasar por alto mencionar que, este anuncio subraya la necesidad de establecer límites claros en el uso de la IA y de continuar investigando los efectos a largo plazo que estas interacciones tienen la posibilidad de tener en la salud mental de los usuarios.

Deja un comentario