fbpx

OpenAI ha enfatizado que quiere evitar que la IA alucine y mienta

OpenAI está optimizando las habilidades de resolución de problemas matemáticos del chatbot con el objetivo de poder reducir las alucinaciones de Inteligencia Artificial.

Muchos son los beneficios que ha otorgado ChatGPT desde su llegada, pero, también se conoce aspectos negativos que han empezado a aparecer en cuanto a errores con este chabot de IA. Por lo tanto, recientemente se ha conocido que la reconocida compañía OpenAI (empresa detrás de ChatGPT), enfatizó que está optimizando las habilidades de resolución de problemas matemáticos del chatbot con el objetivo de poder reducir las alucinaciones de Inteligencia Artificial.

 

ChatGPT está siendo optimizado

OpenAI ha mencionado que los modelos de lenguaje han logrado avanzar mucho, sin embargo, también ha explicado mediante una publicación, que mitigar las alucinaciones viene siendo un  paso crítico para construir un “AGI alineado” (inteligencia general artificial alineada). Ahora bien,  cabe acotar que la última versión de ChatGPT, (GPT-4), se lanzó en marzo y la misma sigue impulsando la IA en la corriente principal. Pero, para nadie es un secreto, que los chatbots generativos de Inteligencia Artificial, han tenido problemas con los hechos y arrojan información falsa, a esto se le conoce coloquialmente como “alucinaciones”.

 

Por lo que se debe dejar claro que las alucinaciones de IA se refieren a instancias en las que una Inteligencia Artificial (IA), crea resultados que son realmente inesperados y falsos,  que no están respaldados por datos del mundo real, las alucinaciones de IA pueden ser contenido falso, así como noticias o información sobre personas, eventos e incluso, hechos (como ya ha ocurrido otras ocasiones, incluso,  con el caso más reciente del abogado que podría adquirir sanciones legales).

 

Debido a esto y otros aspectos, la reconocida compañía detrás de ChatGPT, OpenAI, recientemente advirtió de manera enfatizada a los usuarios que no confíen ciegamente en ChatGPT, presentando de esta manera,  una evasiva de responsabilidad al manifestar que “ChatGPT puede llegar a producir información inexacta sobre personas, así como también lugares o hechos”. Esto quiere decir que debe estar atento a lo que arroje esta IA y corroborarlo  por seguridad.

 

 

Deja un comentario