¿Puede un chatbot diferenciar entre el bien y el mal? Todo parece indicar que sí, “Claude AI” de Anthropic, ha desarrollado un conjunto de principios éticos mediante una “constitución” y según se descubrió, puede manejar indicaciones del tamaño de un libro.
Anthropic (empresa dirigida por antiguos investigadores de OpenAI), se ha dado a la tarea desarrollar una IA capaz de saber qué es bueno y que es malo con una pequeña intervención humana. Todo esto con el objetivo de evitar que la IA pueda en algún momento llegar a generar contenido ficticio u injurioso.
Claude AI de Anthropic: la IA que puede diferenciar entre el bien y el mal
El chatbot Claude de Anthropic, ha sido creado con una “constitución” única, según se conoció recientemente, fue diseñado con un conjunto de reglas inspiradas en la Declaración Universal de Derechos Humanos. Por lo cual, han sido planteadas para poder garantizar un comportamiento ético junto con otras normas “éticas” como por ejemplo, las reglas de Apple para desarrolladores de aplicaciones.
Es importante resaltar que la técnica de entrenamiento de Anthropic se detalla en un artículo de investigación denominado “IA constitucional: inofensividad de la retroalimentación de la IA”, en donde se expone una manera de crear una IA que pueda ser “inofensiva” pero al mismo tiempo realmente útil o ventajosa que, una vez que este entrenada, puede mejorar por sí misma sin la necesidad de la retroalimentación humana. ¿Cómo podría mejorar por si misma? identificando comportamientos impropios y adaptando su propia conducta.
La compañía afirma que existen ciertas bondades en Claude AI, desde donde destacan el hecho de que puede manejar más de 100.000 tokens de información, lo que sin duda, es fantástico, porque resulta ser mucho más que lo que pueden manejar otros chatbot como por ejemplo; ChatGPT de OpenAI, Bard de Google u otro.
Introducing 100K Context Windows! We’ve expanded Claude’s context window to 100,000 tokens of text, corresponding to around 75K words. Submit hundreds of pages of materials for Claude to digest and analyze. Conversations with Claude can go on for hours or days. pic.twitter.com/4WLEp7ou7U
— Anthropic (@AnthropicAI) May 11, 2023
La capacidad del token de Claude AI, logra permitir administrar conversaciones bastante amplias al mismo tiempo que tareas complejas, lo que lo convierte en una presencia formidable en el panorama de la Inteligencia Artificial.
Un paso trascendental en el mundo de la Inteligencia Artificial
La implementación del marco ético del chatbot Claude es experimental, pero se trata de un gran esfuerzo por abordar el mal uso ético de los chatbots, como lo manifiesta Anthropic, es un paso trascendental en la industria de la Inteligencia Artificial (IA).
Ahora bien, la formación ética de Claude lo anima a escoger respuestas que se alineen con su constitución, centrándose en apoyar aspectos como; la libertad, la igualdad, así como el sentido de hermandad, e incluso, el respeto por los derechos individuales. Pero evidentemente esto nos lleva a pensar si ¿puede una IA elegir continuamente respuestas éticas? Jared Kaplan, exconsultor de OpenAI y uno de los fundadores de Anthropic, cree que la tecnología está más avanzada de lo que muchos podrían anticipar. Al mismo tiempo que mencionó que esta incapacidad para hacer daño, mejora a medida que avanzas en este proceso.
El chatbot “Claude AI” de Anthropic nos recuerda que el desarrollo de la Inteligencia Artificial, no es solo una carrera tecnológica, se trata de crear una que logre entender la delgada línea que separa el bien del mal. Sin duda, contar con un chabot de IA con este tipo de características, es un gran beneficio y aporte valioso para la industria de la Inteligencia Artificial.