fbpx
Red Hat Gen AI Red Hat Gen AI

Red Hat ofrece innovación en IA generativa Open source

Innovación en IA generativa Open source.

Red Hat  hace poco anunció el0 lanzamiento de Red Hat Enterprise Linux AI (RHEL AI), una plataforma de modelos fundacionales que permite a los usuarios desarrollar, así como probar e implementar modelos de IA generativa de forma más ‎integrada. RHEL AI combina la familia de modelos de lenguaje de gran tamaño (LLM) Granite con licencia open source de IBM Research, las herramientas de alineación de modelos InstructLab basadas en la metodología LAB (Large-scale Alignment for chatBots) y, así mismo, un enfoque para el desarrollo de modelos impulsado por la comunidad a través del proyecto InstructLab.

Vale la pena señalar que, la solución completa está empaquetada como una imagen de RHEL de inicio optimizada para implementaciones de servidores individuales en toda la nube híbrida y también como parte de OpenShift AI, la plataforma híbrida de operaciones de aprendizaje automático (MLOps) de Red Hat, para ejecutar modelos e InstructLab a escala en entornos de clústeres distribuidos. ¡Todos los detalles sobre la innovación en IA generativa a continuación!

Red Hat ofrece innovación en IA generativa

Como bien sabemos, el lanzamiento de ChatGPT despertó un gran interés por la GenAI y, desde entonces, el ritmo de la innovación no ha dejado de cobrar impulso. Las empresas ya han trascendido las primeras evaluaciones de los servicios de la IA generativa para crear aplicaciones basadas en Inteligencia Artificial.

Es de resaltar que, el vertiginoso crecimiento del ecosistema de opciones de modelos abiertos ha estimulado una mayor innovación en IA y ha demostrado que no habrá “un modelo que rija a todos”. Los clientes se beneficiarán al contar con un extenso abanico de opciones que atiendan necesidades concretas, las cuales se verán aceleradas por un enfoque abierto de la innovación.

La implementación de una estrategia de Inteligencia Artificial (IA) exige mucho más que la simple elección de un modelo. Además de solventar los grandes costos de implementar la IA, las empresas tecnológicas requieren de conocimientos especializados para adaptar un modelo determinado a un caso de uso concreto. Al déficit de habilidades en ciencia de datos se le suman importantes requisitos financieros, entre ellos:

  • La adquisición de infraestructura de Inteligencia Artificial o el consumo de servicios de IA.
  • Así mismo, el complejo proceso de adaptar los modelos de IA a necesidades empresariales determinadas.
  • La integración de la Inteligencia Artificial en las aplicaciones empresariales.
  • E incluso, la gestión del ciclo de vida tanto de las aplicaciones como de los modelos.

Es crucial destacar que para poder disminuir de forma eficaz  las barreras de acceso a la innovación en IA, las empresas necesitan poder ampliar la lista de personas capaces de trabajar en iniciativas de Inteligencia Artificial y, al mismo tiempo, controlar los costos. En un esfuerzo por eliminar estos obstáculos, desde Red Hat pretenden extender los beneficios de los verdaderos proyectos open source (de libre acceso y reutilizables, completamente transparentes y abiertos a colaboraciones) a la GenAI gracias a las herramientas de alineación InstructLab, los modelos Granite y así mismo, RHEL AI.

Crear IA de forma abierta con InstructLab de Red Hat

Es crucial dar a conocer que IBM Research creó la técnica Large-scale Alignment for chatBots (LAB), un método de alineación de modelos que usa la generación de datos sintéticos guiada por taxonomía y un novedoso sistema de ajuste de múltiples etapas. Al disminuir la dependencia de costosas anotaciones humanas y modelos patentados, este enfoque hace que el desarrollo de modelos de Inteligencia Artificial sea más abierto y accesible para todos los usuarios.

Con el método LAB, los modelos se pueden optimizar al especificar las habilidades y los conocimientos vinculados a una taxonomía. Esto consigue generar datos sintéticos a partir de esa información a escala que influyen en el modelo y usa los datos generados para el entrenamiento de modelos.

Según se informa, después de comprobar que el método LAB podía ayudar a optimizar el rendimiento de los modelos de forma significativa, IBM y Red Hat decidieron lanzar InstructLab, una comunidad de código abierto creada en torno al método LAB y a los modelos de código abierto IBM Granite. El proyecto InstructLab pretende poner el desarrollo de LLM en manos de los desarrolladores al hacer que la creación y la contribución a un LLM sean tan sencillas como la contribución a cualquier otro proyecto de código abierto.

Ahora bien, como parte del lanzamiento de InstructLab, IBM también ha hecho pública una familia de modelos de lenguaje y código Granite en inglés. Estos modelos se publican con licencia Apache con total transparencia respecto de los conjuntos de datos usados para entrenarlos. Es importante señalar que el modelo de lenguaje Granite 7B en inglés se ha integrado a la comunidad InstructLab, en la que los usuarios finales tienen la capacidad de poder aportar sus habilidades y sus conocimientos para mejorar este modelo entre todos del mismo modo que lo harían al contribuir a cualquier otro proyecto de código abierto. Próximamente, según han dado a conocer, habrá disponible un soporte similar para los modelos de código Granite dentro de InstructLab.

Innovación en IA de código abierto sobre un eje estructural de Linux de confianza

RHEL AI se funda en este enfoque abierto de la innovación en Inteligencia Artificial e incorpora una versión del proyecto InstructLab y modelos de lenguaje y código Granite para la empresa combinados con la plataforma Linux empresarial líder del mundo con el objeto de simplificar las implementaciones en infraestructuras híbridas. Cabe destacar que esto, logra generar una plataforma de modelos fundacionales que pretende llevar los modelos de GenAI con licencia de código abierto a la empresa. RHEL AI incluye:

  • Modelos de lenguaje y código Granite con licencia de código abierto con protección y así mismo, soporte plenos de Red Hat.
  • Una distribución de InstructLab con soporte y ciclo de vida, que brinda una solución escalable y rentable para aumentar las capacidades de LLM y hacer que el aporte de conocimientos y habilidades sea accesible a muchos más usuarios.
  • Instancias de tiempo de ejecución de modelos de inicio optimizadas por medio de modelos Granite y paquetes de herramientas de InstructLab como imágenes RHEL de inicio a través del modo de imágenes de RHEL, que incluyen Pytorch y las bibliotecas de tiempo de ejecución y los aceleradores de hardware necesarios para NVIDIA, así como Intel y AMD.
  • La promesa de soporte empresarial y ciclo de vida completos de Red Hat, que comienza con una distribución de productos empresariales de confianza, con soporte de producción 24×7, así como soporte de ciclo de vida extendido de los modelos y así mismo, protección de la propiedad intelectual de los modelos.

Conforme las empresas experimenten y ajusten nuevos modelos de IA en RHEL AI, dispondrán de una vía de acceso lista para escalar estos flujos de trabajo con Red Hat OpenShift AI, la cual incluirá RHEL AI y en la cual podrán aprovechar OpenShift Kubernet Engine para entrenar y servir modelos de IA a escala, así como las capacidades de MLOps integradas de OpenShift AI para gestionar el ciclo de vida de los modelos. Por su parte, OpenShift AI y RHEL AI también se integrarán con IBM watsonx, que aporta capacidades adicionales para el desarrollo de IA empresarial, la gestión de datos y así mismo, el gobierno de modelos.

 

Deja un comentario