Desde Google se encuentran ampliando un esfuerzo para permitir que sus clientes de la nube basen sus chatbots de Inteligencia Artificial empresarial en hechos del mundo real, incluida una nueva asociación con Moody’s para usar sus datos financieros. Google quiere asegurarse que su IA responde basado en hechos reales y esto es todo lo que tiene que conocer al respecto.
La compañía quiere asegurarse que su IA responde basado en hechos reales
Usted se preguntará; ¿por qué esto es importante? para responder a ello, debemos señalar que la IA generativa creará información, pero basar estos sistemas en datos factuales conocidos puede disminuir significativamente las alucinaciones.
Por si no lo sabía, en el mes de abril, Google anunció un esfuerzo para basar los resultados de Vertex AI en la búsqueda web, así como un plan para permitir que las empresas basen los sistemas de Inteligencia Artificial en sus propios datos internos.
Es de resaltar que, ahora, Google proporciona una opción adicional. Utilizar datos de terceros para ayudar a consolidar los resultados de la IA. Los socios iniciales en este esfuerzo incluyen a Moody’s, así como a Thomson Reuters y ZoomInfo.
Muchos son los que han comentado al respecto, uno de ellos es Thomas Kurian:
“Realmente puedes confiar en el modelo para realizar una tarea en tu nombre porque tienes una base para confiar en él”, comentó a Axios el director ejecutivo de Google Cloud, Thomas Kurian.
Vale la pena señalar que, las medidas se producen cuando los principales proveedores de GenAI buscan demostrar que sus sistemas son lo suficientemente seguros y confiables para uso comercial.
Más formas de hacer que sean más confiables…
Google también proporciona más formas de hacer que sus sistemas sean más confiables y predecibles. Una de ellas es una nueva “puntuación de confianza”, en la que el modelo de Inteligencia Artificial (IA) ofrece un indicador numérico de cuán seguro está de la respuesta.
Por su parte, otra nueva característica permite a los clientes indicarle al modelo que se concentre en hallar respuestas en los documentos u otra información incluida en una solicitud, en vez de hacerlo en sus extensos datos de entrenamiento.
Kurian señaló, “Hemos enseñado al modelo cómo garantizar que cuando responda, tome lo que está en el mensaje de entrada como la información principal a la que debe prestar atención. Evita distraerse con el resto de datos del entrenamiento”.
Por otra parte, Google también anunció la disponibilidad general de su modelo Gemini 1.5 Flash de baja latencia, así como de Gemini 1.5 Pro, que tiene la capacidad de poder manejar hasta 2 millones de tokens de contexto, suficiente para 2 horas de video.