fbpx
Terminología de IA Terminología de IA

Los términos más frecuentes acerca de la IA

Los términos más relevantes a nivel e IA y mas aquí en TECHcetera.

La Inteligencia Artificial es la última novedad en el campo de la tecnología. Parece que todas las empresas hablan de sus avances en el uso o desarrollo de la IA. Pero el campo de la Inteligencia Artificial también está tan lleno de jerga y de términos que, en ocasiones, puede resultar muy difícil entender qué está pasando realmente con cada nuevo desarrollo.

Por tal motivo, para ayudarle a entender mejor lo que está pasando, hemos elaborado una lista de algunos de los términos de IA más frecuentes. Le comentaremos que significan como también otros datos de importancia, así que, ¡no se pierda ningún detalle al respecto!

 

¿Qué términos debe conocer acerca de la IA?

La IA es técnicamente la disciplina de la informática que se dedica a crear sistemas informáticos que puedan pensar como un humano. Pero, en la actualidad, lo que más escuchamos es hablar de IA como una tecnología o incluso como una entidad, y es más difícil precisar qué significa exactamente eso. También se utiliza con frecuencia como una palabra de moda en marketing, lo que hace que su definición sea más mutable de lo que debería ser.

IA
IA

Conforme más empresas intentan vender la Inteligencia Artificial como el gran futuro, las formas en que utilizan el término y otras nomenclaturas relacionadas tienen la capacidad de poder volverse todavía más confusas. Hay un montón de frases que posiblemente hallará en artículos o material de marketing sobre IA, por lo que, para ayudarlo a comprenderlas mejor, a continuación le traemos  una descripción general de muchos de los términos clave en IA que se están utilizando hoy por hoy. Sin embargo, en última instancia, todo se reduce a intentar hacer que las computadoras sean más inteligentes.

A continuación, los conceptos básicos que debe conocer:

  • Aprendizaje automático: los sistemas de aprendizaje automático se entrenan con datos para que puedan hacer predicciones sobre nueva información. De esa forma, tienen la capacidad de poder “aprender”. El aprendizaje automático viene siendo un campo dentro de la Inteligencia Artificial y es esencial para muchas tecnologías de IA.
  • Inteligencia artificial general (IAG): la IAG viene siendo la Inteligencia Artificial que es tan inteligente como un ser humano o más inteligente. Esta podría ser una tecnología increíblemente poderosa, pero para muchas personas, también es potencialmente la perspectiva más aterradora sobre las posibilidades de la IA (¡piense en todas las películas que hemos visto sobre máquinas superinteligentes que se apoderan del mundo!). Si eso no es suficiente, también se está trabajando en la “superinteligencia”, que es mucho más inteligente que un ser humano.
  • IA generativa: una tecnología de IA capaz de generar nuevos textos, así como imágenes, códigos y mucho más. Las herramientas de IA generativa funcionan con modelos de Inteligencia Artificial que habitualmente se entrenan con grandes cantidades de datos.
  • Alucinaciones: es crucial señalar que, debido a que las herramientas de IA generativa son tan buenas como los datos con los que se entrenan, pueden “alucinar” o inventar con confianza lo que creen que son las mejores respuestas a las preguntas. Estas alucinaciones significan que los sistemas pueden cometer errores factuales o dar respuestas sin sentido. Incluso existe cierta controversia sobre si las alucinaciones de la IA pueden “arreglarse” alguna vez.
  • Sesgo: cabe destacar que, dependiendo de sus datos de entrenamiento, las herramientas de IA pueden demostrar sesgos. Por ejemplo, una investigación de 2018 de Joy Buolamwini, científica informática del MIT Media Lab, y Timnit Gebru, fundadora y directora ejecutiva del Distributed Artificial Intelligence Research Institute (DAIR), fueron coautoras de un artículo que ilustraba cómo el software de reconocimiento facial tenía tasas de error más altas al intentar identificar el género de las mujeres de piel más oscura.

También puede escuchar hablar sobre modelos, pero, ¿qué son?

  • Modelo de IA: los modelos de IA (Inteligencia Artificial) se entrenan con datos para que puedan llevar a cabo tareas o tomar decisiones por sí mismos.
  • Modelos de lenguaje grandes, o LLM: un tipo de modelo de Inteligencia Artificial que tiene la capacidad de poder procesar y generar texto en lenguaje natural. Cabe aclarar que, Claude de Anthropic, que, según la compañía, es “un asistente útil, honesto e inofensivo con un tono conversacional”, es un ejemplo de LLM.
  • Modelos de difusión: modelos de Inteligencia Artificial (IA) que se pueden utilizar para generar imágenes a partir de indicaciones de texto, por ejemplo. Se entrenan añadiendo primero ruido (como estática) a una imagen y luego invirtiendo el proceso para que la IA haya aprendido a crear una imagen clara. También hay modelos de difusión que funcionan con audio y con vídeo.
  • Modelos de base: estos modelos de IA generativos se entrenan con una gran cantidad de datos y, como resultado, tienen la capacidad de poder ser la base de una amplia variedad de aplicaciones sin un entrenamiento específico para esas tareas. GPT de OpenAI, así como Gemini de Google, Llama de Meta y Claude de Anthropic, son ejemplos de modelos de base. Numerosas empresas también están comercializando sus modelos de IA como multimodales, lo que significa que pueden procesar múltiples tipos de datos, como texto, imágenes y videos.
  • Modelos de frontera: además de los modelos básicos, las empresas de IA se encuentran trabajando en lo que denominan “modelos de frontera”, que es básicamente un término de marketing para sus modelos futuros inéditos. En teoría, estos modelos podrían ser mucho más potentes que los modelos de Inteligencia Artificial que están disponibles actualmente, aunque también existe la preocupación de que podrían plantear riesgos significativos.

Existe otros términos con los que se puede topar en algún momento…

  • Procesamiento del lenguaje natural (PLN): la capacidad de las máquinas de comprender el lenguaje humano gracias al aprendizaje automático. ChatGPT de OpenAI es un ejemplo básico: tiene la capacidad de poder comprender sus consultas de texto y generar texto como respuesta.
  • Inferencia: cuando una aplicación de IA generativa realmente genera algo, como cuando ChatGPT responde a una solicitud sobre cómo hacer galletas con chispas de chocolate compartiendo una receta. Esta es la tarea que lleva a cabo su computadora cuando ejecuta comandos de IA locales.
  • Tokens: los mismos, hacen referencia a fragmentos de texto, como palabras, partes de palabras o incluso caracteres individuales. Por ejemplo, los LLM dividirán el texto en tokens para poder analizarlos, determinar cómo se relacionan entre sí y generar respuestas. Es crucial señalar que, cuantos más tokens pueda procesar un modelo a la vez, más sofisticados podrán ser los resultados.
  • Red neuronal: una red neuronal viene siendo una arquitectura informática que ayuda a las computadoras a procesar datos mediante nodos, que tienen la posibilidad de compararse con las neuronas del cerebro humano. Las redes neuronales son esenciales para los sistemas de IA generativa populares porque pueden aprender a comprender patrones complejos sin programación explícita.
  • RAG: este acrónimo significa “generación aumentada por recuperación”. Cuando un modelo de IA genera algo, RAG le permite hallar y agregar contexto más allá de lo que se entrenó, lo que tiene la capacidad de mejorar la precisión de lo que finalmente genera. Digamos que le pregunta a un chatbot de IA algo que, según su entrenamiento, en realidad no sabe responder. Sin RAG, el chatbot podría simplemente alucinar una respuesta incorrecta. Sin embargo, con RAG, tiene la capacidad de poder consultar fuentes externas (por ejemplo, otros sitios en Internet) y usar esos datos para ayudar a fundamentar su respuesta.

¡Estos son los términos más comunes, esperamos le haya sido de gran utilidad!

Deja un comentario