fbpx
Image Image Image Image Image Image Image Image Image Image
Scroll to top

Top

No Comments

¿La cultura y la ética pueden influir en la Inteligencia Artificial?

¿La cultura y la ética pueden influir en la Inteligencia Artificial?
Felipe Lizcano

Hace un tiempo hablábamos en DGTal Podcast sobre la manera como, con el pasar del tiempo, los sistemas se van haciendo cada vez más autónomos gracias a la ayuda de la Inteligencia Artificial y el qué tan importante es la ética a la hora de planear, entrenar y, obviamente, al programarla.
 
Si lo quiere escuchar aquí, solo dele clic al player embebido a continuación:
 
Listen to “3.4 El rol de la ética en la Inteligencia Artificial” on Spreaker.
 
Tal como quedo claro en el podcast, es bastante difícil ponerse de acuerdo a nivel de la ética y los principios de cada cultura. Por ejemplo, en culturas en donde existe la censura  para hablar de ciertos temas o para protestar en contra del estado mismo. En esos lugares, es muy posible, que los mismos algoritmos sean programados para seguir esos parámetros y evitar términos que puedan incitar a la insurrección.

 

Dado que los sistemas han evolucionado gracias a la Computación Inteligente a tal punto que, pueden aprender sobre un determinado proceso de forma adaptativa, por medio de la observación y el censo de las estadísticas. Todo con el fin de encontrar la manera más apropiada para procesar escenarios. Teniendo en cuenta que en ocasiones, no tienen normas bien definidas y, que muchas veces, son la base de entrenamiento para la Inteligencia Artificial.

 

Por lo anterior, dependiendo del enfoque usado para entrenar a red neuronal, los sesgos pueden llegar a trasferirle a la Inteligencia Artificial una perspectiva que no es del todo ético y/o moral dependiendo de la cultura.

 

Según un estudio de los investigadores de la UCSD, la censura de China se ve reflejada en los algoritmos de Inteligencia Artificial que, en casos cargados como ese, puede llegar hasta a ubicar términos como “Democracia” más cerca de otros como “Caos” vs lo que lo que pasaría con un algoritmo menos cargado que llegaría a posicionar “Democracia” en un lugar más de la “Estabilidad”.

 

Cada vez más, se empieza a hacer evidente la relación entre la Inteligencia Artificial con la exposición directa a la cultura que alimenta y retroalimenta a los algoritmos constantemente. No podemos olvidar el caso de Kay que, en menos de 24 horas se convirtió en racista, amante de Hitler y de Donald Trump, expresó sentimientos antisemitas y denigrantes en contra de personas de color (como el Presidente Obama), inmigrantes y demás.

 

 

Para evitar ese tipo de situaciones, existen 5 principios que pretenden establecer un acuerdo marco para moldear las buenas prácticas en las relaciones con los sistemas con Inteligencia Artificial, algo como una especie de brújula moral en el proceso de integración, aprendizaje y despliegue. Esos principios son:

 

  • La beneficencia: debe promover el bienestar, preservar la dignidad del ser humano y la sostenibilidad del planeta
  • No servir fines maléficos: debe guardar la privacidad, seguridad y la capacidad de actuar con cautela
  • Autonomía: debe establecer un balance entre el poder de tomar decisiones. Que el ser humano tiene que preservar y puede llegar a delegar a la AI
  • Justicia: debe crear beneficios compartidos y preservar la solidaridad
  • Explicabilidad: debe preservar la inteligibilidad y confiabilidad

 

La finalidad de meterle ética a la Inteligencia Artificial  es simple, establecer un marco de justicia y ética que pueda ser claro y unívoco (eliminando los sesgos propios del temperamento humano) para explicar las ventajas, riesgos, casos y el costo de oportunidad que va implícito en el uso de la Inteligencia Artificial en el día a día para, de esta forma, más adelante, cuando la tecnología se encuentre madura, no va a ser necesario lamentarse por no tomar las medidas a tiempo.