Muchas veces los algoritmos tienen desviaciones o vicios. El problema es que, a veces (como en el caso de Twitter) esos sesgos pueden evitar que los usuarios se expresen como ellos desean hacerlo en una determinada plataforma. Peor aún, en algunos caso, como el del reconocimiento facial, los algoritmos suelen ser menos precisos y causar problemas a las personas con un tono de piel más oscuro, o de cierto genero, etc… (tal como lo habíamos dicho anteriormente en otro artículo).
Dado que el anterior video tiene ya sus añitos, uno pensaría que en la actualidad este tipo de problemas con los algoritmos está solucionado pero, lastimosamente, los vicios aún la manera como aprenden las máquinas y, por consecuente, el resultado de los algoritmos!
En la media en que exista una mayor diversidad a nivel de los sets de datos usados para el aprendizaje de máquina sin exclusión a nivel de idiomas, grupos éticos, sociales y/o ideológicos; el resultado serán algoritmos más incluyentes, con menos sesgos y, posiblemente, con muchos menos vicios.
Pero eso no es suficiente, por lo mismo, no es nada sorprendente que, a nivel de los algoritmos, existan una serie de medidas necesarias para asegurar la inocuidad o sanidad de los mismos (higiene de los algoritmos), desde su concepción, entrenamiento y su capacidad de reedición constante para adaptarse a la ética a nivel de la inteligencia artificial.
La ética a nivel de la Inteligencia Artificial (AI) es el equivalente a esa brújula moral en el proceso de integración, aprendizaje y despliegue, en el cual, siempre se debe tener en cuenta los siguientes principios:
- La beneficencia: debe promover el bienestar, preservar la dignidad del ser humano y la sostenibilidad del planeta,
- No servir fines maléficos: debe guardar la privacidad, seguridad y la capacidad de actuar con cautela,
- Autonomía: debe establecer un balance entre el poder de tomar decisiones. Que el ser humano tiene que preservar y el que se puede llegar a delegar a la AI
- Justicia: debe crear beneficios compartidos y preservar la solidaridad,
- Explicabilidad: debe preservar la inteligibilidad y confiabilidad
Cabe aclarar que, al igual que en el caso del cuerpo humano, la higiene de los algoritmos debe ser constante, uno no se baña una sola vez en la vida, lo hace con cierta periodicidad dependiendo de la cultura y, sobre todo, de las necesidades. Grandes productos del mismísimo Google, han tenido que ajustar sus algoritmo cuando los vicios han generado errores (como por ejemplo etiquetar a personas como si fueran animales, sólo por su tono de piel).
Así las cosas, no es bueno dar por sentado que los algoritmos son simplemente perfectos, constantemente debe existir supervisión para revelar las fallas, reportar los errores y, sobre todo, probar los casos de uso en el mundo real (no es suficiente hacerlo en situaciones teóricas o ideales).