Los sistemas han evolucionado gracias a la Computación Inteligente, a tal punto que pueden aprender sobre un determinado proceso de forma adaptativa, por medio de la observación y el censo de las estadísticas. Todo con el fin de encontrar la solución apropiada para procesar escenarios. Teniendo en cuenta que en ocasiones, no tienen normas bien definidas y que, muchas veces, son la base de entrenamiento para la Inteligencia Artificial.
Cada vez más, la relación entre el usuario, el dispositivo y la nube es más estrecha gracias al uso de la Inteligencia Artificial. Lo que ha hecho que pase de ser un “Hype” a un componente tangible en los negocios. Más allá de reemplazar al humano, pretende complementarlo para abrir nuevas posibilidades en la industria, por medio de más potencia computacional, eficiencia energética, más velocidad y la optimización en el uso de los recursos disponibles.
Lastimosamente, existen varias prácticas inadecuadas o potencialmente peligrosas relacionadas con la inteligencia artificial que le quitan el sueño a muchos de los expertos. Una de esas cosas es está relacionada con el uso de la IA para tomar decisiones que pueden afectar a un sinnúmero de seres humanos y, de ahí, se desprenden otros riesgos y, posiblemente, mucha miseria para los afectados.
Es posible que una inteligencia artificial llegue a dañar a un ser humano?
Ahora bien, más allá de las malas prácticas, la posibilidad de que una inteligencia artificial (IA) pueda dañar al ser humano es una realidad que puede manifestarse de diversas formas, dependiendo del contexto y del caso de uso. Algunos posibles riesgos y daños potenciales son:
- Riesgos laborales: El uso de la IA en el lugar de trabajo puede reemplazar a los trabajadores humanos en algunas tareas y generar desempleo.
- Riesgos de privacidad y seguridad: La IA puede recopilar y utilizar datos personales de manera inadecuada y puede ser vulnerable a ataques cibernéticos.
- Riesgos éticos y morales: La IA puede tomar decisiones y realizar acciones que pueden ser consideradas éticamente cuestionables o inmorales.
- Riesgos de discriminación: La IA puede replicar y ampliar la discriminación existente si se utiliza para tomar decisiones que afectan a los individuos de manera desproporcionada.
Sera que las reglas de la robótica aplican a la inteligencia artificial?
Es importante tener en cuenta los riesgos y tomar medidas para minimizarlos al utilizar la Inteligencia Artificial. Esto puede incluir la implementación de medidas de seguridad y protección de la privacidad, el desarrollo y el seguimiento de códigos éticos y la realización de pruebas y evaluaciones adecuadas antes de implementar sistemas de IA.
Volviendo a las “3 leyes de la robótica”, estas son un conjunto de principios éticos propuestos por el escritor de ciencia ficción Isaac Asimov en sus historias de robots y establecen que un robot:
- No puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
- Debe obedecer las órdenes que le den los seres humanos, siempre y cuando estas órdenes no entren en conflicto con la primera ley.
- Debe proteger su propia existencia, siempre y cuando esta protección no entre en conflicto con las primeras dos leyes.
Aunque estas leyes han sido ampliamente discutidas en la cultura popular y citadas como una guía para el desarrollo ético de la tecnología de robots, no se aplican necesariamente a la inteligencia artificial (IA) de la misma manera. La IA es un conjunto de algoritmos y tecnologías de aprendizaje automático utilizados para realizar tareas específicas y proporcionar información y respuestas a preguntas. Aunque la IA puede ser utilizada en robots, no es necesariamente una parte integral de todos los robots. Encima de eso, la IA no tiene conciencia ni sentimientos y no puede dañar ni sufrir daño de la misma manera que los seres humanos.
Y entonces, qué leyes aplican a la inteligencia artificial?
En lugar de las 3 leyes de la robótica, se han desarrollado otras normas y códigos éticos para guiar el uso ético de la IA. Algunos de estas son:
- Código Ético y Profesional de la Asociación de Inteligencia Artificial (AAAI): Este código se aplica a los profesionales de la IA y establece pautas para garantizar que la IA se utilice de manera responsable y ética.
- Normas Internacionales de la Organización Internacional de Normalización (ISO): La ISO ha desarrollado una serie de normas internacionales que establecen pautas para garantizar que la IA se utilice de manera segura y ética.
- Código de Conducta de la Alianza para Internet de las Cosas Ética (Ethics and Society): Este código se aplica a la Internet de las Cosas (IoT) y establece pautas para garantizar que la tecnología se utilice de manera responsable y ética.
- Principios éticos de la Asociación de Inteligencia Artificial de la Unión Europea (EUAI): Estos principios establecen pautas para garantizar que la IA se utilice de manera responsable y ética en la Unión Europea.
Así las cosas, dichas normas y códigos éticos se basan en principios éticos generales y establecen pautas para garantizar que la IA se utilice de manera responsable y ética. Es importante tener en cuenta que estas normas y códigos son orientativos y no tienen validez legal pero, pueden ser utilizados como guías para el desarrollo ético de la IA.
Finalmente, vale la pena tener en cuenta que es importante en tener un humano (un experto no un político) tomando las decisiones criticas en los proceso de creación de la inteligencia artificial e incluir un “botón general de desconexión” (el denominado “Kill Switch”) como último recurso, en caso que esta se salga de control!