fbpx

La Inteligencia Artificial Puede Ser Más Peligrosa que las Armas Nucleares

Uno de los pioneros tecnológicos de nuestra era advierte de los riesgos que la Inteligencia Artificial puede traer para la humanidad

Si usted quiere saber cómo será el futuro lo mejor que puede hacer es preguntarle a uno de los titanes que lo están construyendo (hace un año hicimos una entrevista interesantísima, por si la quieren ver). Estoy de hablando de personajes como Ray Kurtzwail, Larry Page, Sergei Brin, Jeff Bezos o Elon Musk, quienes con su trabajo y su visión nos están llevando hacia él. Por eso cuando uno de ellos habla de los riesgos de lo que estamos creando, lo mejor es poner atención.

Elon MuskElon Musk es el co-fundador de compañías como PayPal, Tesla y SpaceX y es inversionista en varios startups de alta tecnología (cosas que parecen más ciencia ficción que ciencia pura). Musk está al frente de muchos de los proyectos más ambiciosos en materia de tecnología en la actualidad y hoy por hoy sus compañías lideran las revoluciones del mercado automotriz, de generación y aprovechamiento energético, de transporte espacial, de robótica y de computación avanzada.

Musk es el referente de lo que la tecnología puede lograr para la humanidad en las próximas décadas y ha sido catalogado como uno de los ejecutivos más importantes y visionarios de nuestra época.

Será Musk quien acabe con nuestra dependencia del petróleo, será Musk quien nos lleve a Marte, será Musk quien nos muestre uno de los primeros asistentes robóticos inteligentes. 

Por eso ha causado tanto revuelo unos comentarios hechos por Musk durante el fin de semana en su cuenta de twitter. 

Musk IAMusk dijo que la Inteligencia Artificial es potencialmente más peligrosa que las armas nucleares. Y sigue indicando que espera que los humanos no seamos sólo el mecanismo que le da vida a una superinteligencia artificial.

Y es que, por si no se ha dado cuenta, estamos más cerca que nunca de crear computadores que puedan pensar por sí mismos, ser autónomos y aprender con un modelo de pensamiento parecido al de nuestros cerebros. Estamos más cerca de cometer los errores que hemos visto en las películas y series de ciencia ficción como Terminator, The Matrix o Transcendence (si no se la han visto, véansela!) en la que un ser no biológico con una capacidad de raciocinio superior a la nuestra termina tomando el control del planeta y (a) esclavizándonos o (b) controlándonos para evitar que nos sigamos matando y sigamos acabando con el mundo. 

Sus comentarios se suman a otros que realizó en Junio en una entrevista para CNBC (la pueden ver aquí) en la que hablaba de su inversión en Vicarious, una compañía precisamente dedicada a la generación de algoritmos de Inteligencia Artificial en la que participan también inversionistas como Jeff Bezos y Mark Zuckerberg. 

No sé ustedes pero a mí me genera algo de preocupación cuando alguien con tanta información acerca del futuro habla de estos riesgos. 

Deja un comentario