Geoffrey Hinton nos alerta sobre los peligros de la Inteligencia Artificial

Geoffrey Hinton nos alerta sobre los peligros de la Inteligencia Artificial

El nombre de Geoffrey Hinton figura ahora junto al de Albert Einstein, Niels Bohr y Enrico Fermi en el selecto club de los científicos reconocidos con el Nobel de Física.

 

Le fue concedido este martes el galardón junto al catedrático de la Universidad de Princeton (Estados Unidos), John Hopfield, por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”. En otras palabras, por ayudar a que las computadoras aprendan.

 

 

El científico ha sido apodado como “el padrino de la inteligencia artificial” por sus investigaciones sobre la red neuronal, un sistema matemático y computacional que aprende habilidades mediante el análisis de datos.

 

Sin embargo, en los últimos tiempos el profesor británico-canadiense ha venido advirtiendo de los riesgos que supone para la humanidad la tecnología que él mismo ayudó a desarrollar.

Unas preocupaciones que lo llevaron a abandonar Google a mediados de 2023 y que ha reiterado nada más conocer el veredicto de la Real Academia Sueca de Ciencias.

 

“No tenemos experiencia sobre lo que es tener cosas más inteligentes que nosotros” declaró Hinton, durante unas declaraciones que ofreció por teléfono durante la conferencia de prensa del Nobel.

“Va a ser maravilloso en muchos aspectos, en áreas como la atención médica”, aseveró el informático nacido en Londres (Reino Unido).

 

No obstante, acto seguido indicó que “también tenemos que preocuparnos por una serie de posibles consecuencias negativas. En particular, la amenaza de que estas cosas se salgan de control”.

 

Al renunciar a Google, Hinton abogó por ponerle freno al desarrollo de la inteligencia artificial.

“No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo”, dijo el catedrático, quien en 2018 ganó junto con dos de sus estudiantes el Premio Turing, conocido como el Nobel de computación.

 

Hinton alertó que mientras más avance esta tecnología más peligrosa se volverá e incluso podría rebelarse contra la humanidad, tal y como han planteado algunas películas como de Hollywood como “Terminator”.

“En este momento, (los sistemas de inteligencia artificial) no son más inteligentes que nosotros, pero creo que pronto lo serán”, aseguró en una entrevista con la BBC.

 

“Mi suposición es que, dentro de 5 o 20 años, habrá una probabilidad del 50% de que tengamos que afrontar el problema de que la inteligencia artificial intente tomar el control de nuestras vidas”, advirtió.

 

La posibilidad de que internet se llene con fotos, videos y textos falsos, y que el usuario promedio “ya no pueda saber qué es verdad” es la preocupación inmediata del galardonado.

“Esto permitirá a los líderes autoritarios manipular a sus electores, cosas así”, indicó a la BBC.

 

Hinton aseguró que Google actuó “de forma muy responsable” y como un “buen administrador” de la inteligencia artificial hasta 2022, tomando la precaución de no lanzar productos que pudieran hacer daño.

Sin embargo, desde que Microsoft expandió su motor de búsqueda Bing con un chatbot, desafiando el negocio central de Google, se desató una carrera entre los gigantes tecnológicos que “podría ser imposible de detener”, alertó.

 

Hinton aseguró que no renunció a Google para poder criticar la empresa, sino para poder expresar sus opiniones libremente.

“Me fui para poder hablar sobre los peligros de la inteligencia artificial sin considerar cómo afecta esto a Google”, explicó.

 

Otra de las inquietudes de Hinton es cómo la inteligencia artificial revolucionará el mercado laboral. En lugar de complementar a los humanos, podría reemplazarlos en innumerables oficios en los que se desempeñan tareas rutinarias.

“Quita el trabajo pesado”, pero también “podría quitar más que eso”, indicó.

 

Sin embargo, el verdadero temor del laureado es que las tecnologías en el futuro amenacen a la humanidad y se desarrollen armas verdaderamente autónomas, como “robots asesinos”.

 

Los sistemas de inteligencia artificial “a menudo aprenden un comportamiento inesperado debido a la gran cantidad de datos que analizan”, explicó.

“Las personas y las empresas permiten a los sistemas de inteligencia artificial no solo generar su propio código, sino también ejecutar ese código por su cuenta”, prosiguió.

“Algunas personas creían en la idea de que estas cosas podían volverse más inteligentes que las personas. Pero la mayoría pensó que estaba muy lejos. Yo pensé que estaba muy lejos, que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, admitió

 

Aunque se trata de una amenaza hipotética, Hinton vaticinó que la competencia entre Google, Microsoft y otros se convertirá en una carrera global sin regulaciones internacionales.

 

En esa ocasión el científico recordó que a diferencia de las armas nucleares, no hay forma de saber si las empresas o los países están trabajando en la inteligencia artificial en secreto.

 

La mayor esperanza de Hinton, quien es el 122 egresado de la Universidad de Cambridge en ganar un premio Nobel, es que los principales científicos del mundo colaboren para desarrollar formas para controlar esta tecnología.

 

Fuente: Geoffrey Hinton, el ganador del Nobel de Física que renunció a Google y denunció los peligros de la inteligencia artificial – BBC News Mundo

Compartir...
Publicado en Ciencia, Inteligencia Artificial, noticias / news, tecnología e innovación y etiquetado , , , .

Maria Karla Gutierrez Chica, 19 años de edad. Cursa el tercer año de la Licenciatura en Biología en la Facultad de Biología de la Universidad de La Habana. Su interés por la investigación y la superación profesional la han llevado a ser alumna insertada en el proyecto IRCIGUA, en la subdirección de Ciencia y Técnica del Centro de Investigaciones Pesqueras (CIP). Ha participado en eventos internacionales como MarCuba 2024 en Cuba y el 3r Simposio de Contaminación por Plástico en Merida, México.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *