Geoffrey Hinton cree que es posible que la IA nos supere en intelecto e incluso que llegue a tener «sus propios objetivos»

Geoffrey Hinton

El científico informático Geoffrey Hinton, considerado el padrino de la inteligencia artificial (IA), advirtió nuevamente sobre los peligros de esta tecnología, insistiendo en que los riesgos que conlleva deben tomarse muy en serio, en la medida que se vuelve aún más lista y más omnipresente, recoge el diario Toronto Star.

«Creo que es importante que la gente entienda que no se trata solo de ciencia ficción; no se trata solo de generar miedo», manifestó Hinton durante una conferencia tecnológica este miércoles en Toronto (Canadá).

El académico resaltó que la mayoría de los interesados en el tema buscan más comprender cómo aprovechar el creciente tsunami tecnológico de la IA, y no en evaluar y entender las amenazas futuras. «En este momento hay 99 personas muy inteligentes tratando de mejorar la IA y una sola muy inteligente tratando de descubrir cómo evitar que asuma el control», precisó.

En este contexto, Hilton cree que se debe alentar a las personas detrás del desarrollo de esta tecnología a trabajar para contrarrestar sus riesgos, a «esforzarse mucho por comprender» cómo podría la IA tratar de tomar las riendas de la sociedad, y hacer esto antes de que «sea más inteligente que nosotros».

La posibilidad de que la IA nos supere en intelecto y de que incluso llegue a tener «sus propios objetivos» parece bastante real y hay que tomarla «en serio», opina el ingeniero. «Bien puede desarrollar el objetivo de tomar el control, y si lo hace, tendremos problemas», asevera.

Gran parte de su preocupación proviene de los grandes avances que la IA ha logrado en poco tiempo. Además del riesgo existencial, Hilton considera que los grandes modelos lingüísticos, que ya logran «pequeños razonamientos», puede traer consecuencias en cuestión de sesgo y discriminación, generación de desempleo y contribuir a la difusión de noticias falsas, entre otros.

Hinton comenzó a investigar la IA hace más de 40 años. Galardonado en 2018 con el Premio Turing, desarrolló en 2012 junto con dos estudiantes de la Universidad de Toronto la tecnología fundacional de estos sistemas, usados hoy en día por compañías como OpenAI, Google o Microsoft para crear sus plataformas de IA generativa.

El experto trabajó en Google durante más de una década; sin embargo, renunció a su puesto en el gigante tecnológico hace casi dos meses para poder hablar libremente sobre las consecuencias que el mal uso de la IA generativa podría tener sobre la humanidad. En mayo, advirtió de los riesgos que las compañías tecnológicas estaban corriendo al competir por lograr productos basados en ella, y que su actual desarrollo podría «ser imposible de detener».