Geoffrey Hinton (1947, Londres) profesor de la Universidad de Toronto (Canadá) ganó hoy el Premio Nobel de Física, junto al estadounidense John Hopfield, por descubrir las bases fundacionales que permiten el aprendizaje automático con redes neuronales artificiales, lo que allanó el camino para desarrollar algunos sistemas de IA.
El premiado intervino por teléfono durante la rueda de prensa en la que se anunció el galardón y fue preguntado sobre la influencia que las redes neuronales y el aprendizaje automático pueden tener en un futuro.
El investigador británico-canadiense consideró que la influencia va a ser "enorme" y la comparó con "la Revolución Industrial, pero en lugar de superar a la gente en fuerza física lo hará en capacidad intelectual".
Hinton dijo: "No tenemos experiencia en lo que es tener cosas más inteligentes que nosotros y va a ser maravilloso en muchos aspectos", como la atención de la salud o que las personas podrán hacer el mismo trabajo, con un asistente de IA, en mucho menos tiempo, lo que se traducirá en "enormes mejoras en la productividad".
Sin embargo, llamó la atención sobre que también hay que preocuparse por "una serie de posibles malas consecuencias". En particular "la amenaza de que estas cosas se salgan de control".
Premio de Fronteras del Conocimiento en la categoría de Tecnologías de la Información y Comunicación en 2017, Hinton llegó a ser vicepresidente e investigador de ingeniería de Google, compañía que abandonó el año pasado.
Aquella salida de Google, según publicó el ahora nobel en sus redes sociales en mayo del año pasado, "fue para poder hablar de los peligros de la IA sin tener en cuenta cómo afecta esto" a esa empresa, de la que indicó que "ha actuado de forma muy responsable".
Hinton, en varias entrevistas, no solo ha puesto en guardia sobre los peligros de la IA, sino que en alguna ocasión afirmó que se arrepentía de parte de su trabajo, según se recordó en la rueda de prensa.
En este sentido, explicó que "hay dos tipos de arrepentimiento", aquel con el que uno se siente "culpable", porque se hizo algo nuevo, que no se debería haber hecho, y un segundo por algo que se volvería a hacer "en las mismas circunstancias, pero puede que al final, no salga bien".
Este es el tipo de arrepentimiento que aseguró tener y agregó que "en las mismas circunstancias volvería a hacer lo mismo", aunque reiteró su preocupación de que se pueda llegar a sistemas "más inteligentes" que "eventualmente tomen el control".
El experto en IA, cuyo trabajo fue fundamental para disponer de herramientas como ChatGPT, declaró que cuando quiere saber la respuesta a algo pregunta a ChatGPT 4, el cual usa bastante, aunque advirtió: "No me fío del todo porque puede alucinar" (cuando la IA generativa da respuestas erróneas, imprecisas o faltas de sentido).
Una de las preguntas típicas a un nuevo nobel es saber dónde estaba cuando recibió la llamada y también se formuló en la rueda de prensa.
“Estoy en un hotel barato en California, que no tiene una buena conexión a internet ni al teléfono. Hoy iba a hacerme una resonancia magnética, pero tendré que cancelarla”.