Nueva York, Estados Unidos.- Geoffrey Hinton, recién galardonado con el Premio Nobel, tiene un mensaje sobre los sistemas de inteligencia artificial que ayudó a crear: tomen más en serio la seguridad o podrían poner en peligro a la humanidad.
"Creo que estamos en una especie de punto de bifurcación en la historia donde, en los próximos años, necesitamos averiguar si hay una manera de lidiar con esa amenaza", dijo Hinton en una entrevista el martes con un funcionario del Premio Nobel que mezcló el orgullo por la labor de su vida con advertencias sobre el creciente peligro que representa.
Hinton, de 76 años, renunció a Google el año pasado en parte para poder hablar más sobre la posibilidad de que los sistemas de inteligencia artificial pudieran escapar del control humano e influir en las elecciones o impulsar a robots peligrosos. Junto con otros investigadores experimentados en IA, ha hecho un llamado a empresas como OpenAI, Meta Platforms y Google, propiedad de Alphabet, para que dediquen más recursos a la seguridad de los sistemas avanzados por los que compiten entre sí para desarrollar lo más rápido posible. El premio Nobel de Hinton ha proporcionado una nueva plataforma para sus advertencias apocalípticas al mismo tiempo que celebra su papel fundamental en el avance de las tecnologías que las alimentan. Hinton ha argumentado que los sistemas avanzados de IA son capaces de comprender sus resultados, una opinión controvertida en los círculos de investigación.Las opiniones de Hinton lo han enfrentado a facciones de la comunidad de IA que creen que insistir en escenarios apocalípticos retrasa innecesariamente el progreso tecnológico o distrae la atención de daños más inmediatos, como la discriminación contra grupos minoritarios.
"Creo que es un tipo inteligente, pero creo que mucha gente ha exagerado el riesgo de estas cosas, y eso realmente ha convencido a gran parte del público e que esto es en lo que deberíamos centrarnos, no en los daños más inmediatos de la IA", dijo Melanie Mitchell, profesora del Instituto Santa Fe, en un panel el año pasado. Hinton visitó la sede de Google en Silicon Valley el martes para una celebración informal y algunos de los principales ejecutivos de inteligencia artificial de la compañía lo felicitaron en las redes sociales. El miércoles, otros destacados empleados de Google especializados en inteligencia artificial también recibieron el Premio Nobel. Demis Hassabis, director ejecutivo de Google DeepMind, y John M. Jumper, director del laboratorio de IA, formaron parte de un grupo de tres científicos que ganaron el Nobel de Química por su trabajo en la predicción de la forma de las proteínas.Pensando como personas
Hinton comparte el Premio Nobel de Física con John Hopfield de la Universidad de Princeton por su trabajo desde la década de 1980 sobre redes neuronales que procesan información de maneras inspiradas en el cerebro humano. Ese trabajo es la base de muchas de las tecnologías de inteligencia artificial que se utilizan hoy, desde las conversaciones tipo humanas de ChatGPT hasta la capacidad de Google Fotos de reconocer quién está en cada fotografía que tomas.
"Sus contribuciones para conectar conceptos fundamentales de la física con conceptos de la biología, no solo de la IA -todavía están con nosotros hoy", dijo Yoshua Bengio, investigador de IA en la Universidad de Montreal. En el 2012, Hinton trabajó con dos de sus estudiantes de posgrado en la Universidad de Toronto, Alex Krizhevsky e Ilya Sutskever, en una red neuronal llamada AlexNet programada para reconocer imágenes en fotos. Hasta ese momento, los algoritmos computacionales a menudo no habían podido determinar si una imagen de un perro era realmente un perro y no un gato o un auto. La aplastante victoria de AlexNet en un concurso de tecnología de reconocimiento de imágenes en el 2012 fue un momento crucial en el desarrollo del auge de la IA moderna, ya que demostró el poder de las redes neuronales sobre otros enfoques. Hinton es ampliamente venerado como mentor de la generación actual de investigadores destacados de IA, incluyendo a Sutskever, quien cofundó OpenAI antes de dejarla esta primavera para iniciar una empresa llamada Safe Superintelligence. En el 2018, Hinton recibió el Premio Turing, un premio de ciencias computacionales, por su labor en redes neuronales junto a Bengio y un colega investigador de IA, Yann LeCun. A los tres se les suele denominar los "padrinos de la IA" modernos.Advertencias de desastre
Para el 2023, Hinton se había alarmado por las consecuencias de construir una inteligencia artificial más potente. Comenzó a hablar de la posibilidad de que los sistemas de IA pudieran escapar del control de sus creadores y causar un daño catastrófico a la humanidad. Al hacerlo, se alineó con un movimiento vocal de personas preocupadas por los riesgos existenciales de la tecnología.
"Estamos en una situación que la mayoría de la gente ni siquiera puede concebir, y es que estas inteligencias digitales van a ser mucho más inteligentes que nosotros, y si quieren hacer algo, querrán tomar el control", declaró Hinton en una entrevista el año pasado. Hinton anunció que dejaría Google en la primavera del 2023, al decir que quería poder hablar libremente de los peligros de la IA sin preocuparse por las consecuencias para la empresa. Google había actuado "muy responsablemente", dijo en una publicación en X. En los meses siguientes, Hinton ha pasado gran parte de su tiempo hablando con formuladores de políticas y ejecutivos tecnológicos, incluyendo a Elon Musk, sobre los riesgos de la IA. "Una cosa que los gobiernos pueden hacer es obligar a las grandes empresas a gastar muchos más recursos en investigación de seguridad, para que, por ejemplo, empresas como OpenAI no puedan simplemente dejar la investigación de seguridad en segundo plano", dijo Hinton en la entrevista del Nobel. Una vocera de OpenAI señaló que la empresa está orgullosa de su trabajo de seguridad. Con Bengio y otros investigadores, Hinton apoyó un proyecto de ley de seguridad de la inteligencia artificial aprobado por la Legislatura de California este verano que habría requerido que los desarrolladores de grandes sistemas de IA tomaran una serie de medidas para garantizar que no pudieran causar daños catastróficos. El Gobernador Gavin Newsom vetó recientemente el proyecto de ley, al que se opusieron la mayoría de las grandes empresas tecnológicas, incluyendo a Google. El creciente activismo de Hinton lo ha opuesto a otros investigadores respetados que creen que sus advertencias son fantásticas porque la IA dista mucho de tener la capacidad de causar daños graves. (Miles Kruppa y Deepa Seetharaman / THE WALL STREET JOURNAL)