Corre el año 2027. Potentes sistemas de inteligencia artificial se están volviendo más inteligentes que los humanos y están causando estragos en el orden global. Espías chinos han robado secretos de inteligencia artificial de Estados Unidos, y la Casa Blanca se apresura a tomar represalias. En un importante laboratorio de inteligencia artificial, los ingenieros se asustan al descubrir que sus modelos están empezando a engañarlos, lo que aumenta la posibilidad de que se vuelvan deshonestos.

Estas no son escenas de un guion de ciencia ficción. Son escenarios imaginados por una organización sin fines de lucro en Berkeley, California, llamada AI Futures Project, que ha dedicado el último año a predecir cómo será el mundo en los próximos años, a medida que se desarrollan sistemas de IA cada vez más potentes.

El proyecto está dirigido por Daniel Kokotajlo, un ex investigador de OpenAI que dejó la empresa el año pasado por temor a que actuara de manera imprudente.

Durante su tiempo en OpenAI, donde formó parte del equipo de gobernanza, el Sr. Kokotajlo redactó informes internos detallados sobre cómo podría desarrollarse la carrera por la inteligencia artificial general, o IAG (un término impreciso para la inteligencia artificial a nivel humano). Tras dejar la empresa, colaboró ​​con Eli Lifland, investigador de IA con amplia experiencia en la predicción precisa de eventos mundiales. Se pusieron manos a la obra para intentar predecir la próxima ola de IA.

El resultado es “AI 2027”, un informe y sitio web publicado esta semana que describe, en un escenario ficticio detallado, lo que podría suceder si los sistemas de IA superan la inteligencia de nivel humano, lo que los autores esperan que suceda en los próximos dos o tres años.

“Prevemos que las IA seguirán mejorando hasta el punto de convertirse en agentes totalmente autónomos, superiores a los humanos en todo, hacia finales de 2027 aproximadamente”, afirmó Kokotajlo en una entrevista reciente.

Últimamente, no falta la especulación sobre la IA. San Francisco se ha visto cautivada por el fervor de la IA, y el panorama tecnológico del Área de la Bahía se ha convertido en un conjunto de tribus en pugna y sectas escindidas, cada una convencida de saber cómo se desenvolverá el futuro.

Algunas predicciones sobre IA han tomado la forma de un manifiesto, como “ Máquinas de gracia amorosa ”, un ensayo de 14.000 palabras escrito el año pasado por Dario Amodei, el director ejecutivo de Anthropic, o “ Conocimiento de la situación ”, un informe del ex investigador de OpenAI Leopold Aschenbrenner que fue ampliamente leído en los círculos políticos.

El equipo del Proyecto Futuros de IA diseñó el suyo como un escenario de pronóstico: en esencia, una obra de ciencia ficción rigurosamente investigada que utiliza sus mejores conjeturas sobre el futuro como argumento. El grupo dedicó casi un año a perfeccionar cientos de predicciones sobre IA. Después, contrataron a un escritor —Scott Alexander, autor del blog Astral Codex Ten— para que les ayudara a convertir su pronóstico en una narrativa.

“Tomamos lo que pensábamos que sucedería y tratamos de hacerlo atractivo”, dijo Lifland.

Quienes critican este enfoque podrían argumentar que las historias ficticias sobre IA son más efectivas para asustar a la gente que para educarla. Y algunos expertos en IA sin duda objetarán la afirmación principal del grupo de que la inteligencia artificial superará a la inteligencia humana.

Ali Farhadi, director ejecutivo del Instituto Allen de Inteligencia Artificial, un laboratorio de IA en Seattle, revisó el informe “AI 2027” y dijo que no estaba impresionado.

"Estoy totalmente a favor de las proyecciones y los pronósticos, pero este pronóstico no parece estar basado en evidencia científica ni en la realidad de cómo están evolucionando las cosas en la IA", dijo.

No cabe duda de que algunas de las opiniones del grupo son extremas. (El Sr. Kokotajlo, por ejemplo, me dijo el año pasado que creía que había un 70 % de probabilidades de que la IA destruyera o causara un daño catastrófico a la humanidad). Tanto Kokotajlo como Lifland tienen vínculos con el Altruismo Eficaz, otro movimiento filosófico popular entre los trabajadores tecnológicos que lleva años lanzando duras advertencias sobre la IA.

Pero también vale la pena señalar que algunas de las empresas más grandes de Silicon Valley están planeando un mundo más allá de la IAG, y que muchas de las predicciones aparentemente locas hechas sobre IA en el pasado (como la opinión de que las máquinas pasarían la prueba de Turing, un experimento mental que determina si una máquina puede parecer comunicarse como un humano) se han hecho realidad .

En 2021, un año antes del lanzamiento de ChatGPT, el Sr. Kokotajlo escribió una entrada de blog titulada "Cómo se ve el 2026", donde describía su visión del progreso de los sistemas de IA. Varias de sus predicciones resultaron ser proféticas, y se convenció de la utilidad de este tipo de pronóstico y de que se le daba bien.

"Es una forma elegante y conveniente de comunicar tu punto de vista a otras personas", dijo.

La semana pasada, el Sr. Kokotajlo y el Sr. Lifland me invitaron a su oficina (una pequeña sala en un espacio de trabajo compartido de Berkeley llamado Constellation, donde varias organizaciones de seguridad de IA tienen su sede) para mostrarme cómo operan.

El Sr. Kokotajlo, con una chaqueta militar color canela, tomó un rotulador y escribió cuatro abreviaturas en una gran pizarra: SC > SAR > SIAR > ASI. Cada una, explicó, representaba un hito en el desarrollo de la IA.

Primero, dijo, a principios de 2027, si se mantienen las tendencias actuales, la IA será un programador superhumano. Luego, a mediados de 2027, será un investigador de IA superhumano: un agente autónomo capaz de supervisar equipos de programadores de IA y realizar nuevos descubrimientos. Después, a finales de 2027 o principios de 2028, se convertirá en un investigador de IA superinteligente : una inteligencia artificial que sabe más que nosotros sobre el desarrollo de IA avanzada y puede automatizar su propia investigación y desarrollo, creando esencialmente versiones más inteligentes de sí misma. A partir de ahí, dijo, hay un pequeño salto hacia la superinteligencia artificial, o ISA, momento en el que todo está decidido.

Si todo esto suena fantástico... bueno, lo es. Nada que se parezca remotamente a lo que predicen el Sr. Kokotajlo y el Sr. Lifland es posible con las herramientas de IA actuales, que apenas pueden pedir un burrito en DoorDash sin quedarse atascadas.

Pero confían en que estos puntos ciegos se reducirán rápidamente a medida que los sistemas de IA se vuelvan lo suficientemente buenos en la codificación para acelerar la investigación y el desarrollo de la IA.

Su informe se centra en OpenBrain, una empresa ficticia de IA que desarrolla un potente sistema de IA conocido como Agente-1. (Decidieron no identificar a ninguna empresa de IA en particular, sino crear un conjunto de los principales laboratorios estadounidenses de IA).

A medida que el Agente-1 mejora su programación, comienza a automatizar gran parte del trabajo de ingeniería en OpenBrain, lo que permite a la empresa avanzar con mayor rapidez y contribuye al desarrollo del Agente-2, un investigador de IA aún más competente. Para finales de 2027, cuando finalice el escenario, el Agente-4 habrá logrado avances en investigación de IA equivalentes a un año cada semana y amenaza con descontrolarse.

Le pregunté al Sr. Kokotajlo qué creía que pasaría después de eso. ¿Creía, por ejemplo, que la vida en el año 2030 seguiría siendo reconocible? ¿Estarían las calles de Berkeley llenas de robots humanoides? ¿Gente enviando mensajes de texto a sus novias IA? ¿Tendríamos trabajo alguno de nosotros?

Miró por la ventana y admitió que no estaba seguro. Si los próximos años iban bien y manteníamos la IA bajo control, dijo, podía imaginar un futuro donde la vida de la mayoría de la gente seguiría siendo prácticamente igual, pero donde las "zonas económicas especiales" cercanas, llenas de fábricas de robots hipereficientes, producirían en masa todo lo que necesitábamos.

¿Y si los próximos años no fueran bien?

—¿Quizás el cielo se llenaría de contaminación y la gente moriría? —dijo con indiferencia—. Algo así.

Un riesgo de dramatizar las predicciones de IA de esta manera es que, si no se tiene cuidado, los escenarios medidos pueden derivar en fantasías apocalípticas. Otro riesgo es que, al intentar contar una historia dramática que capte la atención de la gente, se corre el riesgo de pasar por alto resultados más aburridos, como el escenario en el que la IA se comporta generalmente bien y no causa muchos problemas a nadie.

Aunque coincido con los autores de "IA 2027" en que pronto surgirán potentes sistemas de IA , no estoy convencido de que los programadores de IA superhumanos adquieran automáticamente las demás habilidades necesarias para alcanzar la inteligencia general. Y desconfío de las predicciones que dan por sentado que el progreso de la IA será fluido y exponencial, sin grandes obstáculos ni obstáculos en el camino.

Pero creo que vale la pena hacer este tipo de pronóstico, aunque discrepe con algunas predicciones específicas. Si la IA poderosa está realmente a la vuelta de la esquina, todos tendremos que empezar a imaginar futuros muy extraños.