La ola que viene. Tecnología, poder y el gran dilema del siglo XXI. Mustafa Suleyman. Editorial Debate
El 22 de febrero de 1946, George Kennan, un diplomático estadounidense destinado en Moscú, dictó un cable de 5.000 palabras a Washington. En este famoso telegrama, Kennan advertía de que el compromiso de la Unión Soviética con el comunismo significaba que era inherentemente expansionista, e instaba al gobierno estadounidense a resistir cualquier intento de los soviéticos de aumentar su influencia. Esta estrategia rápidamente se conoció como “contención” y definió la política exterior estadounidense durante los siguientes 40 años.
La ola que viene (The Coming Wave) es la advertencia de Suleyman sobre el expansionismo tecnológico. Su tesis afirma que la inteligencia artificial (IA) y la biología sintética (BS) amenazan nuestra existencia y que solo tenemos una ventana estrecha dentro de la cual contenerlas antes de que sea demasiado tarde. Sin embargo, a diferencia del comunismo durante la Guerra Fría, la IA y el SB no se nos imponen. Los adoptamos voluntariamente porque no solo prometen una riqueza sin precedentes, sino también soluciones a nuestros problemas más insolubles: el cambio climático, el cáncer y posiblemente incluso la mortalidad. Suleyman ve el atractivo, por supuesto, y afirma que estas tecnologías «marcarán el comienzo de un nuevo amanecer para la humanidad».
Suleyman, un empresario e investigador de IA que cofundó DeepMind en 2010, antes de que Google lo adquiriera en 2014, es más convincente cuando ilustra las promesas y los peligros de este nuevo mundo. Tomemos como ejemplo la revolución de la IA. Los modelos de lenguaje como ChatGPT son solo el comienzo. Pronto, predice Suleyman, la IA descubrirá medicamentos milagrosos, diagnosticará enfermedades raras, administrará almacenes, optimizará el tráfico y diseñará ciudades sostenibles. Podremos decirle a un programa informático que “gane un millón de dólares en Amazon en unos meses” y éste llevará a cabo nuestras instrucciones.
El problema es que las mismas tecnologías que nos permiten curar una enfermedad podrían utilizarse para provocarla, lo que nos lleva a las partes verdaderamente aterradoras del libro. Suleyman señala que el precio de la secuenciación genética se ha desplomado, mientras que la capacidad de editar el ADN con tecnologías como Crispr ha mejorado enormemente. Pronto, cualquiera podrá montar un laboratorio genético en su garaje. La tentación de manipular el genoma humano, predice, será inmensa.
Sin embargo, los mutantes humanos no son los únicos horrores que nos esperan. Suleyman imagina que la IA y el SB unirán fuerzas para permitir que actores maliciosos inventen nuevos patógenos. Con una tasa de transmisibilidad del 4% (menor que la varicela) y una tasa de letalidad del 50% (casi la misma que el ébola), un virus diseñado por IA y creado por SB podría «causar más de mil millones de muertes en cuestión de meses».
A pesar de estos riesgos, Suleyman duda de que alguna nación haga el esfuerzo de contener estas tecnologías. Los estados dependen demasiado de sus beneficios económicos. Este es el dilema básico: no podemos permitirnos no construir la misma tecnología que podría causar nuestra extinción. ¿Le suena familiar?
La ola que viene no trata sobre la amenaza existencial que plantean las IA superinteligentes. Suleyman cree que las IA simplemente inteligentes causarán estragos precisamente porque aumentarán enormemente la agencia humana en un período muy corto. Ya sea por medio de ciberataques generados por IA, patógenos caseros, la pérdida de empleos debido al cambio tecnológico o la desinformación que agrava la inestabilidad política, nuestras instituciones no están preparadas para este tsunami de tecnología.
Suleyman nos dice repetidamente que “la ola está llegando”, “la próxima ola está llegando”, incluso “la próxima ola realmente está llegando”. Supongo que haber vivido los últimos 15 años de investigación en IA y convertirse en multimillonario en el proceso convertiría a cualquiera en un creyente. Pero si el pasado es un indicio, la IA también es conocida por sus inviernos, cuando las promesas iniciales se estancaron y la financiación se agotó durante largos períodos. Suleyman descarta la posibilidad real de que esto vuelva a suceder, dándonos así más tiempo para adaptarnos e incluso detener la marea del cambio social.
Pero incluso si el progreso continúa a su ritmo frenético, es poco probable que las sociedades toleren los abusos éticos que más teme Suleyman. En 2018, cuando un científico chino reveló que había editado los genes de dos niñas gemelas, fue condenado a tres años de prisión, condenado universalmente y no ha habido informes similares desde entonces. La UE se dispone a prohibir ciertas formas de IA (como el reconocimiento facial en espacios públicos) en su próxima Ley de IA. La reacción legal y cultural normal probablemente frenará la proliferación de las prácticas más disruptivas y perturbadoras.
A pesar de afirmar que el problema de la contención es el “desafío definitorio de nuestra era”, Suleyman no apoya una moratoria tecnológica (acaba de fundar una nueva empresa de IA). En cambio, establece una serie de propuestas al final del libro. Lamentablemente, no son tranquilizadoras.
Por ejemplo, Suleyman sugiere que las empresas de IA dediquen el 20% de sus fondos de I+D a la investigación de seguridad, pero no dice por qué las empresas desviarían capital para no apresurarse a sacar sus nuevos productos al mercado. Aboga por prohibir la IA en los anuncios políticos, pero hacerlo violaría la primera enmienda de la Constitución estadounidense. Propone un tratado internacional contra la proliferación, pero no nos da ninguna indicación de cómo podría aplicarse. En un momento dado, Suleyman insinúa que Estados Unidos podría tener que obligar a otros países a cumplirlo. “Es necesaria cierta medida de antiproliferación. Y, sí, no eludamos los hechos; eso significa censura real, posiblemente más allá de las fronteras nacionales”. No sé exactamente qué quiere decir aquí, pero no me gusta cómo suena.
Suleyman impulsa estas costosas propuestas a pesar de admitir que sus escenarios catastróficos son riesgos de cola. Sí, la probabilidad de un día del juicio final es baja, pero las consecuencias serían tan catastróficas que debemos tratar la posibilidad como un peligro claro y presente. Un gran elefante en la habitación es el cambio climático. A diferencia del apocalipsis de la IA que puede ocurrir en el futuro, una emergencia climática está ocurriendo ahora mismo. Este julio fue el más caluroso registrado. Contener el carbono, no la IA, es el desafío que define nuestra era. Sin embargo, aquí, Suleyman es sorprendentemente y convenientemente optimista. Cree que la IA resolverá la emergencia climática. Es una idea feliz, pero si la IA resolverá el problema climático, ¿por qué no puede resolver también el problema de la contención?
Si las predicciones del libro sobre la IA son precisas, podemos ignorar con seguridad sus propuestas. Esperemos unos años y simplemente podremos preguntarle a ChatGPT-5, -6 o -7 cómo manejar la ola que se avecina.