Los escritores de ciencia ficción y los investigadores en inteligencia artificial temen desde hace tiempo la máquina que no se puede apagar.
La historia es más o menos así:
Se desarrolla una potente IA.
Sus diseñadores están entusiasmados, luego inquietos y después aterrorizados.
Van a desconectarla y descubren que la IA ha copiado su código en otra parte, quizá en todas partes.
Recuerda esta historia por un momento.
Sam Altman, CEO de OpenAI, asiste a la Cumbre de CEOs del Foro de Cooperación Económica Asia-Pacífico (APEC) en San Francisco, California, Estados Unidos, el 16 de noviembre de 2023. REUTERS/Carlos Barria/File Photo/File Photo
En las últimas semanas se han producido dos acontecimientos importantes en el ámbito de la inteligencia artificial.
Uno de ellos ya lo conoces.
La organización sin fines de lucro que gobierna OpenAI, fabricante de ChatGPT, despidió a Sam Altman, consejero delegado de la empresa.
Situación
La decisión fue inesperada y en gran medida inexplicable.
"La salida del Sr. Altman se produce tras un proceso de revisión deliberativa por parte del consejo, que llegó a la conclusión de que no fue consistentemente sincero en sus comunicaciones con el consejo, obstaculizando su capacidad para ejercer sus responsabilidades", rezaba un críptico comunicado.
Muchos supusieron que Altman había mentido al consejo sobre las finanzas o los datos de seguridad de OpenAI.
Pero Brad Lightcap, directivo de OpenAI, dijo a los empleados que no se había producido tal infracción.
"Podemos afirmar con rotundidad que la decisión de la junta no se tomó en respuesta a una mala conducta ni a nada relacionado con nuestras prácticas financieras, empresariales, de seguridad o de seguridad/privacidad", escribió.
"Se trató de una ruptura de la comunicación entre Sam y la junta".
En el corazón de OpenAI hay -o quizá había- una misión.
La IA era una tecnología demasiado poderosa para ser controlada por empresas con fines de lucro o Estados con afán de poder.
Tenía que ser desarrollada por una organización que, como dice la carta de Open AI, "actuara en interés de la humanidad".
OpenAI se creó para ser esa organización.
Empezó siendo una organización sin fines de lucro.
Cuando quedó claro que el desarrollo de la IA requeriría decenas o cientos de miles de millones de dólares, se creó una estructura dual, en la que la organización sin fines de lucro, controlada por un consejo elegido por su compromiso con la misión fundacional de OpenAI, gobernaría la organización con fines de lucro, que recaudaría el dinero y comercializaría las aplicaciones de IA necesarias para financiar la misión.
En mi informe, la mejor explicación que he oído para la decisión de la junta, tan mal comunicada como fue, es que despidió a Altman por la razón precisa por la que dijo que despidió a Altman.
Actuaba y se comunicaba con el consejo de una forma que dificultaba el "ejercicio de sus responsabilidades", es decir, el control de la empresa con fines de lucro.
En parte se trataba de la comunicación;
la implicación es que la junta sentía que Altman era lento u opaco o engañoso en lo que les decía y cuándo.
Pero en parte se debía al ritmo de comercialización, a los contratos que se firmaban con los socios, a las promesas que se hacían a los empleados y a los productos que se empezaban a desarrollar.
Conflicto
Se supone que OpenAI desarrolla IA para servir a la humanidad, no para ayudar a Microsoft a captar cuota de mercado frente a Google.
Así que la junta trató de hacer aquello para lo que fue diseñada:
frenar el ánimo de lucro, en este caso despidiendo a Altman.
Advertida de que despedir a Altman podría destruir OpenAI, Helen Toner, uno de los miembros de la junta, respondió:
"En realidad, eso sería coherente con la misión".
OpenAI siempre había dicho a sus inversores que algo así podría ocurrir.
"Sería prudente considerar cualquier inversión en OpenAI Global LLC con el espíritu de una donación", advertía.
La empresa salió entonces y recaudó decenas de miles de millones de dólares de personas que no veían sus inversiones como donaciones.
Eso describe sin duda a Microsoft, que invirtió más de 13.000 millones de dólares en OpenAI, posee el 49% de la empresa con fines de lucro, situó las tecnologías de OpenAI en el centro de su hoja de ruta de productos y nunca ha descrito su estrategia como filantrópica.
Satya Nadella, consejero delegado de Microsoft, no tenía poder para impedir que el consejo de OpenAI despidiera a Altman, pero sí para dejar la acción en papel mojado.
Anunció una nueva división de innovaciones avanzadas, dirigida por Altman (y el presidente de OpenAI, Greg Brockman, que dimitió en solidaridad con Altman) e integrada por todos los empleados de OpenAI que quisieran unirse.
Más del 90% de los empleados de OpenAI -incluido, curiosamente, Ilya Sutskever, el cofundador de OpenAI que no sólo había ayudado a la junta a echar a Altman, sino que también le había informado de que estaba despedido- firmaron entonces una carta amenazando con dimitir a menos que Altman fuera readmitido y la junta dimitiera.
El miércoles, Altman volvía a ser consejero delegado de OpenAI y todos los miembros del consejo, menos uno, habían renunciado.
Corolario
No sé si la junta hizo bien en despedir a Altman.
Desde luego, no ha presentado públicamente argumentos que justifiquen la decisión.
Pero la junta sin fines de lucro estaba en el centro de la estructura de OpenAI por una razón.
Se suponía que podía pulsar el botón de apagado.
Pero no hay botón de apagado.
La organización con fines de lucro ha demostrado que puede reconstituirse en otro lugar.
Y no lo olvidemos:
Todavía existe la división de IA de Google y la división de IA de Meta y Anthropic e Inflection y muchos otros que han construido grandes modelos de lenguaje similares a GPT-4 y los están uniendo a modelos de negocio similares a los de OpenAI.
El capitalismo es en sí mismo un tipo de IA, y está mucho más avanzado que cualquier cosa que los informáticos hayan codificado todavía.
En ese sentido, copió el código de OpenAI hace mucho tiempo.
Garantizar que la IA sirva a la humanidad siempre fue una tarea demasiado importante para dejarla en manos de las corporaciones, independientemente de sus estructuras internas.
Ese es el trabajo de los gobiernos, al menos en teoría.
Por eso, el segundo acontecimiento importante sobre IA de las últimas semanas fue menos fascinante, pero quizá más trascendente:
El 30 de octubre, la administración Biden publicó una importante orden ejecutiva:
"Sobre el desarrollo y uso seguro y fiable de la Inteligencia Artificial".
Se trata de un marco extenso y reflexivo que desafía un simple resumen (aunque si quieres profundizar, el análisis del escritor Zvi Mowshowitz y la recopilación de reacciones son excelentes).
En términos generales, sin embargo, yo lo describiría como un esfuerzo no por regular la IA, sino por establecer la infraestructura, las definiciones y las preocupaciones que con el tiempo se utilizarán para regular la IA.
Deja claro que el gobierno tendrá especial interés en regular y probar los modelos de IA que crucen determinados umbrales de complejidad y potencia de cálculo.
Por ahora, la orden pide sobre todo informes, análisis y consultas.
Pero todo ello es necesario para construir una estructura reguladora que funcione.
Aun así, esta primera iniciativa, bastante prudente, provocó la indignación de muchos miembros de la clase empresarial de Silicon Valley, que acusaron al gobierno, entre otras cosas, de intentar "prohibir las matemáticas", en referencia al mayor escrutinio de los sistemas más complejos.
Dos semanas más tarde, Gran Bretaña anunció que no regularía en absoluto la IA a corto plazo, prefiriendo en su lugar mantener un "enfoque favorable a la innovación".
La normativa propuesta por la Unión Europea podría estancarse ante la preocupación de Francia, Alemania e Italia, que temen que el escrutinio de sistemas más potentes signifique simplemente que esos sistemas se desarrollen en otros lugares.
Supongamos que los reguladores estadounidenses vieran algo, en algún momento, que les convenciera de la necesidad de tomar medidas enérgicas contra los modelos más grandes.
Límites
Eso siempre va a ser una decisión de juicio:
Si estás regulando algo que puede causar un daño terrible antes de que cause un daño terrible, probablemente lo estás regulando cuando el daño terrible sigue siendo teórico.
Puede que el daño que temes nunca se produzca.
Las personas que pueden perder dinero con su regulación serán muy activas a la hora de defender este argumento.
O quizá ni siquiera sea tan dramático.
Los reguladores empiezan a ver capacidades emergentes y comportamientos inesperados que les convencen de que estos sistemas avanzan demasiado rápido, que están más allá de nuestra capacidad de comprensión y que el ritmo de progreso debe ralentizarse para dar más tiempo a las pruebas y la investigación.
Y lo que es peor, lo ven en datos protegidos, que no pueden hacer públicos.
E incluso si pudieran hacer públicos esos datos, seguiría siendo un juicio de valor.
Actuar antes de tiempo es actuar sin certeza.
¿Le parecería al resto del mundo un enfoque inteligente que deberían copiar?
¿O les parecería una oportunidad para arrebatar a Estados Unidos el liderazgo en IA?
No es difícil imaginar a Gran Bretaña, China o Japón, o a actores más pequeños como Israel, Arabia Saudita o Estonia, viendo oportunidades en nuestra cautela y atrayendo a las empresas de IA con promesas de un enfoque más favorable a la innovación.
Si parece descabellado imaginar a empresas enteras estableciéndose en el extranjero en busca de normativas más laxas, recuerde que FTX, bajo la dirección de Sam Bankman-Fried, trasladó su sede y su personal a las Bahamas exactamente por esa razón.
Ya vimos cómo funcionó.
No quiero ser demasiado pesimista.
Si la IA evoluciona como la mayoría de las tecnologías -de forma progresiva para que los reguladores, las empresas y los sistemas jurídicos puedan seguir el ritmo (o al menos ponerse al día)-, entonces vamos por buen camino.
En el último año, me ha animado la seriedad con la que los gobiernos, los tecnólogos y los medios de comunicación se están tomando tanto las posibilidades como los peligros de la IA.
Pero si las capacidades de estos sistemas siguen aumentando exponencialmente, como muchos dentro de la industria creen que ocurrirá, nada de lo que he visto en las últimas semanas me hace pensar que seremos capaces de apagar los sistemas si empiezan a escaparse de nuestro control.
No hay interruptor de apagado.
c.2023 The New York Times Company
Comments are closed.