Glocal
Helen Toner sobre el golpe en OpenAI: “Se trataba de confianza y responsabilidad”
-
Cuéntale a tus contactos
-
Recomiéndalo en tu red profesional
-
Cuéntale a todos
-
Cuéntale a tus amigos
-
envíalo por email
Unos días antes del Día de Acción de Gracias del año pasado, Helen Toner y tres de sus compañeros del consejo de OpenAI -la empresa de inteligencia artificial más conocida del mundo- despidieron por sorpresa a su CEO, Sam Altman.
La razón que dieron fue la falta de franqueza de Altman en su trato con el directorio, pero los detalles fueron mínimos. En los días siguientes, Toner, directora del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown, se ubicó en el centro de una crisis que amenazaba con desintegrar la empresa, valorada en US$ 86.000 millones. Se convirtió en una figura simbólica de la oposición a Altman, un operador legendario y astuto de Silicon Valley.
El golpe duró cinco días, en medio de intensas presiones de los poderosos inversionistas, partidarios y empleados de la startup para que se restituyera a Altman. Uno de los codirectores de Toner volvió a apoyar a Altman, el equipo directivo se apresuró a defenderlo y, al final del largo fin de semana, Altman estaba de nuevo en su puesto de CEO. Toner se vio obligada a dimitir.
El enfrentamiento fue algo más que un choque de personalidades: desencadenó un debate mundial sobre la naturaleza del poder empresarial y sobre si se puede confiar en los líderes tecnológicos de hoy para supervisar uno de nuestros inventos más poderosos.
Sentada al fondo de un restaurante sichuanés cerca del St. James’s Park londinense, Toner parece imperturbable ante el caos que ha contribuido a instigar. Con una sencilla camiseta negra y el pelo corto y ondulado recogido con sensatez, dejando a la vista unas pequeñas tachuelas de esmeralda, esta mujer de 32 años es una improbable némesis para Altman. Desde su salida del escenario de OpenAI, la ingeniera nacida en Melbourne se ha mantenido en silencio sobre su expulsión y sobre cómo se produjo. Para muchos, sigue siendo un enigma.
“Es muy difícil ver lo que ha pasado y llegar a la conclusión de que el autogobierno va a funcionar en estas empresas”, afirma mientras bebe un té de jazmín. “O que podemos confiar en que las estructuras de autogobierno resistan las presiones de los diferentes tipos de poder e incentivos que están en juego aquí”.
“Para el consejo de administración, hubo una trayectoria en la que se pasó de ‘todo está muy poco en juego, hay que ser bastante indiferente’ a ‘en realidad, estamos desempeñando esta función crítica de gobernanza en una situación en la que hay mucho en juego, no sólo para la empresa, sino para el mundo’”, dice.
Pasamos a la tarea relativamente sencilla de elegir nuestra comida, lo que nos lleva a descubrir nuestro vegetarianismo mutuo. Toner renunció a la carne por razones de bienestar animal hace unos años, así que pedir la comida resulta inesperadamente fácil. Nos decidimos por el menú vegetariano para compartir, para probar tantos platos como podamos, unidos por nuestra afición a la comida picante.
Toner fue invitada a formar parte del consejo de OpenAI en 2021 por su antiguo jefe Holden Karnofsky. Habían trabajado juntos en la organización sin ánimo de lucro californiana GiveWell, que utilizaba los principios del altruismo efectivo -un controvertido movimiento social y filantrópico influyente en los círculos tecnológicos- para realizar investigaciones y conceder subvenciones. En GiveWell, Toner se interesó desde el principio por las cuestiones políticas de la IA, en particular su uso militar y la influencia de la geopolítica en el desarrollo de la IA.
Karnofsky abandonaba el consejo de administración de la empresa y buscaba un sustituto adecuado. Toner sabía que OpenAI tenía una estructura de gobierno inusual, que implicaba una estructura sin ánimo de lucro con filiales con ánimo de lucro limitado. (El FT tiene un acuerdo de licencia con OpenAI). Su principal patrocinador, Microsoft, no poseía ninguna participación convencional en la empresa. En su lugar, tiene derecho a recibir una parte de los beneficios de una filial específica de OpenAI, hasta un cierto límite. En sus estatutos, la empresa afirma que su “principal deber fiduciario es para con la humanidad” y que el consejo de la organización sin ánimo de lucro, que rige todas las actividades de OpenAI, debe actuar para promover su misión, en lugar de maximizar los beneficios para los inversores.
Toner preguntó: ¿tendría este consejo algún poder real para exigir responsabilidades a la empresa? - y personas cercanas la convencieron de que sí. A ella le pareció una forma potencialmente valiosa de contribuir al desarrollo de una IA segura y beneficiosa. “Lo curioso es que creo que la junta (de OpenAI) estaba buscando a alguien que fuera... agradable y práctico, que tendiera puentes y que no agitara demasiado el barco”, afirma.
“Nunca he estado en este consejo por diversión o por gloria. Sin duda, el nivel de atención al que me vi sometida personalmente no era algo que esperara”, me dice. “Creo que tener un hijo me ayudó mucho. Es muy, muy enraizante”.
___________________________________
El restaurante que eligió Toner, Ma La Sichuan, un animado local decorado con los tradicionales colores rojo y dorado, es una reminiscencia de su estancia de nueve meses en Pekín en 2018, cuando estudió chino, se instruyó en la comida sichuanesa y trabajó como investigadora afiliada en IA y defensa.
Durante su estancia, trabajó con investigadores de aprendizaje automático y asistió a conferencias sobre IA y el ejército chino, siendo a menudo una de las pocas extranjeras. “China se utiliza a menudo como una especie de garrote en DC... para hacer cosas en IA debido (a) China.
Y a menudo no está necesariamente relacionado con lo que China está haciendo realmente o con el éxito de sus planes”, afirma.
Y a menudo no está necesariamente relacionado con lo que China está haciendo realmente o con el éxito de sus planes”, afirma.
Como hemos optado por el menú para compartir, empiezan a llegar en procesión bandejas de platos humeantes, precedidos de aromas de guindilla y ajo. Hay tortitas vegetarianas aromáticas de “pato” con finos cilindros de pepino, puerros y salsa hoisin (un plato pekinés inesperado en un local sichuanés, señala Toner, pero crujiente, salado-dulce y delicioso en cualquier caso).
Le sigue un desfile de platos regionales favoritos, como el tofu ma po y la berenjena caliente a base de pescado y fragante, con un plato seco de judías verdes finas cubiertas con pequeños montones de ajo asado y rodajas de guindilla que se funden en la lengua. La berenjena tiene toques de miso que saboreo.
“Ma significa anestesia o parálisis en chino, porque la pimienta de Sichuan te adormece la lengua y los labios”, explica. “Soy un poco adicta a ese sabor”.
El pasado mes de marzo, un estudio independiente realizado por un bufete de abogados externo concluyó que el comportamiento de Altman “no exigía su destitución”. El empresario se reincorporó al directorio ese mismo mes. En aquel momento dijo estar “contento de que todo esto haya terminado”.
La conversación vuelve a OpenAI y a la relación de Toner con la empresa durante los dos años que formó parte de su directorio. Cuando se unió por primera vez, había nueve miembros, entre ellos el cofundador de LinkedIn Reid Hoffman, Shivon Zilis, ejecutivo de la empresa de neurotecnología de Elon Musk Neuralink, y el congresista republicano Will Hurd. Era un ambiente colegial, dice, aunque en 2023 esos tres miembros dimitieron, dejando a tres no ejecutivos en el consejo, entre ellos Toner, la empresaria tecnológica Tasha McCauley y Adam D’Angelo, el director ejecutivo del sitio web Quora, junto a Altman y los cofundadores de la empresa Greg Brockman e Ilya Sutskever.
“Me incorporé cuando la empresa estaba experimentando un claro cambio”, afirma Toner.
“Ciertamente, cuando me incorporé, era mucho más comparable a formar parte del consejo de administración de una empresa emergente financiada con capital riesgo, en la que sólo estás ahí para ayudar [y] hacer lo que el director general considera correcto. No quieres entrometerte ni obstaculizar nada”.
“Ciertamente, cuando me incorporé, era mucho más comparable a formar parte del consejo de administración de una empresa emergente financiada con capital riesgo, en la que sólo estás ahí para ayudar [y] hacer lo que el director general considera correcto. No quieres entrometerte ni obstaculizar nada”.
La transición en la empresa, dice, se precipitó con el lanzamiento de ChatGPT -del que Toner y el resto de la junta se enteraron por Twitter-, pero también del modelo de IA más avanzado de la empresa, GPT-4. OpenAI pasó de ser un laboratorio de investigación, en el que los científicos trabajaban en proyectos de investigación incipientes y con visión de futuro no diseñados para ser utilizados por las masas, a una entidad mucho más comercial con una potente tecnología subyacente que tenía repercusiones de gran alcance.
Le pregunto a Toner qué piensa de Altman, la persona y el líder. “Siempre hemos tenido una relación cordial, es un tipo simpático”, dice. Toner todavía tiene obligaciones legales de confidencialidad con la empresa, y está limitada en lo que puede revelar. Pero en un podcast de mayo afirmó que Altman había engañado al consejo “en múltiples ocasiones” sobre los procesos de seguridad existentes. Según ella, había ocultado información, tergiversado deliberadamente lo que estaba ocurriendo en la empresa y, en algunos casos, había mentido directamente al consejo.
Señaló el hecho de que Altman no había informado al directorio sobre el lanzamiento de ChatGPT, o que era propietario del OpenAI Startup Fund, un fondo de capital riesgo que había recaudado de socios limitados externos y sobre el que tomaba decisiones de inversión, a pesar de que, según Toner, afirmaba “ser un miembro independiente de la mesa sin intereses financieros en la empresa”. Altman abandonó el fondo en abril de este año.
En las semanas previas al despido de noviembre, Altman y Toner también se habían enfrentado por un artículo del que ella era coautora sobre la percepción pública de varios desarrollos de IA, que incluía algunas críticas al lanzamiento de ChatGPT. Altman consideraba que quedaba mal parada. “Si hubiera querido criticar a OpenAI, habría habido muchas formas más eficaces de hacerlo”, afirma Toner.
“Sinceramente, no tengo claro si realmente le llegó o si buscaba una excusa para intentar echarme del directorio”.
“Sinceramente, no tengo claro si realmente le llegó o si buscaba una excusa para intentar echarme del directorio”.
Hoy, dice que todos esos son ejemplos meramente ilustrativos para señalar patrones a largo plazo de comportamiento poco fiable que Altman exhibió, con la junta pero también con sus propios colegas. “Lo que lo cambió fueron las conversaciones con altos ejecutivos que mantuvimos en otoño de 2023”, afirma. “Ahí es donde empezamos a pensar y hablar más activamente sobre [hacer] algo sobre Sam específicamente”.
Las críticas públicas a la decisión del directorio han ido desde ataques personales a Toner y sus codirectores -muchos la describen como una “decel”, alguien contraria al progreso tecnológico- hasta la desaprobación de cómo el consejo ha gestionado las consecuencias. Algunos señalaron que el consejo no había actuado en el momento oportuno, dada la venta simultánea de acciones de OpenAI, lo que podía poner en peligro las retribuciones de los empleados.
El pasado mes de marzo, un estudio independiente realizado por un bufete de abogados externo concluyó que el comportamiento de Altman “no exigía su destitución”. El empresario se reincorporó al consejo ese mismo mes. En aquel momento dijo estar “contento de que todo esto haya terminado”, añadiendo: “Durante estos últimos meses ha sido descorazonador ver a algunas personas con una agenda tratando de provocar filtraciones en la prensa para intentar perjudicar a la empresa y dañar la misión. No han funcionado”.
En opinión de Toner, el resultado de la revisión sonaba como si la nueva junta hubiera planteado la cuestión de si tenía que despedir a Altman. “Lo que creo que se interpreta como: ‘¿Hizo algo ilegal?’ Y no es así como creo que la junta debería evaluar necesariamente su conducta”, afirma.
“No han rebatido en ningún sitio ninguna de las afirmaciones reales que hemos hecho sobre lo que salió mal o por qué le despedimos... que tenía que ver con la confianza, la responsabilidad y la supervisión”.
En una declaración al FT, el presidente del directorio de OpenAI, Bret Taylor, dijo que “más del 95% de los empleados, incluidos los altos directivos, pidieron la readmisión de Sam”. Toner no puede explicar -ni preveía- las deserciones de altos cargos, incluido el miembro del consejo Sutskever, que pasó de criticar a apoyar a Altman en cuestión de días. “Aprendí mucho sobre cómo reaccionan las distintas personas a la presión en diferentes situaciones”.
Nos abrimos paso a través del festín con eficiencia, de acuerdo en que el tofu ma po, cosquilleante y fragante, es la estrella del espectáculo. Le pregunto a Toner cómo le ha cambiado la vida desde noviembre, e insiste en que no ha cambiado. Ha mantenido su trabajo a tiempo completo en el CSET, donde asesora a altos funcionarios del gobierno sobre política de IA y seguridad nacional, hace su propio pan de centeno en casa con su marido, un científico alemán, y se ocupa a diario de los esfuerzos de la crianza de los niños pequeños.
En aquel momento, cuando la crisis de OpenAI se convirtió en un largo fin de semana de negociaciones sin dormir y control de daños, admite que le dio un nuevo aprecio por su comunidad en DC. Como muchos de sus colegas trabajaban en el ámbito de la seguridad nacional, se habían enfrentado a “crisis reales, en las que moría gente o había guerras, así que eso lo ponía en perspectiva”, dice. “Unas cuantas noches sin dormir no son tan malas”.
Su mayor aprendizaje fue sobre el futuro de la gobernanza de la IA. Para ella, lo ocurrido en OpenAI puso en juego la necesidad de una supervisión externa adecuada para el pequeño grupo de empresas que se apresuran a crear potentes sistemas de IA. “Podría significar regulación gubernamental, pero también podría significar... normas para todo el sector, presión pública, expectativas públicas”, afirma.
No es sólo el caso de OpenAI, subraya, sino también de empresas como Anthropic, Google y Meta. En su opinión, establecer requisitos legales de transparencia es crucial para evitar la creación de una herramienta peligrosa para la humanidad.
“Además, (las empresas) se encuentran en una situación difícil, en la que todas intentan competir entre sí. Hablas con la gente de esas empresas y casi te suplican que intervengas desde fuera”, dice. “No se trata sólo de confiar en la beneficencia y el juicio de personas concretas. No debemos dejar que las cosas se organicen de tal manera que un pequeño número de personas sean las que decidan lo que ocurre, por muy buenas que sean esas personas”.
Toner llegó a la política de IA por un camino poco habitual. Cuando era estudiante universitaria en Melbourne, conoció el altruismo eficaz (AE). Le sedujeron las ideas de la comunidad de ayudar a mejorar el mundo de una forma que requería pensar con la cabeza y el corazón, dice.
La comunidad del AE y su problemático funcionamiento salieron a la luz en 2022 por culpa de su promotor y donante más público, Sam Bankman-Fried, fundador caído en desgracia de la empresa de comercio de criptomonedas FTX. Toner dice que le conocía “un poco, no muy bien”, y que se había reunido con él “una o dos veces”.
“He estado mucho menos involucrada en los últimos años, sobre todo por este tipo de pensamiento de grupo, de culto al héroe. (Bankman-Fried) es un síntoma de ello”, afirma. “Lo último que escribí (sobre él) fue sobre cómo me desilusioné con AE, tanto cómo lo experimenté yo como cómo lo había visto experimentar a otros”.
En este punto, estamos saciados de la comida, pero no podemos resistirnos a picar las sobras para sentir otra punzada de ese entumecedor sabor a grano de pimienta. Tener el estómago lleno parece el momento adecuado para hacer la pregunta distópica sobre la próxima ola de sistemas de inteligencia artificial.
“Una cosa que (los altruistas efectivos) hicieron muy bien es tomar en serio la posibilidad de que veamos sistemas de inteligencia artificial muy avanzados durante nuestras vidas y eso podría ser un gran problema para lo que sucede en el mundo”, dice. “En 2013, 2014, cuando empezaba a escuchar este tipo de ideas, me parecían muy contraculturales, y ahora . . . Ciertamente se siente más convencional”.
“Una cosa que (los altruistas efectivos) hicieron muy bien es tomar en serio la posibilidad de que veamos sistemas de inteligencia artificial muy avanzados durante nuestras vidas y eso podría ser un gran problema para lo que sucede en el mundo”, dice. “En 2013, 2014, cuando empezaba a escuchar este tipo de ideas, me parecían muy contraculturales, y ahora . . . Ciertamente se siente más convencional”.
A pesar de esto, tiene fe en la capacidad de adaptación de la humanidad. “En general, tengo cierta esperanza de que tendremos espacio para respirar y prepararnos”, dice.
A lo largo de nuestra conversación, Toner se ha limitado a relatar sus intentos de enfrentarse a uno de los directores ejecutivos más poderosos de la tecnología. Gran parte de las críticas personales y la atención que se vio obligada a aceptar podrían haberse evitado si hubiera actuado de manera diferente, si se hubiera preparado mejor para las consecuencias o, tal vez, hubiera recibido más consejos. Me siento obligado a preguntarle si alguna vez se cuestiona a sí misma, sus acciones o sus métodos del pasado mes de noviembre.
“Quiero decir, todo el tiempo”, dice con una amplia sonrisa. “Si no te cuestionas, ¿cómo estás tomando buenas decisiones?”