Por qué las grandes compañías de IA quieren que les tengamos miedo
Fuente de la imagen, Serenity Strull/ BBC/ Getty Images
Detenme si ya has escuchado esto antes: una empresa tecnológica afirma haber desarrollado una nueva inteligencia artificial (IA) tan poderosa que resulta aterradora.
Al parecer, es demasiado peligrosa para ser lanzada al mundo; las consecuencias serían catastróficas.
Por suerte para nosotros, la mantendrán bajo llave por el momento. Solo querían que lo supieras.
Eso es exactamente lo que la empresa de IA Anthropic nos está diciendo sobre su último modelo: Claude Mythos.
La compañía asegura que la capacidad de Mythos para detectar fallos de ciberseguridad supera con creces la de los expertos humanos, y que esta tecnología podría tener consecuencias capaces de alterar el orden mundial si cayera en las manos equivocadas.
"Las repercusiones —para las economías, la seguridad pública y la seguridad nacional— podrían ser graves", declaró Anthropic en una entrada de blog publicada a principios de abril.
Algunos, con exagerado tono de alarma, advirtieron que Mythos pronto nos obligará a reemplazar cada dispositivo tecnológico de nuestra vida —incluso el microondas con conexión wifi— para protegernos de esta locura digital.
Ciertos expertos en seguridad ponen en duda estas afirmaciones, pero dejemos eso de lado por el momento. Esto no es nada nuevo.
Los ejecutivos de los principales proveedores de IA emiten advertencias con regularidad sobre cómo los productos de su propia industria podrían acabar con la humanidad.
Es una forma extraña de referirse a su propio trabajo por parte de cualquier empresa.
No es habitual escuchar a McDonald's anunciar que ha creado una hamburguesa tan aterradoramente deliciosa que resultaría poco ético cocinarla para el público.
El nuevo podcast de BBC Mundo sobre un amor que triunfó contra todo pronóstico
Según algunos analistas, a las empresas de IA les conviene mantenernos obsesionados con la idea del apocalipsis, ya que esto desvía la atención del daño muy real que ya están causando en el mundo.
Los líderes tecnológicos sostienen que simplemente nos están advirtiendo sobre un futuro inevitable y que la seguridad es una prioridad absoluta, ya sea ahora o más adelante.
Sin embargo, otros argumentan que lo que realmente estamos presenciando es una estrategia de infundir miedo, que exagera el potencial de la tecnología y sirve para impulsar el precio de las acciones.
Además, fomenta la narrativa de que los organismos reguladores deben mantenerse al margen, bajo el pretexto de que estas empresas de IA son las únicas capaces de detener a los "malos" y de desarrollar esta tecnología de manera responsable.
"Si se presentan estas tecnologías como algo casi sobrenatural en cuanto a su peligrosidad, nos hace sentir impotentes, como si estuviéramos superados", afirma Shannon Vallor, profesora de ética de datos e inteligencia artificial en la Universidad de Edimburgo.
"Como si las únicas personas a las que pudiéramos recurrir fueran las propias empresas", añade.
Un portavoz de Anthropic me comentó que la empresa ha sido clara con respecto a estas cuestiones.
Compartieron entradas de blog de otras organizaciones que respaldaban las capacidades cibernéticas de Mythos, pero no dijeron nada para abordar los puntos planteados en este artículo, salvo un comentario que incluiré más adelante.
Esta no es la primera vez que el director de Anthropic, Dario Amodei, trabaja en una herramienta que la propia empresa de la que es parte declaró demasiado peligrosa para el público.
En 2019, cuando Amodei era ejecutivo en OpenAI, la compañía anunció GPT-2.
Él y otros líderes de la empresa afirmaron que simplemente no podían lanzar GPT-2 debido a "preocupaciones sobre las aplicaciones malintencionadas de la tecnología".
Se trataba de una herramienta mucho menos sofisticada que ChatGPT.
Y, meses después, la lanzaron de todos modos (el director ejecutivo de OpenAI, Sam Altman, publicó una entrada de blog en la que afirmó que la empresa asume la incertidumbre, aunque dijo que los temores en torno a GPT-2 estaban "fuera de lugar").
Altman criticó el "marketing basado en el miedo" de Anthropic en una reciente entrevista en un podcast. Sin embargo, su propia estrategia de "he creado un monstruo" se remonta a años atrás.
"Es muy probable que la IA conduzca al fin del mundo, pero, mientras tanto, surgirán grandes empresas", dijo Altman en 2015.
Años más tarde, Altman sostuvo que pierde el sueño preguntándose si "ha hecho algo realmente malo al lanzar ChatGPT".
Si tan solo alguien le hubiera advertido.
Fuente de la imagen, Serenity Strull/ BBC/ Getty Images
Cientos de líderes tecnológicos —entre ellos Altman, Amodei, Bill Gates y Demis Hassabis, director ejecutivo de Google DeepMind— respaldaron en 2023 una breve declaración que decía: "Mitigar el riesgo de extinción derivado de la IA debería ser una prioridad global, junto con otros riesgos a escala social, tales como las pandemias y la guerra nuclear".
Ese mismo año, magnates como Elon Musk firmaron una carta en la que solicitaban una pausa de seis meses en el desarrollo de IA avanzada.
Menos de seis meses después, Musk anunció su nueva empresa de inteligencia artificial: xAI.
"Esto es, sencillamente, parte de un patrón de afirmaciones infundadas sobre el poder", sostiene Emily M. Bender, profesora de lingüística computacional y procesamiento del lenguaje natural en la Universidad de Washington, y coautora del libro "La estafa de la IA".
Según Bender, esta actitud no se limita a OpenAI y Anthropic; constituye la postura habitual de toda la industria de la IA.
"Vienen a decir: 'Miren hacia aquí; no presten atención a la destrucción medioambiental, a la explotación laboral ni a todos esos sistemas sociales que estamos desmantelando'. Lo único que debe preocuparnos, según ellos, es asegurarnos de que esta tecnología no se convierta en esa entidad malévola que acabe destruyendo a la humanidad", explica.
Consulté a OpenAI sobre todos estos aspectos.
Un portavoz compartió una reciente entrada de blog de Altman, en la que escribía que OpenAI "se opondría a la posibilidad de que esta tecnología consolide el poder en manos de unos pocos", y añadía que "las decisiones clave sobre la IA deben tomarse mediante procesos democráticos y principios igualitarios, y no ser adoptadas exclusivamente por los laboratorios de IA".
Anthropic asegura que su nuevo modelo ya ha detectado miles de vulnerabilidades de "alta gravedad" en todo el panorama tecnológico, alcanzando un nivel de eficacia que supera al de los expertos humanos.
Asimismo, anunció una nueva alianza con más de 40 empresas y colectivos en un "intento urgente" por subsanar dichas vulnerabilidades antes de que los hackers tengan oportunidad de explotarlas.
Un portavoz de la empresa señaló que Anthropic ha buscado de forma intencional alianzas con organizaciones para reparar los sistemas informáticos básicos que concentran la mayor parte del problema.
No obstante, existen serias dudas en torno a dichas afirmaciones. Heidy Khlaaf, científica jefe de IA en el Instituto AI Now, dice que esto no le sorprende.
Khlaaf ha dedicado toda su carrera profesional a desarrollar y auditar, precisamente, el tipo de herramientas de análisis de código que Anthropic asegura haber superado.
Además, ha trabajado en el ámbito de la seguridad digital en instalaciones nucleares.
Khlaaf afirma que la mayor señal de alarma fue la ausencia de datos sobre las tasas de falsos positivos: una métrica estándar en la industria que indica con qué frecuencia una herramienta de seguridad señala algo que no constituye un problema real.
"No se trata de una métrica desconocida", dice Khlaaf.
"Es, en cierto modo, el indicador más importante de la utilidad de una herramienta".
Anthropic no hizo mención alguna de ello y eludió la pregunta cuando solicité sus comentarios al respecto.
Tampoco comparó Anthropic el rendimiento de Mythos con el de las herramientas existentes en las que los ingenieros de seguridad han confiado durante décadas.
Asimismo, han surgido algunas especulaciones que sugieren que Anthropic podría haber postergado el lanzamiento masivo de Mythos debido a que no disponía de la capacidad de cómputo necesaria.
Anthropic tampoco respondió cuando le consulté sobre este asunto.
Nada de esto implica que la amenaza sea imaginaria.
"Es posible que Mythos sea una herramienta competente", señala Khlaaf.
Las herramientas de IA son, en efecto, idóneas para analizar bases de código masivas, y la detección automática de vulnerabilidades de seguridad representa un peligro real y apremiante.
No obstante, Khlaaf se muestra escéptica ante las afirmaciones de Anthropic, dado que carecen de pruebas que las comprueben.
"Creo que existen numerosas fisuras en esa narrativa que presenta a Mythos como una herramienta todopoderosa que, por ello, no se puede lanzar al público", indica.
Evitar el fin del mundo es, según afirman, la razón misma de la existencia de OpenAI y Anthropic.
OpenAI se fundó como una organización sin fines de lucro, con la promesa de desarrollar la IA de manera segura antes de que gigantes tecnológicos supuestamente menos responsables —como Google y Meta— se les adelantaran.
Más tarde, un grupo disidente abandonó OpenAI para fundar Anthropic y alegó que su antiguo empleador no estaba lo suficientemente comprometido con la seguridad.
Ahora, ambas organizaciones trabajan para convertirse en empresas de capital abierto y vender acciones en el mercado bursátil.
"Si quieres entender cómo se comportará una organización —y, en particular, una corporación—, fíjate en cuáles son sus incentivos", señala Vallor.
Fuente de la imagen, Bloomberg vía Getty Images
Google eliminó sus "líneas rojas" respecto al desarrollo de armas basadas en IA.
OpenAI libró una batalla legal para desprenderse de su estatus de organización sin fines de lucro.
Anthropic abandonó su política insignia, que consistía en no entrenar jamás un modelo de IA si la empresa no podía garantizar medidas de seguridad adecuadas.
"Yo no contaría con que [ninguna de estas empresas] renuncie a la oportunidad de dominar el mercado con tal de seguir siendo 'los buenos'", dice Vallor.
Mientras tanto, existe un fuerte impulso para implementar la IA en el sector sanitario, a pesar de las serias preocupaciones que suscita la posibilidad de diagnósticos erróneos.
Los centros de datos alimentados por gas podrían emitir más gases de efecto invernadero que países enteros.
La IA presuntamente está llevando a masas de personas vulnerables al borde de la psicosis e incluso al suicidio.
Un creciente número de investigaciones sugiere un posible vínculo entre la IA y el deterioro cognitivo.
Los deepfakes han cruzado el punto de no retorno: ni siquiera pude convencer a mi propia tía de que yo no soy un robot.
Las empresas de IA aseguran tomarse estos problemas muy en serio.
OpenAI me envió enlaces a sus posicionamientos sobre salud mental, precisión de la IA, fraudes y estafas. Por su parte, Altman sostiene que la empresa está comprometida a abordar estos problemas en cada una de las etapas del desarrollo de la IA.
Pero existe una razón por la que estas compañías solo hacen sonar la alarma ante la posibilidad de un apocalipsis, asegura Vallor.
Si la IA pudiera destruir la sociedad, todos esos otros problemas parecerían mucho menos significativos.
"La estrategia ha funcionado", dice.
"Hablar de sus productos como si pudieran acabar con el mundo no ha perjudicado a estas empresas; no ha limitado su poder. Si acaso, hace que la gente sienta que las únicas entidades a las que pueden recurrir en busca de protección son las propias empresas", agrega.
Casi que al mismo tiempo, algunas de las personas que advierten sobre la destrucción también prometen la salvación.
En un ensayo de 2024, Altman proyecta que "triunfos asombrosos —como reparar el clima, establecer una colonia espacial y el descubrimiento de toda la física— acabarán convirtiéndose en algo cotidiano".
Amodei prometió "un país de genios dentro de un centro de datos".
Fuente de la imagen, Bloomberg vía Getty Images
La utopía y el apocalipsis son solo las dos caras de la misma moneda, según Vallor.
"En cualquiera de los dos casos, la escala es demasiado grandiosa y mítica como para que elementos como la regulación, la gobernanza o el derecho parezcan herramientas con las que se pueda ejercer un control efectivo", afirma.
"Esto lleva a la gente a creer que lo único que pueden hacer es sentarse a esperar para averiguar si estas tecnologías resultan ser demonios que acaban con la civilización o mesías que nos regalan una utopía", añade.
Incluso el nombre "Mythos" parece diseñado para inspirar un asombro de carácter casi religioso.
Pero no se trata de dioses; son productos creados por empresas con fines de lucro, indica Vallor.
Y hemos regulado cosas mucho más amenazantes que los chatbots.
"Con cualquier otra tecnología —salvo con esta; incluso con la energía nuclear o las armas biológicas—, en ningún otro caso hemos permitido que estas narrativas nos hagan creer que estamos ante fuerzas que escapan al control humano", dice.
"Nada en ellas es ingobernable. A menos que decidamos no gobernarlas", continúa.
Seamos claros: es teóricamente posible que la IA acabe dominando el mundo.
No soy adivino, pero pregúntate a ti mismo: ¿te suena esta idea parecida a otras historias que has escuchado provenir de Silicon Valley en el pasado?
¿Acaso no se suponía que a estas alturas todos estaríamos viviendo en el Metaverso de Mark Zuckerberg?
¿No iba Bitcoin a sustituir a todas las monedas del mundo?
¿Recuerdas la década de 2010, cuando oíamos hablar de cómo las redes sociales salvarían la democracia?
Todas estas cosas aún podrían suceder. O tal vez no.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.
Esta noticia fue desarrollada por los Profesionales del Grupo Diario Paraguayo gracias a la noticia original creada por nuestros amigos del BBC NEWS.
Nuestro equipo editorial trabaja para ofrecerte la información más clara, completa y actualizada.