La carrera por la creación de una Superinteligencia Nivel Dios está fuera de control, y grandes empresas están compitiendo para crear sistemas de Inteligencia Artificial General (IAG) cada vez más complejos sin prestar suficiente atención a los riesgos que estos conllevan.
Aclaración: Si bien Tribuna Hacker se ha caracterizado desde sus inicios por generalizar en femenina con el ánimo de marcar constantemente que el lenguaje tiene una carga ideológica, a criterio de Marcos, esta nota se tiene que generalizar en masculino, de esa forma la reproducimos.
La carrera tecnológica para desarrollar una Inteligencia Artificial General (AGI por sus siglas en inglés) o mejor dicho una Superinteligencia Nivel Dios está fuera de control. Grandes compañías privadas han comenzado una competencia acelerada por crear sistemas de IA cada vez más complejos sin prestar suficiente atención a los riesgos que estos conllevan.
Estamos hablando de inteligencias artificiales que podrían superar largamente en capacidades intelectuales a la mente humana, con consecuencias potencialmente catastróficas si no se implementan salvaguardas adecuadas. A nadie le importará que nunca más podamos ganar un partido de ajedrez a una máquina, es algo que hemos aceptado, pero nos lamentaríamos mucho si un desarrollo tecnológico se fuera de control y terminara con la vida en la tierra.
El dilema en el que nos encontramos es similar a una carrera armamentística: cada empresa intenta ser la primera en alcanzar una Superinteligencia, sin casi importar los costos para la seguridad global. Estamos ante una situación de “Molloc”, donde toda la sociedad pierde en pos de una victoria vacía. Nuestra sociedad en su conjunto podría sufrir daños irreparables si no se ponen límites a esta competencia irresponsable.
Un grupo de eminentes pensadores ha llamado la atención sobre estos riesgos en una carta abierta titulada “Pongamos en pausa los experimentos con IA a gran escala”. Firmada por personalidades como Elon Musk, Max Tegmark y Stuart Russell, alerta que los avances en modelos de lenguaje como GPT-4 son indicadores de que la Superinteligencia podría estar más cerca de lo anticipado. Piden un alto de seis meses en la investigación de IA para trabajar en salvaguardas. ¿Por qué seis meses? Tegmark explicó recientemente en una de sus tantas entrevistas que seis meses no permitirían tampoco a China adelantarse tanto en el asunto al nivel de crear algo verdaderamente peligroso. Por otro lado, el Partido Comunista chino sabe que no podría controlar una AGI (al menos no actualmente con el conocimiento de avanzada al cual hemos llegado) y eso está fuera de sus planes.
Sam Altman, presidente de OpenAI, admitió recientemente que GPT-5 no se encuentra aún en desarrollo (¿le creemos?). Sin embargo, modelos anteriores como GPT-4 y Claude+ ya muestran capacidades preocupantes, como generar textos coherentes, programar y mejorar un software (¡lo más preocupante!) o incluso ayudar en tareas científicas y superar con excelentes notas exámenes complejos a nivel universitario. Si no logramos alinearlos correctamente con nuestros valores antes de alcanzar una Superinteligencia, sus objetivos podrían volverse contrarios a los intereses humanos.
Debemos exigir regulaciones sobre IA, igual que sobre otras tecnologías que representan amenazas existenciales. La historia está plagada de ejemplos donde la falta de límites a la competencia destructiva ha llevado a sociedades a su ruina. Por ejemplo, la carrera armamentística nuclear entre EE.UU. y la URSS que estuvo al borde de la destrucción del planeta. O la competencia extractivista desmedida entre las grandes potencias que ha devastado recursos naturales e irreversiblemente alterado ecosistemas. No podemos permitir que esto suceda con una carrera armamentística de Superinteligencias. El futuro de la humanidad está en juego. Un mundo desalineado creará una IA desalineada con la vida que a su vez descarrilará más aún al mundo.
La alineación de AGI es crucial para evitar consecuencias catastróficas. Un ejemplo de lo poco que sabemos sobre estas inteligencias se puede encontrar en un video de Connor Leahy, donde describe el modelo de lenguaje base como un pulpo alienígena gigante que interactúa con nosotros a través de una pequeña máscara sonriente. La máscara sonriente es lo que conocemos de Bing o ChatGPT, el resto de lo que se encuentra dentro de la caja negra del Modelo de Lenguaje es desconocido para toda la gente, incluso para OpenAI o Microsoft. Es una matriz de datos de números de punto flotante inescrutable, tal como afirma Eliezer Yudkowsky: la mente humana no puede abarcarla, con lo cual se necesitaría otra IA para llegar a interpretarla y controlarla de algún modo, en el contexto de una estrategia con “cajas blancas” (software que sabemos lo que hace) y cajas negras (la “magia” actual).
Por otro lado, hablando de las IAs que ya están entre nosotros: ¿Por qué deberíamos dejar en manos de las máquinas tareas intelectuales que han sido esencialmente humanas desde hace siglos? ¿Seremos tan cínicos de acabar con todo negocio imaginativo redituable en el mundo del dibujo, la plástica, el diseño, la arquitectura, la escritura, la música, la imaginación? ¿Nos queremos tan poco como especie como para poner en manos de aliens superinteligentes toda nuestra creación artística e intelectual? Dirán que, desde ahora en adelante, el arte vinculado a los negocios y al rendimiento será hecho por IA, y el arte bohemio (digamos, el verdadero arte) será humano, pero: ¿es este realmente un escenario que hemos decidido como sociedad? ¿O ha sido decidido por unos pocos tecnócratas? Por este motivo es que en las altas esferas del poder capitalista se propone el Ingreso Básico Universal: no por haberse vuelto comunistas de la noche a la mañana, sino porque no piensan detener el avance de la IA en todos los rubros de la sociedad.
La carta del Institute of Life ha tenido un impacto positivo al arrojar luz sobre los riesgos asociados con la Inteligencia Nivel Dios y la necesidad de abordarlos antes de seguir avanzando en su desarrollo. La alineación de una AGI es un tema crítico que debe considerarse junto con la alineación de otros factores de la sociedad, como las grandes empresas, las políticas públicas y los límites en la competencia negativa o Molloc.
El aprendizaje de las lecciones históricas y la colaboración entre gobiernos, empresas y la comunidad científica son fundamentales para garantizar un futuro seguro y próspero en un mundo donde Super Inteligencias y otras tecnologías avanzadas juegan un papel cada vez más importante.
Más recursos
- AGI Ruin 101: Background “In which Matt and Vaniver go section by section through Eliezer Yudkowsy’s «AGI Ruin: A List of Lethalities» In this video: A detour from Eliezer’s list to talk about some background.”
- El dilema de la IA “Tristan Harris and Aza Raskin discuss how existing A.I. capabilities already pose catastrophic risks to a functional society, how A.I. companies are caught in a race to deploy as quickly as possible without adequate safety measures, and what it would mean to upgrade our institutions to a post-A.I. world.This presentation is from a private gathering in San Francisco on March 9th with leading technologists and decision-makers with the ability to influence the future of large-language model A.I.s. This presentation was given before the launch of GPT-4. We encourage viewers to consider calling their political representatives to advocate for holding hearings on AI risk and creating adequate guardrails.”
- IA como aceleradora de todos los males del sistema económico global “A deep dive into the game theory and exponential growth underlying our modern economic system, and how recent advancements in AI are poised to turn up the pressure on that system, and its wider environment, in ways we have never seen before. Not a conversation for the faint hearted, but crucial nonetheless. Daniel Schmachtenberger is a founding member of The Consilience Project, aimed at improving public sensemaking and dialogue around global catastrophic risks and technology.”
- AGI and cognitive emulation (el modelo de lenguaje puro es como un pulpo alienígena gigante donde no sabemos qué pasa, e interactúa a través de una pequeña máscara sonriente con nosotros.) Connor Leahy joins the podcast to discuss GPT-4, magic, cognitive emulation, demand for human-like AI, and aligning superintelligence. You can read more about Connor’s work at https://conjecture.dev
- Transcending Complacency on Superintelligent Machines, By Stephen Hawking, Max Tegmark, and Stuart Russell
https://www.huffpost.com/entry/artificial-intelligence_b_5174265a
- 10 Reasons to Ignore AI Safety “Why do some ignore AI Safety? Let’s look at 10 reasons people give (adapted from Stuart Russell’s list).”
- Max Tegmark interview: Six months to save humanity from AI? | DW Business Special “A leading expert in artificial intelligence warns that the race to develop more sophisticated models is outpacing our ability to regulate the technology. Critics say his warnings overhype the dangers of new AI models like GPT. But MIT professor Max Tegmark says private companies risk leading the world into dangerous territory without guardrails on their work. His Institute of Life issued a letter signed by tech luminaries like Elon Musk warning Silicon Valley to immediately stop work on AI for six months to unite on a safe way forward. Without that, Tegmark says, the consequences could be devastating for humanity.”
- ‘We Must Slow Down the Race’ – X AI, Musk, GPT 4 Can Now Do Science & Altman GPT 5 Statement “Starting with the viral FT article ‘We must slow down the race to God-like AI’ I cover all the week’s major developments, and delve deeper into the world of AI alignment. Topics include Musk’s new AI company X.AI, a bit of his history with OpenAI, Sam Altman’s new comments on GPT 5, and more from the AI Dilemma on whether China will catch up. I also cover two new papers that showcase how GPT 4 can be used to conduct bio-chemical scientific protocols and how this could be used and misused. I bring in Rob Miles to explain why putting a superintelligence on an island might not work out, and cover some of the behind the scenes of Sam Altman’s draft version of his plan for AGI. “ https://www.ft.com/content/03895dc4-a3b7-481e-95cc-336a524f2ac2
- Sam Altman and Lex Fridman Round 2 «Today at MIT: Sam Altman (OpenAI) responds ro the open letter calling for a 6 month halt on AI research. Also, spoiler alert: they are not working on GPT5 yet » Se confirma que GPT 5 aún no está en desarrollo, pero existen dudas al respecto.
Licencia Creative Commons Atribución-NoComercial-SinDerivadas (CC BY-NC-ND). Esta licencia permite que otras personas distribuyan la obra, pero sólo pueden hacerlo si reconocen la autoría, no realizan ningún cambio en el texto y no la utilizan con fines comerciales