Más de 1,100 personas han firmado una carta que pide pausar el desarrollo de la inteligencia artificial durante seis meses, entre ellos se encuentra Elon MuskLa idea es que el periodo se utilice para desarrollar un marco legal que garantice la seguridad de los seres humanos ante la nueva tecnología.
Lo hemos leído en múltiples novelas y visto en cientos de películas: tardo o tempranolas máquinas se vuelen en contra de sus creadores para tomar el control. Del célebre HAL en2001: Odisea del espacio(con todo y su referencia a IBM) aMátrix, pasando por novelas comoFool's Warde Sarah Zettel oSea of Rustde Robert Cargill, la idea de que lainteligencia artificial (IA)pueda dominarnos nos aterra y nos fascina al mismo tiempo.
Con la llegada de poderosas herramientas comoChatGPTyMidJourneyel temor se acrecienta. Porque, aunque cada día la tecnología nos deja boquiabiertos con aquello que es capaz de hacer, también despierta nuestros miedos y obliga a cuestionarnos: ¿hasta a dónde llegará?
Entre los preocupados, quienes sienten que el desarrollo de la inteligencia artificial se está dando demasiado rápido, están más de 1,100 personas que han firmado una carta abierta pidiendo a los laboratorios que desarrollan inteligencia artificialque detengan sus investigaciones al menos por seis meses.
La carta está firmada por algunas figuras destacadas como Steve Wozniak, Tristan Harris,Elon Musk, Emad Mostaque y Yuval Noah Harari, y fue publicada en el sitiofutureoflife.org. El documento explica:
"Los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad, como lo demuestran las investigaciones exhaustivas y lo reconocen los principales laboratorios de IA. Como se indica en losPrincipios de IA de Asilomar, ampliamente respaldados,la IA avanzada podria representar教会profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos acordes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se han visto atrapados en una carrera sin control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable".
Los firmantes piden que la pausa en los procesos de investigación sea verificable. La idea de detener temporalmente los avances es poderestablecer una estructura对位再保险gular el desarrollo de la inteligencia artificial.
La carta explica: "Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes".
Aunque los nombres de notables personalidades aparecen en la carta, no hay manera de verificar que efectivamente hayan sido ellos quienes firmaron.