Ejecutivos de las empresas de inteligencia artificial acudirán a la Casa Blanca para comprometerse de manera voluntaria a cuidar estos aspectos en el desarrollo de la tecnologíaPresentes estarán los representantes de las siete empresas que más han invertido y avanzado en el desarrollo de la IA.
Aunque no existe todavía una legislación que regule el uso de lainteligencia artificial (IA), el gobierno de los Estados Unidos al menos comienza a mostrar preocupación e interés al respecto.
Desde la irrupción masiva de la tecnología en noviembre del año pasado con la aparición deChatGPT儿子,很多拉,玻advierten torno al peligro que las herramientas de IA suponen. En marzo de este año más de 1,000 personasfirmaron una misiva abiertaen la que pedían a los laboratorios y empresas tecnológicas que detuvieran el desarrollo de sus investigaciones al menos durante seis meses para dar espacio a los gobiernos para legislar en torno a la efervescente tecnología. Entre los firmantes se encontraban importantes figuras como Elon Musk, Steve Wozniak, Tristan Harris y Yuval Noah Harari.
Relacionado:¿Qué se esconde realmente detrás de la famosa carta contra la inteligencia artificial?
El temor达达desarrollo de esta的开车tecnología, es que en algún momento se salga de control y tenga un impacto negativo en la vida de los humanos. ¿Por qué? Porque las herramientas de inteligencia artificial son tan poderosas que hipotéticamente son capaces de tomar decisiones por sí mismas.
La carta no logró detener el desarrollo de la tecnología, pero al menos ahora la Casa Blanca ha mostrado señales de que el tema le importa.
Un acto de buena voluntad
El día de hoy ejecutivos de las principales empresas en el campo de la IA visitarán la Casa Blanca para refrendar el compromiso de ceñirse a una serie de acuerdos de buena voluntad para llevar la nueva tecnología a buen puerto. No se trata de un acuerdo, pero al menos mostrarán la voluntad de cuidar algunos aspectos en el desarrollo de la tecnología.
Entre los asistentes estarán: Dario Amodei (Anthropic), Greg Brockman (OpenAI), Nick Clegg (Meta), Adam Selipsky (Amazon Web Services), Brad Smith (Microsoft), Mustafa Suleyman (Inflection AI) y Ken Walker (Google).
SegúnTechCrunchlos ejecutivos discutirán (y se comprometerán a prestar atención a) los siguientes puntos:
- Realizar pruebas, tanto internas como externas, antes de liberar una nueva herramienta; esto incluye elred teaming, práctica en la que un grupo simula ataques para identificar la vulnerabilidad de un sistema.
- Compartir información con el gobierno, la sociedad y la academia sobre los riesgos que implica el desarrollo de la IA y cómo mitigarlos.
- Invertir en ciberseguridad para proteger a los modelos y los datos que contienen.
- Permitir el que terceros busquen y reporten fallos en los sistemas de inteligencia artificial.
- Reportar el uso que se la da a la tecnología, así como sus capacidades, limitaciones y usos (apropiados e inapropiados).
- Priorizar la investigación en torno a temas como los sesgos sistemáticos o asuntos de privacidad.
- Utilizar la capacidad de la IA para atender los grandes retos sociales como la prevención de enfermedades o el cambio climático.
Por ahora se trata solo de una lista de compromisos a ser cumplidos voluntariamente, pero es posible que algunos de estos puntos terminen por formar parte de una futura legislación. Aunque eso, por ahora, aún no lo sabemos.
Relacionado: ¿Por qué Elon Musk y otros expertos en tecnología están tan preocupados por la inteligencia artificial?