¿Envenenar a la inteligencia artificial para proteger las obras con derechos? Eso es lo que propone NightshadeExpertos de la Universidad de Chicago crearon este sistema para engañar a los programas que usan la inteligencia artificial.
Vivimos en una época en la que lainteligencia artificial (IA)nos ha proporcionado la capacidad de realizar en poco tiempo tareas que antes resultaban complejas, caras, o a veces, casi imposibles de realizar.
罪禁运,esta tecnologica时代no está exenta de desafíos, especialmente enla protección de los derechos de autor.En este contexto, un equipo de investigadores de laUniversidad de Chicagoha desarrollado una nueva arma para los artistas:Nightshade, una herramienta diseñada para combatir a lasIA generativasque utilizan obras con derechos de autor para responder a las solicitudes de los usuarios.
Según la información publicada enarXiv,Nightshade es una herramienta innovadora que permite "envenenar" el material utilizado por dichas tecnologías.
Esto significa que, cuando una IA generativa solicita una imagen, Nightshadepuede alterar el resultado de manera que, por ejemplo, una solicitud de un diseño de unperro podría terminar mostrando a un gato.
SegúnGenbeta,los investigadores liderados porBen Zhaoya habían tenido éxito anteriormente con una herramienta llamadaGlaze, que altera sutilmente las imágenes digitales al cambiar algunos píxeles de manera que el ojo humano no detecte la diferencia, pero que confunde a los programas.
El equipo de la Universidad de Chicago tiene la intención de integrarNightshade con Glaze,de modo que los artistas puedan elegir qué método utilizar para proteger sus obras contra la inteligencia artificial generativa.
¿Cómo funciona Nightshade?
Nightshade se basa en la explotación de una vulnerabilidad de seguridad que existe en los modelos de IA. Esta vulnerabilidad permite la introducción de imágenes "envenenadas" en la red.Cuando los modelos de IA comienzan a buscar información en línea para entrenarse, se topan con datos manipulados.
Esto significa que los modelos que utilizan información envenenada aprenderán de manera incorrecta, generando resultados que están completamente desconectados de la realidad.
Nightshade es un ejemplo de cómo los artistas están luchando contra la apropiación no autorizada de su trabajo por parte de lasIA generativas.Esta herramienta团体反对其它科莫釉,再保险presenta un paso importante hacia la creación de un equilibrio entre la innovación tecnológica y la protección de los derechos de autor en el mundo digital, un área todavía llena de vacíos legislativos y con mucho camino por andar.
Relacionado: Autores demandan a OpenAI por usar sus obras para entrenar a ChatGPT