OpenAI piensa utilizar "marcas" para identificar textos creados con sus herramientas de inteligencia artificialLa organización contempla el uso de "señales secretas" para evidenciar el contenido generado con la plataforma.
La incursión al mercado deplataformas de inteligencia artificialcapaces de generar textos perfectamente bien escritos ha despertado muchas inquietudes. Además de redactores y escritores —quienes comienzan a sentir queuna máquina podría quedarse con su empleo—, hay un sector que también mira este tipo de desarrollos con suspicacia: el académico.
Hoy losmodelos de lenguaje autorregresivo儿子纳卡帕克德redactar elaborados textos, facilmente podrían cumplir con los puntos a desarrollar en un trabajo escolar. Es decir:lainteligencia artificialpodría hacerles la tarea a los alumnos.
Previniendo esta situación, empresas comoOpenAI(la responsable del desarrollo deDall-EyGPT-3) trabajan ya en medidas para impedir que sus herramientas cumplan con esa función.
Scott Aaronson, profesor de ciencias computacionales en la Universidad de Austin, quien labora como desarrollador invitado en OpenAI, dictó una conferencia en la que aborda el tema y una posible solución para que los profesores puedan identificar si un texto fue creado utilizando un modelo de lenguaje basado en la inteligencia artificial.
En sublog personalel académico explica: "Mi proyecto principal hasta ahora ha sido una herramienta para marcar estadísticamente las salidas de un modelo de texto como GPT. Básicamente, cada vez que GPT genera un texto largo, queremos que hayauna señal secreta imperceptible en su elección de palabras, que se puede usar para probar más tarde que, sí, esto vino de GPT. Queremos que sea mucho más difícil tomar algo creado en GPT y hacerlo pasar como si viniera de un humano. Esto podría ser útil paraprevenir el plagio académico, obviamente, pero también, por ejemplo, lageneración masiva de propaganda, ya sabes, enviar spam a cada blog con comentarios que aparentemente apoyan la invasión rusa de Ucrania, sin siquiera tener un edificio lleno de trolls en Moscú. O imitar el estilo de escritura de alguien para incriminarlo. Estas son todas las cosas que uno podría querer hacer más difíciles, ¿verdad?"
La preocupación de Aaronson la comparten muchos profesionales en diversas disciplinas y no es para menos: los sistemas de inteligencia artificial hoy son capaces de generar en segundos contenidos que a una persona le tomaría un buen tiempo realizar. Deobras de arte capaces de ganar concursos, apoemascreados a partir de una breve entrada de texto, estas herramientas obligan a hacer preguntas éticas.
Pero la respuestas a esas preguntas no deben de ir en el sentido de la prohibición o de la satanización deuna tecnología que parece haber llegado para quedarse. Más bien se trata de entender la manera en que estas herramientas pueden potenciar nuestra capacidad y nuestro talento, claro, garantizando que no mermen nuestro desarrollo como pudiera suceder en el ámbito académico.