首席执行官Sundar Pichai de Google, dice que existe la necesidad de una regulación gubernamental de la inteligencia artificial: 'Tiene que haber consecuencias'En una entrevista con 60分钟Sundar Pichar CEO de Google, dijo que la inteligencia artificial es la "tecnología más profunda en la que la humanidad está trabajando, más profunda que el fuego o la electricidad".
Las capacidades de lainteligencia artificial (IA)y la velocidad a la que la tecnología se está lanzando al público, están obteniendo una mezcla de reacciones de los entusiastas de la tecnología, directores ejecutivos y expertos.
Para el CEO de Google, Sundar Pichai, la IA es un aspecto cada vez más importante del negocio de Google: la compañía lanzóBard, su chatbot impulsado por la inteligencia artificial, en febrero y tiene otros proyectos en el horizonte, como un prototipo llamadoProject Starlink, que tiene como objetivo mejorar las videoconferencias simulando una experiencia más realista.
Enuna entrevistacon60 Minutesel domingo, Pichai dijo que la IA es uno de los descubrimientos más significativos de nuestro tiempo.
"Siempre he pensado en la IA como la tecnología más profunda en la que la humanidad está trabajando, más profunda que el fuego o la electricidad", dijo Pichai en la entrevista. "Estamos desarrollando tecnología que será mucho más capaz que cualquier cosa que hayamos visto antes".
Pinchai dijo al programa que debería haberuna regulación gubernamental de la IA, especialmente con la aparición dedeepfakes, diciendo que el enfoque de la tecnología "no sería diferente" de la forma en que la compañía abordó el spam en Gmail.
"Constantemente estamos desarrollando mejores algoritmos para detectar spam", dijo Pichai. "Tendríamos que hacer lo mismo con losdeepfakesde audio y video. Con el tiempo tiene que haber regulación. Tiene que haber consecuencias por creardeep fakesque causan daño a la sociedad".
En marzo, enuna carta abiertafirmada por líderes tecnológicos (entre ellos Elon Musk y el cofundador de Apple, Steve Wozniak) y directores ejecutivos, pidieron una pausa de seis meses en el desarrollo de IA para gestionar y evaluar los riesgos potenciales. Hasta la fecha, la carta cuenta con más de 26,000 firmas.