Las publicidad de las campañas políticas serán controladas por Meta para no estafar con inteligencia artificial. (Foto: AFP)
Las publicidad de las campañas políticas serán controladas por Meta para no estafar con inteligencia artificial. (Foto: AFP)
Agencia AFP

Meta dijo que los anunciantes pronto tendrán que manifestar si han usado(IA) u otro software para crear o alterar las imágenes o audios en publicidad política.

El requisito tendrá efecto globalmente en Facebook e Instagram a comienzo del próximo año, dijo Meta, su casa matriz.

LEE TAMBIÉN: AI Pin, el dispositivo con inteligencia artificial y sin pantalla que busca desplazar al celular

“Los anunciantes que hagan publicidad de problemas sociales, elecciones y política con Meta tendrán que decir si la imagen o el sonido han sido creados o alterados digitalmente, incluso con AI, para hacer decir a gente real cosas que no han hecho o dicho”, dijo en una publicación de Threads el presidente de asuntos globales de Meta, Nick Clegg.

Los anunciantes también tendrán que revelar cuando usan IA para crear gente o eventos realistas falsos, agregó.

Además, los socios de verificación de Meta, entre los que está la AFP, pueden etiquetar contenido como “alterado” si determinan que fue creado o editado de forma que resulte engañosa.

Entre los temores acerca de la cada vez más poderosa IA está el potencial fraude a los votantes durante las elecciones.

Otro gigante que está dando pasos para controlar este problema es Microsoft, que planea lanzar a principios de 2024 herramientas que permitan a los candidatos o campañas incluir “credenciales” en imágenes o video que produzcan.


El gigante tecnológico dijo que además desplegará un equipo para ayudar a las campañas a combatir amenazas basadas en la IA como ciberinfluencia o imágenes falsas.

Contenido sugerido

Contenido GEC