Meta Platforms, la empresa detrás de Facebook e Instagram, afirmó que la inteligencia artificial generativa tuvo un impacto limitado en la propagación de desinformación durante los principales procesos electorales de este año. Según Nick Clegg, presidente de asuntos globales de Meta, las redes de cuentas coordinadas que buscaban difundir contenido falso no lograron crear audiencias significativas ni utilizar la IA de manera efectiva en estas plataformas.
Clegg destacó que el volumen de desinformación generada por IA fue bajo y que Meta respondió rápidamente, etiquetando o eliminando contenido sospechoso. Estos resultados coinciden con lo señalado por expertos en desinformación, quienes han señalado que videos y audios manipulados, como los famosos ‘deepfakes’, no han tenido un impacto notable debido a su rápida desmentida, incluso en casos como el de la voz del presidente Joe Biden.
Sin embargo, Meta advirtió que las redes de desinformación están trasladando sus operaciones a plataformas con menos controles, como otras redes sociales, aplicaciones de mensajería o sitios web propios, lo que representa un desafío para la lucha contra este tipo de contenido.
A pesar de haber desmantelado 20 operaciones encubiertas de influencia este año, Meta reconoció que ha relajado la moderación de contenido en comparación con las elecciones presidenciales de Estados Unidos de 2020. Según Clegg, esto responde a críticas de usuarios sobre la eliminación injusta de publicaciones y a preocupaciones de legisladores sobre una posible censura de opiniones. La empresa busca ahora equilibrar la protección contra contenidos dañinos con la defensa de la libertad de expresión, aplicando sus normas con mayor precisión.
En agosto, el CEO de Meta, Mark Zuckerberg, lamentó que la compañía hubiera eliminado ciertos contenidos en respuesta a presiones gubernamentales, reflejando el delicado balance que las plataformas enfrentan entre la regulación y la libre expresión en la era digital.