La inteligencia artificial ha democratizado la creación de «deepfakes», videos, audios e imágenes falsificados que imitan con gran precisión la apariencia y voz de personas reales. Aunque tienen usos legítimos, se han convertido en una poderosa herramienta para la desinformación, la difamación y el fraude en línea. La capacidad de engaño de los deepfakes debilita la confianza en la autenticidad del contenido visual tradicional, como advierten expertos en seguridad digital.
A pesar de su sofisticación, los deepfakes a menudo presentan imperfecciones que pueden alertar a los usuarios. Es crucial verificar siempre la fuente del contenido y analizar detalles como la sincronización entre el habla y los movimientos faciales, la coherencia de la iluminación en la escena y la naturalidad del parpadeo. En casos de duda, existen herramientas en línea que realizan análisis forenses digitales para detectar posibles manipulaciones.
Ante la proliferación de deepfakes con fines maliciosos, el gobierno colombiano ha presentado un proyecto de ley pionero en Latinoamérica para regular el uso de contenidos sintéticos, especialmente en el ámbito político y electoral. La propuesta busca obligar a etiquetar todo contenido audiovisual generado por IA relacionado con figuras públicas o temas de interés nacional y establecer sanciones para quienes utilicen deepfakes para difamar, manipular información o cometer fraude.