En enero de 2024, días antes de las primarias de New Hampshire, miles de votantes demócratas recibieron una llamada automatizada con la voz de Joe Biden diciéndoles que no fueran a votar en las primarias porque hacerlo "solo ayudaría a los republicanos". La voz era claramente sintética para cualquiera que prestara atención. No importó: la llamada llegó a más de 25.000 personas.
Ese incidente captura algo que los debates sobre deepfakes frecuentemente ignoran: la efectividad de la desinformación sintética no depende de su calidad técnica. Depende de su distribución y del contexto de incertidumbre en que llega.
La economía de la duda
Un deepfake perfecto es difícil y caro de producir. Pero un deepfake que simplemente siembre la duda —¿es real esto o no?— puede ser de baja calidad y bajo costo. En un entorno mediático donde la confianza institucional está en mínimos históricos, el beneficio del atacante no es que la gente crea el contenido falso. Es que deje de saber qué es real.
Los investigadores llaman a esto "el dividendo del mentiroso": cuando la desinformación prolifera, los actores deshonestos se benefician no porque sus mentiras sean creídas, sino porque la verdad deja de ser verificable a un costo razonable para el ciudadano promedio.
Qué tienen preparado los estados
En 2024, al menos 16 estados americanos aprobaron legislación relacionada con deepfakes electorales. La Unión Europea introdujo obligaciones de etiquetado para contenido sintético en su AI Act. X (Twitter) anunció políticas de etiquetado de contenido generado por IA que aplica de forma inconsistente.
Ninguna de estas medidas resuelve el problema fundamental: el etiquetado solo funciona en plataformas que lo exigen, y el contenido más dañino se distribuye precisamente por los canales menos regulados —grupos de WhatsApp, Telegram, foros alternativos— donde ninguna política de plataforma tiene alcance.
La solución que nadie quiere escuchar
No existe una solución tecnológica al problema de la desinformación sintética. Los detectores de deepfakes funcionan como juego del gato y el ratón: cada mejora en detección estimula mejoras en generación. El C2PA (Coalition for Content Provenance and Authenticity) está desarrollando estándares de procedencia para contenido digital que podrían ayudar a largo plazo, pero dependen de que toda la cadena —cámara, software de edición, plataforma de distribución— los adopte voluntariamente.
La respuesta más efectiva es antigua: alfabetización mediática, instituciones periodísticas fuertes y ciudadanos con hábitos de verificación. Nada de eso es escalable al ritmo al que escala la generación de contenido sintético. Y esa asimetría es el verdadero problema.
Comentarios
Deja tu comentario
No hay comentarios aprobados todavía. ¡Sé el primero en comentar!