A medida que nos acercamos a unas elecciones cruciales este año -nada menos que las estadounidenses-, asistimos al gemelo maligno de la desinformación falsa profunda: el "dividendo del mentiroso".
Las "falsificaciones profundas" son copias de audio, vídeo o imágenes generadas por inteligencia artificial que parecen increíblemente reales.
Ha habido numerosos ejemplos de falsificaciones profundas que han afectado a las personas y a la sociedad, desde una imagen generada por IA del Pentágono tangiblemente que afectaron al mercado bursátil el año pasado a una voz robocall imitando al Presidente Biden esta semana.
Sin embargo, las falsificaciones profundas no sólo son útiles para distorsionar la verdad, también son excelentes para refutarla. Es lo que se conoce como "el dividendo del mentiroso", que describe los beneficios que se obtienen al tildar de falso un contenido auténtico.
Por ejemplo, en respuesta a un anuncio de Fox News que mostraba sus meteduras de pata públicas el año pasado, el expresidente Donald Trump afirmó que el las imágenes fueron creadas por la IA.
Denunció el anuncio en un post en Truth Social, diciendo: "Los pervertidos y perdedores del fracasado y una vez disuelto Proyecto Lincoln, y otros, están utilizando a AI en sus falsos anuncios de televisión para hacerme parecer tan malo y patético como el corrupto Joe Biden, algo nada fácil de hacer."
El Proyecto Lincoln refutó entonces la afirmación de Trump, señalando que el anuncio incluía incidentes bien documentados de su presidencia.
Libby Lange, analista de proveedor de análisis Graphikase hace eco de la preocupación del dividendo del mentiroso, afirmando: "La IA desestabiliza el propio concepto de verdad. Si todo puede ser falso, y si todo el mundo afirma que todo es falso o está manipulado de alguna manera, realmente no hay sentido de la verdad en el suelo".
En todo el mundo, los políticos utilizan regularmente la IA como chivo expiatorio. Por ejemplo, un polémico vídeo de un político taiwanés en el que se insinuaba una relación extramatrimonial fue rápidamente descartado como potencialmente generado por IA.
Del mismo modo, en el estado indio de Tamil Nadu, un político refutó una grabación de audio filtrada calificándola de "generada por máquinas", aunque su autenticidad sigue siendo incierta.
También hemos visto imágenes de AI de crímenes de guerra en Israel, Palestina y Ucrania, como la de un bebé incinerado, que Ben Shapiro compartió con millones de seguidores antes de que fuera desacreditado como falso.
También ha habido ejemplos no políticos, como un clip de voz supuestamente de un director de escuela del condado de Baltimore haciendo comentarios racistas. Se afirma que fueron generados por inteligencia artificial, pero es difícil confirmarlo sin más contexto.
Las falsificaciones profundas fueron un tema candente en la reciente Foro Económico Mundial de Davospero los esfuerzos para frenarlos hasta ahora han sido superficiales e ineficaces. Las empresas tecnológicas están explorando formas de verificar automáticamente los contenidos generados por IA, pero solo los expertos pueden distinguir con fiabilidad los medios reales de los falsos.
E incluso los expertos se equivocan, ya que hay casos en los que detectores especializados en IA llegan a conclusiones controvertidas sobre la autenticidad de una imagen.
Supongamos entonces que las imágenes se clasifican "oficialmente" como reales o falsas, pero el veredicto es erróneo: imagínese el infierno que puede desatarse.