Una fotografía falsa, visiblemente generada por una IA, fue transmitida por muchas cuentas certificadas en Twitter.
Por Cuba Impacto
Una
imagen falsa que muestra una explosión en el Pentágono se volvió viral
brevemente en Twitter el lunes, provocando una caída de los mercados durante
diez minutos y reavivando el debate sobre los riesgos de la inteligencia
artificial (IA). La fotografía falsa, aparentemente hecha con un programa
generativo de inteligencia artificial (capaz de producir texto e imágenes a
partir de una simple consulta en lenguaje sencillo), obligó al Departamento de
Defensa de EE. UU. a responder.
“Podemos
confirmar que se trata de información falsa y que el Pentágono no fue atacado
hoy”, dijo un portavoz. Los bomberos de la zona donde se ubica el edificio
(en Arlington, cerca de Washington) también intervinieron para indicar en
Twitter que no se había producido ninguna explosión o incidente, ni en el
Pentágono ni en sus inmediaciones.
La
imagen parece haber provocado que los mercados se estancaran levemente durante
unos minutos, con el S&P 500 perdiendo un 0,29 % desde el viernes, antes de
recuperarse. “Hubo una caída relacionada con esta información falsa cuando
las máquinas la detectaron”, señaló Pat O’Hare de Briefing.com, refiriéndose al
software de comercio automatizado que está programado para reaccionar a las
publicaciones en las redes sociales.
“Pero
el hecho de que quedara medido en relación con el contenido de esta información
falsa sugiere que otros también lo consideraron turbio”, agregó para
AFP. Una cuenta del movimiento conspirativo QAnon fue una de las primeras
en transmitir la imagen falsa, cuya fuente se desconoce.
IA y
noticias falsas
El
incidente se produce después de que varias fotografías falsas producidas con IA
generativa hayan sido ampliamente publicitadas para mostrar las capacidades de
esta tecnología, como la de la detención del expresidente estadounidense Donald
Trump o la del Papa con una chaqueta de plumas. Software como DALL-E 2,
Midjourney y Stable Diffusion permiten a los aficionados crear imágenes falsas
convincentes, sin necesidad de dominar software de edición como Photoshop.
Pero si la IA generativa facilita la creación de contenidos falsos, el problema de su difusión y su viralidad -los componentes más peligrosos de la desinformación- recae en las plataformas, recuerdan periódicamente los expertos. “Los usuarios están utilizando estas herramientas para generar contenido de manera más eficiente que antes (…) pero aún se están difundiendo a través de las redes sociales”, subrayó Sam Altman, jefe de OpenAI (DALL-E, ChatGPT), durante una audiencia en el Congreso a mediados de Puede.
Publicar un comentario