Estados Unidos: Una imagen falsa de una explosión en el Pentágono se vuelve viral y desquicia la bolsa

Una fotografía falsa, visiblemente generada por una IA, fue transmitida por muchas cuentas certificadas en Twitter.

Por Cuba Impacto

Una imagen falsa que muestra una explosión en el Pentágono se volvió viral brevemente en Twitter el lunes, provocando una caída de los mercados durante diez minutos y reavivando el debate sobre los riesgos de la inteligencia artificial (IA). La fotografía falsa, aparentemente hecha con un programa generativo de inteligencia artificial (capaz de producir texto e imágenes a partir de una simple consulta en lenguaje sencillo), obligó al Departamento de Defensa de EE. UU. a responder.

“Podemos confirmar que se trata de información falsa y que el Pentágono no fue atacado hoy”, dijo un portavoz. Los bomberos de la zona donde se ubica el edificio (en Arlington, cerca de Washington) también intervinieron para indicar en Twitter que no se había producido ninguna explosión o incidente, ni en el Pentágono ni en sus inmediaciones.

La imagen parece haber provocado que los mercados se estancaran levemente durante unos minutos, con el S&P 500 perdiendo un 0,29 % desde el viernes, antes de recuperarse. “Hubo una caída relacionada con esta información falsa cuando las máquinas la detectaron”, señaló Pat O’Hare de Briefing.com, refiriéndose al software de comercio automatizado que está programado para reaccionar a las publicaciones en las redes sociales.

“Pero el hecho de que quedara medido en relación con el contenido de esta información falsa sugiere que otros también lo consideraron turbio”, agregó para AFP. Una cuenta del movimiento conspirativo QAnon fue una de las primeras en transmitir la imagen falsa, cuya fuente se desconoce.

IA y noticias falsas

El incidente se produce después de que varias fotografías falsas producidas con IA generativa hayan sido ampliamente publicitadas para mostrar las capacidades de esta tecnología, como la de la detención del expresidente estadounidense Donald Trump o la del Papa con una chaqueta de plumas. Software como DALL-E 2, Midjourney y Stable Diffusion permiten a los aficionados crear imágenes falsas convincentes, sin necesidad de dominar software de edición como Photoshop.

Pero si la IA generativa facilita la creación de contenidos falsos, el problema de su difusión y su viralidad -los componentes más peligrosos de la desinformación- recae en las plataformas, recuerdan periódicamente los expertos. “Los usuarios están utilizando estas herramientas para generar contenido de manera más eficiente que antes (…) pero aún se están difundiendo a través de las redes sociales”, subrayó Sam Altman, jefe de OpenAI (DALL-E, ChatGPT), durante una audiencia en el Congreso a mediados de Puede.

0/Post a Comment/Comments