Galileo

Guía para detectar fakes

Las imágenes falsas, generadas con IA, inundan las redes. ¿Y cómo saber qué es real?

25/03/2024 - 2:51 pm

Una empresa de ciberseguridad dice que es posible que los algoritmos aún no sean lo suficientemente sofisticados como para generar dientes individuales, por lo que la falta de contornos de dientes individuales podría ser una ayuda para detectar ese tipo de imágenes.

Por Kelvin Chan y Ali Swenson

LONDRES, 25 de marzo (AP).— Las falsificaciones con Inteligencia Artificial se están convirtiendo rápidamente en uno de los mayores problemas a los que nos enfrentamos en Internet. Las imágenes, videos y audios engañosos proliferan como resultado del auge y el uso indebido de herramientas de Inteligencia Artificial generativa.

Con la aparición casi a diario de videos e imágenes manipuladas digitalmente con inteligencia artificial, que representan a todo tipo de personas —desde Taylor Swift hasta Donald Trump—, es cada vez más difícil distinguir lo que es real de lo que no lo es. Generadores de video e imágenes como DALL-E, Midjourney y Sora de OpenAI facilitan que personas sin ningún conocimiento técnico puedan crear imágenes de tipo deepfake: basta con escribir una solicitud y el sistema la produce.

Estas imágenes falsas podrían parecer inofensivas. Pero pueden utilizarse para llevar a cabo estafas y robos de identidad, o propaganda y manipulación electoral.

Un hombre pasa ante una pantalla con una imagen generada con inteligencia artificial por el artista Refik Anadol, en el Centro de Congresos donde se celebra la reunión del Foro Económico Mundial en Davos, Suiza, el domingo 14 de enero de 2024. Foto: Markus Schreiber, AP.

Así es como se puede evitar ser engañado por deepfakes:

CÓMO DETECTAR CONTENIDO DEEPFAKE

En los primeros tiempos de los deepfakes, la tecnología distaba mucho de ser perfecta y a menudo dejaba señales reveladoras de manipulación. Los verificadores han señalado imágenes con errores obvios, como manos con seis dedos o gafas con cristales distintos entre sí.

Pero a medida que la IA ha ido mejorando, se ha vuelto mucho más difícil detectar las falsificaciones. Algunos consejos ampliamente compartidos —tales como buscar patrones de parpadeo poco naturales entre las personas que aparecen en videos deepfake— ya no son válidos, dijo Henry Ajder, fundador de la consultora Latent Space Advisory y uno de los principales expertos en IA generativa.

Aun así, hay algunas cosas que hay que tener en cuenta, agregó.

Muchas de las fotos deepfake creadas con IA, especialmente de personas, tienen un brillo electrónico, “una especie de efecto estético de suavizado” que hace que la piel “parezca increíblemente reluciente”, señaló Ajder.

Un avatar de un sistema de inteligencia artificial generado por la app de celular Replika de Luka Inc. se ve en una app y un sitio web en Nueva York, el martes 13 de febrero de 2024.
Un avatar de un sistema de inteligencia artificial generado por la app de celular Replika de Luka Inc. se ve en una app y un sitio web en Nueva York, el martes 13 de febrero de 2024. Foto: Richard Drew, AP.

Sin embargo, advirtió que, a veces, un toque creativo puede eliminar este y muchos otros indicios de manipulación con IA.

Verifique la coherencia de las sombras y la iluminación. A menudo, el sujeto está bien enfocado y parece convincentemente realista, pero los elementos del fondo pueden no ser tan realistas ni relucientes.

MIRE LOS ROSTROS

El intercambio de rostros es uno de los métodos de deepfake más comunes. Los expertos aconsejan fijarse bien en los bordes de la cara. ¿El tono de la piel del rostro coincide con el del resto de la cabeza o el cuerpo? ¿Los bordes de la cara son nítidos o borrosos?

Si sospecha que el video de una persona que está hablando ha sido manipulado, fíjese en la boca. ¿Los movimientos de los labios coinciden perfectamente con el audio?

Esta imagen muestra la retractación de The Associated Press de una imagen que fue manipulada de una manera que no cumplía con los estándares fotográficos de la AP. Foto: Príncipe de Gales, Palacio de Kensington vía AP.

Ajder sugiere mirar los dientes. ¿Son claros o están borrosos y de alguna forma no coinciden con su aspecto en la vida real?

La empresa de ciberseguridad Norton dice que es posible que los algoritmos aún no sean lo suficientemente sofisticados como para generar dientes individuales, por lo que la falta de contornos de dientes individuales podría ser una pista.

PIENSE EN EL CONTEXTO

A veces el contexto es importante. Tómese su tiempo para sopesar si lo que ve es verosímil.

El sitio web de periodismo Poynter aconseja que, si usted ve a un personaje público haciendo algo que parece “exagerado, poco realista o incongruente con su personalidad”, podría tratarse de un deepfake.

Por ejemplo, ¿realmente el Papa Francisco llevaría una lujosa chaqueta acolchada, como se muestra en una famosa foto falsa? Si así fuera, ¿no habría más fotos o videos publicados por fuentes legítimas?

UTILIZAR LA IA PARA DETECTAR CONTENIDOS FALSOS

Otro enfoque consiste en utilizar la IA para luchar contra la IA.

Microsoft ha desarrollado una herramienta de autentificación que puede analizar fotos o videos para dar una puntuación de confianza sobre si han sido manipulados. FakeCatcher, del fabricante de circuitos integrados Intel, utiliza algoritmos para analizar los pixeles de una imagen con el fin de determinar si es real o falsa.

Hay herramientas en Internet que prometen detectar las falsificaciones si usted sube un archivo o le pega un enlace al material sospechoso. Pero algunas, como el autentificador de Microsoft, sólo están disponibles para socios seleccionados y no para el público en general. Esto se debe a que los investigadores no quieren alertar a los delincuentes, y darles una mayor ventaja en la carrera armamentista de los deepfakes.

Esta imagen de la princesa de Gales con sus hijos es una fotografía generada con IA. Foto: Pricnipe de Gales, Palacio de Kensington vía AP

El acceso abierto a las herramientas de detección también podría darle a la gente la impresión de que son “tecnologías milagrosas que pueden realizar el pensamiento crítico por nosotros”, cuando en realidad debemos ser conscientes de sus limitaciones, afirma Ajder.

OBSTÁCULOS PARA DETECTAR CONTENIDOS FALSOS

Dicho esto, la Inteligencia Artificial avanza a un ritmo vertiginoso y los modelos de IA están siendo entrenados con datos de Internet para producir contenidos cada vez de mayor calidad y menos fallas.

Esto significa que no hay garantía de que estos consejos sigan siendo válidos dentro de un año.

Los expertos dicen que incluso podría ser peligroso responsabilizar a los ciudadanos de a pie para que se conviertan en “Sherlocks [Holmes] digitales”, ya que podría darles una falsa sensación de confianza a medida que se hace cada vez más difícil detectar deepfakes, incluso para los ojos entrenados.

en Sinembargo al Aire

Opinión

Opinión en video