¿Cómo puedo detectar imágenes generadas por IA? – DW – 4 de septiembre de 2023
Nunca ha sido tan fácil creproducir imágenes que parecen sorprendentemente realistas pero que en realidad son falsas.
Cualquier persona con conexión a Internet y una herramienta de inteligencia artificial (IA) puede crear imágenes fotorrealistas en segundos.y luego pueden difundirlos en las redes sociales a una velocidad vertiginosa.
En los últimos días, muchas de estas imágenes se volvió viral: Vladimir Putin aparentemente fue arrestado, o Elon Musk estrechó la mano de la directora ejecutiva de General Motors, Mary Barra, solo por nombrar dos ejemplos.
el problema es que bOtras imágenes de IA muestran eventos que nunca ocurrieron. Incluso Los fotógrafos han publicado retratos. que resultan ser imágenes generadas por IA.
Y si bien algunas de estas imágenes pueden ser divertidas, también pueden representar un peligro real en términos de desinformación y propaganda, según expertos entrevistados por DW.
El terremoto que nunca sucedió
Fotografías de políticos arrestados como el presidente ruso Vladimir Putin o El expresidente estadounidense Donald Trump los usuarios pueden verificarlo con bastante rapidez si verifican fuentes de medios confiables.
Otras imágenes son más difíciles, como aquellas en las que las personas de la imagen no son tan conocidas, explica a DW el experto en inteligencia artificial Henry Ajder.
Un ejemplo: un miembro del parlamento alemán del partido de extrema derecha AfD difundió un Una imagen de hombres gritando creada por inteligencia artificial en su cuenta de Instagram para mostrar su oposición a la llegada de refugiados.
Y no solo las imágenes de personas creadas por inteligencia artificial pueden difundir desinformación, según Ajder.
Él dice que ha habido ejemplos de usuarios que crean eventos que nunca sucedieron.
Este fue el caso de un gran terremoto que, según los informes, sacudió el noroeste del Pacífico en la región de EE. UU. y Canadá en 2001.
Pero este terremoto nunca sucedió, y Imágenes compartidas en Reddit fueron creados por inteligencia artificial.
Y esto puede ser un problema, según Ajder. “Si está creando una escena de paisaje en lugar de una imagen humana, puede ser más difícil de detectar”, explica.
Sin embargo, las herramientas de IA cometen errores, incluso si se desarrollan rápidamente. Actualmente, a partir de abril de 2023, programas como Midjourney, Dall-E y DeepAI tienen errores, especialmente con imágenes que representan humanos.
El equipo de verificación de datos de DW ha elaborado algunas sugerencias para ayudarlo a juzgar si una imagen es falsa. Pero primero, una advertencia: las herramientas de IA están evolucionando tan rápido que estos consejos solo reflejan la situación actual.
1. Acércate y mira detenidamente
Muchas imágenes generadas por IA parecen reales a primera vista.
Por lo tanto, nuestra primera sugerencia es mirar de cerca la imagen. hacer esto, encuentre una imagen con la resolución más alta posible y luego haga zoom para ver los detalles.
La ampliación de la imagen revela inconsistencias y errores que pueden haberse pasado por alto a primera vista.
2. Encuentra una imagen fuente
Si no está seguro de si una imagen es real o una imagen generada por IA, intente encontrar su fuente.
Es posible que vea información sobre dónde se publicó la imagen por primera vez cuando lea los comentarios de otros usuarios debajo de la imagen.
O puede realizar una búsqueda inversa de imágenes. Puede hacerlo cargando la imagen en herramientas como la búsqueda inversa de imágenes de Google, TinEye o Yandex y puede encontrar la fuente original de la imagen.
Los resultados de estas búsquedas también pueden incluir enlaces a verificaciones de hechos de medios de comunicación acreditados que brindan contexto adicional.
3. Presta atención a las proporciones del cuerpo
¿Las personas representadas tienen las proporciones correctas?
No es raro que las imágenes generadas por IA muestren diferencias en las proporciones. Las manos pueden ser demasiado pequeñas o los dedos demasiado largos. O la cabeza y las piernas no coinciden con el resto del cuerpo.
Este es el caso en la imagen de arriba, donde se supone que Putin está se arrodilló ante Xi Jinping. El zapato de rodillas es desproporcionadamente grande y ancho. La pantorrilla parece alargada. La cabeza medio cubierta también es muy grande y desproporcionada con el resto del cuerpo.
Más información sobre esta falsificación en nuestra propia verificación de datos.
4. Cuidado con los errores típicos de la IA
Las manos son actualmente la principal fuente de error en los programas de imágenes de IA como Midjourney o DALL-E.
PAGla gente a menudo tiene un sexto dedo, como el policía a la izquierda de Putin en nuestra imagen en la parte superior.
O también en estas fotos del Papa Francisco que probablemente hayas visto.
Pero, ¿te diste cuenta de que el Papa Francisco parece tener solo cuatro dedos en la imagen de la derecha? ¿Y notaste que sus dedos de la izquierda son inusualmente largos? Estas fotos son falsas.
Otros errores comunes en las imágenes generadas por IA son humanos con demasiados dienteso marcos de anteojos que están extrañamente retorcidosu orejas con formas poco realistas, como en la imagen falsa antes mencionada de Xi y Putin.
Las superficies reflectantes, como las viseras de los cascos, también causan problemas a los programas de IA que a veces parecen fallar, como en el supuesto arresto de Putin.
Henry, experto en inteligencia artificial Sin embargo, Ajder advierte que las versiones más nuevas de programas como Midjourney están mejorando en la generación de manos, lo que significa que los usuarios no podrán confiar en la detección de tales errores por mucho más tiempo.
5. ¿La imagen parece artificial y plana?
Solicitud Midjourney, en particular, crea muchas imágenes que parecen demasiado buenas para ser verdad.
Siga su visión aquí: ¿Puede una imagen tan perfecta con personas impecables realmente ser cierta?
“Las caras están demasiado limpias, los textiles exhibidos también son demasiado armoniosos”, dijo a DW Andreas Dengel, del Centro Alemán de Investigación de Inteligencia Artificial.
En muchas imágenes de IA, la piel de las personas suele verse suave y sin irritaciones, e incluso su cabello y sus dientes están impecables. Este no suele ser el caso en la vida real.
Muchas imágenes también tienen un aspecto artístico, brillante y brillante que incluso los fotógrafos profesionales encuentran difícil de lograr en la fotografía de estudio.
Las herramientas de IA a menudo parecen diseñar imágenes ideales que se supone que son perfectas y agradables para la mayor cantidad de personas posible.
6. Investiga los antecedentes
El fondo de la imagen a menudo puede revelar si ha sido manipulada.
Aquí también, los objetos pueden parecer deformes; Por ejemplo, luces de la calle.
En algunos casos, los programas de IA clonan personas y objetos y los usan dos veces. Y no es raro que las imágenes de IA tengan fondos poco claros.
Pero incluso esta ofuscación puede contener errores. Como el ejemplo anterior, que pretende mostrar a un Will Smith enojado en los Oscar. No solo el fondo está desenfocado, sino que se ve artificialmente borroso.
Conclusión
Muchas imágenes creadas por inteligencia artificial aún pueden serlo en este momento desacreditado con un poco de investigación. Pero la tecnología está mejorando y los errores probablemente serán más raros en el futuro. Manteca Detectores de IA como Hugging Face ayudarnos a detectar la manipulación?
Según nuestros hallazgos, los indicadores brindan pistas, pero nada más.
Los expertos a los que entrevistamos no suelen recomendar su uso porque no están lo suficientemente desarrollados. Incluso las fotos genuinas se declaran falsas y viceversa.
Por lo tanto, lo mejor que pueden hacer los usuarios cuando tienen dudas para distinguir los hechos reales de las falsificaciones es usar el sentido común, confiar en los medios de comunicación confiables y evitar compartir imágenes.
Especialista web. Evangelista de viajes. Alborotador. Fanático de la música amigable con los hipster. Experto en comida