¿Puede distinguir un rostro generado por IA? Ponga a prueba sus habilidades

0
19

La tecnología avanza más rápido de lo que la mente humana puede distinguir. La inteligencia artificial puede fabricar imágenes y videos que parecen completamente reales para la persona promedio en un abrir y cerrar de ojos. Sin embargo, la mayoría de las personas cree que es buena distinguiendo entre lo real y lo falso, por lo que lo invitamos a poner sus habilidades a prueba.

A continuación, se presentan seis pares de imágenes. En cada caso, una es real y la otra ha sido creada por IA. Póngase a prueba intentando elegir cuál es cuál; las respuestas están al final de esta historia.

Según los editores de fotografía de The Post, algunos aspectos a observar al revisar imágenes incluyen: ¿La persona se ve demasiado ‘pulida’ para el escenario que la rodea? ¿Su rostro luce demasiado simétrico y perfecto? ¿Su ropa tiene arrugas naturales, texturas de tela y signos de desgaste? ¿Se distinguen mechones de cabello individuales alrededor de su cabeza?

John Villasenor, profesor de derecho e ingeniería en UCLA, dijo a The Post que sugiere buscar “inconsistencias en la iluminación… y detalles que en realidad no tienen sentido”.

Pruebas extensas realizadas por la Royal Society de Reino Unido mostraron que personas con habilidades ordinarias solo pudieron discernir entre imágenes generadas por IA y personas reales el 31% de las veces. El estudio también encontró que los participantes eran excesivamente seguros, creyendo haber detectado falsificaciones con mucha más frecuencia de la que realmente lo hicieron.

Anatoly Kvitnitsky, CEO y fundador de AI or Not, trabaja con corporaciones para identificar imágenes generadas por computadora. Él señala que las pistas no siempre están en el rostro mismo. “Para el ojo humano, deberías buscar elementos en el fondo. La IA es realmente buena creando un sujeto principal creíble, pero en el fondo los rostros de las personas pueden verse borrosos. En video, notarás que las personas permanecen demasiado quietas. Si hay un automóvil al fondo, observa la placa de matrícula. Puede que no sea perfecta. El texto de un letrero secundario puede ser un galimatías. Actualmente, la IA hace un trabajo rápido y a veces descuidado en los fondos”, explicó a The Post.

No obstante, esto podría cambiar pronto. En los primeros días de la IA, la gente podía detectar fácilmente dientes distorsionados, gafas fusionadas con la piel u orejas mal conectadas, pero la tecnología rápidamente superó esos errores. Kvitnitsky afirma que los generadores actuales incluso crean poros e imperfecciones en la piel de manera convincente.

“Hay una carrera armamentista entre los creadores y los detectores”, agregó Villasenor. “Las técnicas de creación mejoran y luego las técnicas de detección intentan ponerse al día”.

La empresa de Kvitnitsky trabaja con clientes como compañías de seguros para verificar la autenticidad de imágenes, por ejemplo, de vehículos dañados o escaneos de documentos de identidad. La tecnología que utiliza analiza las imágenes a nivel de píxel para determinar si fueron capturadas con una cámara real.

Las imágenes creadas con programas de acceso público como Google Gemini, Adobe Firefly y ChatGPT son las más fáciles de rastrear, ya que suelen incluir metadatos incrustados que indican qué generador las creó y cuándo.

Te podría interesar:

Pero para el ojo humano, las probabilidades están cada vez más en contra. El estudio británico, publicado en noviembre de 2025, encontró que incluso los llamados ‘superreconocedores’, personas con un talento natural para el reconocimiento facial, solo tenían una ligera ventaja, identificando correctamente rostros humanos el 54% de las veces.

La avalancha de imágenes generadas por computadora en publicidad y redes sociales también está haciendo, subconscientemente, que las personas se acostumbren a ver rostros de IA, normalizando su presencia.

Cuando se usa con malas intenciones, esta tecnología puede tener graves consecuencias en el mundo real. En 2024, un trabajador financiero en Hong Kong fue engañado en una videoconferencia con lo que parecían ser el Director Financiero (CFO) de su empresa y otros colegas, todos generados por IA. Convencido, transfirió 25 millones de dólares a una cuenta fraudulenta. La solicitud era falsa, pero el dinero enviado era real.

Kvitnitsky ve este problema como de gran trascendencia a largo plazo para la sociedad. “El mayor temor que tengo sobre la IA es que la gente dude sistemáticamente de lo que ve y escucha”, dijo. “Podemos ver algo real y luego asumir que es falso. Eso alimenta nuestros sesgos de confirmación. Si no queremos creer algo, podemos simplemente descartarlo alegando que es IA”.

Un ejemplo reciente ocurrió tras la muerte del narcotraficante Nemesio ‘El Mencho’ Oseguera Cervantes. Al día siguiente, circuló en Internet una imagen generada por IA que mostraba a la modelo Maria Julissa sentada junto a él, sugiriendo una relación romántica. Julissa negó rotundamente conocerlo, pero el episodio ilustra los riesgos de ser asociado falsamente con un criminal a través de contenido sintético.

A medida que la línea entre lo real y lo artificial se difumina, el propio Kvitnitsky reconoce que, en ciertas circunstancias, incluso él podría ser engañado. “Tengo tres hijos y soy el CEO de una empresa de detección de IA, pero si me enviaran una imagen falsa de uno de mis hijos en aparente peligro, mis emociones anularían todo mi conocimiento técnico”, admitió. “Simplemente reaccionaría ante el estímulo visual”.

**RESPUESTAS DEL CUESTIONARIO:** 1) B, 2) B, 3) A, 4) B, 5) A, 6) A.

**REDACCIÓN FV MEDIOS**