¿Cómo reconocer un Deepfake? La clave está en los ojos

Investigadores de la Universidad de Buffalo logran determinan con un algoritmo si una secuencia es deepfake o no, todo con 94% de precisión.

Hace mucho tiempo se volvió una tendencia, y más recientemente ha sido usado para darle carne a virales musicales, y vida a fotos viejas, pero los deepfakes también han sido ocupados como arma para atacar a políticos, figuras públicas y personas comunes por igual. Esta tecnología incluso habilita a gente para su utilización como herramienta de venganza, extorsión e incluso para avergonzar públicamente a alguien.

La técnica de deepfake estaba fuera del alcance del común de los mortales pues se requería un enorme poder de procesamiento para lograr una secuencia breve que fuera convincente y consistente.

Sin embargo, hoy en día esa barrera se ha reducido y hasta de nuestros smartphones podemos lograr una que nos permitirá conseguir risas, lograr un video viral o – lamentablemente – conseguir objetivos menos lúdicos.

Por lo mismo, y ante el mayor acceso a esta tecnología, el poder determinar qué es falso y qué es real se ha vuelto una tarea cada vez más compleja e importante. Es por eso que un estudio – y su respectivo paper – compartido por una universidad estadounidense gana relevancia al detallar su propia técnica para reconocer estas secuencias falsas: fijarse en la mirada.

Los ojos humanos y los simulados tienen una nitidez y forma de reflejar la luz distintas. El algoritmo les da un índice si son más o menos parecidos en su escala. Menos es más sintético.

The Eyes, Chico, They Never Lie…”

El algoritmo creado por la Universidad de Buffalo funciona bajo la base de un análisis ocular a las imágenes que vemos. A través de los reflejos de la luz en los ojos, esta inteligencia artificial puede identificarlos con una precisión del 94% de eficacia.

“Los dos ojos tienen patrones reflectivos muy similares porque están viendo la misma cosa. Es algo que típicamente no notamos cuando miramos a una cara. Cualquier cosa que venga hacia el ojo con una luz emitida por esas fuentes tendrá una imagen en la cornea”, señala Siwei Lyu, PhD, profesor en el Departamento de Ciencia Computacional e Ingeniería de la Universidad Estatal de Nueva York.

Al menos por ahora, los softwares que automatizan la creación de estos deepfakes pone mucho énfasis en las texturas de la piel, pelo y pigmentos faciales, además de la zona alrededor de los ojos y la boca, y la iluminación de la piel. Con eso crea una cara morfológicamente precisa, la que reacciona de forma similar a la que el humano “clonado” lo haría en los distintos casos que este personaje puede ser usado.

Sin embargo, por lo general estas creaciones no ponen demasiado esfuerzo en el reflejo de los ojos. Este algoritmo detecta a través de este detalle si estamos ante una secuencia simulada o un registro real.

El algoritmo fue entrenado mirando y analizando numerosas imágenes de humanos reales y simulados, con lo que logró encontrar estos puntos focales que le permiten discriminar de forma precisa entre un deepfake y videos reales.

Y si bien la herramienta es muy útil en estos tiempos de desinformación, no es menos cierto que es un llamado de alerta tanto para los desarrolladores del algoritmo, que tienen que seguir trabajando para cubrir el 6% de margen que aún se les cuela.

Pero también para los creadores de estas secuencias falsas, quienes al ver esto tienen una clave para mejorar su próximo deepfake y hacerlo lo suficientemente humano como para engañar a la herramienta.

“Desafortunadamente, gran cantidad de este tipo de videos falsos fueron creados para propósitos pornográficos, y eso causa gran daño psicológico en las víctimas. Hay además potencial de impacto político, donde un video falso muestre a políticos diciendo o haciendo algo que no deberían hacer. Eso es malo”, concluye Lyu.

Total
1
Shares
Previous Post

¿Tráfico monitoreado por Inteligencia Artificial? Ya hay piloto

Next Post

Xiaomi evita la “lista negra” de EEUU, al menos por ahora

Related Posts