BITÁCORA

¿Por qué son más confiables los rostros creados con IA que los verdaderos?

Mira bien a todas estas personas, resulta que ninguna de ellas existe, tú mismo, al alcance de un click puede crear nuevos rostros inexistentes en el ya muy reconocido sitio web ThisPersonDoesNotExist.com

Refresca el sitio una y dos veces, y te será mostrada una nueva cara generada por computadora, sin base en ningún modelo real.

La cara va limpia, lo que la salva de cualquier conflicto de identidad y pone a temblar a los modelos para fotografías e imágenes ilustrativas pero ¿podrías decir cuál de las siguientes imágenes es una cara falsa y cuál es una fotografía?

El sistema

El sistema resulta más ingenioso de lo que creemos si tomas en cuenta que basa su accionar en el comportamiento de nuestras redes neuronales:

Imitan conexiones de las neuronas del cerebro que aprenden gracias a una amplia base de datos con ejemplos.

Una red neuronal genera los rostros nuevos y otra los compara con las originales. Cuando este segundo sistema es incapaz de saber cuál de las dos imágenes es falsa, se asume que los humanos tampoco serán capaces de encontrar la diferencia.

Según un estudio publicado en la revista PNAS, en muchos casos es imposible que algunas personas diferencien entre las caras virtuales y las reales.

Si bien el efecto «uncanny valley» o «valle misterioso» existe y consiste en la percepción de rasgos mal procesados o inexactos, así como en movimientos poco realistas de las imágenes falsas, ante el avance de la tecnología, quedamos cada vez más inciertos.

Se ha sofisticado tanto la tecnología que los “Deepfakes” ya han conseguido burlar el efecto del «valle misterioso».

Rostros más confiables que los reales

Así mismo, los Deepfakes no solo son indistinguibles, también son más confiables que los rostros reales. Para el mismo estudio fueron formados tres grupos con diferentes participantes que debían distinguir los rostros virtuales de los reales, con diferentes métodos.

El primer grupo estaba compuesto por 315 personas y comparó únicamente 182 de 800 rostros, logrando un 48.2 por ciento de precisión. El segundo grupo de 219 participantes, realizó la tarea de comprobar y distinguir 182 rostros. Este grupo, en cambio, obtuvo ayuda de los investigadores para detectar anomalías que pudiesen revelar si una cara era un Deepfake o no. En contraste, los resultados fueron mejores pero no supuso un avance notorio: acertaron solo un 59 por ciento.

Y no solamente las caras sintéticas son así de realistas, sino que se consideran más confiables que las reales.

De hecho, el grupo final de 223 personas, valoró la confianza de 128 imágenes en una escala del uno al siete: el número 1 usado para una imagen poco fiable en su autenticidad y 7 para imágenes confiables.

La calificación promedio para rostros reales fue de 4,48, una puntuación inferior a la calificación de las caras sintéticas (falsas), que obtuvieron una media de 4.82 puntos.

Riesgos

De esta manera, logramos entender cuán sofisticadas y adelantadas han crecido las tecnologías relacionadas con el aprendizaje automático y la inteligencia artificial.

Sin embargo, también nos revelan un peligro incipiente.

¿Imaginas los riesgos de que un Deepfake sea prácticamente imposible de distinguir por uno real? Más aún si ni siquiera se necesitan conocimientos avanzados para utilizar las herramientas para duplicar la cara de una persona y suplantar su identidad.

Otro estudio realizado en la University of Lancaster y la University of California, Berkely, asegura que los humanos ya no podemos diferenciar claramente entre rostros generados por Inteligencia Artificial y rostros reales.

Este estudio arroja una conclusión preocupante al menos: el potencial uso de caras generadas por ordenador para realizar falsificaciones o robos de identidad en el caso de que esta tecnología se use con fines poco legítimos.

Fuente: Agencia ID.

 

Comments are closed.

IMPORTANTE:
Sí: El usuario podrá preguntar, felicitar, realizar críticas constructivas y/o contribuir con opiniones relevantes en el campo de la ingeniería e infraestructura.
No: Molestar, intimidar o acosar de ninguna manera.Tampoco utilizará el espacio para la promoción de productos o servicios comerciales, así como de cualquier actividad que pueda ser calificada como SPAM.

Para saber más consulta los Términos de Uso de INGENET.