BITÁCORA

Google lanzó una herramienta ‘anti deep fakes’ que detecta imágenes con IA

Las imágenes falsas y la desinformación en la era de la IA van en aumento. Por eso, en respuesta a esta creciente realidad, Google Deep Mind anunció una versión beta de SynthID. La herramienta marcará e identificará imágenes generadas por IA incrustando una marca de agua digital directamente en los píxeles de una imagen, que será imperceptible para el ojo humano pero detectable para su identificación.

Kris Bondi, director general y fundador de Mimoto, una empresa de ciberseguridad de detección y respuesta proactivas, dijo que aunque el SynthID de Google es un punto de partida, el problema de las falsificaciones profundas no se arreglará con una única solución.

“La gente olvida que hay muchos actores malintencionados también en el negocio. Sus tácticas y tecnologías evolucionan continuamente, se ponen a disposición de más actores malos, y el costo de sus técnicas, como las Deep Fakes , baja”, dijo Bondi.

“El ecosistema de la ciberseguridad necesita múltiples enfoques para hacer frente a las Deep Fakes, con colaboración para desarrollar enfoques de arquitectura flexible que evolucionen para satisfacer y superar la tecnología de los malos actores”, añade Bondi.

Ulrik Stig Hansen, cofundador de Encord, una plataforma de datos de entrenamiento de visión por ordenador con sede en Londres, afirma que no cabe duda de que la detección de las falsificaciones será uno de los retos importantes del futuro.

“Lo hemos visto una y otra vez con las nuevas tecnologías, y no es diferente con la IA Generativa: al igual que se está utilizando de formas abrumadoramente positivas (por ejemplo, diagnósticos más baratos en la atención sanitaria, recuperación más rápida en caso de catástrofe), habrá vulnerabilidades para quienes busquen explotarlas”, añade Hansen.

“Será más una cuestión de la rapidez con que las aplicaciones preventivas puedan progresar y de cómo se configure la regulación en torno a este espacio”, afirma Hansen. “Hemos visto algunos indicios de cómo podría ser esto en la UE, pero la clave será permitir el progreso de las aplicaciones con buenas intenciones, al tiempo que se construyen sólidas barreras para limitar el uso indebido”.

  • Marca de agua digital es un término creado por Andrew Tirkel y Charles Osborne en 1992. La marca de agua es una forma de identificar el origen y la autenticidad de las imágenes. Otras formas de identificar imágenes son a través de sus metadatos. Sin embargo, los metadatos pueden eliminarse o modificarse, lo que disminuye la confianza en la autenticidad de la imagen.

Dattaraj Rao, Científico Jefe de Datos de Persistent Systems, que tiene 11 patentes de visión por ordenador, dice que tradicionalmente la marca de agua se ha utilizado para proteger los derechos de autor de las imágenes, pero puede dañar y modificar el contenido.

“Utilizar este método para las imágenes generadas por IA, que se llevan utilizando varios años, es una gran mejora”, afirma Rao en una entrevista por correo electrónico. “Aunque el mayor reto será que todas las empresas y usuarios adopten una norma única para ello -todavía no nos hemos puesto de acuerdo sobre un formato único para almacenar datos de imagen; de ahí que tengamos GIF, JPEG, PNG, etc.”.

Rao afirma que, dado que la tecnología de IA evoluciona rápidamente, alguien encontrará la forma de vulnerar esta marca de agua y anularla.

“Eso es lo que ocurrió con las marcas de agua visibles. Hoy en día, múltiples algoritmos pueden detectar y rellenar los píxeles con marca de agua de la imagen con los colores que mejor adivinen en función del entorno”, afirma Rao.

“El ingeniero de visión por ordenador que llevo dentro siente que utilizar técnicas de imagen no es una solución a largo plazo en este caso: al fin y al cabo, una imagen es una matriz de intensidades de color de píxeles, que se puede manipular fácilmente”, dijo Rao. “Este problema necesitará una solución genérica para proteger el contenido digital utilizando técnicas como la criptografía”.

Rao dice que hoy sabemos que algunos sitios web son seguros gracias al cifrado de clave pública que proporcionan los certificados TLS, emitidos por determinados organismos autorizados.

“Del mismo modo, probablemente necesitaremos una forma de verificar cualquier contenido digital”, afirma Rao. “Tecnologías como las cadenas de bloques y los libros de contabilidad digital pueden ayudar a crear un registro descentralizado e inmutable para los contenidos digitales, de modo que se conozca el linaje completo de cualquier imagen o documento de Word en Internet, pero esto, por supuesto, es difícil de hacer cumplir”.

Ray añade que, sea cual sea el método que triunfe, el reto consistirá en desarrollar la norma y conseguir que la aprueben múltiples organizaciones y países de todo el mundo.

Neil Sahota, futurista, principal asesor en Inteligencia Artificial de las Naciones Unidas y autor de Own the AI Revolution (McGraw Hill), afirma que podemos y debemos equipar a más personas sobre cómo verificar la autenticidad de las imágenes para garantizar su exactitud.

De hecho, el estudio del Pew Research Center también mostró que el 77% de los adultos estadounidenses opinan que deberían tomarse medidas para restringir los vídeos e imágenes alterados que pretendan inducir a error, pero sólo el 22% dijeron que preferían proteger la libertad de publicarlos y acceder a ellos.

En julio de 2023, la Casa Blanca organizó una reunión con siete empresas líderes en IA, entre ellas Google y OpenAI. Cada empresa se comprometió a crear herramientas para poner marcas de agua y detectar texto, vídeos e imágenes generados por IA.

“Esto incluye que las empresas se pongan las pilas en materia digital. La idea de la marca de agua lleva ahí un tiempo”, dijo Sahota. “Ayudará hasta cierto punto, pero el mayor problema es que las marcas de agua pueden ser falsificadas”.

“Una de las ventajas que tienen las marcas de agua físicas es que pueden utilizar cosas como tinta ultravioleta, de modo que esa parte es’invisible, y no hemos descubierto cómo hacer eso con una marca de agua electrónica”, dijo Sahota.

“Si la solución de Google tiene esa capacidad (que la haría mucho más difícil de falsificar), entonces sería un tremendo salto adelante”, añade Sahota.

Fuente: Agencia ID.

Comments are closed.

IMPORTANTE:
Sí: El usuario podrá preguntar, felicitar, realizar críticas constructivas y/o contribuir con opiniones relevantes en el campo de la ingeniería e infraestructura.
No: Molestar, intimidar o acosar de ninguna manera.Tampoco utilizará el espacio para la promoción de productos o servicios comerciales, así como de cualquier actividad que pueda ser calificada como SPAM.

Para saber más consulta los Términos de Uso de INGENET.