Investigadores logran hacerse invisibles para las cámaras de Inteligencia Artificial

Un letrero de cartón con un colorido estampado. Todos los investigadores de la Facultad de Ingeniería de Tecnología de KU Leuven necesitaban engañar a una cámara inteligente. Para ser claros: Wiebe Van Ranst, Simen Thys y Toon Goedemé, del grupo de investigación EAVISE, no tienen malas intenciones. Su investigación tiene como objetivo exponer las debilidades de los sistemas de detección inteligentes.

"Los sistemas de detección inteligente se basan en el reconocimiento de patrones", dice el profesor Goedemé, jefe de EAVISE (Ingeniería de visión integrada y artificialmente inteligente) en el campus de De Nayer. “Consisten en una cámara y un software para interpretar las imágenes automáticamente. Si entrena estos sistemas con imágenes de diferentes personas por un tiempo, ellos aprenden a reconocer a las personas y a distinguirlas de los objetos. Aunque diferimos en altura, color de cabello o rostro, el algoritmo nos identifica como seres humanos".

“Esto hace que los sistemas de detección inteligente sean muy adecuados para fines de seguridad. Dan automáticamente una señal tan pronto como las cámaras detectan a un intruso, incluso cuando esa persona trata de esconderse. En el pasado, necesitabas guardias de seguridad para eso, y estarían mirando las pantallas durante horas y horas. Un trabajo tedioso que se está convirtiendo en una cosa del pasado".

Millones de parámetros
Sin embargo, los sistemas de detección inteligentes no son infalibles. A veces tienen dificultades para detectar ciertos patrones. Investigadores de todo el mundo están tratando de exponer el talón de Aquiles de los sistemas de detección. Pequeños cambios son suficientes para hacer esto. Gafas falsas hechas de cartón, por ejemplo, son suficientes para confundir un sistema de reconocimiento facial.

El profesor Goedemé y su equipo han llevado las cosas un paso más allá. La estudiante de maestría Simen Thys y el postdoctorado Wiebe Van Ranst lograron engañar a YOLO, uno de los algoritmos más populares para detectar objetos y personas.

Los investigadores levantaron un cartel de cartón de 40 por 40 cm, con una impresión colorida, delante de su cuerpo. Eso fue suficiente para engañar a YOLO: llevar el cartel te hace invisible para el sistema.
Muy notable, según el profesor Goedemé: “En pruebas anteriores, las personas llevaban una camiseta con la imagen de un pájaro. El algoritmo no reconoció a una persona, pero detectó un ave. Nuestro patrón, que fue diseñado utilizando inteligencia artificial, hace que la gente sea invisible. Si lleva el signo, el sistema no lo detecta a usted, ni como un ser humano ni como un objeto. Notable, y no sabemos exactamente por qué este patrón en particular puede engañar a YOLO. Después de todo, los algoritmos basados ​​en redes neuronales utilizan millones de parámetros. Para los investigadores, esto sigue siendo una caja negra ".

Carrera de armamentos
Los investigadores están entusiasmados, pero se apresuran a advertir sobre otras fallas de seguridad.
"¿A dónde ir desde aquí? Eso es fácil: encontramos una debilidad, y ahora necesita ser reparada. En este caso, podría enseñar al algoritmo de YOLO que las personas que sostienen un signo con este patrón particular también son seres humanos. Eso no es difícil de hacer. Sin embargo, es seguro asumir que YOLO también tiene otras debilidades. ¿Podremos alguna vez arreglar todos los fallos de seguridad? No lo creo. Ya lo mencioné: tal algoritmo es una caja negra. Este es el comienzo de una carrera de armamentos".

"No esperábamos este tipo de exageraciones. Pero vemos por qué la aplicación apela a la imaginación. La idea de que puedes hacerte invisible para las cámaras de seguridad usando nada más que un cartel colorido es intrigante".

Fuente: KU Leuven.

0 comentarios: