General

Investigadores engañan al software de reconocimiento de imágenes para que etiqueten a esta tortuga como un rifle

Investigadores engañan al software de reconocimiento de imágenes para que etiqueten a esta tortuga como un rifle



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

El reconocimiento de imágenes ha ingresado a nuestro mundo a un ritmo muy rápido en la última década y se está desarrollando para una increíble variedad de propósitos, desde monitorear a sospechosos de terrorismo hasta espejos de baño que usan el software para ayudar a planificar su día. Quizás debido a su omnipresente presencia en nuestras vidas, hay algunos críticos que sienten que la tecnología, que se basa en gran medida en algoritmos, puede ofrecer resultados impredecibles, o en ocasiones inconsistentes.

En estudios combinados, investigadores de la Universidad de Kyushu y el MIT pusieron a prueba esta teoría y los resultados fueron muy sorprendentes. Básicamente, modificando solo algunos detalles, pudieron engañar al software de reconocimiento de imágenes.

El primer equipo de la Universidad de Kyushu intentó el enfoque de tomar una imagen y alterar uno de los píxeles. La idea es que las redes neuronales se interrumpan, y en la confusión las imágenes de perros se etiquetarían erróneamente como caballos, gatos o incluso coches. Es interesante observar que la cantidad de píxeles se limitó a solo mil, lo que significa que es posible que no se haya logrado el mismo resultado con imágenes a mayor escala en las que el número de píxeles es de millones.

El grupo del MIT utilizó la impresión 3D para lograr sus resultados, pero en este caso los efectos fueron mucho más dramáticos: una escultura de tortuga impresa engañó a un algoritmo para que la etiquetara como un rifle, mientras que una pelota de béisbol se percibía como un espresso. Aunque los efectos del primer resultado son relativamente inofensivos, los resultados del segundo experimento mostraron al equipo del MIT que este pequeño error podría traducirse en problemas mayores con el software cuando se aplica en otras áreas de la vida diaria.

Los resultados mostraron a los dos equipos otras áreas posibles, particularmente ejemplos de confrontación, que son "... entradas a modelos de aprendizaje automático que un atacante ha diseñado intencionalmente para hacer que el modelo cometa un error". Las redes neuronales, la base de los algoritmos, serían atacadas.

Anish Athalye, del equipo del MIT, explica: "Cada vez más sistemas del mundo real están comenzando a incorporar redes neuronales, y es una gran preocupación que estos sistemas puedan ser posibles de subvertir o atacar usando ejemplos de adversarios", y agrega que todavía hay confusión sobre la fuente. "La comunidad de aprendizaje automático no comprende completamente lo que está sucediendo con los ejemplos de adversarios o por qué existen".

Aún así, dice, aunque no hay motivo de gran preocupación, las grandes compañías web contendientes como Amazon, Google y Facebook están trabajando para identificar la actividad. Esto significa, como indica Athalye, que no nos enfrentamos a incidentes aislados. "Tampoco es un extraño 'caso de esquina' ... Hemos demostrado en nuestro trabajo que puede tener un solo objeto que engañe constantemente a una red sobre los puntos de vista, incluso en el mundo físico".

Aunque los resultados de estos estudios combinados sin duda revelan algunos de los defectos de diseño y desarrollo del software de reconocimiento de imágenes, aún queda una pregunta importante: ¿estamos acelerando el desarrollo (y las expectativas) del reconocimiento de imágenes más allá de su capacidad actual, o son los indicadores de resultados que hay limitaciones muy reales que permanecerán independientemente de cualquier esfuerzo futuro de I + D? Sólo el tiempo dirá.


Ver el vídeo: Mutaciones en Tortugas, Por que suceden? (Agosto 2022).