La inteligencia artificial progresa a pasos agigantados, aunque aún tiene mucho que mejorar. No obstante, los actuales algoritmos que hay detrás de esta tecnología aprenden bastante rápido y tienen cualidades casi extraordinarias. Sin duda en muchos aspectos han superado a la inteligencia humana, aunque no en otros.
De hecho, se puede engañar a la inteligencia artificial, e incluso alimentar a esos algoritmos con información que no sea certera para que no tengan la efectividad esperada. Es decir, se podría incluso enseñar mal a la IA para manipularla, igual que se puede manipular a una persona para que crea algo que no es cierto.
3Cómo engañar a la inteligencia artificial con muestras 3D
Esos algoritmos o sistemas de inteligencia artificial basados en redes neuronales tienen grandes resultados para muchas tareas, pero también resultan erráticos para otras. Por ponerte un ejemplo, una inteligencia artificial de Microsoft debía determinar qué pacientes deben acudir a un hospital según su edad e historial clínico para no saturar el sistema sanitario. Esta IA descartaba a las personas de muy avanzada edad. El motivo es que no tenía datos suficientes de personas de más de 100 años al haber pocas, en cambio son personas especialmente vulnerables.
Además, si las muestras son conflictivas podría generar confusión como puedes observar en el vídeo que he adjuntado.
Por ejemplo, el sistema de reconocimiento de imágenes basado en inteligencia artificial InceptionV3 de Google confunde un gato con guacamole, o una tortuga impresa en 3D con un arma. Imagina lo que podría suponer eso en un robot hecho para reducir a todo aquel que lleve un arma. ¿Sería capaz de reducir a alguien con una tortuga? O imagina otro peligro, el de un sistema de IA de un coche autónomo que no es capaz de identificar a un peatón y lo atropella.
De hecho, hay multitud de imágenes adversariales que se diseñan especialmente para engañar a la inteligencia artificial y hacer que los sistemas IA se vuelvan locos como si una persona estuviese viendo alucinaciones. Ante los sistemas de reconocimiento de imágenes se podría incluso hacer que seas invisible ante la IA.
Ya se habla de ataques adversariales en el ámbito de la IA, lo que podría ser el futuro de los ciberataques para tratar de confundir a la inteligencia artificial.