Return to search

Ataques adversarios en redes neuronales: análisis de transferabilidad y generación de imágenes adversarias mediante modelos difusos

La seguridad informática siempre ha ido asociada a los avances tecnológicos, desde los años 60 protegiendo los sistemas de forma física impidiendo su acceso hasta nuestros días en los que se utiliza la inteligencia artificial para detectar comportamientos anómalos en redes, detectar malware o dar soporte a sistemas de acceso restringido. Según Cybercrime Magazine, el impacto económico que tendrá el cibercrimen en el mundo en cinco años (2020-2025) será de aproximadamente 10 billones de dólares anuales aumentando un 15% anual. Así mismo, se espera un gasto en defensa mayor con un incremento anual de un 13 %. La IA ha tomado un papel fundamental en la detección, protección y predicción de incidentes a medida que los modelos han ido mejorando y la potencia de sistemas de cómputo han permitido un volumen mayor de datos para el entrenamiento. Actualmente la inteligencia artificial está logrando resultados sorprendentes, podemos ver como ChatGPT es capaz de generar textos, responder a preguntas complejas o generar código de programación. Dall E 2 genera imágenes de alta resolución respondiendo a complejos prompts, desde dibujos animados a todo tipo de representaciones realistas. Existen otros tipos de modelos, quizás menos mediáticos, que también han alcanzado resultados notables. Los modelos de clasificación de imágenes, detección de malware, detección de objetos o identificación biométrica son algunos ejemplos. Si bien es cierto que la IA no está exenta de polémicas relacionadas con la protección de datos o sobre su uso ético. Numerosos países y organizaciones han mostrado sus preocupaciones de cómo estas tecnologías pueden afectar a las sociedades debido a los sesgos que introducen y sobre cómo pueden impactar en los derechos humanos. En este contexto de IA y seguridad se desarrolla esta tesis. Los modelos de inteligencia artificial son vulnerables a distintos tipos ataques como Data Poisoning, Model Stealing, Model Inversion o Adversarial Attacks. En este trabajo nos enfocamos en analizar las vulnerabilidades presentes en los modelos de clasificación de imágenes y concretamente en los ataques adversarios. Dichos ataques fueron descubiertos en 2013 y desde entonces se han desarrollado múltiples técnicas y tipos de algoritmos, así como defensas o métodos para crear modelos más robustos y resistentes. En esta tesis analizamos la capacidad de los ataques adversarios para afectar a un modelo de inteligencia artificial específico y luego transferir ese conocimiento para atacar con éxito a otros modelos similares.

Identiferoai:union.ndltd.org:ua.es/oai:rua.ua.es:10045/149324
Date12 July 2024
CreatorsÁlvarez Keskinen, Enrique
ContributorsCazorla, Miguel, Alvarez, Rafael, Universidad de Alicante. Instituto Universitario de Investigación Informática
PublisherUniversidad de Alicante
Source SetsUniversidad de Alicante
LanguageSpanish
Detected LanguageSpanish
Typeinfo:eu-repo/semantics/doctoralThesis
RightsLicencia Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0, info:eu-repo/semantics/openAccess

Page generated in 0.0019 seconds