Introducción Práctica a FGSM

Este va a ser nuestro primer post práctico y vamos a empezar con un tipo de ataque bastante visual y que vamos a poder implementar de forma gratuita utilizando un servicio como Google Colab o en entornos locales usando Anaconda/Miniconda, un entorno virtual Python, Docker u otras opciones con las que estemos más cómodos.

Las redes neuronales, y concretamente las redes neuronales convolucionales (CNN), se utilizan de forma habitual en escenarios de visión artificial como la clasificación de imágenes, la detección de objetos, el reconocimiento facial y otros.

Leer más

Introducción a Adversarial Machine Learning

Adversarial Machine Learning (AML) es una disciplina que se centra en el estudio de vulnerabilidades y fallos de seguridad en modelos de aprendizaje automático con el objetivo de hacerlos más seguros. Trata de comprender cómo se puede tratar de engañar y manipular la funcionalidad de estos modelos.
En los últimos años el machine learning en particular y la inteligencia artificial en general han tenido un enorme crecimiento y se están integrando en procesos de toma de decisiones críticas. Algunos ejemplos son los diagnósticos médicos o los futuros coches autónomos. Por eso es necesario tratar de minimizar la posibilidad de que esas decisiones puedan ser manipuladas por agentes maliciosos. Un ejemplo muy llamativo es el Optical Adversarial Attack (OPAD) en el que investigadores de la universidad de Purdue comprobaron que una señal de «stop» podía ser interpretada como una señal de límite de velocidad:

Leer más

Bienvenidos a Red Team AI Labs

Red Team AI Labs nace como un punto de encuentro para profesionales y entusiastas que exploran la intersección entre el Red Teaming y la Inteligencia Artificial.
Nuestro objetivo: investigar, documentar y compartir técnicas ofensivas y defensivas aplicadas a modelos y sistemas basados en IA.

Red Team AI Labs Logo

Leer más