Hacking ético contra y con IA/LLM/ML (¡Versión Lite!)
Ethical Hacking against and with AI/LLM/ML (Lite Version!)
¡Conviértete en un profesional en IA y LLM en pruebas de penetración y descubrimiento de vulnerabilidades (versión Lite)!
Lo que aprenderás
Vulnerabilidades de IA/LLM
Alcanza un nivel profesional en pruebas de penetración de IA/LLM
Alcanza un nivel profesional en recompensas por errores de IA/LLM
Fundamentos de IA/LLM
Ataques de IA/LLM
Marcos de IA/LLM
Inyección rápida de IA/LLM
Manejo de salida inseguro de IA/LLM
Envenenamiento de datos de entrenamiento de IA/LLM
Denegación de servicio de AI/LLM
Cadena de suministro de IA/LLM
Problemas de permisos de IA/LLM
Fuga de datos de IA/LLM
Agencia Excesiva en IA/LLM
Dependencia excesiva de IA/LLM
Complementos inseguros de IA/LLM
Modelo de amenazas de IA/LLM
Uso de IA para pruebas de penetración y hacking ético
La herramienta de inteligencia artificial de Yolo
Requisitos
Computadora con un mínimo de 4 GB de RAM/memoria
Sistema operativo: Windows / Apple Mac OS / Linux
Conexión a Internet confiable
Burp Suite (Comunidad o Pro)
Navegador web Firefox
Instancia de Kali Linux (Raspberry PI, VM, Virtualbox, etc.)
Descripción
Curso de formación sobre hacking ético contra y con IA/LLM/ML (¡versión Lite!)
Bienvenido a este curso de capacitación en Inteligencia Artificial (IA) y Grandes Modelos de Lenguaje (LLM) en Hacking Ético y Pruebas de Penetración.
Nota importante: este curso NO enseña el uso real de Burp Suite y sus funciones.
Su instructor es Martin Voelk. Es un veterano en ciberseguridad con 25 años de experiencia. Martin cuenta con algunas de las certificaciones más prestigiosas, como CISSP, OSCP, OSWP, Portswigger BSCP, CCIE, PCI ISA y PCIP. Trabaja como consultor para una importante empresa tecnológica y participa en programas de recompensas por errores, donde ha encontrado miles de vulnerabilidades críticas y de alto riesgo.
Este curso consta de secciones teóricas y prácticas de laboratorio, centradas en la detección y explotación de vulnerabilidades en sistemas y aplicaciones de IA y LLM. La formación está alineada con las 10 clases de vulnerabilidades más importantes de LLM de OWASP. Martin está resolviendo todos los laboratorios de LLM de Portswigger, además de muchos otros laboratorios y presentaciones. Los videos son fáciles de seguir y replicar. También incluye una sección dedicada al uso de la IA para pruebas de penetración, búsqueda de recompensas por errores y hacking ético.
El curso incluye lo siguiente:
Introducción a la IA/LLM
· Ataques de IA/LLM
· Marcos de IA/LLM / escritos
· AI LLM01: Inyección rápida
· AI LLM02: Manejo de salida insegura
· IA LLM03: Envenenamiento de datos de entrenamiento
· AI LLM04: Denegación de servicio
· IA LLM05: Cadena de suministro
· AI LLM06: Problemas de permisos
· IA LLM07: Fuga de datos
· IA LLM08: Agencia excesiva
· IA LLM09: Dependencia excesiva
AI LLM10: Complementos inseguros
· Modelo de amenaza
· Poniéndolo todo junto
· Uso de IA para pruebas de penetración / piratería ética
La herramienta de inteligencia artificial Yolo
· Tutorial del CTF de Prompt Airlines
· Juego de ataque y defensa con IA Tensortrust
· Herramientas
Notas y descargo de responsabilidad
Los laboratorios de Portswigger son un servicio público y gratuito de Portswigger que cualquiera puede usar para perfeccionar sus habilidades. Solo necesita registrarse para obtener una cuenta gratuita. Actualizaré este curso con nuevos laboratorios a medida que se publiquen. Responderé a sus preguntas en un plazo razonable. Aprender Pen Testing / Bug Bounty Hunting es un proceso largo, así que no se frustre si no encuentra un error de inmediato. Intente usar Google, lea los informes de Hacker One e investigue cada característica a fondo. Este curso es solo para fines educativos. Esta información no debe usarse para explotación maliciosa y solo debe usarse contra objetivos que tenga permiso para atacar.
¿Para quién es este curso?
- ¿Alguien interesado en convertirse en un profesional en pruebas de penetración/hacking de IA/LLM éticos?
- Cualquier persona interesada en convertirse en profesional en la búsqueda ética de recompensas por errores de IA/LLM
- ¿Alguien interesado en aprender cómo los hackers hackean IA/LLM?
- Desarrolladores que buscan ampliar su conocimiento sobre las vulnerabilidades que pueden afectarlos.
- Cualquier persona interesada en la seguridad de IA/LLM
- ¿Alguien interesado en el equipo rojo?
- Cualquier persona interesada en la seguridad ofensiva