Skip to main content
Blog William Blondel
EN
Blog

William Blondel

  • Le paysage de l'IA offensive
  • Architectures de défense basées sur l'IA
  • Le codage sécurisé à l'ère de l'IA
  • Gouvernance de l'IA, Éthique et Prospective
EN
Le paysage de l'IA offensive Architectures de défense basées sur l'IA Le codage sécurisé à l'ère de l'IA Gouvernance de l'IA, Éthique et Prospective

#Jailbreaking — William Blondel Blog

2 articles

Jailbreaking des LLM : Le phénomène "DAN" (Do Anything Now)

Comment les utilisateurs contournent les filtres de sécurité de l'IA avec les jailbreaks "DAN". Explorez l'évolution du roleplay aux attaques automatisées et les limites de l'alignement RLHF.

18 avr. 2025·3 min de lecture
Jailbreaking des LLM : Le phénomène "DAN" (Do Anything Now)

Attaques par injection de prompt : Pirater la logique des chatbots

L'injection de prompt est la nouvelle injection SQL. Découvrez comment les attaques directes et indirectes détournent la logique des LLM et pourquoi les chatbots acceptent des commandes malveillantes.

11 avr. 2025·3 min de lecture
Attaques par injection de prompt : Pirater la logique des chatbots

© 2026 William Blondel

  • Archives
  • Tags
Sitemap RSS