Une immense faille de sécurité affecte toutes les IA génératives, de ChatGPT à Google Bard. Avec une attaque dite de prompt injection, il est en effet possible de manipuler un chatbot pour s’en servir à des fins malveillantes. On fait le point sur ce type d’attaques aux conséquences désastreuses.
ChatGPT, Google Bard, Claude d’Anthropic et toutes les IA génératives ont une faille de sécurité majeure. Des utilisateurs, malveillants ou simplement curieux, peuvent pousser le chatbot à générer des contenus dangereux, choquants, contraires à l’éthique ou concernant des activités illégales. Les restrictions mises en place par OpenAI, Google et consorts, dès les premières étapes de la formation du modèle linguistique, sont alors ignorées par les algorithmes.
Commentaires