Si vous voulez mettre à jour vos connaissances ou vous familiariser avec la sécurité de l'IA et plus spécifiquement celle des LLMs, je vous conseille la présentation fort intéressante et pleine d'enseignements de Mark Russinovich, CTO de Microsoft Azure.
Mark Russinovich nous plonge dans l'univers de la sécurité de l'IA, en explorant les menaces et les approches de Red Teaming (jailbreak, portes dérobées, données empoisonnées, injections...). Il propose également des solutions concrètes pour se prémunir contre ces risques.
Dans sa conclusion, il nous propose une analogie bien trouvée sur la façon d'aborder la sécurité des LLMs. Je vous la reformule ici :
« Considérez les LLMs comme des employés juniors très intelligents et très enthousiastes. En revanche, ils n'ont aucune expérience du monde réel et sont susceptibles d'être influencés. Bien qu'ils soient créatifs, ils ne sont pas toujours fiables, et risquent de ne pas discerner les nuances du contexte, s'en tenant au sens littéral. Ils peuvent facilement être convaincus de mener des actions qui vont à l'encontre de la politique de l'entreprise.
Tout comme un employé junior qui pourrait être naïf ou influençable, les LLM nécessitent un encadrement et des garde-fous pour exploiter pleinement leurs capacités tout en minimisant les risques ».
Lien vers la vidéo : Inside AI Security with Mark Russinovich