Si les LLM affichent de formidables capacités et ouvrent de nombreuses opportunités, leur susceptibilité à la manipulation ne peut être prise à la légère. C’est pourquoi il est indispensable de les traiter comme des attaquants potentiels et de concevoir les systèmes en partant de ce principe pour maintenir la sécurité des environnements. In fine, un grand modèle de langage est un adversaire.