SecGPT automatise l’évaluation des vulnérabilités et l’application des politiques pour les applications basées sur LLM via des contrôles de sécurité personnalisables.
SecGPT enveloppe les appels LLM avec des contrôles de sécurité en couches et des tests automatisés. Les développeurs définissent des profils de sécurité en YAML, intègrent la bibliothèque dans leurs pipelines Python et utilisent des modules pour la détection d’injections de prompt, la prévention des fuite de données, la simulation de menaces adverses et la surveillance de conformité. SecGPT génère des rapports détaillés sur les violations, supporte les alertes via webhooks et s’intègre parfaitement avec des outils comme LangChain et LlamaIndex pour garantir des déploiements AI sûrs et conformes.
ToolFuzz fournit un cadre complet de test de fuzzing, spécialement adapté aux agents IA utilisant des outils. Il génère systématiquement des séquences d’appel d’outil aléatoires, des entrées API mal formées et des combinaisons de paramètres inattendues pour tester les modules d’appel d’outils de l’agent. Les utilisateurs peuvent définir des stratégies de fuzzing personnalisées à l’aide d’une interface modulaire de plugins, intégrer des outils ou API tiers, et ajuster les règles de mutation pour cibler des modes d’échec spécifiques. Le framework collecte les traces d'exécution, mesure la couverture du code pour chaque composant et met en évidence les exceptions non gérées ou les défauts logiques. Avec une agrégation des résultats et des rapports intégrés, ToolFuzz accélère l’identification des cas limites, des problèmes de régression et des vulnérabilités de sécurité, renforçant ainsi la robustesse et la fiabilité des flux de travail basés sur l’IA.