LLM Functions offre un cadre simple pour relier les réponses du grand modèle linguistique à l’exécution réelle du code. Vous définissez des fonctions via des schémas JSON, les enregistrez dans la bibliothèque, et le LLM retournera des appels de fonction structurés lorsque cela est approprié. La bibliothèque parses ces réponses, valide les paramètres, et invoque le gestionnaire correct. Elle supporte les rappels synchrones et asynchrones, la gestion d’erreur personnalisée, et les extensions de plugins, ce qui la rend idéale pour les applications nécessitant une recherche dynamique de données, des appels API externes, ou une logique commerciale complexe au sein de conversations pilotées par IA.