Un serveur fournissant un contexte de système de fichiers pour les modèles de langage de grande taille (LLMs), permettant la lecture, la recherche et l'analyse de code avec mise en cache.
Une liste soigneusement sélectionnée de serveurs MCP permettant aux applications IA d'interagir avec diverses sources de données via des protocoles standardisés.