Mistral Small 3 est un modèle IA à 24B paramètres, optimisé pour la latence, qui excelle dans les tâches linguistiques exigeant des réponses rapides et une faible latence. Il atteint plus de 81% de précision sur MMLU et traite 150 tokens par seconde, ce qui en fait l'un des modèles les plus efficaces disponibles. Destiné à être déployé localement et à exécuter rapidement des fonctions, ce modèle est idéal pour les développeurs ayant besoin de capacités IA rapides et fiables. De plus, il prend en charge le fine-tuning pour des tâches spécialisées dans divers domaines tels que le droit, la santé et les domaines techniques, tout en assurant un raisonnement local pour une sécurité des données accrue.