ChainStream est un cadre d'inférence multiplateforme pour mobiles et ordinateurs qui diffuse en temps réel des sorties partielles des grands modèles linguistiques. Il divise l'inférence LLM en chaînes de sous-modèles, permettant une livraison incrémentielle de tokens et réduisant la latence perçue. Les développeurs peuvent intégrer ChainStream dans leurs applications via une API C++ simple, choisir des backends préférés comme ONNX Runtime ou TFLite, et personnaliser les étapes du pipeline. Fonctionne sur Android, iOS, Windows, Linux et macOS, permettant une véritable chat, traduction ou fonctionnalités d'assistance pilotées par l'IA directement sur l’appareil, sans dépendance serveur.