OpenBMB, en collaboration avec l'Université Tsinghua, a publié en open source MiniCPM-V 4.6, un modèle de langage multimodal de 1,3 milliard de paramètres. Le modèle est conçu pour fonctionner efficacement sur une seule carte graphique NVIDIA RTX 4090, rendant l'IA avancée accessible aux développeurs individuels et aux petites équipes.
Selon le dépôt GitHub du projet et les annonces officielles, MiniCPM-V 4.6 atteint des performances comparables à celles de modèles plus grands sur des benchmarks tels que MMMU et MathVista. Il prend en charge les entrées d'images et de texte, permettant des tâches comme la réponse à des questions visuelles et l'analyse de documents.
La version inclut des poids pré-entraînés et du code d'inférence sous une licence open source. La petite taille du modèle permet un déploiement local sans dépendances cloud, répondant aux préoccupations de confidentialité et de latence. En mai 2026, le projet a attiré l'attention de la communauté IA pour son efficacité et son accessibilité.