NeuraLLM – Configuration Serveurs et Modèles IA
NeuraLLM est le module de configuration centralisée des serveurs et modèles LLM (Large Language Models) de NEURASCOPE. Il permet d'assigner un modèle IA spécifique à chaque module de la plateforme.
Concept
Plutôt que de configurer les modèles LLM module par module, NeuraLLM offre une vue centralisée où vous assignez le bon modèle au bon usage. Chaque module peut utiliser un modèle différent, optimisé pour son cas d'usage.
Accéder à NeuraLLM
Depuis le dashboard, cliquez sur NeuraLLM ou utilisez la sidebar. Vous arrivez sur la vue orbitale Configuration LLM avec NEURAHUB au centre et chaque module configurable en orbite.
Vue Orbitale de Configuration
La vue orbitale affiche les modules qui nécessitent un modèle LLM et leur configuration actuelle :
Module Type de modèle Exemple de configuration NeuraChat LLM conversationnel Mistral mistral-large-latest Personas LLM pour les personas Mistral mistral-small-2506 NeuraCrew LLM pour les agents Mistral mistral-small-2506 NeuraRAG LLM + Vision + OCR Modèles multiples configurés NeuraVision Vision + OCR Modèles vision configurés NeuraVoice LLM vocal Mistral voxtral-small-latest NeuraSkill Router + Sandbox Modèles routing configurés Ajouter un Serveur LLM
- Cliquez sur + Ajouter mon LLM
- Configurez le serveur :
- Nom : Identifiant du serveur (ex : Mistral LLM | CONVERWAY)
- Provider : Fournisseur du modèle (Mistral, OpenAI, Anthropic, Ollama…)
- URL API : Endpoint du serveur
- Clé API : Authentification
- Testez la connexion
- Validez
Assigner un Modèle à un Module
- Cliquez sur le module dans la vue orbitale
- Sélectionnez le serveur LLM
- Choisissez le modèle spécifique
- Validez l'assignation
Le changement prend effet immédiatement pour toutes les nouvelles requêtes du module concerné.
Types de Modèles
Selon le module, différents types de modèles sont nécessaires :
LLM (Texte)
Modèles de génération de texte pour les conversations, l'analyse et la rédaction. Utilisés par NeuraChat, Personas, NeuraCrew.
Vision
Modèles capables d'analyser des images. Utilisés par NeuraRAG (analyse de documents visuels) et NeuraVision.
OCR
Modèles de reconnaissance optique de caractères. Utilisés par NeuraRAG pour extraire le texte des images dans les documents.
Vocal
Modèles de traitement vocal (speech-to-text, text-to-speech). Utilisés par NeuraVoice.
Router
Modèles légers pour le routage des requêtes vers le bon agent ou skill. Utilisés par NeuraSkill.
Bonnes Pratiques
- Utilisez des modèles légers (ex : mistral-small) pour les tâches simples (chunking RAG, routing) pour réduire les coûts
- Réservez les modèles puissants (ex : mistral-large) pour les tâches complexes (chat conversationnel, analyse approfondie)
- Testez les changements de modèle avant de les déployer en production — les réponses peuvent varier significativement
- Surveillez la consommation dans les Statistiques pour optimiser les coûts