NeuraLLM – Configuration Serveurs et Modèles IA

NeuraLLM est le module de configuration centralisée des serveurs et modèles LLM (Large Language Models) de NEURASCOPE. Il permet d'assigner un modèle IA spécifique à chaque module de la plateforme.

Concept

Plutôt que de configurer les modèles LLM module par module, NeuraLLM offre une vue centralisée où vous assignez le bon modèle au bon usage. Chaque module peut utiliser un modèle différent, optimisé pour son cas d'usage.

Accéder à NeuraLLM

Depuis le dashboard, cliquez sur NeuraLLM ou utilisez la sidebar. Vous arrivez sur la vue orbitale Configuration LLM avec NEURAHUB au centre et chaque module configurable en orbite.

Vue Orbitale de Configuration

La vue orbitale affiche les modules qui nécessitent un modèle LLM et leur configuration actuelle :

Module Type de modèle Exemple de configuration NeuraChat LLM conversationnel Mistral mistral-large-latest Personas LLM pour les personas Mistral mistral-small-2506 NeuraCrew LLM pour les agents Mistral mistral-small-2506 NeuraRAG LLM + Vision + OCR Modèles multiples configurés NeuraVision Vision + OCR Modèles vision configurés NeuraVoice LLM vocal Mistral voxtral-small-latest NeuraSkill Router + Sandbox Modèles routing configurés Ajouter un Serveur LLM

  1. Cliquez sur + Ajouter mon LLM
  2. Configurez le serveur :
    • Nom : Identifiant du serveur (ex : Mistral LLM | CONVERWAY)
    • Provider : Fournisseur du modèle (Mistral, OpenAI, Anthropic, Ollama…)
    • URL API : Endpoint du serveur
    • Clé API : Authentification
  3. Testez la connexion
  4. Validez

Assigner un Modèle à un Module

  1. Cliquez sur le module dans la vue orbitale
  2. Sélectionnez le serveur LLM
  3. Choisissez le modèle spécifique
  4. Validez l'assignation

Le changement prend effet immédiatement pour toutes les nouvelles requêtes du module concerné.

Types de Modèles

Selon le module, différents types de modèles sont nécessaires :

LLM (Texte)

Modèles de génération de texte pour les conversations, l'analyse et la rédaction. Utilisés par NeuraChat, Personas, NeuraCrew.

Vision

Modèles capables d'analyser des images. Utilisés par NeuraRAG (analyse de documents visuels) et NeuraVision.

OCR

Modèles de reconnaissance optique de caractères. Utilisés par NeuraRAG pour extraire le texte des images dans les documents.

Vocal

Modèles de traitement vocal (speech-to-text, text-to-speech). Utilisés par NeuraVoice.

Router

Modèles légers pour le routage des requêtes vers le bon agent ou skill. Utilisés par NeuraSkill.

Bonnes Pratiques

  • Utilisez des modèles légers (ex : mistral-small) pour les tâches simples (chunking RAG, routing) pour réduire les coûts
  • Réservez les modèles puissants (ex : mistral-large) pour les tâches complexes (chat conversationnel, analyse approfondie)
  • Testez les changements de modèle avant de les déployer en production — les réponses peuvent varier significativement
  • Surveillez la consommation dans les Statistiques pour optimiser les coûts