Connectez-vous

Ollama

Ollama est un outil open source permettant d'exécuter de grands modèles de langage localement. Il vous permet de télécharger, d'exécuter et de gérer des modèles sur votre propre ordinateur, avec une inférence effectuée localement. Les performances et les modèles disponibles dépendent de votre matériel et de votre configuration.

💡 Grands modèles de langage déployés localement, totalement gratuits à utiliser.

Processus de candidature et de configuration

  1. Ouvrez le Ollama et téléchargez le programme d'installation de votre système d'exploitation.
  2. Accédez à modèles, sélectionnez le modèle dont vous avez besoin et exécutez la commande dans le terminal (par exemple, ollama pull translategemma:4b) pour télécharger le translategemma:4b modèle.
  3. Commencer Ollama: courir ollama run translategemma:4b dans la borne. Le système utilisera automatiquement la valeur par défaut API key, vous pouvez donc commencer à utiliser le service de traduction sans le saisir manuellement.
  4. Si vous rencontrez des problèmes ou avez des suggestions, vous pouvez les soumettre sur le Commentaires page.

Questions fréquemment posées

Si vous avez exécuté avec succès le Ollama programme et saisi correctement le nom du modèle et API endpoint dans Paramètres des modèles de traduction, mais vous rencontrez toujours une erreur 403. Cela peut être dû à un problème d'origine croisée du réseau local. Suivez les étapes ci-dessous pour votre système d'exploitation afin d'activer la prise en charge CORS.

  • Windows Ouvrez le Panneau de configuration → Système → Paramètres système avancés → Variables d'environnement, et sous Variables utilisateur, ajoutez deux nouvelles variables d'environnement :
    1. OLLAMA_HOST: réglé sur 0.0.0.0
    2. OLLAMA_ORIGINS: réglé sur *(autoriser l'accès depuis toutes les origines)
    3. Après avoir enregistré, redémarrez le Ollama programme.
  • macOS Dans le terminal, exécutez launchctl setenv OLLAMA_ORIGINS "*" puis démarrez le Ollama programme.
  • Linux Dans le terminal, exécutez OLLAMA_ORIGINS="*" ollama serve puis démarrez le Ollama programme.
⚠️ Le nom du modèle utilisé par le Ollama Le programme doit correspondre au nom du modèle dans les paramètres des modèles de traduction. Par exemple, si le programme exécute le modèle translategemma:4b, le nom du modèle dans les paramètres des modèles de traduction doit également être translategemma:4b.

💡Pour en savoir plus Ollama opérations, veuillez vous référer au officiel Ollama documents.

✅ Avant de résoudre le problème d'origine croisée, assurez-vous que Ollama le programme est fermé.