Accedi

Ollama

Ollama è uno strumento open source per l'esecuzione locale di modelli linguistici di grandi dimensioni. Ti consente di scaricare, eseguire e gestire modelli sul tuo computer, con l'inferenza eseguita localmente. Le prestazioni e i modelli disponibili dipendono dall'hardware e dalla configurazione.

💡 Modelli linguistici di grandi dimensioni distribuiti localmente, completamente gratuiti.

Processo di applicazione e configurazione

  1. Apri il Ollama sito Web e scaricare il programma di installazione per il proprio sistema operativo.
  2. Vai a modelli, seleziona il modello che ti serve ed esegui il comando nel terminale (ad esempio, ollama pull translategemma:4b) per scaricare il file translategemma:4b modello.
  3. Inizia Ollama: corri ollama run translategemma:4b nel terminale. Il sistema utilizzerà automaticamente l'impostazione predefinita API key, così puoi iniziare a utilizzare il servizio di traduzione senza inserirlo manualmente.
  4. Se riscontri problemi o hai suggerimenti, puoi inviarli nella sezione Feedback pagina.

Domande frequenti

Se hai eseguito correttamente il file Ollama programma e ho inserito correttamente il nome del modello e API endpoint in Impostazioni modelli di traduzione, ma riscontri ancora un errore 403, potrebbe essere dovuto a un problema multiorigine della rete locale. Segui i passaggi seguenti per il tuo sistema operativo per abilitare il supporto CORS.

  • Windows Apri Pannello di controllo → Sistema → Impostazioni di sistema avanzate → Variabili d'ambiente e in Variabili utente, aggiungi due nuove variabili d'ambiente:
    1. OLLAMA_HOST: impostato su 0.0.0.0
    2. OLLAMA_ORIGINS: impostato su *(consenti l'accesso da tutte le origini)
    3. Dopo aver salvato, riavviare il Ollama programma.
  • macOS Nel terminale, corri launchctl setenv OLLAMA_ORIGINS "*" e quindi avviare il Ollama programma.
  • Linux Nel terminale, corri OLLAMA_ORIGINS="*" ollama serve e quindi avviare il Ollama programma.
⚠️ Il nome del modello utilizzato da Ollama il programma deve corrispondere al nome del modello nelle Impostazioni dei modelli di traduzione. Ad esempio, se il programma esegue il modello translategemma:4b, anche il nome del modello in Impostazioni modelli di traduzione deve essere translategemma:4b.

💡 Per saperne di più Ollama operazioni, fare riferimento al ufficiale Ollama documentazione.

✅ Prima di risolvere il problema multiorigine, assicurati che il file Ollama il programma è chiuso.