Ollama
Ollama è uno strumento open source per l'esecuzione locale di modelli linguistici di grandi dimensioni. Ti consente di scaricare, eseguire e gestire modelli sul tuo computer, con l'inferenza eseguita localmente. Le prestazioni e i modelli disponibili dipendono dall'hardware e dalla configurazione.
💡 Modelli linguistici di grandi dimensioni distribuiti localmente, completamente gratuiti.
Processo di applicazione e configurazione
- Apri il Ollama sito Web e scaricare il programma di installazione per il proprio sistema operativo.
- Vai a modelli, seleziona il modello che ti serve ed esegui il comando nel terminale (ad esempio,
ollama pull translategemma:4b) per scaricare il file translategemma:4b modello. - Inizia Ollama: corri
ollama run translategemma:4bnel terminale. Il sistema utilizzerà automaticamente l'impostazione predefinita API key, così puoi iniziare a utilizzare il servizio di traduzione senza inserirlo manualmente. - Se riscontri problemi o hai suggerimenti, puoi inviarli nella sezione Feedback pagina.
Domande frequenti
Se hai eseguito correttamente il file Ollama programma e ho inserito correttamente il nome del modello e API endpoint in Impostazioni modelli di traduzione, ma riscontri ancora un errore 403, potrebbe essere dovuto a un problema multiorigine della rete locale. Segui i passaggi seguenti per il tuo sistema operativo per abilitare il supporto CORS.
- Windows
Apri Pannello di controllo → Sistema → Impostazioni di sistema avanzate → Variabili d'ambiente e in Variabili utente, aggiungi due nuove variabili d'ambiente:
OLLAMA_HOST: impostato su0.0.0.0OLLAMA_ORIGINS: impostato su*(consenti l'accesso da tutte le origini)- Dopo aver salvato, riavviare il Ollama programma.
- macOS
Nel terminale, corri
launchctl setenv OLLAMA_ORIGINS "*"e quindi avviare il Ollama programma. - Linux
Nel terminale, corri
OLLAMA_ORIGINS="*" ollama servee quindi avviare il Ollama programma.
⚠️ Il nome del modello utilizzato da Ollama il programma deve corrispondere al nome del modello nelle Impostazioni dei modelli di traduzione. Ad esempio, se il programma esegue il modello translategemma:4b, anche il nome del modello in Impostazioni modelli di traduzione deve essere translategemma:4b.
💡 Per saperne di più Ollama operazioni, fare riferimento al ufficiale Ollama documentazione.
✅ Prima di risolvere il problema multiorigine, assicurati che il file Ollama il programma è chiuso.
💡 Per saperne di più Ollama operazioni, fare riferimento al ufficiale Ollama documentazione.
✅ Prima di risolvere il problema multiorigine, assicurati che il file Ollama il programma è chiuso.

