Ollama
Ollama é uma ferramenta de código aberto para executar localmente grandes modelos de linguagem. Permite descarregar, executar e gerir modelos na sua própria máquina, com inferência realizada localmente. O desempenho e os modelos disponíveis dependem do seu hardware e configuração.
💡 Grandes modelos de linguagem implementados localmente, de utilização totalmente gratuita.
Processo de inscrição e configuração
- Abra o Ollama e descarregue o instalador para o seu sistema operativo.
- Vá para modelos, selecione o modelo que necessita e execute o comando no terminal (por ex.
ollama pull translategemma:4b) para baixar o translategemma:4b modelo. - Começar Ollama: correr
ollama run translategemma:4bno terminal. O sistema utilizará automaticamente o padrão API key, para que possa começar a utilizar o serviço de tradução sem o introduzir manualmente. - Se encontrar algum problema ou tiver sugestões, envie-as no Feedback página.
Perguntas frequentes
Se executou com sucesso o Ollama programa e introduziu corretamente o nome do modelo e API endpoint em Definições de modelos de tradução, mas ainda assim encontrar um erro 403, pode dever-se a um problema de origem cruzada na rede local. Siga os passos abaixo para o seu sistema operativo para ativar o suporte CORS.
- Windows
Abra Painel de controlo → Sistema → Definições avançadas do sistema → Variáveis de ambiente e, em Variáveis de utilizador, adicione duas novas variáveis de ambiente:
OLLAMA_HOST: definido como0.0.0.0OLLAMA_ORIGINS: definido como*(permitir o acesso de todas as origens)- Depois de guardar, reinicie o Ollama programa.
- macOS
No terminal, execute
launchctl setenv OLLAMA_ORIGINS "*"e depois inicie o Ollama programa. - Linux
No terminal, execute
OLLAMA_ORIGINS="*" ollama servee depois inicie o Ollama programa.
⚠️ O nome do modelo utilizado pelo Ollama O programa deve corresponder ao nome do modelo nas definições dos modelos de tradução. Por exemplo, se o programa estiver a executar o modelo translategemma:4b, o nome do modelo em Definições de modelos de tradução também deve ser translategemma:4b.
💡 Para mais Ollama operações, consulte o oficial Ollama documentação.
✅ Antes de resolver o problema de origem cruzada, certifique-se de que o Ollama o programa está fechado.
💡 Para mais Ollama operações, consulte o oficial Ollama documentação.
✅ Antes de resolver o problema de origem cruzada, certifique-se de que o Ollama o programa está fechado.

