Ollama
Ollama é uma ferramenta de código aberto para executar localmente grandes modelos de linguagem. Ele permite baixar, executar e gerenciar modelos em sua própria máquina, com inferência realizada localmente. O desempenho e os modelos disponíveis dependem do seu hardware e configuração.
💡 Grandes modelos de linguagem implantados localmente, de uso totalmente gratuito.
Processo de inscrição e configuração
- Abra o Ollama e baixe o instalador para o seu sistema operacional.
- Vá para modelos, selecione o modelo que você precisa e execute o comando no terminal (por exemplo,
ollama pull translategemma:4b) para baixar o translategemma:4b modelo. - Começar Ollama: correr
ollama run translategemma:4bno terminal. O sistema usará automaticamente o padrão API key, para que você possa começar a usar o serviço de tradução sem inseri-lo manualmente. - Se você encontrar algum problema ou tiver sugestões, envie-as no Feedback página.
Perguntas frequentes
Se você executou com sucesso o Ollama programa e inseriu corretamente o nome do modelo e API endpoint em Configurações de modelos de tradução, mas ainda encontrar um erro 403, pode ser devido a um problema de origem cruzada na rede local. Siga as etapas abaixo para o seu sistema operacional para ativar o suporte CORS.
- Windows
Abra Painel de controle → Sistema → Configurações avançadas do sistema → Variáveis de ambiente e, em Variáveis de usuário, adicione duas novas variáveis de ambiente:
OLLAMA_HOST: definido como0.0.0.0OLLAMA_ORIGINS: definido como*(permitir acesso de todas as origens)- Depois de salvar, reinicie o Ollama programa.
- macOS
No terminal, execute
launchctl setenv OLLAMA_ORIGINS "*"e então inicie o Ollama programa. - Linux
No terminal, execute
OLLAMA_ORIGINS="*" ollama servee então inicie o Ollama programa.
⚠️ O nome do modelo usado pelo Ollama O programa deve corresponder ao nome do modelo nas configurações de modelos de tradução. Por exemplo, se o programa estiver executando o modelo translategemma:4b, o nome do modelo em Configurações de modelos de tradução também deve ser translategemma:4b.
💡 Para mais Ollama operações, consulte o oficial Ollama documentação.
✅ Antes de resolver o problema de origem cruzada, certifique-se de que o Ollama o programa está fechado.
💡 Para mais Ollama operações, consulte o oficial Ollama documentação.
✅ Antes de resolver o problema de origem cruzada, certifique-se de que o Ollama o programa está fechado.

