Faça login

Ollama

Ollama é uma ferramenta de código aberto para executar localmente grandes modelos de linguagem. Ele permite baixar, executar e gerenciar modelos em sua própria máquina, com inferência realizada localmente. O desempenho e os modelos disponíveis dependem do seu hardware e configuração.

💡 Grandes modelos de linguagem implantados localmente, de uso totalmente gratuito.

Processo de inscrição e configuração

  1. Abra o Ollama e baixe o instalador para o seu sistema operacional.
  2. Vá para modelos, selecione o modelo que você precisa e execute o comando no terminal (por exemplo, ollama pull translategemma:4b) para baixar o translategemma:4b modelo.
  3. Começar Ollama: correr ollama run translategemma:4b no terminal. O sistema usará automaticamente o padrão API key, para que você possa começar a usar o serviço de tradução sem inseri-lo manualmente.
  4. Se você encontrar algum problema ou tiver sugestões, envie-as no Feedback página.

Perguntas frequentes

Se você executou com sucesso o Ollama programa e inseriu corretamente o nome do modelo e API endpoint em Configurações de modelos de tradução, mas ainda encontrar um erro 403, pode ser devido a um problema de origem cruzada na rede local. Siga as etapas abaixo para o seu sistema operacional para ativar o suporte CORS.

  • Windows Abra Painel de controle → Sistema → Configurações avançadas do sistema → Variáveis de ambiente e, em Variáveis de usuário, adicione duas novas variáveis de ambiente:
    1. OLLAMA_HOST: definido como 0.0.0.0
    2. OLLAMA_ORIGINS: definido como *(permitir acesso de todas as origens)
    3. Depois de salvar, reinicie o Ollama programa.
  • macOS No terminal, execute launchctl setenv OLLAMA_ORIGINS "*" e então inicie o Ollama programa.
  • Linux No terminal, execute OLLAMA_ORIGINS="*" ollama serve e então inicie o Ollama programa.
⚠️ O nome do modelo usado pelo Ollama O programa deve corresponder ao nome do modelo nas configurações de modelos de tradução. Por exemplo, se o programa estiver executando o modelo translategemma:4b, o nome do modelo em Configurações de modelos de tradução também deve ser translategemma:4b.

💡 Para mais Ollama operações, consulte o oficial Ollama documentação.

✅ Antes de resolver o problema de origem cruzada, certifique-se de que o Ollama o programa está fechado.