Faça login

Ollama

Ollama é uma ferramenta de código aberto para executar localmente grandes modelos de linguagem. Permite descarregar, executar e gerir modelos na sua própria máquina, com inferência realizada localmente. O desempenho e os modelos disponíveis dependem do seu hardware e configuração.

💡 Grandes modelos de linguagem implementados localmente, de utilização totalmente gratuita.

Processo de inscrição e configuração

  1. Abra o Ollama e descarregue o instalador para o seu sistema operativo.
  2. Vá para modelos, selecione o modelo que necessita e execute o comando no terminal (por ex. ollama pull translategemma:4b) para baixar o translategemma:4b modelo.
  3. Começar Ollama: correr ollama run translategemma:4b no terminal. O sistema utilizará automaticamente o padrão API key, para que possa começar a utilizar o serviço de tradução sem o introduzir manualmente.
  4. Se encontrar algum problema ou tiver sugestões, envie-as no Feedback página.

Perguntas frequentes

Se executou com sucesso o Ollama programa e introduziu corretamente o nome do modelo e API endpoint em Definições de modelos de tradução, mas ainda assim encontrar um erro 403, pode dever-se a um problema de origem cruzada na rede local. Siga os passos abaixo para o seu sistema operativo para ativar o suporte CORS.

  • Windows Abra Painel de controlo → Sistema → Definições avançadas do sistema → Variáveis de ambiente e, em Variáveis de utilizador, adicione duas novas variáveis de ambiente:
    1. OLLAMA_HOST: definido como 0.0.0.0
    2. OLLAMA_ORIGINS: definido como *(permitir o acesso de todas as origens)
    3. Depois de guardar, reinicie o Ollama programa.
  • macOS No terminal, execute launchctl setenv OLLAMA_ORIGINS "*" e depois inicie o Ollama programa.
  • Linux No terminal, execute OLLAMA_ORIGINS="*" ollama serve e depois inicie o Ollama programa.
⚠️ O nome do modelo utilizado pelo Ollama O programa deve corresponder ao nome do modelo nas definições dos modelos de tradução. Por exemplo, se o programa estiver a executar o modelo translategemma:4b, o nome do modelo em Definições de modelos de tradução também deve ser translategemma:4b.

💡 Para mais Ollama operações, consulte o oficial Ollama documentação.

✅ Antes de resolver o problema de origem cruzada, certifique-se de que o Ollama o programa está fechado.