Introdução à configuração de modelos
Este tutorial explica como configurar vários modelos de linguagem de grande dimensão no SelectTranslate extensão, incluindo API keys, URLs de endpoint, seleção de modelo, parâmetros de desempenho e definições de prompt. A configuração adequada do modelo pode melhorar a estabilidade do serviço e melhorar a precisão da tradução, a velocidade de resposta e a experiência geral do utilizador em diferentes cenários de tradução.
1. Configurar API Key
Um API key é a credencial de acesso oficial fornecida pelo fornecedor de serviços modelo, utilizada para ligar em segurança para o seu AI modelos e serviços relacionados.
Comum API Key Problemas de configuração
- Incorreto API Key Formato: O API key pode ter caracteres em falta, espaços extra ou estar truncado incorretamente. Certifique-se de que copia a chave completa fornecida pelo serviço e evite incluir espaços, quebras de linha ou outros caracteres inválidos.
- API Key Incompatibilidade com o Prestador de Serviços: API keys de fornecedores de modelos diferentes não são intercambiáveis. Por exemplo, um OpenAI API key não pode ser utilizado com DeepSeek modelos.
- API Key Expirado ou desativado: o seu API key pode ter sido revogado devido a expiração, desativação manual, problemas de conta, limites de utilização ou motivos de segurança. Visite a consola do seu fornecedor para verificar o estado atual do seu API key.
- Erro de URL do endpoint: mesmo com um endereço válido API Key, os testes de ligação poderão falhar se o URL do endpoint estiver incorreto, em falta de caminhos de versão ou não corresponder aos requisitos específicos do fornecedor.
- Incompatibilidade do nome do modelo: certifique-se de que o nome do modelo está escrito corretamente e é oficialmente compatível com o seu fornecedor. Os erros tipográficos aqui são frequentemente identificados erradamente como API Key questões.
- Problemas de rede ou proxy: a estabilidade da rede local, as definições de proxy ou as restrições da firewall podem bloquear os pedidos, resultando em falhas de autenticação ou tempos limite de pedidos.
2. Seleção do modelo de tradução
Ao configurar a extensão, o nome do modelo deve corresponder ao fornecedor de serviços associado ao API key; caso contrário, o modelo não poderá ser chamado com êxito.
Fornecedores suportados e mapeamento de modelos
| Provedor | Nome do modelo |
|---|---|
| OpenAI | gpt-5、gpt-5-mini、gpt-5-nano |
| Gemini | gemini-2.5-flash、gemini-2.0-flash-lite |
3. Personalizado API URL
A extensão usa o oficial API URL por defeito, pelo que geralmente não são necessários ajustes. A introdução manual do URL só é necessária nos seguintes casos:
- Chamar o modelo através de um proxy reverso ou serviço de retransmissão,
- Utilizando um serviço de modelo grande implantado de forma privada,
- Conectando-se a terceiros API serviços que não utilizam totalmente o URL padrão oficial.
Orientações de entrada:
- O URL deve ser um endpoint HTTPS completo, por exemplo:
https://api.your-company.com/v1/chat/completions - O caminho do terminal deve corresponder à documentação técnica do fornecedor de serviços e o API deve receber e tratar corretamente os pedidos que seguem o formato especificado.
4. Ajuste dos parâmetros do modelo
Os seguintes parâmetros são utilizados para ajustar a qualidade da tradução, a estabilidade do modelo e a velocidade de resposta. As definições padrão cobrem a maioria dos casos de utilização; ajuste-os conforme necessário para requisitos específicos.
| Parâmetros | Descrição | Configurações recomendadas |
|---|---|---|
| Comprimento máximo do texto por pedido | Utilizado para limitar o número máximo de caracteres que podem ser enviados num único pedido de tradução. Definir este valor demasiado alto pode abrandar API respostas; mantê-lo dentro de um intervalo razoável ajuda a melhorar a estabilidade e a velocidade de resposta. | - Recomendado 1000–1500 personagens- Evite exceder 2000 caracteres para evitar atrasos de resposta ou perda de conteúdo. |
| Número máximo de parágrafos por pedido | O número de parágrafos que podem ser enviados de uma só vez num único pedido de tradução. Enviar muitos parágrafos de uma só vez pode aumentar a carga de processamento, levando a respostas mais lentas ou a uma redução da estabilidade. Definir este valor adequadamente ajuda a melhorar a eficiência e a fiabilidade geral da tradução. | - Textos Técnicos ou Legais:1(processar parágrafo a parágrafo para garantir a precisão da terminologia)- Romances, Diálogos ou Blogs: 3–5(melhora a fluência) |
| Máximo de pedidos por segundo | O número de pedidos de tradução enviados por segundo. Se a taxa de pedidos for demasiado elevada, os pedidos adicionais serão enfileirados para evitar atingir API limites de taxa e para manter a estabilidade global do sistema. | - Uso Geral:25- Serviços com taxa limitada estrita (por ex. Gemini): 8–10 |
| Temperatura | Controla a aleatoriedade e a variabilidade da saída do modelo. Valores de temperatura mais elevados produzem respostas mais diversas e criativas, enquanto valores mais baixos resultam em resultados mais estáveis, o que é preferível para traduções consistentes e precisas. | - Recomendação para tarefas de tradução:As temperaturas oficiais recomendadas variam de acordo com o modelo. Sugere-se utilizar o padrão fornecido e ajustar conforme necessário. |
5.º Prompts personalizados (prompt do sistema/prompt do utilizador)
A extensão inclui prompts de tradução gerais integrados e otimizados que cobrem os cenários de tradução mais comuns. Quando existem requisitos específicos – como o estilo de tradução, a consistência terminológica, o conhecimento do domínio ou as preferências de tom – podem ser utilizados prompts personalizados para ajustar a saída do modelo.
Ao criar avisos de tradução personalizados, é recomendável seguir estas orientações:
- Instruções claras e específicas: especifique claramente o idioma de destino, o estilo de tradução, o domínio e quaisquer expressões ou opções de palavras a evitar.
- Instruções práticas: utilize descrições concretas e precisas, evitando afirmações vagas ou abstratas, para garantir que o modelo consegue compreender e seguir as instruções com precisão.
- Mantenha os prompts concisos: certifique-se de que o prompt fornece informação suficiente e é breve, evitando detalhes redundantes que possam interferir com a compreensão do modelo.
6. Isenção de responsabilidade
🔔 Esteja ciente do nível gratuito e de quaisquer taxas cobradas pelo fornecedor de serviços para evitar custos inesperados.

