Ollama
Ollama es una herramienta de código abierto para ejecutar modelos de lenguaje grandes localmente. Le permite descargar, ejecutar y administrar modelos en su propia máquina, con inferencia realizada localmente. El rendimiento y los modelos disponibles dependen de su hardware y configuración.
💡 Modelos de lenguaje grandes implementados localmente, de uso completamente gratuito.
Proceso de solicitud y configuración
- Abra el Ollama sitio web y descargue el instalador para su sistema operativo.
- Ir a modelos, seleccione el modelo que necesita y ejecute el comando en la terminal (por ejemplo,
ollama pull translategemma:4b) para descargar el translategemma:4b modelo. - Empezar Ollama: correr
ollama run translategemma:4ben la terminal. El sistema utilizará automáticamente el valor predeterminado. API key, para que puedas comenzar a utilizar el servicio de traducción sin ingresarlo manualmente. - Si encuentra algún problema o tiene sugerencias, puede enviarlas en Comentarios página.
Preguntas frecuentes
Si ha ejecutado exitosamente el Ollama programa e ingresó correctamente el nombre del modelo y API endpoint en Configuración de modelos de traducción, pero aún aparece un error 403, puede deberse a un problema de origen cruzado de la red local. Siga los pasos a continuación para que su sistema operativo habilite la compatibilidad con CORS.
- Windows
Abra Panel de control → Sistema → Configuración avanzada del sistema → Variables de entorno y, en Variables de usuario, agregue dos nuevas variables de entorno:
OLLAMA_HOST: establecido en0.0.0.0OLLAMA_ORIGINS: establecido en*(permitir el acceso desde todos los orígenes)- Después de guardar, reinicie el Ollama programa.
- macOS
En la terminal, ejecuta
launchctl setenv OLLAMA_ORIGINS "*"y luego iniciar el Ollama programa. - Linux
En la terminal, ejecuta
OLLAMA_ORIGINS="*" ollama servey luego iniciar el Ollama programa.
⚠️ El nombre del modelo utilizado por el Ollama El programa debe coincidir con el nombre del modelo en Configuración de modelos de traducción. Por ejemplo, si el programa está ejecutando el modelo translategemma:4b, el nombre del modelo en Configuración de modelos de traducción también debe ser translategemma:4b.
💡 Para más Ollama operaciones, consulte la oficial Ollama documentacion.
✅ Antes de resolver el problema de origen cruzado, asegúrese de que Ollama El programa está cerrado.
💡 Para más Ollama operaciones, consulte la oficial Ollama documentacion.
✅ Antes de resolver el problema de origen cruzado, asegúrese de que Ollama El programa está cerrado.

