Iniciar sesión

Ollama

Ollama es una herramienta de código abierto para ejecutar modelos de lenguaje grandes localmente. Le permite descargar, ejecutar y administrar modelos en su propia máquina, con inferencia realizada localmente. El rendimiento y los modelos disponibles dependen de su hardware y configuración.

💡 Modelos de lenguaje grandes implementados localmente, de uso completamente gratuito.

Proceso de solicitud y configuración

  1. Abra el Ollama sitio web y descargue el instalador para su sistema operativo.
  2. Ir a modelos, seleccione el modelo que necesita y ejecute el comando en la terminal (por ejemplo, ollama pull translategemma:4b) para descargar el translategemma:4b modelo.
  3. Empezar Ollama: correr ollama run translategemma:4b en la terminal. El sistema utilizará automáticamente el valor predeterminado. API key, para que puedas comenzar a utilizar el servicio de traducción sin ingresarlo manualmente.
  4. Si encuentra algún problema o tiene sugerencias, puede enviarlas en Comentarios página.

Preguntas frecuentes

Si ha ejecutado exitosamente el Ollama programa e ingresó correctamente el nombre del modelo y API endpoint en Configuración de modelos de traducción, pero aún aparece un error 403, puede deberse a un problema de origen cruzado de la red local. Siga los pasos a continuación para que su sistema operativo habilite la compatibilidad con CORS.

  • Windows Abra Panel de control → Sistema → Configuración avanzada del sistema → Variables de entorno y, en Variables de usuario, agregue dos nuevas variables de entorno:
    1. OLLAMA_HOST: establecido en 0.0.0.0
    2. OLLAMA_ORIGINS: establecido en *(permitir el acceso desde todos los orígenes)
    3. Después de guardar, reinicie el Ollama programa.
  • macOS En la terminal, ejecuta launchctl setenv OLLAMA_ORIGINS "*" y luego iniciar el Ollama programa.
  • Linux En la terminal, ejecuta OLLAMA_ORIGINS="*" ollama serve y luego iniciar el Ollama programa.
⚠️ El nombre del modelo utilizado por el Ollama El programa debe coincidir con el nombre del modelo en Configuración de modelos de traducción. Por ejemplo, si el programa está ejecutando el modelo translategemma:4b, el nombre del modelo en Configuración de modelos de traducción también debe ser translategemma:4b.

💡 Para más Ollama operaciones, consulte la oficial Ollama documentacion.

✅ Antes de resolver el problema de origen cruzado, asegúrese de que Ollama El programa está cerrado.