ログイン

Ollama

Ollama は、大規模な言語モデルをローカルで実行するためのオープンソース ツールです。これにより、推論をローカルで実行しながら、モデルを自分のマシンにダウンロード、実行、管理できます。パフォーマンスと利用可能なモデルは、ハードウェアと構成によって異なります。

💡 ローカルにデプロイされた大規模な言語モデル。完全に無料で使用できます。

申請とセットアップのプロセス

  1. を開きますOllama Web サイトにアクセスし、オペレーティング システムのインストーラーをダウンロードします。
  2. モデル、必要なモデルを選択し、ターミナルでコマンドを実行します (例: ollama pull translategemma:4b) をダウンロードするには、 translategemma:4b モデル。
  3. スタート Ollama: 走る ollama run translategemma:4b ターミナル内で。システムは自動的にデフォルトを使用します。 API key, そのため、手動で入力することなく翻訳サービスの利用を開始できます。
  4. 問題が発生した場合や提案がある場合は、[フィードバック](/ja/feedback)のページです。

よくある質問

正常に実行できた場合は、 Ollama プログラムにモデル名を正しく入力し、 API endpoint 翻訳モデルの設定を行っても 403 エラーが発生する場合は、ローカル ネットワークのクロスオリジンの問題が原因である可能性があります。 CORS サポートを有効にするには、オペレーティング システムに応じて次の手順に従ってください。

  • Windows コントロール パネルシステムシステムの詳細設定環境変数 を開き、ユーザー環境 で 2 つの新しい環境変数を追加します。
    1. OLLAMA_HOST: に設定 0.0.0.0
    2. OLLAMA_ORIGINS: に設定 *(すべてのオリジンからのアクセスを許可します)
    3. 保存後、再起動してください Ollama プログラム。
  • macOS ターミナルで実行します launchctl setenv OLLAMA_ORIGINS "*" そして、 Ollama プログラム。
  • Linux ターミナルで実行します OLLAMA_ORIGINS="*" ollama serve そして、 Ollama プログラム。
⚠️使用モデル名 Ollama プログラムは、変換モデル設定のモデル名と一致する必要があります。たとえば、プログラムがモデルを実行している場合、 translategemma:4b、翻訳モデル設定のモデル名も次のようにする必要があります。 translategemma:4b.

💡さらに詳しく Ollama 操作については、を参照してください。 役人 Ollama ドキュメント.

✅ クロスオリジンの問題を解決する前に、 Ollama プログラムは終了しました。