Ollama
Ollama は、大規模な言語モデルをローカルで実行するためのオープンソース ツールです。これにより、推論をローカルで実行しながら、モデルを自分のマシンにダウンロード、実行、管理できます。パフォーマンスと利用可能なモデルは、ハードウェアと構成によって異なります。
💡 ローカルにデプロイされた大規模な言語モデル。完全に無料で使用できます。
申請とセットアップのプロセス
- を開きますOllama Web サイトにアクセスし、オペレーティング システムのインストーラーをダウンロードします。
- モデル、必要なモデルを選択し、ターミナルでコマンドを実行します (例:
ollama pull translategemma:4b) をダウンロードするには、 translategemma:4b モデル。 - スタート Ollama: 走る
ollama run translategemma:4bターミナル内で。システムは自動的にデフォルトを使用します。 API key, そのため、手動で入力することなく翻訳サービスの利用を開始できます。 - 問題が発生した場合や提案がある場合は、[フィードバック](/ja/feedback)のページです。
よくある質問
正常に実行できた場合は、 Ollama プログラムにモデル名を正しく入力し、 API endpoint 翻訳モデルの設定を行っても 403 エラーが発生する場合は、ローカル ネットワークのクロスオリジンの問題が原因である可能性があります。 CORS サポートを有効にするには、オペレーティング システムに応じて次の手順に従ってください。
- Windows
コントロール パネル → システム → システムの詳細設定 → 環境変数 を開き、ユーザー環境 で 2 つの新しい環境変数を追加します。
OLLAMA_HOST: に設定0.0.0.0OLLAMA_ORIGINS: に設定*(すべてのオリジンからのアクセスを許可します)- 保存後、再起動してください Ollama プログラム。
- macOS
ターミナルで実行します
launchctl setenv OLLAMA_ORIGINS "*"そして、 Ollama プログラム。 - Linux
ターミナルで実行します
OLLAMA_ORIGINS="*" ollama serveそして、 Ollama プログラム。
⚠️使用モデル名 Ollama プログラムは、変換モデル設定のモデル名と一致する必要があります。たとえば、プログラムがモデルを実行している場合、 translategemma:4b、翻訳モデル設定のモデル名も次のようにする必要があります。 translategemma:4b.
💡さらに詳しく Ollama 操作については、を参照してください。 役人 Ollama ドキュメント.
✅ クロスオリジンの問題を解決する前に、 Ollama プログラムは終了しました。
💡さらに詳しく Ollama 操作については、を参照してください。 役人 Ollama ドキュメント.
✅ クロスオリジンの問題を解決する前に、 Ollama プログラムは終了しました。

