लॉग इन करें

Ollama

Ollama स्थानीय स्तर पर बड़े भाषा मॉडल चलाने के लिए एक ओपन-सोर्स टूल है। यह आपको स्थानीय स्तर पर अनुमान लगाते हुए, अपनी मशीन पर मॉडल डाउनलोड करने, चलाने और प्रबंधित करने की सुविधा देता है। प्रदर्शन और उपलब्ध मॉडल आपके हार्डवेयर और कॉन्फ़िगरेशन पर निर्भर करते हैं।

💡 स्थानीय रूप से तैनात बड़े भाषा मॉडल, उपयोग के लिए पूरी तरह से निःशुल्क।

आवेदन और सेटअप प्रक्रिया

  1. खोलेंOllama वेबसाइट और अपने ऑपरेटिंग सिस्टम के लिए इंस्टॉलर डाउनलोड करें।
  2. मॉडल पर जाएं(https://ollama.com/library), आपको जिस मॉडल की आवश्यकता है उसका चयन करें, और टर्मिनल में कमांड चलाएँ (उदाहरण के लिए, ollama pull translategemma:4b) डाउनलोड करने के लिए translategemma:4b मॉडल.
  3. प्रारंभ करें Ollama: भागो ollama run translategemma:4b टर्मिनल में. सिस्टम स्वचालित रूप से डिफ़ॉल्ट का उपयोग करेगा API key, ताकि आप अनुवाद सेवा को मैन्युअल रूप से दर्ज किए बिना उसका उपयोग शुरू कर सकें।
  4. यदि आपको कोई समस्या आती है या आपके पास सुझाव हैं, तो आप उन्हें फीडबैक पर सबमिट कर सकते हैं।/hi/feedback) पेज.

अक्सर पूछे जाने वाले प्रश्न

यदि आपने सफलतापूर्वक चला लिया है Ollama प्रोग्राम और मॉडल का नाम सही ढंग से दर्ज किया गया API endpoint अनुवाद मॉडल सेटिंग्स में, लेकिन फिर भी 403 त्रुटि आती है, यह स्थानीय नेटवर्क क्रॉस-ओरिजिन समस्या के कारण हो सकता है। अपने ऑपरेटिंग सिस्टम के लिए CORS समर्थन सक्षम करने के लिए नीचे दिए गए चरणों का पालन करें।

  • Windows नियंत्रण कक्ष खोलें → सिस्टम → उन्नत सिस्टम सेटिंग्स → पर्यावरण चर, और उपयोगकर्ता चर के अंतर्गत, दो नए पर्यावरण चर जोड़ें:
    1. OLLAMA_HOST: पर सेट करें 0.0.0.0
    2. OLLAMA_ORIGINS: पर सेट करें *(सभी मूल से पहुंच की अनुमति दें)
    3. सेव करने के बाद रीस्टार्ट करें Ollama कार्यक्रम.
  • macOS टर्मिनल में, चलाएँ launchctl setenv OLLAMA_ORIGINS "*" और फिर शुरू करें Ollama कार्यक्रम.
  • Linux टर्मिनल में, चलाएँ OLLAMA_ORIGINS="*" ollama serve और फिर शुरू करें Ollama कार्यक्रम.
⚠️ द्वारा प्रयुक्त मॉडल नाम Ollama प्रोग्राम को अनुवाद मॉडल सेटिंग्स में मॉडल नाम से मेल खाना चाहिए। उदाहरण के लिए, यदि प्रोग्राम मॉडल चला रहा है translategemma:4b, अनुवाद मॉडल सेटिंग्स में मॉडल का नाम भी होना चाहिए translategemma:4b.

💡और अधिक के लिए Ollama संचालन, कृपया देखें आधिकारिक Ollama दस्तावेज़ीकरण.

✅ क्रॉस-ओरिजिन मुद्दे को हल करने से पहले, सुनिश्चित करें Ollama कार्यक्रम बंद है.