เข้าสู่ระบบ

Ollama

Ollama เป็นเครื่องมือโอเพ่นซอร์สสำหรับการรันโมเดลภาษาขนาดใหญ่ภายในเครื่อง ช่วยให้คุณสามารถดาวน์โหลด เรียกใช้ และจัดการโมเดลบนเครื่องของคุณเอง โดยดำเนินการอนุมานในเครื่อง ประสิทธิภาพและรุ่นที่ใช้งานได้ขึ้นอยู่กับฮาร์ดแวร์และการกำหนดค่าของคุณ

💡 โมเดลภาษาขนาดใหญ่ที่ปรับใช้ในพื้นที่ ใช้งานได้ฟรีโดยสมบูรณ์

ขั้นตอนการสมัครและการตั้งค่า

  1. เปิด Ollama เว็บไซต์และดาวน์โหลดตัวติดตั้งสำหรับระบบปฏิบัติการของคุณ
  2. ไปที่ รุ่น เลือกรุ่นที่คุณต้องการ และรันคำสั่งในเทอร์มินัล (เช่น ollama pull translategemma:4b) เพื่อดาวน์โหลดไฟล์ translategemma:4b แบบอย่าง.
  3. เริ่ม Ollama: วิ่ง ollama run translategemma:4b ในอาคารผู้โดยสาร ระบบจะใช้ค่าเริ่มต้นโดยอัตโนมัติ API keyเพื่อให้คุณสามารถเริ่มใช้บริการแปลได้โดยไม่ต้องป้อนข้อมูลด้วยตนเอง
  4. หากคุณพบปัญหาหรือมีข้อเสนอแนะ คุณสามารถส่งได้ที่ คำติชม หน้าหนังสือ.

คำถามที่พบบ่อย

หากคุณได้รันไฟล์ Ollama โปรแกรมและป้อนชื่อรุ่นและอย่างถูกต้อง API endpoint ใน การตั้งค่าโมเดลการแปล แต่ยังคงพบข้อผิดพลาด 403 ซึ่งอาจเกิดจากปัญหาข้ามต้นทางของเครือข่ายท้องถิ่น ทำตามขั้นตอนด้านล่างสำหรับระบบปฏิบัติการของคุณเพื่อเปิดใช้งานการรองรับ CORS

  • Windows เปิดแผงควบคุม → ระบบ → การตั้งค่าระบบขั้นสูง → ตัวแปรสภาพแวดล้อม และภายใต้ตัวแปรผู้ใช้ ให้เพิ่มตัวแปรสภาพแวดล้อมใหม่สองตัว:
    1. OLLAMA_HOST: ตั้งค่าเป็น 0.0.0.0
    2. OLLAMA_ORIGINS: ตั้งค่าเป็น *(อนุญาตการเข้าถึงจากต้นทางทั้งหมด)
    3. หลังจากบันทึกแล้วให้รีสตาร์ท Ollama โปรแกรม
  • macOS ในเทอร์มินัลให้รัน launchctl setenv OLLAMA_ORIGINS "*" แล้วเริ่มการ Ollama โปรแกรม
  • Linux ในเทอร์มินัลให้รัน OLLAMA_ORIGINS="*" ollama serve แล้วเริ่มการ Ollama โปรแกรม
⚠️ชื่อรุ่นที่ทาง Ollama โปรแกรมจะต้องตรงกับชื่อรุ่นในการตั้งค่าโมเดลการแปล เช่น ถ้าโปรแกรมกำลังรันโมเดลอยู่ translategemma:4bโดยชื่อรุ่นในการตั้งค่าโมเดลการแปลจะต้องเป็นชื่อโมเดลด้วย translategemma:4b.

💡 สอบถามเพิ่มเติม Ollama การดำเนินงาน โปรดดูที่ เป็นทางการ Ollama เอกสารประกอบ.

✅ ก่อนที่จะแก้ไขปัญหาข้ามแหล่งที่มา ตรวจสอบให้แน่ใจว่า Ollama โปรแกรมถูกปิด