Ollama
Ollama เป็นเครื่องมือโอเพ่นซอร์สสำหรับการรันโมเดลภาษาขนาดใหญ่ภายในเครื่อง ช่วยให้คุณสามารถดาวน์โหลด เรียกใช้ และจัดการโมเดลบนเครื่องของคุณเอง โดยดำเนินการอนุมานในเครื่อง ประสิทธิภาพและรุ่นที่ใช้งานได้ขึ้นอยู่กับฮาร์ดแวร์และการกำหนดค่าของคุณ
💡 โมเดลภาษาขนาดใหญ่ที่ปรับใช้ในพื้นที่ ใช้งานได้ฟรีโดยสมบูรณ์
ขั้นตอนการสมัครและการตั้งค่า
- เปิด Ollama เว็บไซต์และดาวน์โหลดตัวติดตั้งสำหรับระบบปฏิบัติการของคุณ
- ไปที่ รุ่น เลือกรุ่นที่คุณต้องการ และรันคำสั่งในเทอร์มินัล (เช่น
ollama pull translategemma:4b) เพื่อดาวน์โหลดไฟล์ translategemma:4b แบบอย่าง. - เริ่ม Ollama: วิ่ง
ollama run translategemma:4bในอาคารผู้โดยสาร ระบบจะใช้ค่าเริ่มต้นโดยอัตโนมัติ API keyเพื่อให้คุณสามารถเริ่มใช้บริการแปลได้โดยไม่ต้องป้อนข้อมูลด้วยตนเอง - หากคุณพบปัญหาหรือมีข้อเสนอแนะ คุณสามารถส่งได้ที่ คำติชม หน้าหนังสือ.
คำถามที่พบบ่อย
หากคุณได้รันไฟล์ Ollama โปรแกรมและป้อนชื่อรุ่นและอย่างถูกต้อง API endpoint ใน การตั้งค่าโมเดลการแปล แต่ยังคงพบข้อผิดพลาด 403 ซึ่งอาจเกิดจากปัญหาข้ามต้นทางของเครือข่ายท้องถิ่น ทำตามขั้นตอนด้านล่างสำหรับระบบปฏิบัติการของคุณเพื่อเปิดใช้งานการรองรับ CORS
- Windows
เปิดแผงควบคุม → ระบบ → การตั้งค่าระบบขั้นสูง → ตัวแปรสภาพแวดล้อม และภายใต้ตัวแปรผู้ใช้ ให้เพิ่มตัวแปรสภาพแวดล้อมใหม่สองตัว:
OLLAMA_HOST: ตั้งค่าเป็น0.0.0.0OLLAMA_ORIGINS: ตั้งค่าเป็น*(อนุญาตการเข้าถึงจากต้นทางทั้งหมด)- หลังจากบันทึกแล้วให้รีสตาร์ท Ollama โปรแกรม
- macOS
ในเทอร์มินัลให้รัน
launchctl setenv OLLAMA_ORIGINS "*"แล้วเริ่มการ Ollama โปรแกรม - Linux
ในเทอร์มินัลให้รัน
OLLAMA_ORIGINS="*" ollama serveแล้วเริ่มการ Ollama โปรแกรม
⚠️ชื่อรุ่นที่ทาง Ollama โปรแกรมจะต้องตรงกับชื่อรุ่นในการตั้งค่าโมเดลการแปล เช่น ถ้าโปรแกรมกำลังรันโมเดลอยู่ translategemma:4bโดยชื่อรุ่นในการตั้งค่าโมเดลการแปลจะต้องเป็นชื่อโมเดลด้วย translategemma:4b.
💡 สอบถามเพิ่มเติม Ollama การดำเนินงาน โปรดดูที่ เป็นทางการ Ollama เอกสารประกอบ.
✅ ก่อนที่จะแก้ไขปัญหาข้ามแหล่งที่มา ตรวจสอบให้แน่ใจว่า Ollama โปรแกรมถูกปิด
💡 สอบถามเพิ่มเติม Ollama การดำเนินงาน โปรดดูที่ เป็นทางการ Ollama เอกสารประกอบ.
✅ ก่อนที่จะแก้ไขปัญหาข้ามแหล่งที่มา ตรวจสอบให้แน่ใจว่า Ollama โปรแกรมถูกปิด

