ผู้ตั้งคำถามต้องการทราบ: ต้องใช้หน่วยประมวลผลกราฟิก (GPU) จำนวนเท่าใดในการฝึกอบรม GPT 4 ที่ได้รับการคาดหวังอย่างสูง ซึ่งเป็นโมเดลภาษาที่ก้าวล้ำเจเนอเรชันถัดไปของ OpenAI
ด้วยการวนซ้ำแต่ละครั้งนำมาซึ่งความซับซ้อนและความสามารถที่เพิ่มขึ้น ความต้องการด้านการคำนวณสำหรับความพยายามดังกล่าวจึงมีมากมายมหาศาลอย่างแน่นอน
เรากำลังพิจารณา GPU ไม่กี่ร้อยหรือหลายพันตัวเพื่อให้ถึงระดับประสิทธิภาพที่คาดหวังจาก GPT 4 หรือไม่?
คำตอบอาจเผยให้เห็นถึงขนาดที่แท้จริงของความสำเร็จทางเทคโนโลยีที่อยู่ข้างหน้า
8 คำตอบ
Elena
Mon Jul 22 2024
ระยะเวลาการฝึกอบรมทั้งหมดครอบคลุม 100 วัน ซึ่งต้องใช้เวลาและทรัพยากรอย่างต่อเนื่อง
Daniele
Mon Jul 22 2024
การฝึกอบรมใช้ NVIDIA A100 GPU จำนวน 25,000 ตัว ซึ่งแสดงถึงพลังการประมวลผลมหาศาล
benjamin_brown_entrepreneur
Mon Jul 22 2024
GPT-4 ซึ่งเป็นโมเดลภาษาที่ล้ำสมัย ต้องใช้ทรัพยากรจำนวนมากสำหรับการฝึกอบรม
MysticRainbow
Mon Jul 22 2024
NVIDIA A100 GPU เหล่านี้ เมื่อใช้งานในเซิร์ฟเวอร์ แต่ละเครื่องจะใช้พลังงานประมาณ 6.5 kW
Gianluca
Mon Jul 22 2024
ด้วยการใช้ GPU จำนวนมาก การใช้พลังงานระหว่างการฝึกจึงมีนัยสำคัญ