Sorgulayan zihinler şunu bilmek ister: OpenAI'nin çığır açan dil modelinin yeni nesli olan ve merakla beklenen GPT 4'ü eğitmek için tam olarak kaç tane grafiksel işlem birimi (GPU) gereklidir?
Her yinelemenin artan karmaşıklık ve yetenekler getirmesiyle birlikte, böyle bir çabanın hesaplama gereksinimleri kesinlikle çok büyüktür.
GPT 4'ten beklenen performans düzeyine ulaşmak için birkaç yüz veya belki de binlerce GPU'ya mı bakıyoruz?
Cevap, önümüzdeki teknolojik başarının gerçek boyutunu ortaya çıkarabilir.
8 cevap
Elena
Mon Jul 22 2024
Eğitim süresinin tamamı 100 güne yayıldı ve sürekli bir zaman ve kaynak yatırımı gerektiriyordu.
Daniele
Mon Jul 22 2024
Eğitimde muazzam bir hesaplama gücünü temsil eden 25.000 NVIDIA A100 GPU kullanıldı.
benjamin_brown_entrepreneur
Mon Jul 22 2024
Son teknoloji bir dil modeli olan GPT-4, eğitimi için önemli miktarda kaynak gerektiriyordu.
MysticRainbow
Mon Jul 22 2024
Bu NVIDIA A100 GPU'ların her biri, sunuculara dağıtıldığında yaklaşık 6,5 kW güç tüketir.
Gianluca
Mon Jul 22 2024
Bu kadar çok sayıda GPU'nun kullanımda olması nedeniyle, eğitim sırasındaki enerji kullanımı oldukça yüksektir.