Kryptowährungs-Q&A Wie viele GPUs sollen GPT 4 trainieren?

Wie viele GPUs sollen GPT 4 trainieren?

TaegeukChampionship TaegeukChampionship Sat Jul 20 2024 | 8 Antworten 1797
Wissende Köpfe möchten wissen: Wie viele grafische Verarbeitungseinheiten (GPUs) sind erforderlich, um das mit Spannung erwartete GPT 4, die nächste Generation des bahnbrechenden Sprachmodells von OpenAI, zu trainieren? Da jede Iteration die Komplexität und die Fähigkeiten erhöht, ist der Rechenaufwand für ein solches Unterfangen sicherlich immens. Erwägen wir ein paar Hundert oder vielleicht Tausende von GPUs, um das von GPT 4 erwartete Leistungsniveau zu erreichen? Die Antwort könnte das wahre Ausmaß der bevorstehenden technologischen Leistung offenbaren. Wie viele GPUs sollen GPT 4 trainieren?

8 Antworten

Elena Elena Mon Jul 22 2024
Die gesamte Schulungsdauer erstreckte sich über 100 Tage und erforderte einen kontinuierlichen Zeit- und Ressourcenaufwand.

War dies hilfreich?

376
39
Daniele Daniele Mon Jul 22 2024
Das Training nutzte 25.000 NVIDIA A100-GPUs, was eine enorme Rechenleistung darstellt.

War dies hilfreich?

113
24
benjamin_brown_entrepreneur benjamin_brown_entrepreneur Mon Jul 22 2024
GPT-4, ein hochmodernes Sprachmodell, erforderte erhebliche Ressourcen für sein Training.

War dies hilfreich?

191
47
MysticRainbow MysticRainbow Mon Jul 22 2024
Diese NVIDIA A100-GPUs verbrauchen beim Einsatz in Servern jeweils etwa 6,5 ​​kW Strom.

War dies hilfreich?

254
99
Gianluca Gianluca Mon Jul 22 2024
Bei einer so großen Anzahl verwendeter GPUs ist der Energieverbrauch während des Trainings erheblich.

War dies hilfreich?

193
59
Laden Sie 5 weitere verwandte Fragen

|Themen beim Kryptowährungs-Q&A

Holen Sie sich die BTCC-App und beginnen Sie Ihre Krypto-Reise

Starten Sie noch heute Scannen Sie, um Teil von mehr als 100 Millionen Nutzern zu werden

Die weltweit führende Krypto-Handelsplattform

Meine Willkommensgeschenke abrufen