Wissende Köpfe möchten wissen: Wie viele grafische Verarbeitungseinheiten (GPUs) sind erforderlich, um das mit Spannung erwartete GPT 4, die nächste Generation des bahnbrechenden Sprachmodells von OpenAI, zu trainieren?
Da jede Iteration die Komplexität und die Fähigkeiten erhöht, ist der Rechenaufwand für ein solches Unterfangen sicherlich immens.
Erwägen wir ein paar Hundert oder vielleicht Tausende von GPUs, um das von GPT 4 erwartete Leistungsniveau zu erreichen?
Die Antwort könnte das wahre Ausmaß der bevorstehenden technologischen Leistung offenbaren.
8 Antworten
Elena
Mon Jul 22 2024
Die gesamte Schulungsdauer erstreckte sich über 100 Tage und erforderte einen kontinuierlichen Zeit- und Ressourcenaufwand.
Daniele
Mon Jul 22 2024
Das Training nutzte 25.000 NVIDIA A100-GPUs, was eine enorme Rechenleistung darstellt.
benjamin_brown_entrepreneur
Mon Jul 22 2024
GPT-4, ein hochmodernes Sprachmodell, erforderte erhebliche Ressourcen für sein Training.
MysticRainbow
Mon Jul 22 2024
Diese NVIDIA A100-GPUs verbrauchen beim Einsatz in Servern jeweils etwa 6,5 kW Strom.
Gianluca
Mon Jul 22 2024
Bei einer so großen Anzahl verwendeter GPUs ist der Energieverbrauch während des Trainings erheblich.