Les esprits curieux veulent savoir : combien d'unités de traitement graphique (GPU) sont nécessaires pour entraîner le très attendu GPT 4, la prochaine génération du modèle de langage révolutionnaire d'OpenAI ?
Chaque itération apportant une complexité et des capacités accrues, les exigences informatiques pour un tel projet sont sûrement immenses.
Faut-il compter sur quelques centaines, voire milliers de GPU pour atteindre le niveau de performances attendu de GPT 4 ?
La réponse pourrait révéler la véritable ampleur de l’exploit technologique qui nous attend.
8 réponses
Elena
Mon Jul 22 2024
La durée totale de la formation s'est étalée sur 100 jours, exigeant un investissement continu de temps et de ressources.
Daniele
Mon Jul 22 2024
La formation a utilisé 25 000 GPU NVIDIA A100, ce qui représente une puissance de calcul énorme.
benjamin_brown_entrepreneur
Mon Jul 22 2024
GPT-4, un modèle linguistique de pointe, nécessitait des ressources importantes pour sa formation.
MysticRainbow
Mon Jul 22 2024
Ces GPU
Nvidia A100, lorsqu'ils sont déployés sur des serveurs, consomment chacun environ 6,5 kW d'énergie.
Gianluca
Mon Jul 22 2024
Avec un si grand nombre de GPU utilisés, la consommation d'énergie pendant l'entraînement est importante.