Tengo curiosidad sobre el tamaño de los datos de entrenamiento de GPT-4.
Específicamente, quiero saber la cantidad exacta de tokens en los que se entrenó.
5 respuestas
CryptoPioneerGuard
Sat Nov 02 2024
GPT-4 incorpora una arquitectura mixta de expertos.
Raffaele
Fri Nov 01 2024
Implicaba 13 billones de pases simbólicos.
EthereumEmpire
Fri Nov 01 2024
Este modelo está compuesto por 16 expertos.
Martino
Fri Nov 01 2024
Cada experto cuenta con 111 mil millones de parámetros.
BlockchainBrawler
Fri Nov 01 2024
El proceso de entrenamiento requirió aproximadamente 2 multiplicado por 10 elevado a la potencia de 25 FLOPS.