¿Cuántas GPU para entrenar GPT 4?
Las mentes inquisitivas quieren saber: ¿Cuántas unidades de procesamiento gráfico (GPU) se necesitan para entrenar el tan esperado GPT 4, la próxima generación del innovador modelo de lenguaje de OpenAI? Dado que cada iteración aumenta la complejidad y las capacidades, las demandas computacionales para tal esfuerzo son seguramente inmensas. ¿Estamos ante unos cientos, o quizás miles, de GPU para alcanzar el nivel de rendimiento esperado de GPT 4? La respuesta puede revelar la verdadera escala de la hazaña tecnológica que nos espera.