ฉันอยากรู้เกี่ยวกับขนาดข้อมูลการฝึกของ GPT-4
โดยเฉพาะอย่างยิ่ง ฉันต้องการทราบจำนวนโทเค็นที่ได้รับการฝึกที่แน่นอน
5 คำตอบ
CryptoPioneerGuard
Sat Nov 02 2024
GPT-4 รวบรวมสถาปัตยกรรมที่ผสมผสานระหว่างผู้เชี่ยวชาญ
Raffaele
Fri Nov 01 2024
มีการผ่านโทเค็นถึง 13 ล้านล้านครั้ง
EthereumEmpire
Fri Nov 01 2024
โมเดลนี้ประกอบด้วยผู้เชี่ยวชาญ 16 คน
Martino
Fri Nov 01 2024
ผู้เชี่ยวชาญแต่ละคนมีพารามิเตอร์ถึง 111 พันล้านพารามิเตอร์
BlockchainBrawler
Fri Nov 01 2024
กระบวนการฝึกต้องใช้ประมาณ 2 คูณด้วย 10 ยกกำลัง 25 FLOPS