Astaga! OpenAI akan menyiapkan chip inferensi khusus mereka hanya dalam beberapa bulan dan diterapkan dalam skala besar pada akhir tahun! 🤯 Chip pelatihan = Pengangkat berat yang membutuhkan data dan kekuatan dalam jumlah besar untuk membangun dan mengajarkan model AI dari awal. Chip inferensi = Chip khusus dan sangat efisien yang benar-benar menjalankan AI dan menghasilkan jawaban secara real-time saat Anda menggunakannya. Ini akan membantu OpenAI secara drastis mengurangi biaya komputasi mereka yang besar, mempercepat waktu penalaran model, dan akhirnya membebaskan diri dari mengandalkan sepenuhnya Nvidia untuk menskalakan operasi mereka.