Inovasi Baru OpenAI: Kembangkan AI Lebih Efisien
- Pabila Syaftahan
- •
- 14 Nov 2024 14.27 WIB
Perusahaan kecerdasan buatan (AI) seperti OpenAI kini menghadapi tantangan besar dalam mengembangkan model AI berukuran besar. Kendati sukses mengukir sejarah dalam kecerdasan buatan, khususnya dengan peluncuran chatbot ChatGPT yang viral dua tahun lalu, perusahaan-perusahaan ini sekarang mulai menemukan batas-batas dari pendekatan yang mengutamakan skala besar. OpenAI bersama ilmuwan dan peneliti AI lainnya kini tengah mengeksplorasi metode baru yang lebih alami dan menyerupai cara berpikir manusia untuk mengatasi kendala tersebut, dengan harapan menghasilkan AI yang lebih pintar dan efisien.
Sebanyak belasan ilmuwan, peneliti, dan investor AI mengungkapkan bahwa strategi pelatihan yang lebih menyerupai pemikiran manusia dapat mengubah lanskap persaingan dalam industri ini. Di balik perkembangan ini, OpenAI meluncurkan model o1 mereka dengan teknik pelatihan baru yang diyakini dapat meningkatkan kemampuan AI tanpa harus sekadar mengandalkan lebih banyak data dan daya komputasi. Pendekatan ini berpotensi mengurangi ketergantungan perusahaan AI pada sumber daya besar seperti energi dan jenis chip khusus, yang selama ini menjadi kendala dalam pengembangan model AI skala besar.
OpenAI menolak untuk berkomentar lebih lanjut tentang model baru tersebut, tetapi langkah ini merupakan bagian dari perubahan besar dalam industri AI, di mana teknologi-teknologi yang didukung AI telah menjadi pusat perhatian banyak perusahaan teknologi global. Selama beberapa tahun terakhir, sektor teknologi menyaksikan peningkatan valuasi besar-besaran yang diakibatkan oleh inovasi AI. Sebagian besar perusahaan teknologi yakin bahwa "mengembangkan skala besar" akan menjadi kunci utama untuk terus meningkatkan kualitas AI. Namun, pendekatan yang dikenal sebagai “lebih besar lebih baik” kini dipertanyakan efektivitasnya.
Ilya Sutskever, salah satu pendiri OpenAI yang kini menjadi pendiri laboratorium AI baru Safe Superintelligence (SSI), mengungkapkan bahwa upaya untuk sekadar menambah skala dalam pelatihan awal di mana model AI memproses data besar yang belum diklasifikasikan untuk memahami pola bahasa telah mencapai titik batas. Selama bertahun-tahun, Sutskever adalah pendukung utama pendekatan ini, dan keberhasilan ChatGPT sebagian besar disandarkan pada metode yang ia kembangkan di OpenAI. Akan tetapi, Sutskever meninggalkan OpenAI pada awal tahun ini untuk memulai SSI, dengan fokus baru yang ia deskripsikan sebagai era "keajaiban dan penemuan".
Menurut Sutskever, dekade 2010-an adalah masa di mana pengembangan skala besar menjadi fokus utama, tetapi sekarang waktunya beralih ke pendekatan yang lebih cermat, di mana memilih metode yang tepat akan menjadi prioritas ketimbang sekadar meningkatkan skala. Meskipun ia enggan memberikan rincian mengenai bagaimana SSI mengatasi masalah ini, ia menyebutkan bahwa laboratoriumnya sedang mengembangkan pendekatan alternatif terhadap pelatihan skala besar, yang diharapkan mampu melampaui keterbatasan pendekatan konvensional.
Sementara itu, peneliti di beberapa laboratorium AI utama lainnya menghadapi tantangan serupa. Menurut beberapa sumber, mereka mengalami keterlambatan serta hasil yang tidak sesuai harapan dalam perlombaan untuk merilis model bahasa besar yang mampu melampaui performa model GPT-4 dari OpenAI. Model GPT-4 sendiri diluncurkan hampir dua tahun lalu, dan meskipun pencapaiannya mengesankan, penelitian lebih lanjut menunjukkan bahwa proses pelatihan skala besar ini memiliki beberapa kendala yang perlu diperhatikan.
Pelatihan model berukuran besar atau "training run" untuk menghasilkan model bahasa baru seringkali menghabiskan biaya yang sangat tinggi, hingga puluhan juta dolar, karena harus mengoperasikan ratusan chip secara bersamaan. Kompleksitas sistem dalam pelatihan ini menyebabkan model rentan mengalami kegagalan akibat masalah perangkat keras, sementara para peneliti baru bisa menilai performa akhir model setelah proses pelatihan selesai, yang bisa memakan waktu berbulan-bulan.
Masalah lainnya, data yang digunakan oleh model bahasa besar ini memerlukan sumber daya yang sangat besar. Data yang mudah diakses di seluruh dunia semakin berkurang, sehingga mengharuskan peneliti mencari cara baru untuk mengumpulkan informasi yang dapat digunakan dalam pelatihan model AI. Tantangan lain yang semakin nyata adalah konsumsi energi, di mana pelatihan skala besar membutuhkan daya yang besar sehingga kekurangan pasokan energi bisa menghambat proses ini.