Anthropic meluncurkan program untuk mendanai pengembangan jenis tolok ukur baru yang mampu mengevaluasi kinerja dan dampak model AI, termasuk model generatif seperti Claude miliknya.

Diluncurkan pada hari Senin, program Anthropic akan memberikan hibah kepada organisasi pihak ketiga yang dapat, seperti yang disebutkan perusahaan dalam sebuah posting blog, “mengukur kemampuan tingkat lanjut dalam model AI secara efektif.” Mereka yang berminat dapat mengajukan aplikasi untuk dievaluasi secara bertahap.

“Investasi kami dalam evaluasi ini ditujukan untuk meningkatkan seluruh bidang keselamatan AI, menyediakan perangkat berharga yang bermanfaat bagi seluruh ekosistem,” tulis Anthropic di blog resminya. “Mengembangkan evaluasi berkualitas tinggi yang relevan dengan keselamatan tetap menjadi tantangan, dan permintaan melampaui pasokan.”

Seperti yang telah kami soroti sebelumnya, AI memiliki masalah pembandingan. Tolok ukur yang paling sering dikutip untuk AI saat ini tidak mampu menggambarkan dengan baik bagaimana rata-rata orang benar-benar menggunakan sistem yang sedang diuji. Ada juga pertanyaan mengenai apakah beberapa tolok ukur, khususnya yang dirilis sebelum munculnya AI generatif modern, benar-benar mengukur apa yang ingin diukur, mengingat usianya.

Solusi tingkat sangat tinggi dan lebih sulit daripada kedengarannya yang diusulkan Anthropic menciptakan tolok ukur yang menantang dengan fokus pada keamanan AI dan implikasi sosial melalui alat, infrastruktur, dan metode baru.

Perusahaan tersebut secara khusus menyerukan pengujian yang menilai kemampuan model untuk menyelesaikan tugas-tugas seperti melakukan serangan siber, “meningkatkan” senjata pemusnah massal (misalnya senjata nuklir) dan memanipulasi atau menipu orang (misalnya melalui deepfake atau misinformasi). Untuk risiko AI yang berkaitan dengan keamanan dan pertahanan nasional, Anthropic mengatakan bahwa mereka berkomitmen untuk mengembangkan semacam “sistem peringatan dini” untuk mengidentifikasi dan menilai risiko, meskipun tidak mengungkapkan dalam posting blog tersebut apa saja yang mungkin diperlukan oleh sistem tersebut.

Anthropic juga mengatakan pihaknya bermaksud program barunya untuk mendukung penelitian terhadap tolok ukur dan tugas “end-to-end” yang menguji potensi AI dalam membantu studi ilmiah, berkomunikasi dalam berbagai bahasa, dan mengurangi bias yang mengakar, serta menyensor sendiri toksisitas.

Untuk mencapai semua ini, Anthropic membayangkan platform baru yang memungkinkan para ahli di bidangnya untuk mengembangkan evaluasi mereka sendiri dan uji coba model berskala besar yang melibatkan “ribuan” pengguna. Perusahaan tersebut mengatakan telah mempekerjakan seorang koordinator penuh waktu untuk program tersebut dan bahwa mereka mungkin akan membeli atau memperluas proyek yang mereka yakini memiliki potensi untuk ditingkatkan.

“Kami menawarkan berbagai opsi pendanaan yang disesuaikan dengan kebutuhan dan tahap setiap proyek,” tulis Anthropic dalam postingan tersebut, meskipun juru bicara Anthropic menolak memberikan rincian lebih lanjut tentang opsi tersebut. “Tim akan memiliki kesempatan untuk berinteraksi langsung dengan pakar domain Anthropic dari tim merah terdepan, penyempurnaan, kepercayaan dan keamanan, serta tim terkait lainnya.”

Upaya Anthropic untuk mendukung tolok ukur AI baru patut dipuji — tentu saja dengan asumsi ada cukup uang dan tenaga kerja di baliknya. Namun, mengingat ambisi komersial perusahaan dalam persaingan AI, mungkin sulit untuk sepenuhnya mempercayainya.

Dalam postingan blog tersebut, Anthropic cukup transparan mengenai fakta bahwa mereka menginginkan evaluasi tertentu yang didanainya agar selaras dengan Klasifikasi keamanan AI dia dikembangkan (dengan beberapa masukan dari pihak ketiga seperti organisasi penelitian AI nirlaba METR). Itu sepenuhnya merupakan hak prerogatif perusahaan. Namun, hal itu juga dapat memaksa pelamar program untuk menerima definisi AI yang “aman” atau “berisiko” yang mungkin tidak sepenuhnya mereka setujui.

Sebagian komunitas AI juga cenderung mempermasalahkan rujukan Anthropic terhadap risiko AI yang “menghancurkan” dan “menipu”, seperti risiko senjata nuklir. Banyak ahli mengatakan hanya ada sedikit bukti yang menunjukkan bahwa AI seperti yang kita ketahui akan segera mencapai kemampuan yang dapat mengalahkan manusia dan mengakhiri dunia, jika memang akan terjadi. Klaim tentang “kecerdasan super” yang akan segera terjadi hanya mengalihkan perhatian dari masalah regulasi AI yang mendesak saat ini, seperti kecenderungan AI untuk berhalusinasi, tambah para ahli ini.

Dalam postingannya, Anthropic menulis bahwa mereka berharap programnya akan berfungsi sebagai “katalisator kemajuan menuju masa depan di mana evaluasi AI yang komprehensif menjadi standar industri.” Itulah misi yang banyak dibuka, perusahaan-tidak terafiliasi upaya untuk menciptakan tolok ukur AI yang lebih baik dapat diidentifikasi. Namun masih harus dilihat apakah upaya tersebut bersedia untuk bergabung dengan vendor AI yang loyalitasnya pada akhirnya terletak pada pemegang saham.

Sumber