Ilya Sutskever, salah satu pendiri OpenAI, telah meluncurkan perusahaan baru, Safe Superintelligence Inc. (SSI), hanya sebulan setelah keluar dari OpenAI.

Sutskever, yang merupakan kepala ilmuwan OpenAI sejak lama, mendirikan SSI bersama mantan mitra YC Daniel Gross dan mantan insinyur OpenAI Daniel Levy.

Di OpenAI, Sutskever merupakan bagian integral dari upaya perusahaan untuk meningkatkan keselamatan AI dengan munculnya sistem AI “supercerdas”, sebuah bidang yang ia kerjakan bersama Jan Leike. Namun baik Sutskever maupun Leike meninggalkan perusahaan secara dramatis pada bulan Mei setelah berselisih dengan kepemimpinan di OpenAI mengenai cara mendekati keselamatan AI. Leike sekarang mengepalai tim di Anthropic.

Sutskever telah lama memberikan perhatian pada aspek keamanan AI yang lebih sulit. Di sebuah postingan blog diterbitkan pada tahun 2023, ia (menulis bersama Leike) meramalkan bahwa AI dengan kecerdasan melebihi manusia akan muncul dalam dekade ini—dan ketika hal itu terjadi, AI belum tentu bersifat baik hati, sehingga memerlukan penelitian tentang cara mengendalikan dan membatasinya.

“SSI adalah misi kami, nama kami, dan keseluruhan peta jalan produk kami, karena itulah satu-satunya fokus kami. Tim, investor, dan model bisnis kami semuanya selaras untuk mencapai SSI. Kami mendekati keselamatan dan kemampuan secara bersamaan, sebagai masalah teknis yang harus diselesaikan melalui rekayasa revolusioner dan terobosan ilmiah,” tulis tweet tersebut.

“Kami berencana untuk meningkatkan kemampuan secepat mungkin sambil memastikan keselamatan kami selalu menjadi yang terdepan. Dengan cara ini, kita dapat meningkatkan skala dengan damai. Fokus tunggal kami berarti tidak ada gangguan dari overhead manajemen atau siklus produk, dan model bisnis kami berarti keselamatan, keamanan, dan kemajuan semuanya terisolasi dari tekanan komersial jangka pendek.”

SSI memiliki kantor di Palo Alto dan Tel Aviv, di mana SSI saat ini sedang merekrut talenta teknis.



Sumber