Jika Anda membangunnya, orang akan mencoba menghancurkannya. Kadang-kadang bahkan orang-orangnya bangunan barang-barang itulah yang melanggarnya. Demikian halnya dengan Anthropic dan penelitian terbarunya yang menunjukkan kerentanan menarik dalam teknologi LLM saat ini. Kurang lebih jika Anda terus-menerus bertanya, Anda dapat merusak batasan dan berakhir dengan model bahasa besar yang memberi tahu Anda hal-hal yang dirancang untuk tidak dilakukan. Seperti cara membuat bom.

Tentu saja mengingat kemajuan dalam teknologi AI sumber terbuka, Anda dapat membuat LLM Anda sendiri secara lokal dan menanyakan apa pun yang Anda inginkan, tetapi untuk hal-hal yang lebih berkelas konsumen, ini adalah masalah yang perlu direnungkan. Hal yang menarik tentang AI saat ini adalah kecepatan kemajuannya, dan seberapa baik — atau tidak — yang kita lakukan sebagai spesies untuk lebih memahami apa yang sedang kita bangun.

Jika Anda mengizinkan saya memikirkannya, saya ingin tahu apakah kita akan melihat lebih banyak pertanyaan dan masalah seperti yang digariskan oleh Anthropic ketika LLM dan tipe model AI baru lainnya menjadi lebih pintar dan lebih besar. Yang mungkin terulang kembali. Namun semakin kita mendekati kecerdasan AI yang lebih umum, maka AI tersebut seharusnya semakin menyerupai entitas yang berpikir, dan bukan komputer yang dapat kita program, bukan? Jika demikian, kita mungkin akan kesulitan untuk menyelesaikan kasus-kasus yang sulit sampai pada titik ketika pekerjaan tersebut menjadi tidak layak dilakukan? Bagaimanapun, mari kita bicara tentang apa yang Anthropic bagikan baru-baru ini.

Sumber