Reddit menentang perusahaan AI – atau setidaknya meminta mereka membayar.

Awal minggu ini, Reddit mengumumkan bahwa mereka akan mengubah Protokol Pengecualian Robot, yang juga dikenal sebagai berkas robots.txt. Perubahan yang terdengar membosankan ini merupakan bagian dari negosiasi/pertempuran yang lebih besar antara perusahaan AI yang haus akan konten yang dapat mereka gunakan untuk melatih model bahasa mereka, dan perusahaan yang benar-benar memiliki konten tersebut.

“Robots.txt” adalah cara situs web berkomunikasi dengan pihak ketiga tentang bagaimana situs web dapat dirayapi — contoh klasiknya adalah situs web yang memungkinkan Google merayapi situs tersebut sehingga dapat disertakan dalam hasil penelusuran.

Dalam kasus AI, pertukaran nilai menjadi kurang jelas. Saat Anda menjalankan situs web yang model bisnisnya melibatkan menarik klik dan perhatian, tidak ada gunanya membiarkan perusahaan AI menyedot konten Anda dan kemudian mereka tidak mengirimkan lalu lintas apa pun kepada Anda — dan dalam beberapa kasus, mereka langsung menjiplak karya Anda.

Jadi dengan mengubah file robots.txt, dan juga dengan terus membatasi peringkat serta memblokir bot dan crawler yang tidak dikenal, Reddit tampaknya berupaya mencegah praktik yang disukai perusahaan. Perplexity AI telah dikritik karena.

Tekan mainkan untuk mempelajari lebih lanjut, lalu beri tahu kami pendapat Anda di komentar!

Sumber