OpenAI menghadapi keluhan privasi lainnya di Uni Eropa. Yang ini, telah diajukan oleh organisasi nirlaba hak privasi malam atas nama pelapor individu, menargetkan ketidakmampuan chatbot AI ChatGPT untuk memperbaiki kesalahan informasi yang dihasilkan tentang individu.

Kecenderungan alat GenAI untuk menghasilkan informasi yang salah telah didokumentasikan dengan baik. Namun hal ini juga menempatkan teknologi tersebut pada jalur yang bertentangan dengan Peraturan Perlindungan Data Umum (GDPR) – yang mengatur bagaimana data pribadi pengguna regional dapat diproses.

Hukuman atas kegagalan kepatuhan GDPR bisa mencapai hingga 4% dari omset tahunan global. Hal yang lebih penting bagi raksasa yang kaya sumber daya seperti OpenAI: Regulator perlindungan data dapat memerintahkan perubahan pada cara informasi diproses, sehingga penegakan GDPR dapat mengubah cara alat AI generatif dapat beroperasi di UE.

OpenAI sudah dipaksa untuk melakukan beberapa perubahan setelah intervensi awal oleh otoritas perlindungan data Italia, yang sempat memaksa ChatGPT ditutup secara lokal pada tahun 2023.

Sekarang noyb mengajukan keluhan GDPR terbaru terhadap ChatGPT ke otoritas perlindungan data Austria atas nama pengadu yang tidak disebutkan namanya yang menemukan bahwa chatbot AI menghasilkan tanggal lahir yang salah untuk mereka.

Berdasarkan GDPR, masyarakat di UE memiliki serangkaian hak yang melekat pada informasi tentang mereka, termasuk hak untuk mengoreksi data yang salah. noyb berpendapat OpenAI gagal mematuhi kewajiban ini sehubungan dengan keluaran chatbotnya. Dikatakan bahwa perusahaan menolak permintaan pelapor untuk memperbaiki tanggal lahir yang salah, dan menjawab bahwa secara teknis tidak mungkin untuk memperbaikinya.

Sebaliknya, mereka menawarkan untuk memfilter atau memblokir data berdasarkan permintaan tertentu, seperti nama pelapor.

OpenAI Kebijakan pribadi menyatakan bahwa pengguna yang mengetahui bahwa chatbot AI telah menghasilkan “informasi yang tidak akurat secara faktual tentang Anda” dapat mengirimkan “permintaan koreksi” melalui privasi.openai.com atau dengan mengirim email ke dsar@openai.com. Namun, mereka memperingatkan hal tersebut dengan memberikan peringatan: “Mengingat kompleksitas teknis dari cara kerja model kami, kami mungkin tidak dapat memperbaiki ketidakakuratan di setiap contoh.”

Dalam hal ini, OpenAI menyarankan pengguna untuk meminta agar informasi pribadi mereka dihapus seluruhnya dari keluaran ChatGPT — dengan mengisi formulir formulir web.

Masalah bagi raksasa AI ini adalah hak GDPR tidak bersifat à la carte. Masyarakat di Eropa mempunyai hak untuk meminta perbaikan. Mereka juga berhak meminta penghapusan datanya. Namun, seperti yang ditunjukkan oleh noyb, OpenAI tidak berhak memilih hak mana yang tersedia.

Elemen lain dari keluhan tersebut berfokus pada masalah transparansi GDPR, dan noyb berpendapat bahwa OpenAI tidak dapat mengatakan dari mana data yang dihasilkan tentang individu berasal, atau data apa yang disimpan chatbot tentang orang.

Hal ini penting karena, sekali lagi, peraturan tersebut memberikan hak kepada individu untuk meminta informasi tersebut dengan melakukan apa yang disebut permintaan akses subjek (SAR). Namun, OpenAI tidak menanggapi SAR pengadu secara memadai, dan gagal mengungkapkan informasi apa pun tentang data yang diproses, sumbernya, atau penerimanya.

Mengomentari keluhan tersebut dalam sebuah pernyataan, Maartje de Graaf, pengacara perlindungan data di noyb, mengatakan: “Membuat informasi palsu itu sendiri cukup bermasalah. Namun jika menyangkut informasi palsu tentang individu, hal ini dapat menimbulkan konsekuensi yang serius. Jelas bahwa perusahaan saat ini tidak dapat membuat chatbot seperti ChatGPT mematuhi hukum UE ketika memproses data tentang individu. Jika suatu sistem tidak dapat memberikan hasil yang akurat dan transparan, maka sistem tersebut tidak dapat digunakan untuk menghasilkan data tentang individu. Teknologinya harus mengikuti persyaratan hukum, bukan sebaliknya.”

Perusahaan tersebut mengatakan pihaknya meminta DPA Austria untuk menyelidiki keluhan tentang pemrosesan data OpenAI, serta mendesaknya untuk mengenakan denda untuk memastikan kepatuhan di masa depan. Namun mereka menambahkan bahwa “kemungkinan besar” kasus ini akan ditangani melalui kerja sama UE.

OpenAI menghadapi keluhan serupa di Polandia. September lalu, otoritas perlindungan data lokal membuka penyelidikan terhadap ChatGPT menyusul keluhan dari peneliti privasi dan keamanan yang juga menemukan bahwa dia tidak dapat memperbaiki informasi yang salah tentang dirinya oleh OpenAI. Keluhan tersebut juga menuduh raksasa AI tersebut gagal mematuhi persyaratan transparansi peraturan.

Sementara itu, otoritas perlindungan data Italia masih melakukan penyelidikan terbuka terhadap ChatGPT. Pada bulan Januari, mereka menghasilkan rancangan keputusan yang kemudian menyatakan bahwa mereka yakin OpenAI telah melanggar GDPR dalam beberapa cara, termasuk dalam kaitannya dengan kecenderungan chatbot untuk menghasilkan informasi yang salah tentang orang. Temuan ini juga berkaitan dengan permasalahan penting lainnya, seperti keabsahan pemrosesan.

Otoritas Italia memberi OpenAI waktu satu bulan untuk menanggapi temuannya. Keputusan akhir masih menunggu keputusan.

Kini, dengan adanya keluhan GDPR lainnya yang ditujukan pada chatbot-nya, risiko OpenAI menghadapi serangkaian penegakan GDPR di berbagai Negara Anggota telah meningkat.

Musim gugur yang lalu, perusahaan ini membuka kantor regional di Dublin — sebuah langkah yang tampaknya bertujuan untuk mengurangi risiko peraturan dengan menyalurkan keluhan privasi ke Komisi Perlindungan Data Irlandia, berkat mekanisme dalam GDPR yang dimaksudkan untuk menyederhanakan pengawasan terhadap keluhan lintas batas. dengan menyalurkannya ke satu otoritas negara anggota di mana perusahaan tersebut merupakan “perusahaan utama”.

Sumber