AI siap membantu, baik Anda sedang menulis email, membuat konsep seni, atau melakukan penipuan terhadap orang-orang yang rentan dengan membuat mereka mengira Anda adalah teman atau saudara yang sedang dalam kesulitan. AI sangat serbaguna! Namun karena sebagian orang lebih memilih untuk tidak tertipu, mari kita bahas sedikit tentang apa yang harus diwaspadai.

Beberapa tahun terakhir telah terjadi peningkatan besar tidak hanya dalam hal kualitas media yang dihasilkan, mulai dari teks, audio, gambar, dan video, namun juga dalam hal murah dan mudahnya pembuatan media tersebut. Jenis alat yang sama yang membantu seniman konsep membuat monster fantasi atau pesawat luar angkasa, atau memungkinkan orang yang bukan penutur asli meningkatkan kemampuan bahasa Inggris bisnisnya, juga dapat digunakan untuk tujuan jahat.

Jangan harap Terminator akan mengetuk pintu rumah Anda dan menjual skema Ponzi — ini adalah penipuan lama yang sama yang telah kita hadapi selama bertahun-tahun, tetapi dengan sentuhan AI generatif yang membuatnya lebih mudah, lebih murah, atau lebih meyakinkan.

Ini bukanlah daftar yang lengkap, hanya beberapa trik paling jelas yang dapat ditingkatkan oleh AI. Kami akan memastikan untuk menambahkan trik baru saat muncul di pasaran, atau langkah tambahan apa pun yang dapat Anda ambil untuk melindungi diri sendiri.

Kloning suara keluarga dan teman

Suara sintetis telah ada selama beberapa dekade, tetapi baru dalam satu atau dua tahun terakhir ini kemajuan teknologi memungkinkan suara baru dihasilkan dari audio berdurasi beberapa detik saja. Itu berarti siapa pun yang suaranya pernah disiarkan ke publik — misalnya, dalam laporan berita, video YouTube, atau di media sosial — rentan terhadap kloning suara mereka.

Penipu dapat dan telah menggunakan teknologi ini untuk menghasilkan versi palsu yang meyakinkan dari orang yang dicintai atau teman. Tentu saja, ini dapat dibuat untuk mengatakan apa saja, tetapi untuk penipuan, kemungkinan besar mereka akan membuat klip suara yang meminta bantuan.

Misalnya, orang tua mungkin mendapat pesan suara dari nomor tak dikenal yang terdengar seperti putra mereka, yang mengatakan bagaimana barang-barang mereka dicuri saat bepergian, seseorang mengizinkan mereka menggunakan ponselnya, dan bisakah Ibu atau Ayah mengirim sejumlah uang ke alamat ini, penerima Venmo , bisnis, dll. Seseorang dapat dengan mudah membayangkan varian dengan masalah mobil (“mereka tidak akan melepaskan mobil saya sampai seseorang membayarnya”), masalah medis (“perawatan ini tidak ditanggung oleh asuransi”), dan sebagainya.

Penipuan seperti ini telah dilakukan dengan menggunakan suara Presiden Biden! Mereka menangkap dalang dibalik hal tersebut, namun penipu di masa depan akan lebih berhati-hati.

Bagaimana cara melawan kloning suara?

Pertama, jangan repot-repot mencoba mengenali suara palsu. Mereka menjadi lebih baik setiap hari, dan ada banyak cara untuk menyamarkan masalah kualitas apa pun. Bahkan para ahli pun tertipu!

Segala sesuatu yang berasal dari nomor, alamat email, atau akun yang tidak dikenal harus secara otomatis dianggap mencurigakan. Jika seseorang mengaku sebagai teman atau orang yang Anda kasihi, hubungi orang tersebut seperti biasa. Mereka mungkin akan mengatakan bahwa mereka baik-baik saja dan bahwa (seperti yang Anda duga) itu adalah penipuan.

Penipu cenderung tidak menindaklanjuti jika mereka diabaikan – sementara anggota keluarga mungkin akan melakukan tindak lanjut. Tidak apa-apa jika Anda meninggalkan pesan mencurigakan saat Anda membacanya.

Phishing dan spam yang dipersonalisasi melalui email dan pesan

Kita semua kadang-kadang menerima spam, tetapi AI penghasil teks memungkinkan pengiriman email massal yang disesuaikan untuk setiap individu. Dengan pelanggaran data yang sering terjadi, banyak data pribadi Anda tersebar.

Mendapatkan salah satu email penipuan “Klik di sini untuk melihat faktur Anda!” dengan lampiran yang jelas-jelas menakutkan dan tampak mudah adalah hal yang wajar. Namun, bahkan dengan sedikit konteks, email tersebut tiba-tiba menjadi cukup meyakinkan, menggunakan lokasi, pembelian, dan kebiasaan terkini untuk membuatnya tampak seperti orang sungguhan atau masalah sungguhan. Berbekal beberapa fakta pribadi, model bahasa dapat menyesuaikan sebagian besar email ini kepada ribuan penerima dalam hitungan detik.

Jadi yang tadinya “Pelanggan yang Terhormat, harap temukan faktur Anda terlampir” menjadi seperti “Hai Doris! Saya bersama tim promosi Etsy. Item yang Anda lihat baru-baru ini kini mendapat diskon 50%! Dan pengiriman ke alamat Anda di Bellingham gratis jika Anda menggunakan tautan ini untuk mengklaim diskon.” Contoh sederhana, tapi tetap saja. Dengan nama asli, kebiasaan belanja (mudah diketahui), lokasi umum (ditto) dan sebagainya, tiba-tiba pesannya menjadi kurang jelas.

Pada akhirnya, ini tetap saja spam. Namun, spam yang disesuaikan seperti ini dulunya harus dilakukan oleh orang-orang yang dibayar rendah di ladang konten di negara asing. Sekarang, hal ini dapat dilakukan dalam skala besar oleh seorang LLM dengan keterampilan prosa yang lebih baik daripada banyak penulis profesional!

Bagaimana Anda bisa melawan spam email?

Seperti halnya spam tradisional, kewaspadaan adalah senjata terbaik Anda. Namun jangan berharap bisa membedakan teks yang dihasilkan dari teks yang ditulis manusia di alam liar. Hanya sedikit yang mampu, dan tentunya tidak (terlepas dari klaim beberapa perusahaan dan layanan) model AI lain.

Meskipun teksnya lebih baik, jenis penipuan ini masih memiliki tantangan mendasar untuk membuat Anda membuka lampiran atau tautan yang tidak jelas. Seperti biasa, kecuali Anda 100% yakin dengan keaslian dan identitas pengirimnya, jangan klik atau buka apa pun. Jika Anda bahkan sedikit tidak yakin – dan ini adalah perasaan yang baik untuk dikembangkan – jangan klik, dan jika Anda memiliki seseorang yang berpengetahuan untuk meneruskannya kepada orang lain, lakukan itu.

Penipuan identitas dan verifikasi 'Palsu Anda'

Karena banyaknya pelanggaran data selama beberapa tahun terakhir (terima kasih, Equifax!), dapat dikatakan bahwa hampir semua dari kita memiliki cukup banyak data pribadi yang beredar di web gelap. Jika Anda mengikuti praktik keamanan online yang baik, banyak bahaya yang dapat diatasi karena Anda mengubah kata sandi, mengaktifkan autentikasi multifaktor, dan sebagainya. Namun AI generatif dapat menghadirkan ancaman baru dan serius di bidang ini.

Dengan begitu banyak data tentang seseorang yang tersedia secara online dan bagi banyak orang, bahkan satu atau dua klip suaranya, semakin mudah untuk membuat persona AI yang terdengar seperti orang yang menjadi target dan memiliki akses ke banyak fakta yang digunakan untuk memverifikasi identitas.

Pikirkan seperti ini. Jika Anda mengalami masalah saat masuk, tidak dapat mengonfigurasi aplikasi autentikasi dengan benar, atau kehilangan ponsel, apa yang akan Anda lakukan? Mungkin hubungi layanan pelanggan — dan mereka akan “memverifikasi” identitas Anda menggunakan beberapa fakta sepele seperti tanggal lahir, nomor telepon, atau nomor Jaminan Sosial. Bahkan metode yang lebih canggih seperti “ambil swafoto” menjadi lebih mudah untuk dimanipulasi.

Agen layanan pelanggan — sejauh yang kami tahu, juga AI! — mungkin akan mewajibkan Anda yang memalsukan ini dan memberinya semua hak istimewa yang akan Anda dapatkan jika Anda benar-benar menelepon. Apa yang dapat mereka lakukan dari posisi itu sangat bervariasi, tetapi tidak ada yang baik!

Seperti yang lain dalam daftar ini, bahayanya bukan seberapa realistis penipuan ini, tetapi mudahnya bagi penipu untuk melakukan serangan semacam ini secara luas dan berulang-ulang. Belum lama ini, jenis serangan peniruan identitas ini mahal dan memakan waktu, dan akibatnya akan terbatas pada target bernilai tinggi seperti orang kaya dan CEO. Sekarang Anda dapat membangun alur kerja yang menciptakan ribuan agen peniruan identitas dengan pengawasan minimal, dan agen-agen ini dapat secara mandiri menelepon nomor layanan pelanggan di semua akun yang diketahui seseorang — atau bahkan membuat akun baru! Hanya segelintir yang perlu berhasil untuk membenarkan biaya serangan.

Bagaimana Anda bisa melawan penipuan identitas?

Sama seperti sebelum AI hadir untuk mendukung upaya para penipu, “Cybersecurity 101” adalah taruhan terbaik Anda. Data Anda sudah ada di luar sana; Anda tidak dapat mengembalikan pasta gigi ke dalam tabungnya. Namun, Anda Bisa Pastikan akun Anda terlindungi secara memadai terhadap serangan yang paling jelas.

Otentikasi multi-faktor adalah langkah paling penting yang dapat dilakukan siapa pun di sini. Segala jenis aktivitas akun serius langsung masuk ke ponsel Anda, dan login mencurigakan atau upaya mengubah kata sandi akan muncul di email. Jangan abaikan peringatan ini atau tandai sebagai spam, bahkan (terutama!) jika Anda mendapat banyak.

Deepfake dan pemerasan yang dihasilkan AI

Mungkin bentuk penipuan AI yang paling menakutkan adalah kemungkinan pemerasan menggunakan gambar deepfake Anda atau orang yang Anda cintai. Anda dapat berterima kasih kepada dunia model gambar terbuka yang bergerak cepat untuk prospek futuristik dan mengerikan ini! Orang-orang yang tertarik pada aspek-aspek tertentu dari pembuatan gambar mutakhir telah menciptakan alur kerja tidak hanya untuk membuat tubuh telanjang, tetapi juga menempelkannya ke wajah mana pun yang dapat mereka gambar. Saya tidak perlu menjelaskan lebih lanjut tentang bagaimana hal itu telah digunakan.

Namun salah satu konsekuensi yang tidak diinginkan adalah perluasan dari penipuan yang biasa disebut “revenge porn”, namun lebih akurat digambarkan sebagai distribusi gambar intim yang tidak dilakukan secara konsensual (meskipun seperti “deepfake”, mungkin sulit untuk menggantikan istilah aslinya). Ketika gambar pribadi seseorang dirilis baik melalui peretasan atau mantan yang penuh dendam, gambar tersebut dapat digunakan sebagai pemerasan oleh pihak ketiga yang mengancam akan mempublikasikannya secara luas kecuali sejumlah uang dibayarkan.

AI meningkatkan penipuan ini dengan menjadikannya tidak perlu ada gambar intim yang sebenarnya! Wajah siapa pun dapat ditambahkan ke tubuh yang dihasilkan AI, dan meskipun hasilnya tidak selalu meyakinkan, hal ini mungkin cukup untuk membodohi Anda atau orang lain jika wajah tersebut berpiksel, beresolusi rendah, atau dikaburkan sebagian. Dan hanya itu yang diperlukan untuk menakut-nakuti seseorang agar membayar untuk merahasiakannya — meskipun, seperti kebanyakan penipuan pemerasan, pembayaran pertama kemungkinan besar bukan yang terakhir.

Bagaimana Anda bisa melawan deepfake yang dihasilkan AI?

Sayangnya, dunia yang kita tuju adalah dunia di mana gambar telanjang palsu dari hampir semua orang tersedia sesuai permintaan. Ini menakutkan, aneh, dan menjijikkan, tapi sayangnya kucing itu tidak bisa berbuat apa-apa di sini.

Tidak ada yang senang dengan situasi ini kecuali orang jahat. Namun ada beberapa hal yang terjadi pada kita semua yang berpotensi menjadi korban. Ini mungkin kenyamanan yang dingin, tetapi gambar-gambar ini sebenarnya bukan milik Anda, dan tidak diperlukan gambar telanjang yang sebenarnya untuk membuktikannya. Model gambar ini mungkin menghasilkan tubuh yang realistis dalam beberapa hal, tetapi seperti AI generatif lainnya, model tersebut hanya mengetahui apa yang telah mereka latih. Jadi, misalnya, gambar palsu tidak akan memiliki tanda pembeda, dan kemungkinan besar salah dalam hal lain.

Dan meskipun ancaman tersebut kemungkinan tidak akan pernah sepenuhnya berkurang, semakin banyak jalan keluar bagi para korban, yang secara hukum dapat memaksa penyedia gambar untuk menghapus gambar, atau melarang penipu dari situs tempat mereka memposting. Seiring berkembangnya masalah, demikian pula cara hukum dan pribadi untuk memeranginya.

TechCrunch bukan pengacara! Namun jika Anda adalah korbannya, laporkan ke polisi. Ini bukan sekedar penipuan tapi juga pelecehan, dan meskipun Anda tidak bisa mengharapkan polisi melakukan pekerjaan detektif internet mendalam yang diperlukan untuk melacak seseorang, kasus-kasus ini terkadang mendapatkan penyelesaian, atau para penipu takut dengan permintaan yang dikirim ke ISP atau tuan rumah forum.

Sumber