Kecerdasan Buatan (AI) telah berevolusi dengan cepat dari konsep futuristik menjadi senjata ampuh di tangan para pelaku kejahatan. Saat ini, serangan berbasis AI bukan sekadar ancaman teoritis, serangan tersebut terjadi di berbagai industri dan melampaui mekanisme pertahanan tradisional.
Deepfake adalah video atau klip audio yang dihasilkan oleh kecerdasan buatan yang membuatnya tampak seolah-olah seseorang mengatakan atau melakukan sesuatu yang tidak pernah dilakukannya. Hanya dengan definisi ini, kemungkinan pencurian identitas dan misinformasi mungkin menjadi jelas bagi Anda.
Deepfake dapat digunakan untuk mencemarkan nama baik seseorang dan melakukan penipuan. Misalnya, jika identitas vokal dan informasi sensitif Anda jatuh ke tangan yang salah, penjahat dunia maya dapat menggunakan audio deepfake untuk menghubungi bank Anda.
Anda mungkin berpikir bahwa karena tidak menggunakan produk AI apa pun, Anda tidak akan pernah menjadi korban. Kenyataannya, teknologi ini dapat mengumpulkan data seperti video, foto, dan rekaman suara jutaan orang dari situs web seperti platform media sosial.
Namun, Anda dapat mengambil beberapa langkah untuk mengurangi kemungkinan penjahat membuat deepfake tentang Anda. Yang terpenting, Anda harus berpikir keras tentang apa yang Anda bagikan secara publik. Berikut adalah beberapa strategi untuk melindungi diri Anda, dan beberapa kiat tentang apa yang harus dilakukan jika Anda menduga Anda adalah korban deepfake.
Baca juga: Skimming di Anjungan Tunai Mandiri |
Serangan Berbasis AI Bukan Sekedar Ancaman Teoritis
Insiden terkini menyoroti potensi penipuan yang didukung AI yang mengkhawatirkan:
- Sebesar $25 juta ditransfer secara curang selama panggilan video di mana deepfake meniru beberapa eksekutif.
- Pemimpin keamanan siber, ditipu oleh deepfake selama wawancara perekrutan, yang memungkinkan penyerang Korea Utara untuk bergabung dengan organisasi tersebut. CEO WPP, firma iklan terbesar di dunia, menjadi sasaran deepfake yang berupaya meminta uang dan detail pribadi melalui konferensi virtual.
- Senator AS menjadi sasaran deepfake diplomat Ukraina dalam panggilan Zoom dalam upaya campur tangan pemilu.
Kasus-kasus ini menggarisbawahi kebenaran penting: penyerang telah dan akan terus mengeksploitasi setiap alat yang mereka miliki untuk membobol perusahaan dan AI telah menyederhanakan upaya mereka secara signifikan sekaligus menurunkan biaya.
Keterbatasan Solusi Saat Ini
Meskipun industri keamanan siber telah merespons dengan alat deteksi deepfake dan pelatihan pengguna akhir yang ditingkatkan, pendekatan ini pada dasarnya cacat karena:
Perlombaan Senjata AI: Deteksi deepfake dan generator deepfake terkunci dalam perjuangan terus-menerus karena satu model melatih yang lain, dengan tidak ada pihak yang mempertahankan keunggulan yang bertahan lama.
Deteksi Probabilistik: Solusi deteksi menawarkan pertahanan probabilistik, menyisakan ruang untuk kesalahan.
Beban pada Pengguna Akhir: Mengandalkan kewaspadaan pengguna menempatkan harapan yang tidak realistis pada individu untuk membedakan penipuan yang semakin canggih.
Perubahan Paradigma: Pertahanan AI sebagai Perpanjangan Keamanan Identitas
Penipuan peniruan identitas AI merupakan manifestasi lain dari keamanan identitas yang lemah. Dalam serangan ini, pelaku kejahatan masih harus terlebih dahulu mengkompromikan identitas pengguna yang sah tanpa terdeteksi untuk memeras korban secara meyakinkan demi keuntungan finansial dan pengaruh politik.
Meskipun banyak alat deteksi AI yang paling akurat dalam mengidentifikasi deepfake, platform identitas yang dirancang aman dapat memberikan jaminan kriptografi bahwa pengguna adalah orang yang mereka katakan dan menggunakan perangkat yang tepercaya dan patuh.
Baca juga: Serangan Adversary in the Middle |
Penanggulangan
1. Teknologi
Saat ini, sudah ada beberapa sistem deteksi berbasis teknologi. Dengan menggunakan pembelajaran mesin, jaringan saraf, dan analisis forensik, sistem ini dapat menganalisis konten digital untuk menemukan ketidakkonsistenan yang biasanya terkait dengan deepfake.
Metode forensik yang memeriksa manipulasi wajah dapat digunakan untuk memverifikasi keaslian suatu konten. Namun, membuat dan memelihara alat deteksi otomatis yang melakukan analisis sebaris dan waktu nyata tetap menjadi tantangan.
Namun, seiring berjalannya waktu dan penerapannya secara luas, langkah-langkah deteksi berbasis AI akan memberikan dampak yang menguntungkan dalam memerangi deepfake.
2. Upaya kebijakan
Kita memerlukan upaya internasional dan multipihak yang mengeksplorasi solusi yang dapat ditindaklanjuti, dapat diterapkan dan dapat diterapkan untuk masalah global deepfake.
Di Eropa, melalui Undang-Undang AI yang diusulkan, dan di AS melalui Perintah Eksekutif tentang AI, pemerintah berupaya untuk memperkenalkan tingkat akuntabilitas dan kepercayaan dalam sistem nilai AI dengan memberi sinyal kepada pengguna lain tentang keaslian atau sebaliknya dari konten tersebut.
Mereka mewajibkan platform daring untuk mendeteksi dan memberi label konten yang dihasilkan oleh AI, dan bagi pengembang genAI untuk membangun perlindungan yang mencegah pelaku jahat menggunakan teknologi tersebut untuk membuat deepfake.
Pekerjaan sudah dilakukan untuk mencapai konsensus internasional tentang AI yang bertanggung jawab, dan membatasi garis merah yang jelas, dan kita perlu membangun momentum ini.
Mewajibkan penyedia genAI dan LLM untuk menanamkan keterlacakan dan tanda air ke dalam proses pembuatan deepfake sebelum distribusi dapat memberikan tingkat akuntabilitas dan sinyal apakah konten tersebut sintetis atau tidak.
Namun, pelaku jahat dapat menghindarinya dengan menggunakan versi yang sudah di-jailbreak atau membuat alat mereka sendiri yang tidak sesuai. Konsensus internasional tentang standar etika, definisi penggunaan yang dapat diterima, dan klasifikasi tentang apa yang merupakan deepfake yang jahat diperlukan untuk menciptakan front yang bersatu melawan penyalahgunaan teknologi tersebut.
Baca juga: Salah Persepsi Ancaman Siber |
3. Kesadaran publik
Kesadaran publik dan literasi media merupakan tindakan pencegahan penting terhadap serangan rekayasa sosial dan manipulasi yang diberdayakan AI. Dimulai dari pendidikan dini, individu harus dibekali dengan keterampilan untuk mengidentifikasi konten asli dari yang direkayasa, memahami bagaimana deepfake didistribusikan, dan taktik rekayasa psikologis dan sosial yang digunakan oleh pelaku kejahatan.
Program literasi media harus memprioritaskan pemikiran kritis dan membekali orang dengan alat untuk memverifikasi informasi yang mereka konsumsi. Penelitian telah menunjukkan bahwa literasi media adalah keterampilan yang ampuh yang berpotensi melindungi masyarakat dari disinformasi yang didukung AI, dengan mengurangi keinginan seseorang untuk membagikan deepfake.
4. Pola pikir Zero Trust
Dalam keamanan siber, pendekatan “zero trust” berarti tidak memercayai apa pun secara default dan sebaliknya memverifikasi semuanya. Ketika diterapkan pada manusia yang mengonsumsi informasi daring, pendekatan ini membutuhkan skeptisisme yang sehat dan verifikasi yang konstan.
Pola pikir ini sejalan dengan praktik kesadaran yang mendorong individu untuk berhenti sejenak sebelum bereaksi terhadap konten yang memicu emosi dan terlibat dengan konten digital secara sengaja dan penuh pertimbangan.
Membina budaya pola pikir tanpa kepercayaan melalui program kesadaran keamanan siber (CMP) membantu membekali pengguna untuk menghadapi deepfake dan ancaman siber bertenaga AI lainnya yang sulit dipertahankan hanya dengan teknologi.
Seiring dengan semakin banyaknya kita menjalani hidup daring dan metaverse yang akan segera menjadi kenyataan, pola pikir tanpa kepercayaan menjadi semakin relevan. Dalam lingkungan yang imersif ini, membedakan antara apa yang nyata dan apa yang sintetis akan menjadi sangat penting.
Sumber berita: