Semakin meningkatnya eskalasi serangan siber menggunakan AI, lembaga investigasi utama Amerika Serikat, FBI berikan saran cara mengatasi penipuan AI, berikut paparannya.
FBI memperingatkan bahwa penipu semakin banyak menggunakan kecerdasan buatan untuk meningkatkan kualitas dan efektivitas skema penipuan daring mereka, mulai dari penipuan asmara dan investasi hingga skema perekrutan kerja.
FBI juga memperingatkan publik bahwa penjahat mengeksploitasi kecerdasan buatan (AI) generatif untuk melakukan penipuan dalam skala yang lebih besar yang meningkatkan kredibilitas skema mereka.
AI generatif mengurangi waktu dan upaya yang harus dikeluarkan penjahat untuk menipu target mereka. Demikian menurut Public Service Announcement FBI.
PSA menyajikan beberapa contoh operasi penipuan yang dibantu AI dan banyak topik serta umpan yang umum digunakan untuk membantu meningkatkan kesadaran.
Badan tersebut juga telah berbagi saran tentang cara mengidentifikasi dan mempertahankan diri dari penipuan tersebut.
Baca juga: Serangan Phising Lebih Berbahaya dengan AI |
Skema Umum
Alat AI generatif adalah alat bantu yang sah untuk membantu orang membuat konten. Namun, alat tersebut dapat disalahgunakan untuk memfasilitasi kejahatan seperti penipuan dan pemerasan, demikian peringatan FBI.
Aktivitas yang berpotensi berbahaya ini mencakup teks, gambar, audio, kloning suara, dan video. Beberapa skema umum yang baru-baru ini diungkap oleh badan tersebut adalah sebagai berikut:
Teks Buatan AI
Penjahat menggunakan teks buatan AI agar tampak meyakinkan bagi pembaca untuk mendukung rekayasa sosial, spear phishing, dan skema penipuan keuangan seperti asmara, investasi, dan skema kepercayaan lainnya atau untuk mengatasi indikator umum skema penipuan.
- Penjahat menggunakan AI generatif untuk membuat profil media sosial fiktif yang banyak yang digunakan untuk mengelabui korban agar mengirimkan uang.
- Penjahat membuat pesan untuk dikirim ke korban lebih cepat sehingga memungkinkan mereka menjangkau audiens yang lebih luas dengan konten yang meyakinkan.
- Penjahat menggunakan alat AI generatif untuk membantu penerjemahan bahasa guna membatasi kesalahan tata bahasa atau ejaan bagi pelaku kejahatan asing yang menargetkan korban AS.
- Penjahat membuat konten untuk situs web penipuan untuk penipuan investasi mata uang kripto dan skema investasi lainnya.
- Penjahat menyematkan chatbot bertenaga AI di situs web penipuan untuk mendorong korban mengeklik tautan berbahaya.
Baca juga: Penipuan Peniruan Identitas |
Gambar Buatan AI
Penyerang menggunakan gambar buatan AI untuk membuat foto profil media sosial, dokumen identifikasi, dan gambar lain yang meyakinkan untuk mendukung skema penipuan mereka.
- Penjahat membuat gambar yang realistis untuk profil media sosial fiktif dalam rekayasa sosial, spear phishing, skema percintaan, penipuan kepercayaan, dan penipuan investasi.
- Penjahat membuat dokumen identifikasi palsu, seperti SIM atau kredensial palsu (penegak hukum, pemerintah, atau perbankan) untuk penipuan identitas dan skema peniruan identitas.
- Penjahat menggunakan AI generatif untuk menghasilkan foto untuk dibagikan kepada korban dalam komunikasi pribadi guna meyakinkan korban bahwa mereka berbicara dengan orang sungguhan.
- Penjahat menggunakan alat AI generatif untuk membuat gambar selebritas atau persona media sosial yang mempromosikan produk palsu atau skema non-pengiriman.4
- Penjahat menggunakan alat AI generatif untuk membuat gambar bencana alam atau konflik global untuk mendapatkan sumbangan ke badan amal palsu.
- Penjahat menggunakan alat AI generatif untuk membuat gambar yang digunakan dalam skema manipulasi pasar.
- Penjahat menggunakan alat AI generatif untuk membuat foto pornografi korban untuk menuntut pembayaran dalam skema pemerasan seksual.
Audio Buatan AI, alias Kloning Vokal
Mereka juga dapat menggunakan audio buatan AI untuk meniru tokoh masyarakat terkenal atau kerabat pribadi untuk mendapatkan pembayaran.
- Merancang klip audio pendek yang berisi suara orang yang dicintai untuk meniru kerabat dekat dalam situasi krisis, meminta bantuan keuangan segera atau menuntut tebusan.
- Memperoleh akses ke rekening bank menggunakan klip audio buatan AI dari individu dan meniru mereka.
Video Buatan AI
Penjahat menggunakan video buatan AI untuk membuat penggambaran tokoh masyarakat yang dapat dipercaya untuk mendukung skema penipuan mereka.
- Membuat video untuk obrolan video waktu nyata dengan para eksekutif perusahaan, penegak hukum, atau tokoh berwenang lainnya.
- Merekayasa video untuk komunikasi pribadi untuk “membuktikan” bahwa kontak daring tersebut adalah “orang sungguhan.”
- Menggunakan alat AI generatif untuk membuat video untuk materi promosi fiktif atau menyesatkan untuk skema penipuan investasi.
Baca juga: Penipuan Online Paling Berbahaya |
Saran FBI
Meskipun alat AI generatif dapat meningkatkan kredibilitas skema penipuan ke tingkat yang membuatnya sangat sulit dibedakan dari kenyataan, FBI tetap mengusulkan beberapa tindakan yang dapat membantu dalam sebagian besar situasi.
Berikut FBI berikan saran cara mengatasi penipuan AI, dirangkum sebagai berikut:
- Buat kata atau frasa rahasia dengan keluarga untuk memverifikasi identitas.
- Cari ketidaksempurnaan halus dalam gambar/video (misalnya, tangan yang terdistorsi, wajah yang tidak teratur, bayangan aneh, atau gerakan yang tidak realistis).
- Dengarkan nada atau pilihan kata yang tidak wajar dalam panggilan untuk mendeteksi kloning vokal yang dihasilkan AI.
- Batasi konten publik berupa gambar/suara Anda; atur akun media sosial menjadi privat dan batasi pengikut hanya kepada orang-orang tepercaya.
- Verifikasi penelepon dengan menutup telepon, mencari tahu organisasi yang mereka klaim, dan menelepon kembali menggunakan nomor resmi.
- Jangan pernah membagikan informasi sensitif dengan orang asing secara daring atau melalui telepon.
- Hindari mengirim uang, kartu hadiah, atau mata uang kripto kepada individu yang tidak terverifikasi.
Demikian bahasan kita kali ini mengenai FBI berikan saran cara mengatasi penipuan AI. Harapannya, informasi yang dipaparkan di atas dapat bermanfaat.
Sumber berita: