FBI Keluarkan Peringatan: Hacker Bisa Tiru Suara Keluarga Pakai AI

FBI mengeluarkan peringatan terkait peningkatan risiko penipuan yang memanfaatkan kecanggihan teknologi kecerdasan buatan (AI) untuk meniru suara anggota keluarga dan pejabat pemerintah. Dalam beberapa bulan terakhir, modus operandi ini telah digunakan oleh pelaku kejahatan siber untuk menipu korban dengan sangat meyakinkan, bahkan menyerobot suara tokoh pemerintahan senior Amerika Serikat.

Menurut Kepala Eksekutif SocialProof Security, Rachel Tobac, kemajuan teknologi AI kini memungkinkan pembuatan klon suara hanya dengan rekaman singkat berdurasi kurang dari 15 detik. “Enam bulan lalu, saya masih memerlukan sampel suara jernih selama satu hingga dua menit untuk menghasilkan tiruan suara yang meyakinkan. Sekarang, proses tersebut dapat dilakukan dalam hitungan detik,” ujarnya seperti dilansir CNN Internasional.

Kasus nyata yang mengemuka, Menteri Luar Negeri Amerika Serikat, Marco Rubio, mengungkap bahwa suaranya berhasil ditiru untuk melakukan penipuan. Tidak lama setelah menjabat, Rubio mengatakan bahwa sejumlah menteri luar negeri dari berbagai negara mengonfirmasi menerima pesan mencurigakan yang diduga berasal darinya. Modus tersebut melibatkan pembuatan akun di platform perpesanan Signal menggunakan nama dan alamat email palsu yang menyerupai milik Rubio.

Dalam kejadian yang sama, pelaku meninggalkan pesan suara dengan suara yang sangat mirip Rubio kepada setidaknya lima orang, termasuk tiga menteri luar negeri, seorang gubernur, dan seorang senator. Pesan teks yang dikirim mengundang para target untuk berkomunikasi lebih lanjut melalui Signal, menurut keterangan resmi dari Kementerian Luar Negeri Amerika.

Steve Grobman, Kepala Teknologi di perusahaan keamanan siber McAfee, menyampaikan kekhawatirannya terhadap kemudahan penyalahgunaan klon suara berbasis AI ini. “Para profesional yang sudah terlatih pun bisa tertipu, terutama jika suara tersebut akrab dan menyampaikan permintaan yang terkesan mendesak,” kata Grobman. Ia menekankan pentingnya keberadaan alat bantu yang lebih cerdas untuk membedakan suara asli dan tiruan karena insting manusia kini tak lagi cukup.

FBI sudah mengingatkan masyarakat sejak Mei lalu tentang adanya penipuan yang menyasarkan pejabat tinggi Amerika dengan cara menyamar sebagai mereka dan membangun hubungan kepercayaan untuk kemudian mengakses akun-akun penting. Sejak April, FBI mencatat gelombang penipuan melalui klon suara AI ini semakin masif, baik lewat pesan suara maupun pesan teks.

Biro Investigasi Federal itu mengimbau masyarakat untuk tidak begitu saja mempercayai pesan atau panggilan yang mengaku berasal dari pejabat senior tanpa melakukan verifikasi lebih dulu. Dalam pernyataannya kepada The Hill, FBI menyatakan bahwa akses terhadap akun individu penting sering digunakan untuk memperluas penipuan, membidik pejabat pemerintah lain, serta mengeksploitasi kontak terpercaya untuk meminta informasi sensitif atau dana.

FBI juga memberikan sejumlah rekomendasi agar masyarakat dapat menghindari menjadi korban penipuan suara AI ini, antara lain:

1. Selalu verifikasi identitas pengirim pesan dengan meneliti nomor telepon, organisasi, atau nama yang digunakan.
2. Periksa kembali nomor telepon pemilik asli dan lakukan konfirmasi independen, misalnya dengan menanyakan hal-hal pribadi yang hanya diketahui oleh orang tersebut.
3. Perhatikan gaya bahasa dan nada suara dalam panggilan atau pesan suara. Meskipun suara klon AI terdengar hampir identik, biasanya ada perbedaan halus yang bisa dikenali.
4. Waspadai konten yang dihasilkan AI karena tingkat kecanggihannya sangat tinggi sehingga sulit dibedakan dari yang asli.

Perkembangan teknologi AI yang memungkinkan rekayasa suara ini menjadi tantangan serius bagi keamanan siber dan privasi individu. FBI meyakini bahwa adaptasi teknologi pendukung untuk mendeteksi suara palsu menjadi sangat penting agar masyarakat dan organisasi dapat melindungi diri dari aksi kejahatan yang semakin canggih ini. Masyarakat diimbau tetap waspada dan tidak mudah percaya terhadap komunikasi yang mengaku berasal dari pihak resmi tanpa proses verifikasi yang tepat.

Exit mobile version