Penculik Gadungan Pakai AI untuk Palsukan Suara Korban, Minta Tebusan Rp14 M ke Keluarga

- Senin, 17 April 2023 | 12:30 WIB
Ilustrasi AI. (FREEPIK/@kjpargeter)
Ilustrasi AI. (FREEPIK/@kjpargeter)

Kecerdasan buatan (AI) memang menjadi teknologi yang paling menjadi sorotan, terutama di tahun ini. Teknologi ini memiliki segudang manfaat, namun juga menyimpan bahaya yang harus selalu diwaspadai.

Terbaru, AI dimanfaatkan oleh oknum tidak bertanggung jawab untuk menipu korbannya. Kejadian penipuan menggunakan AI ini dialami langsung oleh seorang ibu di Arizona yang bernama Jennifer DeStefano.

Dilansir dari New York Post, Jennifer mengklaim bahwa para penipu menggunakan AI untuk mengkloning suara putrinya, sehingga mereka dapat meminta uang tebusan $1 juta (Rp14,7 M) darinya.

"Saya tidak pernah ragu sedetik pun itu dia," kata Jennifer DeStefano kepada WKYT, sambil mengenang insiden mengerikan itu.

Modus penipuan baru ini muncul di tengah meningkatnya skema “caller-ID spoofing”, di mana para scammer mengatakan bahwa mereka seolah-olah sudah menculik seseorang dan meminta uang tebusan kepada pihak keluarganya.

Jennifer menjelaskan, suara yang keluar dari telepon itu sangat mirip dengan suara anaknya yang masih berusia 15 tahun, Brie. Saking miripnya, ia bahkan sampai tidak menyangka jika itu adalah suara yang dihasilkan dari teknologi AI.

Baca Juga: Teknologi AI 'Azab' Sejumlah Orang Terkaya di Dunia Jadi Miskin, Rumahnya Kumuh!

-
Ilustrasi AI. (FREEPIK)

Penipu itu kemudian mengancam akan memberinya banyak obat kepada Brie dan membawanya ke Meksiko. Sementara itu, Jennifer masih bisa mendengar putrinya di belakang memohon sambil menangis, “Tolong aku, Bu. Tolong bantu aku. Bantu aku,”

Pada saat itu, penipu meminta uang tebusan untuk segera dikirimkan ke rekeningnya. Awalnya, mereka meminta uang tebusan $1 juta (Rp14,7 M) namun menurunkannya menjadi $50.000 (Rp739 juta), karena Jennifer mengatakan ia tidak punya uang.

Mimpi buruk akhirnya selesai setelah telepon dari 911 mengatakan bahwa putri Jennifer dalam kondisi yang aman dan sedang asyik melakukan ski.

Baca Juga: Meta Siap Rilis AI Pesaing ChatGPT Akhir Tahun 2023, Ini Tugas Utamanya!

Kasus yang dialami oleh Jennifer seolah-olah mengingatkan kita agar jangan mudah percaya terhadap telepon yang mengatasnamakan keluarga, karena itu bisa jadi hanyalah modus penipuan yang sedang mengincar kita.

Bersikaplah tenang sembari meminta bantuan kepada orang terdekat dan jangan pernah mentransfer uang berapapun jumlahnya. So, tingkatkan kewaspadaan kamu ya guys!

Artikel Menarik Lainnya:

Halaman:

Editor: Gema Trisna Yudha

Tags

Rekomendasi

Terkini

X