Penipuan suara Deepfake lebih canggih dari sebelumnya: Cara menjaga keluarga Anda aman

Awal bulan ini, ibu Florida Sharon Brightwell menerima telepon panik dari putrinya, yang mengatakan dia terlibat dalam kecelakaan mobil yang melukai seorang wanita hamil. Tapi itu bukan putri Brightwell, April, di ujung garis; Itu adalah suara kloning miliknya.

Setelah Deepfake mengarang cerita tentang April mengemudi dan mengirim SMS dan menyatakan teleponnya disita oleh polisi – karenanya, nomor telepon yang tidak diketahui yang diduga dia panggil – seorang pria datang di jalur yang berpura -pura menjadi pembela umum dan meminta $ 15.000 untuk menyelamatkan April. Brightwell menurut, mengumpulkan uang tunai, meletakkannya di dalam kotak, dan menyerahkannya kepada kurir paket Uber di rumahnya. Hanya setelah panggilan lain masuk, kali ini meminta $ 30.000 untuk “wanita hamil yang terluka,” cucu Brightwell itu menyadari keluarganya sedang ditipu.

“Untuk memberi tahu Anda trauma yang dilalui ibu dan anak saya hari itu membuat saya mual dan telah membuat saya kehilangan lebih banyak keyakinan pada kemanusiaan,” tulis April di halaman GoFundMe. “Kejahatan adalah kata yang terlalu bagus untuk jenis orang yang bisa melakukan ini.”

Penipuan Deepfake menargetkan lebih dari sekedar senior. Musim panas ini, suara Sekretaris Negara Marco Rubio dipalsukan melalui AI, dan scammers (tidak berhasil) menggunakannya untuk mencoba kontak dengan para pemimpin asing dan domestik. Kepala staf Presiden Trump, Susie Wilkes, juga merupakan target scammers suara Deepfake tahun ini.

Kejahatan -kejahatan ini lebih banyak terjadi karena teknologi untuk menciptakan suara -suara seperti itu menjadi lebih baik, kata Matthew Wright, PhD, seorang profesor dan ketua keamanan siber di Rochester Institute of Technology.

Lihat juga:

Penipuan Internet teratas untuk diperhatikan pada tahun 2025 (sejauh ini)

“Juga, ini meningkat karena teknologi semakin mudah digunakan,” tambah Wright. “Saya pikir Anda bisa mengatakan beberapa tahun yang lalu teknologi untuk ini mungkin ada tetapi akan membutuhkan lebih banyak keterampilan teknologi untuk diakses. Sekarang, dengan [voice cloning company] Elevenlab dan layanan lainnya, ini sangat mudah. “

ElevenLab mungkin adalah perusahaan perangkat lunak paling terkemuka yang menyediakan kloning suara yang realistis untuk digunakan perusahaan untuk berbagai aplikasi, seperti layanan pelanggan. Laporan pawai dari Laporan Konsumen Dikutip Elevenlab, bersama dengan perusahaan kloning suara AI seperti Lovo dan Speecify, karena terlalu lemah dalam pengawasan mereka terhadap kloning suara non-konsensual. Perusahaan “hanya perlu memeriksa kotak yang mengatakan bahwa orang yang suaranya dikloning telah memberikan otorisasi,” kata laporan itu.

Ada manusia di balik penipuan kloning suara ini, kata Wright, dan mereka mungkin menggunakan layanan yang disebutkan di atas untuk membuat Deepfake mereka. Di mana Crooks dulu hanya menelepon orang-orang yang rentan untuk mencoba mencuri uang atau informasi mereka, mereka sekarang memiliki alat baru yang kuat dan meyakinkan di gudang senjata mereka.

“Banyak dari itu adalah kejahatan terorganisir,” kata Wright. “Apa yang saya baca adalah ada organisasi yang menculik orang di satu negara, membawa mereka ke negara lain, seperti Malaysia, misalnya, dan mereka membuat mereka bersembunyi di fasilitas khusus yang diamankan dari orang -orang yang meninggalkannya, dan hanya mengubahnya menjadi budak.”

Kecepatan cahaya yang dapat dipasangkan

Langkah pertama dengan banyak scammer ini adalah menemukan contoh vokal yang dapat mereka klon, kata Wright.

Menjaga diri Anda aman

Sementara ada yang bisa menarik suara Sekretaris Rubio dari internet, bagaimana orang pribadi dikloning oleh AI? Jawaban singkatnya: Media Sosial.

“Mungkin kami memiliki video kami dengan teman atau keluarga kami nongkrong, bersenang -senang,” kata Wright. “Jika Anda memiliki jenis kehadiran sosial seperti itu, semua pengaturan Anda harus diatur ke pribadi. Tidak hanya milikmu Pengaturan, karena ini melibatkan orang lain yang telah memposting video Anda. Mereka tidak membutuhkan banyak konten. Anda memiliki 30 detik suara seseorang dan Anda bisa membuat Deepfake yang cukup bagus. “

Bahkan suara kloning yang dibuat dengan tergesa -gesa dapat menipu, Wright memperingatkan.

“Ketika mereka telah melakukan studi apakah orang dapat mendeteksi jika ada sesuatu yang palsu, biasanya dengan potongan yang cukup pendek, akurasi rendah,” katanya. “Itu bukan sesuatu, bahkan ketika itu teman -temanmu, keluargamu, tidak dapat diandalkan untuk bisa mengetahui apakah itu orang itu.”

Saat menjawab panggilan dari nomor yang tidak diketahui yang mengklaim sebagai teman atau anggota keluarga, menjadi meragukan, kata Wright.

“Semua hal normal dalam hal penipuan, dan berurusan dengan penipuan, itu pasti berlaku di sini,” kata Wright. “Seruan ini untuk urgensi dan sinyal bahwa sesuatu perlu dilakukan dengan sangat cepat [is a red flag]. Pleas di mana seseorang mencoba menempatkan Anda dalam keadaan emosional dan kemudian mereka meminta sesuatu – 'Kami membutuhkan uang itu, kami membutuhkannya sekarang' “adalah pertanda buruk.

Lihat juga:

Apa itu penipuan pembantaian babi? Cara Melindungi Diri Anda Dari Seniman Con Online.

Wright menunjukkan bahwa permintaan khusus untuk uang tunai terutama harus menaikkan alarm. Transaksi yang melalui bank menawarkan ukuran keamanan, katanya.

“Bank -bank mengenali hal -hal ini dan berkata, 'Ini adalah penipuan,'” katanya. “Mereka akan membantu Anda mengenalinya.”

Itu selalu merupakan ide yang baik untuk membuat “kata sandi” dengan teman dan anggota keluarga, terutama mereka yang mungkin rentan terhadap penipuan Deepfake, seperti orang tua atau mereka yang tidak terbiasa dengan teknologi.

“Jika Anda memiliki rahasia khusus yang tidak akan tersedia melalui media sosial, tetapi hanya sesuatu yang Anda ketahui” yang bisa membuat Anda tetap aman, kata Wright. “Saya akan berusaha keras untuk mengatur sesuatu yang spesifik, yang pada dasarnya akan menjadi kata sandi di antara Anda berdua, jadi Anda tahu apakah saya menelepon dan saya meminta uang, atau meminta Anda untuk memberikan semacam informasi, Anda perlu meminta ini [secret]. Kemudian Anda memiliki semacam jaminan bersama. “

Punya cerita untuk dibagikan tentang penipuan atau pelanggaran keamanan yang memengaruhi Anda? Ceritakan tentang itu. E-mail [email protected] dengan garis subjek “jaring pengaman” atau gunakan formulir ini. Seseorang dari Mashable akan menghubungi.