OJK Peringatkan Bahaya Penipuan AI, Soroti Ancaman Serius 'Voice Cloning' dan 'Deepfake' yang Semakin Canggih

OJK Peringatkan Bahaya Penipuan AI, Soroti Ancaman Serius 'Voice Cloning' dan 'Deepfake' yang Semakin Canggih

OJK Peringatkan Bahaya Penipuan AI, Soroti Ancaman Serius 'Voice Cloning' dan 'Deepfake' yang Semakin Canggih

Otoritas Jasa Keuangan (OJK) mengeluarkan peringatan serius kepada masyarakat untuk meningkatkan kewaspadaan terhadap modus penipuan berbasis Kecerdasan Buatan (AI) yang semakin marak. Ancaman utama yang disoroti adalah penggunaan teknologi voice cloning (kloning suara) dan deepfake yang kini semakin canggih dan meyakinkan, berpotensi besar menguras rekening korban.

Peringatan ini dikeluarkan seiring dengan meningkatnya laporan dan potensi penyalahgunaan AI oleh pelaku kejahatan untuk meniru identitas seseorang, baik melalui suara maupun video, demi melancarkan aksi penipuan di sektor jasa keuangan.

 

Ancaman Baru di Balik Teknologi Canggih

 

 

Apa Itu 'Voice Cloning' dan 'Deepfake'?

 

Teknologi AI telah berkembang pesat, memungkinkan hal-hal yang sebelumnya hanya ada di fiksi ilmiah. Namun, di tangan yang salah, teknologi ini menjadi senjata berbahaya.

  • Voice Cloning: Ini adalah teknologi yang mampu mereplikasi suara seseorang dengan sangat akurat hanya dari sampel audio yang singkat. Hasilnya adalah rekaman suara sintetis yang nyaris tidak bisa dibedakan dari suara asli.

  • Deepfake: Serupa dengan kloning suara, deepfake adalah teknik manipulasi video atau gambar menggunakan AI. Teknologi ini dapat menukar wajah seseorang dalam video dengan wajah orang lain, serta menyinkronkan gerakan bibir dengan audio yang berbeda.

Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi, dan Pelindungan Konsumen OJK, Friderica Widyasari Dewi, menyatakan bahwa kemudahan akses dan kecanggihan teknologi ini telah membuka celah baru bagi para penipu. "Saat ini, dengan perkembangan AI, penipuan menjadi semakin canggih. Ada yang namanya voice cloning dan deepfake yang semakin meyakinkan," ujarnya.

 

 

Modus Operandi: Meniru Orang Terdekat untuk Menguras Rekening

 

Pelaku kejahatan memanfaatkan teknologi ini untuk memanipulasi psikologis korban. Modus yang paling umum digunakan adalah meniru suara anggota keluarga, teman, atau bahkan atasan yang sedang berada dalam situasi darurat.

Bayangkan Anda menerima telepon dari seseorang yang suaranya sangat mirip dengan anak atau pasangan Anda, meminta transfer dana segera karena mengalami kecelakaan. Dalam kondisi panik, banyak orang yang langsung mentransfer uang tanpa melakukan verifikasi lebih lanjut.

"Modus penipuan ini sangat berbahaya karena menyerang sisi emosional dan kepercayaan korban. Suara yang sangat familiar membuat korban sulit untuk curiga," tambah Friderica.

 

 

Langkah Mitigasi: Cara Melindungi Diri dari Ancaman AI

 

Menghadapi ancaman yang semakin canggih, OJK mengimbau masyarakat untuk tidak panik dan mengambil langkah-langkah pencegahan yang cerdas. Berikut adalah beberapa tips yang disarankan:

  1. Jangan Mudah Percaya: Selalu bersikap skeptis terhadap panggilan telepon atau pesan suara yang berisi permintaan mendesak untuk mengirim uang, bahkan jika suara tersebut terdengar sangat familiar.

  2. Lakukan Verifikasi Ulang: Jika menerima permintaan mencurigakan, segera putuskan panggilan dan hubungi kembali orang yang bersangkutan melalui nomor kontak yang sudah Anda simpan. Verifikasi informasi melalui saluran komunikasi yang berbeda.

  3. Ajukan Pertanyaan Pribadi: Berikan pertanyaan spesifik yang hanya diketahui oleh Anda dan orang tersebut. Penipu yang menggunakan suara kloning tidak akan bisa menjawabnya.

  4. Lindungi Data Pribadi: Hindari membagikan sampel suara Anda secara sembarangan di media sosial atau platform publik lainnya, karena dapat disalahgunakan oleh pelaku kejahatan.

 

Kesimpulan

 

Evolusi kejahatan siber yang memanfaatkan AI adalah tantangan nyata bagi keamanan finansial masyarakat. Peringatan dari OJK ini menjadi pengingat penting bahwa literasi digital dan kewaspadaan adalah benteng pertahanan utama. Dengan memahami cara kerja ancaman seperti voice cloning dan deepfake, serta menerapkan langkah verifikasi yang disiplin, masyarakat dapat melindungi diri dari menjadi korban penipuan di era digital yang semakin kompleks ini.

 

Referensi: https://investortrust.id/financial/74570/wanti-wanti-penipuan-ai-ojk-waspadai-voice-cloning-dan-deepfake-yang-kian-meyakinkan