JAKARTA- Masyarakat diimbau agar mewaspadai modus penipuan memanfaatkan Artificial Intelligence (AI) yang marak terjadi dan menimbulkan kerugian.
Dalam keterangan tertulis kepada awak media, Sekretariat Satgas Pasti, Hudiyanto, menjelaskan kemajuan teknologi AI memiliki potensi untuk digunakan dalam penipuan dengan membuat tiruan suara (voice cloning) dan tiruan wajah (deepfake).
“Teknologi AI memudahkan pelaku penipuan untuk merekam dan meniru suara seseorang seperti teman, kolega, atau keluarga. Dengan menggunakan suara yang sudah dipelajari tersebut, penipu dapat melakukan percakapan seolah-olah mereka adalah orang yang dikenal korban,” ujar Hudiyanto.
Katanya, teknologi AI juga memungkinkan pelaku penipuan untuk membuat video palsu yang meniru wajah dan ekspresi seseorang dengan akurat.
“Video ini dapat digunakan untuk meyakinkan korban bahwa mereka sedang berkomunikasi dengan orang yang mereka kenal, sehingga korban merasa lebih percaya,” ungkapnya.
Hudiyanto mengimbau kepada masyarakat agar melakukan verifikasi informasi. Menurutnya, jika menerima permintaan yang tidak biasa, terutama yang meminta uang atau informasi pribadi, lakukan verifikasi terlebih dahulu dengan orang tersebut melalui saluran komunikasi yang lain.
Jaga kerahasiaan informasi pribadi. Jangan pernah atau mudah memberikan informasi pribadi atau keuangan kepada seseorang yang tidak dapat anda verifikasi dengan pasti identitasnya.
“Hati-hati pula dengan video atau suara yang tidak biasanya. Waspadai video atau suara yang terlihat atau terdengar tidak biasa meskipun datang dari orang yang dikenal,” katanya.(brs)






