Hati-Hati Video Call dari 'Keluarga'! Mengenal Bahaya Deepfake Voice & Video dalam Penipuan Modern

Ilustrasi: Waspada terhadap teknologi AI yang mampu memalsukan wajah dan suara untuk penipuan.

 

Bayangkan ponsel Anda berdering. Di layar muncul nama dan foto anak atau saudara Anda. Saat diangkat melalui video call, wajah dan suaranya sangat jelas: "Ayah, aku kena musibah, tolong transfer uang ke nomor ini sekarang!". Panik, Anda langsung mengirimkan uang tersebut. Namun sejam kemudian, orang yang bersangkutan menelepon dan mengaku sedang baik-baik saja di kantor.

Selamat datang di era penipuan Deepfake. Di tahun 2026, kejahatan siber telah bergeser dari sekadar pesan teks palsu menjadi pemalsuan identitas digital yang nyaris sempurna menggunakan Kecerdasan Buatan (AI).

Apa Itu Deepfake dan Mengapa Begitu Berbahaya?

Deepfake adalah teknologi berbasis AI yang mampu mensintesis atau menggabungkan wajah dan suara seseorang ke dalam konten video atau audio yang berbeda. Jika dulu teknologi ini membutuhkan ribuan foto, sekarang AI hanya butuh potongan video atau suara berdurasi di bawah 10 detik dari media sosial Anda untuk menciptakan "klon digital" yang identik.

Yang membuatnya sangat berbahaya di tahun ini adalah kemampuan Real-Time Deepfake. Penipu bisa berbicara secara langsung dalam panggilan video, sementara perangkat lunak AI mengubah wajah dan suara mereka menjadi sosok yang Anda kenal dalam hitungan milidetik.

Cara Kerja "Pencurian" Identitas Digital

Para pelaku biasanya memulai dengan melakukan riset pada target (biasanya melalui akun publik Instagram, TikTok, atau Facebook). Mereka mengunduh video pendek di mana Anda berbicara. Data suara ini kemudian diolah oleh algoritma Generative Adversarial Networks (GAN) untuk mempelajari pola nada, dialek, hingga ekspresi wajah Anda.

Setelah klon digital jadi, penipu akan menyasar lingkaran terdekat Anda (orang tua atau pasangan) dengan narasi darurat. Karena otak manusia cenderung kehilangan daya kritis saat melihat wajah orang tersayang dalam kondisi panik, banyak korban terjebak meskipun kualitas video mungkin sedikit patah-patah.

3 Cara Cerdas Mendeteksi Video Call Palsu

Meski AI semakin pintar, mereka tetaplah algoritma yang memiliki celah. Berikut adalah langkah perlindungan yang bisa Anda terapkan:

  • Gunakan "Kata Sandi Keluarga": Sepakati satu kata atau kode rahasia yang hanya diketahui anggota keluarga inti. Jika ada panggilan darurat yang meminta uang, minta mereka menyebutkan kode tersebut.
  • Minta Gerakan yang Tidak Wajar: Deepfake seringkali gagal memproses pergerakan yang kompleks. Mintalah penelepon untuk menutup satu mata, menyentuh wajah dengan jari, atau menoleh ke samping secara cepat. Biasanya, wajah digital akan mengalami distorsi atau pecah.
  • Perhatikan Detail Kecil: Perhatikan area pinggir wajah, kedipan mata yang tidak natural, atau sinkronisasi antara gerakan bibir dan suara. Jika suara terdengar sempurna namun gerakan mulut terasa sedikit lambat (delay), segera matikan panggilan.

Di era digital yang semakin kompleks ini, rasa curiga yang sehat adalah perlindungan terbaik. Jangan biarkan teknologi mengalahkan intuisi dan logika Anda. Selalu lakukan verifikasi ulang melalui saluran komunikasi yang berbeda sebelum melakukan transaksi keuangan apa pun.

Baca juga
Tersalin!

Berita Terbaru

  • Hati-Hati Video Call dari 'Keluarga'! Mengenal Bahaya Deepfake Voice & Video dalam Penipuan Modern
  • Hati-Hati Video Call dari 'Keluarga'! Mengenal Bahaya Deepfake Voice & Video dalam Penipuan Modern
  • Hati-Hati Video Call dari 'Keluarga'! Mengenal Bahaya Deepfake Voice & Video dalam Penipuan Modern
  • Hati-Hati Video Call dari 'Keluarga'! Mengenal Bahaya Deepfake Voice & Video dalam Penipuan Modern
  • Hati-Hati Video Call dari 'Keluarga'! Mengenal Bahaya Deepfake Voice & Video dalam Penipuan Modern
  • Hati-Hati Video Call dari 'Keluarga'! Mengenal Bahaya Deepfake Voice & Video dalam Penipuan Modern

Posting Komentar