Dalam beberapa tahun terakhir, kecerdasan buatan (AI) berkembang sangat cepat. Kemampuannya tak hanya membantu manusia, tapi kini juga dimanfaatkan untuk menipu.
Salah satu bentuk penyalahgunaan AI yang paling mengkhawatirkan adalah pembuatan hoaks atau informasi palsu dengan kualitas yang sangat meyakinkan. Tak heran kalau banyak orang, bahkan dari kalangan teredukasi, bisa tertipu dan ikut menyebarkan.
🤖 Hoaks AI: Lebih Canggih, Lebih Meyakinkan
Berbeda dengan hoaks zaman dulu yang mudah dikenali dari typo atau bahasa yang janggal, hoaks sekarang bisa:
- Ditulis dengan gaya bahasa rapi dan formal (hasil chatbot AI),
- Berwujud video deepfake yang tampak seperti tokoh nyata sedang berbicara,
- Disampaikan lewat suara yang meniru suara pejabat publik,
- Disertai gambar “nyata” yang sebenarnya buatan AI (image generator).
Bayangkan, Anda menerima video "walikota" mengumumkan bantuan uang tunai, lengkap dengan latar kantor dan gaya bicara khas. Padahal, semua itu bisa saja 100% palsu/hasil ciptaan mesin pintar.
📍 Contoh Nyata
Awal tahun ini, sempat viral video pendek berdurasi 40 detik yang menampilkan “tokoh nasional” mengajak masyarakat mendaftar bantuan digital. Banyak warga mengira itu asli dan langsung mendaftar melalui tautan yang dibagikan. Hasilnya? Data pribadi dicuri dan ada yang mengalami kerugian finansial.
Yang membuat khawatir, kontennya tidak tampak mencurigakan. Wajah, suara, bahkan intonasinya nyaris sempurna, semua berkat teknologi deepfake dan voice cloning.
🛡️ Ini Tips Agar Kamu Nggak Ketipu Hoaks Buatan AI:
✅ 1. Jangan Langsung Percaya dengan Konten yang Viral
Terutama jika isinya heboh, menjanjikan hadiah, atau mengajak transfer uang. Luangkan waktu buat cek ulang.
Terutama jika isinya heboh, menjanjikan hadiah, atau mengajak transfer uang. Luangkan waktu buat cek ulang.
✅ 2. Periksa Sumber Asli
Pastikan informasi berasal dari kanal resmi: situs .go.id, akun media sosial pemerintah yang sudah terverifikasi, atau media berita terpercaya.
Pastikan informasi berasal dari kanal resmi: situs .go.id, akun media sosial pemerintah yang sudah terverifikasi, atau media berita terpercaya.
✅ 3. Waspadai Video yang Terlalu Sempurna
Ekspresi wajah yang kaku, suara yang “halus tapi aneh”, atau gerakan mulut yang sedikit tidak sinkron bisa jadi tanda deepfake.
Ekspresi wajah yang kaku, suara yang “halus tapi aneh”, atau gerakan mulut yang sedikit tidak sinkron bisa jadi tanda deepfake.
✅ 4. Jangan Mudah Klik Link
Apalagi jika tautannya pendek atau tidak jelas arahnya ke mana. Gunakan tools pemendek link checker atau buka lewat browser aman.
Apalagi jika tautannya pendek atau tidak jelas arahnya ke mana. Gunakan tools pemendek link checker atau buka lewat browser aman.
✅ 5. Gunakan Tools Cek Fakta
Manfaatkan situs seperti TurnBackHoax.id, Cekfakta.com, atau fitur reverse image/video search.
Manfaatkan situs seperti TurnBackHoax.id, Cekfakta.com, atau fitur reverse image/video search.
🎯 Penutup
Teknologi AI bisa membantu kehidupan manusia, tapi juga bisa menyesatkan jika disalahgunakan. Karena itu, kita semua harus jadi pengguna digital yang bijak dan cerdas.
Jangan biarkan mesin pintar memperdaya kita!
Jangan biarkan mesin pintar memperdaya kita!
Salam aman siber,
Tim CSIRT Kota Kediri
Tim CSIRT Kota Kediri