
LANJUT usia (Lansia) sejak lama menjadi sasaran empuk penipuan digital karena isolasi sosial dan kurangnya pengalaman teknologi. Kini, dengan hadirnya kecerdasan buatan (AI) generatif, bentuk misinformasi makin canggih, dari deepfake hingga kloning suara, yang membuat mereka semakin rentan.
Studi terbaru University of Michigan menunjukkan, 92% orang berusia di atas 50 tahun ingin tahu apakah mereka berinteraksi dengan manusia atau konten buatan AI. Selain itu, 81% ingin mempelajari lebih lanjut tentang risikonya.
Bagaimana AI Menargetkan Lansia
Risiko yang ditimbulkan AI bagi orang tua muncul dalam banyak bentuk, dan jenisnya terus berkembang setiap hari. Ada video AI yang menyebarkan misinformasi seputar politik dan kesehatan, chatbot AI yang berpura-pura akrab dan menipu secara emosional, hingga penipuan keuangan yang memanfaatkan kloning suara anggota keluarga.
Salah satu kasus mencolok terjadi di Florida, ketika seorang perempuan lanjut usia, Sharon Brightwell, menerima telepon dari nomor yang mirip dengan nomor putrinya. Ia mendengar suara putrinya menangis, mengatakan ia baru saja mengalami kecelakaan mobil, tapi ternyata semua itu palsu. Suara tersebut adalah hasil kloning AI. Sebelum menyadari apa yang terjadi, Brightwell sudah mengirim US$15.000 kepada para penipu itu.
Menurut Federal Communication Commission (FCC), skema seperti ini dikenal sebagai “grandparent scam”. Penipuan di mana seseorang berpura-pura menjadi cucu atau anak korban dan meminta uang, biasanya dengan alasan darurat seperti kecelakaan atau masalah hukum. Salah satu ciri khasnya adalah rasa urgensi yang dibuat-buat.
Kemajuan AI, khususnya teknologi kloning suara, membuat penipuan semacam ini semakin berbahaya. Hanya dengan rekaman suara beberapa detik, yang bisa diambil dari video online atau panggilan telepon singkat, AI sudah bisa meniru suara seseorang dengan akurat.
“Kami sangat mendorong orang untuk tidak bertindak tergesa-gesa. Berhenti sejenak, diskusikan dengan orang lain, atau telepon balik menggunakan nomor yang Anda cari sendiri untuk memverifikasi, dan jangan pernah mengambil tindakan segera terhadap siapa pun di telepon jika Anda tidak yakin siapa mereka,” ujar Jessica Johnston, Direktur Senior National Council on Aging (NCOA).
Selain potensi kerugian finansial, AI juga bisa digunakan untuk memanipulasi secara halus.
“Tidak semua misinformasi dibuat dengan niat jahat, kadang datang dalam kemasan yang tampak menyenangkan,” kata Rebecca Jinette dari NC Digital Futures Program, lembaga yang membantu meningkatkan literasi digital di Carolina Utara. “Video AI bisa saja salah menggambarkan peristiwa sejarah, memberi saran kesehatan yang keliru, atau mempromosikan pseudosains. Ketika lansia menonton konten seperti itu bersama cucu mereka, kebingungan itu bisa menyebar pelan-pelan.”
Video AI di Youtube
Kasus seperti ini bahkan pernah terjadi pada Alex Pearlman, seorang komedian dan ayah muda, yang membagikan pengalamannya di Instagram. Ia tanpa sengaja memutar video buatan AI di YouTube Kids untuk anak balitanya. Video itu tampak seperti adaptasi dari buku anak populer, tetapi suara AI salah mengucapkan nama-nama benda.
Menurut penelitian, banyak lansia lebih sulit mengenali “efek lembah aneh” (uncanny valley) pada visual AI. Artinya, mereka bisa dengan mudah tertipu oleh video yang tampak “hampir nyata”. Dalam jangka panjang, peredaran video semacam ini bisa menyebabkan penyebaran informasi keliru secara luas, terutama jika dikonsumsi anak kecil atau lansia secara rutin.
Mereka yang ingin tetap mandiri juga berisiko terpapar misinformasi medis yang dihasilkan AI. “Ada banyak informasi menyesatkan di dunia kesehatan,” ujar Johnston. “Banyak alat atau perangkat medis yang sebenarnya hanyalah bentuk baru dari minyak ular digital, janji palsu yang dikemas modern."
Langkah Perlindungan
Menjadi korban misinformasi sering membuat lansia semakin menarik diri, menambah rasa malu dan isolasi yang sudah ada sebelumnya. “Penipu menargetkan mereka yang kesepian. Setelah ditipu, mereka merasa bodoh, malu, dan akhirnya makin menutup diri. Itu membuat mereka semakin rentan,” kata Johnston.
Cara terbaik untuk mencegah hal itu adalah membangun komunitas dan hubungan yang hangat. “Pastikan orang-orang di sekitar Anda tidak merasa sendirian dan nyaman bercerita. Itu bisa jadi benteng pertama melawan penipuan,” tambahnya.
Jika seseorang sudah terjebak dalam lingkaran misinformasi, Johnston menyarankan untuk tidak langsung berdebat, tetapi fokus pada fakta dan kesamaan pandangan agar tetap ada ruang komunikasi.
Contohnya datang dari Andrew Schlemmer, spesialis teknologi di lembaga nirlaba Tech Goes Home. Setelah neneknya kehilangan 1.500 dolar akibat penipuan, ia membantu keluarganya memasang perlindungan agar kejadian itu tidak terulang.
Tips dari para ahli:
- Gunakan “kata sandi keluarga” - Sebuah kata atau frasa rahasia yang hanya diketahui keluarga. Ini bisa membantu memastikan apakah suara di telepon benar-benar kerabat atau hanya hasil kloning AI.
- Batasi informasi pribadi di media sosial. Jangan unggah rekaman suara, karena potongan singkat saja bisa digunakan untuk kloning.
- Jangan langsung bertindak. Luangkan waktu beberapa menit sebelum merespons panggilan darurat.
- Diskusikan risiko AI secara terbuka. Saat informasi dibicarakan bersama, lebih mudah mendeteksi hal yang janggal.
- Biasakan skeptis. Jika sesuatu terdengar terlalu bagus untuk jadi kenyataan, berhentilah sejenak dan verifikasi sumbernya.
Bila tersedia, daftarkan orangtua atau kakek-nenek Anda ke kelas literasi digital yang juga membahas AI. Selain menambah pengetahuan, kegiatan tatap muka juga bisa mengurangi rasa kesepian. NCOA sudah memperbarui kurikulumnya agar mencakup konten tentang AI generatif dan keamanan digital.
Menghadapi Evolusi AI
Menurut Jinette, kini tersedia sejumlah alat deteksi AI seperti GPTZero atau Hive Moderation, meski belum ada yang sepenuhnya akurat. Untuk memeriksa kebenaran informasi, masyarakat bisa memanfaatkan situs pengecekan fakta seperti Snopes, PolitiFact, atau FactCheck.org. Namun, bahkan dengan pengetahuan dan pencegahan, siapa puntetap bisa menjadi korban. Rachel Morrow, konsultan teknologi di Tech Goes Home, menilai bahwa tanda-tanda seseorang terpapar misinformasi bisa terlihat dari perubahan perilaku, menarik diri dari lingkungan, atau munculnya “teman baru” yang mencurigakan. Ia menyamakan kerentanan lansia dengan remaja: sama-sama impulsif dan mudah percaya.
Karena itu, ketika terjadi penipuan, keluarga diminta tidak menyalahkan korban. “Ingatlah, mereka adalah korban, bukan pelaku,” ujar Johnston. Meski kerap dianggap rentan, lansia sesungguhnya memiliki kelebihan besar—pengalaman dan kebijaksanaan hidup. Jinette menegaskan, dengan dukungan dan alat yang tepat, mereka bukan hanya mampu mengikuti perkembangan zaman, tetapi juga berpotensi memimpin. Ia menambahkan, pembelajaran lintas generasi menjadi kunci: anak muda bisa membantu menjembatani kesenjangan teknologi, sementara orang tua menawarkan cara berpikir kritis dan kebijaksanaan yang sangat dibutuhkan di tengah derasnya arus informasi. (parents/Z-2)