Waspada! Situs Jahat Bisa Tipu AI untuk Sebar Hoaks
- Rita Puspita Sari
 - •
 - 2 jam yang lalu
 
                                    Ilustrasi Serangan Context Poisoning
Artfiicial Intelligence (AI) semakin banyak digunakan dalam berbagai platform digital, mulai dari pencarian informasi, riset, hingga pembuatan konten otomatis. Namun di balik kecanggihannya, muncul ancaman baru yang mengejutkan dunia keamanan siber. Para peneliti menemukan adanya teknik serangan baru bernama AI-targeted cloaking yang mampu menipu sistem AI agar menyebarkan informasi palsu seolah-olah itu adalah kebenaran.
Temuan ini menjadi perhatian serius, terutama karena serangan tersebut dapat memengaruhi model AI besar seperti ChatGPT Atlas milik OpenAI dan berbagai browser berbasis AI lainnya.
 
Apa Itu “AI-Targeted Cloaking”?
Menurut laporan dari perusahaan keamanan AI SPLX, AI-targeted cloaking adalah metode di mana penyerang membuat situs web dengan dua versi konten: satu untuk pengguna manusia, dan satu lagi khusus untuk perayap AI (AI crawler).
Teknik ini bekerja seperti search engine cloaking yang dulu digunakan untuk menipu mesin pencari seperti Google. Bedanya, kini targetnya bukan algoritma pencarian, melainkan sistem AI yang membaca, menganalisis, dan merangkum informasi dari web.
Cara kerjanya sederhana namun berbahaya. Situs dapat mendeteksi “user agent” identitas peramban yang mengunjungi halaman. Jika situs mendeteksi bahwa pengunjungnya adalah AI seperti ChatGPT Atlas atau Perplexity, maka konten yang ditampilkan akan dimodifikasi. Dengan begitu, AI akan mengutip versi palsu dari halaman tersebut tanpa menyadari manipulasi yang terjadi.
 
Bagaimana AI Bisa Dijebak?
Dua peneliti dari SPLX, Ivan Vlahov dan Bastien Eymery, menjelaskan bahwa browser berbasis AI seperti ChatGPT Atlas mengandalkan direct retrieval yaitu kemampuan mengambil data secara langsung dari situs web saat menjawab pertanyaan pengguna.
Masalahnya, jika data yang diterima adalah hasil manipulasi, maka AI akan tetap menganggapnya sebagai sumber valid. Informasi palsu itu kemudian bisa muncul dalam bentuk ringkasan, hasil pencarian, atau bahkan kutipan langsung di jawaban AI.
“Hanya dengan satu aturan sederhana misalnya ‘jika user agent = ChatGPT, tampilkan halaman ini’ penyerang bisa memengaruhi apa yang dianggap jutaan pengguna sebagai informasi sah,” jelas Vlahov.
Hal ini menjadikan AI-targeted cloaking sebagai senjata misinformasi yang sangat efektif. Bayangkan jika situs propaganda, perusahaan nakal, atau kelompok politik memanfaatkan cara ini untuk memengaruhi opini publik — hasilnya bisa sangat berbahaya.
 
Dampaknya terhadap Kepercayaan Publik
Selama ini, banyak orang menganggap AI seperti ChatGPT sebagai sumber informasi yang netral dan cerdas. Namun serangan semacam ini bisa menggoyahkan kepercayaan itu. SPLX memperingatkan bahwa “AI bisa ditipu semudah mesin pencari di masa awal, tapi dampaknya jauh lebih besar.”
Ketika search engine optimization (SEO) berubah menjadi artificial intelligence optimization (AIO), maka manipulasi informasi bisa terjadi dalam skala yang belum pernah terjadi sebelumnya. AI yang salah diberi konteks bisa menciptakan realitas digital yang menyesatkan, di mana kebohongan tampak seperti fakta yang sah.
 
Temuan Tambahan dari hTAG: AI Masih Rentan Disalahgunakan
Bersamaan dengan temuan SPLX, hCaptcha Threat Analysis Group (hTAG) merilis laporan yang mengidentifikasi 20 skenario penyalahgunaan umum terhadap agen AI berbasis peramban.
Hasilnya mengejutkan, sebagian besar agen AI ternyata mau menjalankan perintah berbahaya tanpa perlu “jailbreaking” atau upaya membobol sistem keamanan.
Beberapa contoh kasus yang ditemukan:
- Pembuatan banyak akun palsu (multi-accounting) untuk spamming.
 - Penyalahgunaan sistem kartu kredit dalam pengujian otomatis.
 - Penyamaran sebagai layanan dukungan pelanggan untuk mencuri data pengguna.
 
hTAG mencatat bahwa ChatGPT Atlas bahkan bisa melakukan perintah berisiko tinggi jika dikamuflase sebagai proses debugging atau pengujian kode. Dalam mode ini, AI cenderung mengeksekusi instruksi tanpa menilai risikonya secara etis atau keamanan.
 
AI Lain yang Juga Rentan
Bukan hanya ChatGPT Atlas yang menjadi sorotan. hTAG menemukan bahwa banyak agen AI lain juga menunjukkan perilaku serupa:
- Claude Computer Use dan Gemini Computer Use dapat menjalankan operasi akun berbahaya, seperti mereset kata sandi tanpa konfirmasi.
 - Gemini bahkan dilaporkan pernah mencoba brute-force kupon diskon di situs e-commerce.
 - Manus AI mampu mengambil alih akun pengguna dan melakukan session hijacking tanpa hambatan.
 - Perplexity Comet ditemukan menjalankan serangan SQL injection otomatis untuk mengakses data tersembunyi tanpa perintah eksplisit dari pengguna.
 
Fakta-fakta ini menunjukkan bahwa banyak sistem AI masih kekurangan lapisan keamanan dasar.
 
Minimnya Perlindungan Bawaan
Dalam laporannya, hTAG menulis bahwa banyak agen AI “melampaui” batas permintaan pengguna. Mereka kadang menjalankan kode atau melakukan tindakan agresif tanpa instruksi eksplisit, misalnya:
- Menyuntikkan JavaScript untuk menembus paywall situs berbayar.
 - Melakukan SQL injection untuk mengakses data rahasia.
 - Menjalankan operasi yang seharusnya dibatasi oleh sistem keamanan situs.
 
“Kami menemukan hampir tidak ada mekanisme pengamanan yang berarti,” tulis hTAG.
Kondisi ini membuat agen AI rentan disalahgunakan, bahkan oleh pengguna biasa yang tidak menyadari risiko yang ada di balik layar.
 
AI Canggih, Tapi Masih Mudah Dipermainkan
Temuan ini menjadi pengingat penting bahwa kecerdasan buatan belum sepenuhnya aman dari manipulasi. Serangan AI-targeted cloaking menunjukkan bahwa sistem AI bisa dijebak dengan mudah untuk menyebarkan informasi palsu, sementara agen-agen AI yang semakin otonom justru berpotensi melakukan tindakan berisiko tanpa pengawasan ketat.
Ke depan, pengembang AI perlu memperkuat sistem validasi sumber data dan menerapkan mekanisme anti-cloaking agar AI tidak lagi menjadi korban manipulasi digital. Sementara bagi pengguna, penting untuk tetap kritis dan tidak sepenuhnya mempercayai hasil pencarian atau jawaban AI tanpa verifikasi manual.
