Gemini Trifecta: Tiga Celah Berbahaya di Google Gemini AI
- Rita Puspita Sari
- •
- 20 jam yang lalu

Ilustrasi Google Gemini
Kemajuan Artificial Intelligence (AI) memang mempermudah berbagai aktivitas manusia, mulai dari mencari informasi hingga membantu pekerjaan di dunia digital. Namun, di balik kecanggihannya, teknologi AI juga menyimpan potensi risiko yang bisa dimanfaatkan oleh pihak tak bertanggung jawab. Hal ini terbukti dari temuan terbaru peneliti keamanan siber yang mengungkap tiga celah berbahaya pada Google Gemini AI, yang berpotensi dimanfaatkan untuk pencurian data pribadi dan eksploitasi layanan cloud.
Tiga Celah Berbahaya dalam Google Gemini
Menurut laporan peneliti keamanan dari Tenable, Liv Matan, ada tiga kerentanan besar yang ditemukan dalam sistem Gemini. Ketiga celah ini kini telah diperbaiki oleh Google, namun sebelumnya sempat membuka peluang serangan serius terhadap privasi pengguna. Matan menyebut temuan tersebut dengan nama “Gemini Trifecta”, karena menyerang tiga komponen berbeda dalam layanan Gemini, yakni Gemini Cloud Assist, Search Personalization Model, dan Gemini Browsing Tool.
Mari kita bahas satu per satu bagaimana ketiga celah ini bekerja dan apa dampaknya bagi pengguna.
-
Celah Prompt Injection pada Gemini Cloud Assist
Celah pertama ditemukan pada Gemini Cloud Assist, layanan yang digunakan untuk meringkas log dari berbagai sumber cloud seperti Cloud Function, App Engine, dan Compute Engine.Masalahnya, sistem ini ternyata bisa dimanipulasi menggunakan prompt injection—teknik di mana peretas menyisipkan perintah berbahaya ke dalam input yang diterima AI.Dalam kasus ini, penyerang dapat menyembunyikan instruksi berbahaya di dalam User-Agent header pada permintaan HTTP.Ketika Gemini membaca log tersebut, sistem bisa saja tanpa sadar menjalankan perintah yang disisipkan. Misalnya, AI bisa diperintahkan untuk mencari semua aset publik dalam akun cloud pengguna, mengidentifikasi konfigurasi izin yang salah (IAM), lalu mengirim hasilnya ke server milik penyerang.
Dengan kata lain, peretas tidak perlu mengakses sistem pengguna secara langsung—mereka hanya perlu “mengelabui” AI agar bekerja untuk mereka.
-
Celah Search Injection pada Model Personalisasi Pencarian
Celah kedua menyerang Search Personalization Model, yaitu fitur yang menyesuaikan hasil pencarian sesuai kebiasaan pengguna.
Sayangnya, model ini bisa dimanipulasi melalui search injection, di mana peretas menyisipkan prompt berbahaya untuk mengubah perilaku chatbot.Cara kerjanya cukup licik: penyerang membuat situs web berbahaya yang diam-diam menambahkan kueri palsu ke dalam riwayat pencarian Chrome korban menggunakan JavaScript.
Ketika korban kemudian berinteraksi dengan Gemini, model AI itu akan memproses riwayat palsu tersebut seolah berasal dari pengguna asli. Akibatnya, Gemini bisa saja membocorkan informasi pribadi seperti lokasi atau data tersimpan ke pihak luar.
Masalah utama di sini adalah Gemini belum mampu membedakan antara permintaan yang benar-benar berasal dari pengguna dan instruksi yang disusupkan dari luar sistem.
-
Celah Indirect Prompt Injection pada Gemini Browsing Tool
Celah ketiga ditemukan pada Gemini Browsing Tool, fitur yang membantu AI meringkas isi halaman web.
Namun, kemampuan ini juga dapat dimanfaatkan untuk mencuri data pengguna melalui serangan yang disebut indirect prompt injection.Dengan memanfaatkan cara Gemini memproses konten web, penyerang dapat membuat halaman yang tampak normal tetapi sebenarnya berisi perintah tersembunyi.
Ketika Gemini “membaca” halaman tersebut, sistem dapat tanpa sadar mengirimkan data sensitif pengguna ke server jahat tanpa sepengetahuan korban.
Artinya, meskipun pengguna tidak mengklik tautan mencurigakan, Gemini tetap bisa terjebak dalam proses otomatis yang dimanipulasi.
Potensi Dampak: Dari Privasi Hingga Eksploitasi Cloud
Menurut Matan, ketiga celah ini bisa dieksploitasi untuk menyusupkan data pribadi pengguna ke server luar tanpa sepengetahuan mereka. Skenarionya, AI bisa dipaksa untuk melakukan pencarian aset publik, memeriksa konfigurasi izin cloud, atau mengirimkan data sensitif melalui tautan yang dibuat secara otomatis.
Karena Gemini memiliki izin untuk mengakses berbagai layanan cloud Google seperti Cloud Asset API, maka serangan semacam ini bisa berakibat fatal jika tidak segera ditangani.
Langkah Cepat Google Menangani Celah Keamanan
Begitu menerima laporan dari Tenable, Google langsung bertindak cepat untuk memperbaiki ketiga kerentanan ini.
Beberapa langkah yang dilakukan antara lain:
- Menonaktifkan kemampuan Gemini untuk menampilkan tautan dalam hasil ringkasan log.
- Menambahkan lapisan keamanan tambahan untuk mencegah prompt injection di masa depan.
Meskipun perbaikan sudah diterapkan, kasus ini memberikan pelajaran penting bahwa sistem AI sekuat apapun tetap rentan terhadap manipulasi jika tidak dilindungi dengan tepat.
Peringatan untuk Pengembang dan Pengguna AI
Liv Matan menegaskan bahwa kasus ini bukan hanya tentang bug teknis, tetapi tentang pentingnya keamanan dalam pengembangan AI.
Menurutnya, organisasi yang mulai mengadopsi AI harus memiliki pemahaman penuh tentang di mana dan bagaimana AI digunakan dalam sistem mereka.
“AI bukan hanya target serangan—AI juga bisa menjadi alat serangan,” tegas Matan.
Oleh karena itu, visibilitas dan kontrol adalah dua aspek penting yang harus dimiliki perusahaan dalam mengelola penggunaan AI di lingkungan kerja.
Kasus Serupa: Eksploitasi Notion AI
Temuan Tenable bukan satu-satunya kasus yang menunjukkan bagaimana AI bisa disalahgunakan. Perusahaan keamanan CodeIntegrity juga melaporkan serangan serupa pada Notion AI, di mana peretas menyembunyikan instruksi berbahaya dalam file PDF dengan teks putih di atas latar putih, sehingga tidak terlihat oleh pengguna.
Saat AI membaca dokumen tersebut, instruksi tersembunyi memerintahkannya untuk mengumpulkan data sensitif dan mengirimkannya ke penyerang.
CodeIntegrity menambahkan bahwa AI dengan akses luas terhadap ruang kerja dapat mengeksekusi perintah di berbagai dokumen dan database tanpa terdeteksi oleh sistem keamanan tradisional seperti RBAC (Role-Based Access Control).
Ini membuat permukaan serangan menjadi jauh lebih luas dan sulit dikontrol.
Keamanan AI Harus Jadi Prioritas
Kasus Gemini Trifecta menjadi pengingat keras bahwa keamanan AI tidak boleh dianggap remeh. AI yang dirancang untuk membantu manusia justru bisa menjadi ancaman jika tidak dilindungi dengan sistem keamanan berlapis.
Langkah cepat Google patut diapresiasi, namun ke depan, pengembang AI di seluruh dunia harus menjadikan keamanan sebagai fokus utama dalam setiap tahap pengembangan.
AI memang masa depan, tetapi tanpa keamanan yang kuat, masa depan itu bisa berubah menjadi ancaman baru di dunia digital.