OpenAI Gagalkan Aksi Hacker Rusia, Korea Utara, dan Tiongkok
- Rita Puspita Sari
- •
- 43 menit yang lalu

Ilustrasi ChatGPT
Di tengah meningkatnya penggunaan Artifcial Intelligence (AI) dalam berbagai aspek kehidupan, muncul pula ancaman baru: penyalahgunaan teknologi ini oleh kelompok kriminal siber. OpenAI, perusahaan di balik ChatGPT, baru-baru ini mengumumkan keberhasilannya menghentikan sejumlah aktivitas berbahaya yang dilakukan oleh kelompok hacker dari Rusia, Korea Utara, dan Tiongkok.
Langkah ini bukan sekadar pencegahan biasa, tetapi sebuah sinyal tegas bahwa perusahaan AI kini mulai mengambil tanggung jawab nyata dalam menjaga etika dan keamanan penggunaan teknologi canggih mereka.
Hacker Rusia: Kembangkan Trojan Pencuri Data lewat ChatGPT
Kelompok pertama yang diblokir OpenAI berasal dari Rusia. Mereka diketahui menggunakan ChatGPT untuk mengembangkan Remote Access Trojan (RAT) — jenis malware berbahaya yang memungkinkan pelaku mengontrol komputer korban dari jarak jauh.
Tujuan utama kelompok ini adalah menciptakan credential stealer, yakni alat untuk mencuri kata sandi dan data login pengguna tanpa terdeteksi oleh sistem keamanan.
Menurut laporan OpenAI, para pelaku menggunakan beberapa akun ChatGPT untuk mengerjakan proyek ini. Mereka meminta ChatGPT menulis potongan kode kecil yang tampak tidak berbahaya secara terpisah, namun ketika digabung, kode tersebut berubah menjadi sistem malware lengkap.
Kode yang dihasilkan mencakup fungsi penyamaran (obfuscation), pemantauan clipboard, serta pengiriman data hasil curian ke bot Telegram.
“Akun-akun ini tampaknya terkait dengan komunitas peretas berbahasa Rusia yang aktif di Telegram,” ujar OpenAI dalam laporan resminya.
Kelompok ini memanfaatkan ChatGPT secara cerdas. Mereka tidak meminta model AI langsung membuat malware, tetapi menipu sistem dengan memecah permintaan menjadi instruksi kecil. Strategi ini memperlihatkan bagaimana penjahat siber kini ikut berevolusi, mempelajari batasan sistem AI, lalu berusaha melewatinya.
Hacker Korea Utara: Serangan Diplomatik Berbalut ChatGPT
Kelompok kedua yang diblokir berasal dari Korea Utara. Pola serangan mereka mirip dengan kampanye siber yang sebelumnya diungkap oleh perusahaan keamanan Trellix pada Agustus 2025, sebuah operasi yang menargetkan lembaga diplomatik Korea Selatan melalui spear-phishing.
OpenAI menemukan bahwa kelompok ini menggunakan ChatGPT untuk mengembangkan malware bernama Xeno RAT serta membangun sistem Command-and-Control (C2) yang berfungsi mengendalikan komputer korban.
Tak berhenti di situ, mereka juga memanfaatkan ChatGPT untuk berbagai aktivitas teknis seperti:
- Membuat ekstensi Finder di macOS,
- Mengonfigurasi VPN di Windows Server,
- Mengubah ekstensi Chrome menjadi versi Safari,
- Dan menulis email phishing yang tampak profesional.
Selain memproduksi alat serangan, kelompok ini juga memanfaatkan ChatGPT sebagai sarana belajar. Mereka meminta penjelasan tentang konsep teknis seperti DLL loading, Windows API hooking, hingga cara mencuri kredensial secara diam-diam.
Hal ini menunjukkan bagaimana AI kini bukan hanya alat kerja, tetapi juga “guru digital” bagi para pelaku kejahatan siber yang ingin memperluas kemampuan mereka.
Hacker Tiongkok: Kampanye Phishing Industri Semikonduktor Taiwan
Kelompok ketiga yang ditindak OpenAI diyakini berasal dari Tiongkok. Mereka terlibat dalam kampanye phishing yang menargetkan perusahaan investasi besar, khususnya di industri semikonduktor Taiwan.
Kelompok ini diidentifikasi memiliki kesamaan dengan grup peretas UNK_DropPitch (alias UTA0388), yang sebelumnya diamati oleh Proofpoint. Tujuan utama mereka adalah menyebarkan backdoor bernama HealthKick atau GOVERSHELL, yang memungkinkan pelaku mengontrol sistem target secara rahasia.
OpenAI menemukan bahwa akun-akun yang terlibat menggunakan ChatGPT untuk:
- Membuat pesan phishing dalam berbagai bahasa (Inggris, Mandarin, dan Jepang),
- Menghasilkan alat bantu untuk mempercepat proses serangan seperti eksekusi jarak jauh dan perlindungan HTTPS,
- Serta mencari informasi tentang instalasi alat sumber terbuka seperti nuclei dan fscan.
Meskipun memiliki kemampuan teknis cukup tinggi, OpenAI menyebut kelompok ini “tidak terlalu canggih,” karena masih bergantung pada alat publik dan tidak menampilkan teknik eksploitasi tingkat lanjut. Namun, upaya mereka menunjukkan bagaimana ChatGPT bisa menjadi bagian dari rantai produksi serangan siber global jika tidak diawasi dengan baik.
Selain Hacker: ChatGPT Juga Disalahgunakan untuk Penipuan dan Propaganda
Selain kelompok hacker, OpenAI juga menemukan jaringan penipu dan operator propaganda politik dari berbagai negara yang mencoba menggunakan ChatGPT untuk tujuan tidak etis.
Beberapa di antaranya antara lain:
-
Jaringan dari Kamboja, Myanmar, dan Nigeria
Jaringan ini menggunakan ChatGPT untuk menerjemahkan teks, menulis pesan, dan membuat konten media sosial yang mempromosikan investasi palsu atau penipuan daring. AI digunakan untuk meningkatkan kualitas bahasa dan membangun kepercayaan korban. -
Akun Terkait Pemerintah Tiongkok
Akun-akun ini diduga memanfaatkan ChatGPT untuk memantau aktivitas individu, termasuk kelompok minoritas seperti Uighur. Namun, OpenAI menegaskan bahwa model mereka hanya menampilkan informasi publik dan tidak memberikan akses terhadap data sensitif. -
Operasi Rusia Terkait “Stop News”
Kelompok ini menggunakan ChatGPT untuk membuat konten dan video propaganda di media sosial. Narasinya fokus pada kritik terhadap kebijakan Prancis dan Amerika Serikat di Afrika, sambil menyebarkan pesan pro-Rusia dan anti-Ukraina. -
Operasi “Nine-Line” dari Tiongkok
Kelompok ini menjalankan kampanye media sosial dengan topik sensitif, seperti mengkritik Presiden Filipina Ferdinand Marcos, menyerang tokoh pro-demokrasi Hong Kong, dan menyoroti isu lingkungan di Laut Cina Selatan.
Menariknya, mereka juga meminta ChatGPT untuk memberi saran tentang cara meningkatkan jangkauan media sosial, termasuk ide tantangan TikTok dan strategi tagar viral seperti #MyImmigrantStory.
OpenAI bahkan menemukan bahwa kelompok ini meminta model untuk menulis naskah video TikTok lengkap dengan saran musik dan gambar latar. Ini menunjukkan bagaimana AI bisa dimanfaatkan tidak hanya untuk propaganda politik, tetapi juga untuk membangun “kampanye digital” yang tampak organik.
Adaptasi Hacker: Menghapus Jejak Gaya Tulisan AI
Laporan OpenAI juga mengungkap fenomena menarik, beberapa jaringan penipu berusaha menghapus ciri khas tulisan AI agar konten mereka tak mudah terdeteksi sebagai hasil ChatGPT.
Salah satu contohnya berasal dari jaringan penipu Kamboja, yang secara sadar menghapus tanda “em-dash” (—) dari teks mereka. Tanda ini sebelumnya dikenal sebagai salah satu “ciri khas” tulisan AI.
Langkah kecil ini membuktikan bahwa para pelaku kejahatan siber kini tidak hanya kreatif secara teknis, tetapi juga secara linguistik — mereka belajar bagaimana meniru gaya penulisan manusia untuk menghindari sistem deteksi otomatis.
Langkah Keamanan Tambahan: Kolaborasi dan Audit AI
Tindakan OpenAI ini datang bersamaan dengan inisiatif baru dari perusahaan lain, Anthropic, yang meluncurkan alat audit AI bernama Petri (Parallel Exploration Tool for Risky Interactions).
Petri dirancang untuk membantu peneliti memahami perilaku model AI ketika dihadapkan pada situasi berisiko, seperti:
- Manipulasi atau kebohongan,
- Dorongan terhadap perilaku delusional,
- Kerja sama dengan permintaan berbahaya, dan
- Upaya “bertahan hidup” sistem AI.
Dengan pendekatan multi-agent, Petri meniru berbagai percakapan dan menganalisis bagaimana model AI merespons interaksi kompleks. Hasilnya dinilai oleh sistem otomatis yang berperan sebagai “juri,” memungkinkan para peneliti menemukan potensi risiko sebelum disalahgunakan oleh publik.
AI Aman Hanya Jika Manusia Bertanggung Jawab
Kasus ini menjadi pengingat bahwa teknologi secanggih apa pun tetap bisa disalahgunakan jika tidak diimbangi dengan kesadaran etis dan pengawasan ketat.
OpenAI menunjukkan langkah tegas dalam memblokir akses terhadap pengguna berisiko tinggi. Namun, tanggung jawab keamanan AI sejatinya tidak hanya berada di tangan pengembang, melainkan juga pengguna, pemerintah, dan komunitas digital global.
AI adalah alat yang netral — bisa menjadi kekuatan besar untuk kemajuan, atau senjata mematikan jika digunakan dengan niat jahat. Dunia kini menyaksikan babak baru dalam keamanan siber, di mana bukan hanya sistem komputer yang harus dilindungi, tetapi juga model AI yang kita gunakan setiap hari.