OpenClaw Viral di Awal 2026, Pakar UGM Ingatkan Risiko Kebocoran Data dan Serangan Siber
Lonjakan pengguna OpenClaw menimbulkan kekhawatiran keamanan. Pakar UGM mengingatkan risiko kebocoran data hingga serangan siber pada AI berbasis open source tersebut.
RINGKASAN BERITA:
- OpenClaw mencatat lebih dari 2 juta kunjungan dalam satu pekan di awal 2026.
- China melarang penggunaan OpenClaw di instansi resmi karena risiko keamanan.
- Pakar UGM mengingatkan potensi kebocoran data akibat kelalaian pengguna dan celah open source.
RIAUCERDAS.COM - Lonjakan popularitas OpenClaw di awal 2026 memunculkan kekhawatiran baru terkait keamanan data pengguna.
Aplikasi kecerdasan buatan berbasis agentik ini tercatat menerima lebih dari 2 juta kunjungan hanya dalam satu pekan, namun di sisi lain dinilai memiliki potensi risiko serius, mulai dari serangan siber hingga kebocoran data.
Kekhawatiran tersebut bahkan mendorong China melarang penggunaan OpenClaw di lingkungan lembaga pemerintah, badan usaha milik negara, serta bank besar karena dianggap rentan terhadap ancaman keamanan.
Guru Besar dari Universitas Gadjah Mada, Ridi Ferdiana, menjelaskan bahwa OpenClaw merupakan bentuk Agentic AI, yakni teknologi kecerdasan buatan yang mampu merencanakan strategi, mengambil keputusan kompleks, dan menyelesaikan tugas secara mandiri.
Menurutnya, sistem ini bekerja dengan memanfaatkan data internal pengguna serta data eksternal dari internet, sehingga membuka peluang risiko jika tidak dikelola dengan baik.
“Dari sinilah celah keamanan muncul, yang kemungkinan serangan siber atau kebocoran terjadi, baik pada skala individu maupun perusahaan,” kata Ridi dikutip dari laman UGM, Minggu (5/4/2026).
Ia menambahkan, sifat open source pada OpenClaw membuat siapa pun dapat mengakses dan mempelajari sistemnya.
Meski mendorong inovasi, kondisi ini juga berpotensi dimanfaatkan pihak tidak bertanggung jawab untuk menemukan celah keamanan.
Ridi menyoroti perilaku pengguna yang sering mengabaikan pengaturan keamanan, seperti perizinan aplikasi dan pembaruan sistem.
Menurutnya, kelalaian ini menjadi salah satu penyebab utama kebocoran data.
“Bagi mereka yang awam, perizinan pada perangkat kerap diabaikan dan langsung dilewati maupun asal diizinkan. Dari sinilah penyebab timbulnya risiko kebocoran data pada pengguna kecerdasan buatan, terlebih pada pengguna Agentic AI dengan sumber terbuka seperti OpenClaw,” kata Ridi.
Untuk meminimalkan risiko, ia menyarankan pengguna memahami kebutuhan penggunaan AI tersebut serta mempertimbangkan alternatif layanan pihak ketiga yang memiliki sistem keamanan lebih terjamin.
Selain itu, pengguna diminta memastikan keamanan perangkat dan server sebelum menggunakan aplikasi, serta lebih teliti dalam membaca setiap pengaturan dan izin yang diberikan.
Ia juga menekankan pentingnya pemantauan rutin terhadap potensi kebocoran data, setidaknya setiap dua bulan, mengingat sistem otomatis OpenClaw dapat menjalankan skenario di luar kendali pengguna.
“Kita selalu bisa melakukan pembatasan akses terhadap data-data privat yang kita miliki. Kuncinya ada di aktivitas ekstra, ekstra membaca, ekstra memperbarui, ekstra memantau. Karena celah keamanan siapapun bisa terimbas, baik pribadi maupun perusahaan, yang membedakan hanya nilai data yang berpotensi bocor,” tutupnya. (*)


