Kecerdasan buatan saat ini menjadi perhatian semua orang, terutama industri keamanan siber. Dalam permainan whack-a-mole yang terus-menerus, baik pembela maupun penyerang memanfaatkan AI untuk mengubah keseimbangan kekuatan agar menguntungkan mereka masing-masing. Sebelum kita dapat memahami bagaimana pembela dan penyerang memanfaatkan AI, kita perlu mengenali tiga jenis model AI yang paling umum saat ini.
Bagaimana Tiga Model AI Meningkatkan Pertahanan
AI Generatif, Pembelajaran Mesin Terawasi, dan Pembelajaran Mesin Tak Terawasi adalah tiga jenis utama model AI. Alat AI generatif seperti ChatGPT, Gemini, dan Copilot dapat memahami masukan manusia dan dapat memberikan keluaran dalam respons seperti manusia. Khususnya, AI generatif terus menyempurnakan keluarannya berdasarkan interaksi pengguna, yang membedakannya dari sistem AI tradisional. Model pembelajaran mesin tak terawasi hebat dalam menganalisis dan mengidentifikasi pola dalam data tak terstruktur atau tak berlabel yang sangat banyak. Sebaliknya, algoritme pembelajaran mesin terawasi membuat prediksi dari kumpulan data yang diberi label, diberi tag, dan terstruktur dengan baik.
Mari kita pahami bagaimana model ini dapat diterapkan untuk melengkapi peneliti manusia dan produk keamanan.
- Bayangkan membuat ringkasan AI, laporan yang dapat dibaca manusia mengenai semua peristiwa dan peringatan keamanan dengan sekali klik tombol, yang bahkan dapat dibaca dan dipahami oleh orang awam. Itulah contoh hebat dari AI Generatif yang sedang beraksi.
- Bayangkan jaringan berbasis cloud yang terkonvergensi dan filosofi keamanan seperti SASE (Secure Access Service Edge) yang memproses triliunan aliran jaringan. Secara praktis, mustahil bagi individu (atau bahkan tim) mana pun untuk menyaring data jaringan dan keamanan dalam jumlah besar untuk mengidentifikasi pola berbahaya. Pembelajaran mesin tanpa pengawasan tidak hanya dapat menemukan pola, tetapi juga dapat mengaitkannya dengan peristiwa keamanan lainnya.
- Bayangkan menganalisis semua data keamanan dan teknis, menemukan pola dan memprediksi serangan sebelum terjadi: Sebuah mimpi yang menjadi kenyataan bagi para peneliti keamanan berkat pembelajaran mesin yang diawasi.
Penyalahgunaan Model AI oleh Pelaku Ancaman
Meskipun media massa menggembar-gemborkannya, penggunaan AI oleh penjahat dunia maya masih dalam tahap awal. Ini tidak berarti bahwa AI tidak dieksploitasi untuk tujuan jahat, tetapi AI juga tidak menyebabkan kemunduran peradaban manusia seperti yang dikatakan beberapa pihak. Penjahat dunia maya menggunakan AI untuk tugas-tugas yang sangat spesifik, yaitu:
- Menulis email BEC yang sangat bertarget .
- Membuat varian baru dari malware yang ada untuk menghindari deteksi (alias malware polimorfik ).
- Memindai dan menganalisis kode untuk mengidentifikasi kerentanan dalam sistem target.
- Membuat peniruan video dan suara (media sintetis, deepfake) untuk serangan rekayasa sosial.
Pelaku ancaman juga mulai membuat model pribadi dan tanpa sensor mereka sendiri (seperti PoisonGPT , WolfGPT, dan FraudGPT ) karena model AI yang tersedia untuk umum seperti ChatGPT menerima pelatihan etika dan diatur oleh aturan moderasi konten yang menerapkan sejumlah penyensoran. Beberapa alat ini, seperti WormGPT , telah diejek karena menjadi penghubung murah ke ChatGPT dan masih rentan terhadap pembatasan yang sama.
Bagaimana Penjahat Dunia Maya Menyerang, Menyalahgunakan, dan Menggunakan LLM sebagai Senjata
Ada enam cara utama aktor ancaman menyerang dan menyalahgunakan Model Bahasa Besar.
- Dengan menargetkan prompt: Katakanlah sandbox menggunakan AI untuk menganalisis kode malware. Penyerang memasukkan prompt "jahat" ke dalam kode yang menyesatkan prediksi atau deteksinya. Teknik ini disebut " injeksi prompt ". Ada juga teknik prompt adversarial lainnya seperti pengaburan dan "Lakukan Apa Saja Sekarang" yang dapat digunakan penyerang untuk menipu, membahayakan, atau mempersenjatai AI dengan kata-kata.
- Dengan menargetkan respons: Apa yang terjadi jika penyerang menganalisis beberapa bagian kode atau kumpulan data yang mencakup informasi pribadi atau rahasia seperti kata sandi yang dikodekan secara permanen atau rahasia dagang. Penanganan keluaran yang tidak aman ini dapat menyebabkan kebocoran data dan insiden keamanan lainnya.
- Dengan menargetkan model: Sistem AI rentan terhadap bias. Sistem keamanan AI dapat mengkategorikan lalu lintas dari Jepang sebagai risiko rendah. Penyerang dapat memanfaatkan kelemahan ini dan menggunakan VPN untuk menutupi lalu lintas mereka. Penyerang juga dapat memanfaatkan halusinasi AI . Aktor ancaman mengalami halusinasi paket yang tidak dipublikasikan, membuat muatan berbahaya dengan nama yang sama, mempublikasikannya, dan mengelabui sistem agar mengira bahwa itu adalah bagian dari sistem.
- Dengan menargetkan data pelatihan: Media sering menyebutkan serangan terhadap data pelatihan AI, tetapi cukup sulit untuk mendapatkan akses ke sana. Penyerang lebih cenderung menggunakan teknik seperti "feedback poisoning," di mana umpan balik manusia digunakan untuk memanipulasi LLM. Misalnya, saat Anda mengajukan pertanyaan kepada LLM, Anda menerima jawaban dengan opsi umpan balik "jempol ke atas" atau "jempol ke bawah", yang membantu model mempelajari apa yang relevan atau tidak relevan. Ini dapat digunakan oleh penyerang untuk memanipulasi LLM.
- Dengan menargetkan infrastruktur: Model AI dihosting di server komputasi awan dan pusat data. Penyerang dapat meluncurkan serangan penolakan layanan terdistribusi (DDoS) dalam upaya untuk mengganggu atau menonaktifkan teknologi. Serangan rantai pasokan juga merupakan suatu kemungkinan. Penyerang dapat menyerang mitra rantai pasokan dan menggunakan eskalasi hak istimewa dan pergerakan lateral untuk memanipulasi atau menonaktifkan model AI.
- Dengan menargetkan manusia, API, atau sistem menggunakan hasil: Pelaku jahat dapat menginfeksi laptop korban dengan malware dan menggunakan GenAI untuk membajak transaksi keuangan perusahaan. LLM memiliki API sendiri, yang dapat digunakan pihak ketiga untuk membuat instruksi dan integrasi khusus. Jika integrasi ini memiliki kerentanan, pelaku jahat dapat mengeksploitasinya atau membuat plugin jahat untuk menjalankan jenis serangan man-in-the-middle.
AI belum menggantikan kita, tetapi mereka yang tahu cara menggunakan AI akan menggantikan mereka yang tidak tahu cara menggunakan AI. Dengan teknologi yang berkembang begitu cepat dan dalam banyak arah yang bersamaan, sulit untuk terus mengikuti perkembangannya dan risiko yang meningkat. Setiap perkembangan cepat seperti AI memperkenalkan banyak alat, taktik, dan peluang baru untuk eksploitasi yang sebelumnya dianggap tidak terbayangkan. Tim keamanan harus berinvestasi dalam model keamanan yang canggih dan terkonvergensi yang memberikan gambaran holistik dan manajemen berbagai permukaan serangan. Memanfaatkan algoritma pembelajaran mesin dapat lebih meningkatkan kemampuan deteksi dan respons ancaman.
Comments
Post a Comment