Meningkatnya kebutuhan untuk menyeimbangkan manfaat dan risiko dalam mengintegrasikan AI dalam keamanan siber OT di lanskap ancaman yang terus berkembang
Karena lingkungan OT (teknologi operasional) semakin dibombardir dengan ancaman dan serangan siber yang canggih, integrasi AI ke dalam keamanan siber OT menjadi sangat menjanjikan , menawarkan peningkatan yang sangat dibutuhkan. AI (kecerdasan buatan) dapat menganalisis sejumlah besar data secara real-time, sehingga secara signifikan membantu meningkatkan kemampuan deteksi dan respons ancaman terhadap musuh yang terus berkembang. Namun, ada juga pedang bermata dua dalam memperkenalkan AI dalam keamanan siber OT, yang memerlukan keseimbangan yang cukup cermat antara manfaat dengan risiko inheren dari teknologi baru tersebut di seluruh lingkungan OT yang kritis.
Otomatisasi dan proses keamanan yang efisien melalui AI sangatlah menarik, meskipun hal ini juga meningkatkan kemungkinan kerentanan melalui serangan yang bersifat adversarial, atau kecenderungan untuk bias dalam membuat keputusan. Oleh karena itu, menangani keamanan siber OT dengan menggabungkan AI secara tepat akan membuat kemajuan dengan mengatasi kendala yang terkait dengan tantangan dengan sistem lama, interoperabilitas, dan bahkan kumpulan data pelatihan yang tangguh.
Mengintegrasikan AI ke dalam proyek infrastruktur OT yang ada memerlukan perencanaan strategis, yang mencakup peningkatan teknologi dan pelatihan karyawan untuk bekerja dengan alat tersebut dengan sukses. Dalam kasus AI, terkadang pengawasan manusia dianggap sangat penting. Untuk membenarkan wawasan yang dapat diberikan oleh solusi yang berasal dari AI, mengelola pengecualian, dan memberikan penilaian yang lebih halus yang tidak ada dalam solusi yang bersumber dari AI, pakar manusia memainkan peran penting dalam memiliki postur keamanan yang cukup komprehensif untuk memenuhi semua kebutuhan.
Regulasi AI dalam keamanan siber OT merupakan area lain yang sangat penting karena, seiring munculnya praktik dan standar terbaik, ada kebutuhan untuk mengurangi risiko. Para pembuat kebijakan dan pemimpin industri harus berkolaborasi untuk membuat standar yang transparan, akuntabel, dan aman bagi sistem AI. Regulasi perlu mendorong inovasi tetapi juga melindungi infrastruktur, berupaya memajukan teknologi tanpa mengabaikan sisi etika pertimbangan.
Dalam laporan terbarunya, SANS Institute mengungkapkan temuan dari survei keamanan siber SANS 2024 ICS/OT, yang menyoroti perspektif responden tentang penggunaan AI di lingkungan ICS/OT, yang merupakan subjek baru dalam survei tahun ini. Hasilnya menunjukkan bahwa adopsi AI masih baru, dengan hanya 10 persen responden yang menggunakan AI di jaringan TI perusahaan dan ICS/OT. Sebanyak 19 persen lainnya menguji AI di lingkungan lab, sementara 27 persen membatasi AI pada lingkungan TI perusahaan, mengeksplorasi potensinya daripada mengintegrasikannya sepenuhnya ke dalam operasi industri mereka. Sebanyak 33 persen melaporkan tidak ada penggunaan atau pengujian AI sama sekali, yang menyoroti tahap awal AI di sektor kontrol industri.
Karena lanskap ancaman terus berkembang, pengintegrasian AI dalam lingkungan keamanan siber OT harus dilakukan secara proaktif dan dengan cara yang cerdas untuk menyediakan lingkungan operasional yang tangguh dan aman.
Keamanan siber OT mendapat peningkatan AI
Industrial Cyber berkonsultasi dengan para pakar keamanan siber untuk mengeksplorasi bagaimana AI merevolusi keamanan siber OT, khususnya dalam meningkatkan kemampuan deteksi dan respons ancaman. Mereka juga menyoroti kasus penggunaan spesifik yang menunjukkan dampak signifikan AI.
AI mengubah keamanan siber OT dengan meningkatkan kecepatan dan akurasi deteksi dan respons ancaman, Jonathon Gordon, analis pengarah di Takepoint Research , mengatakan kepada Industrial Cyber. “Secara khusus, AI mampu mengidentifikasi anomali dan aktivitas berbahaya yang sering kali sulit dideteksi melalui metode tradisional. Solusi yang digerakkan AI dapat menganalisis sejumlah besar lalu lintas jaringan, pola perilaku, dan log sistem secara real-time, yang memungkinkan mereka mengidentifikasi ancaman dengan lebih efektif.”
“Salah satu kasus penggunaan signifikan dari dampak AI adalah dalam respons insiden otomatis, di mana sistem AI dapat mengisolasi sistem yang terganggu, memberi tahu personel terkait, dan bahkan memulai tindakan mitigasi tanpa intervensi manual,” ungkap Gordon. “Misalnya, platform berbasis AI menggunakan pembelajaran adaptif untuk menetapkan perilaku dasar dan menandai anomali dalam lingkungan OT, yang secara signifikan meningkatkan deteksi ancaman yang sebelumnya tidak diketahui. Integrasi AI ke dalam platform juga membantu organisasi bertindak dalam hitungan detik setelah mendeteksi ancaman, sehingga memaksimalkan waktu aktif dan meminimalkan dampak potensi pelanggaran.”
Jeffrey Macre, arsitek solusi keamanan industri di Darktrace mengatakan bahwa AI secara signifikan meningkatkan analisis peringatan dan deteksi ancaman, yang memungkinkan teknisi OT untuk memprioritaskan operasi, bukan pemantauan alat. “Proses OT rumit, tetapi komunikasi perangkat OT yang sebenarnya bersifat rutin, sehingga deteksi anomali yang didukung AI menjadi sangat efektif. AI dapat mempelajari dan memahami pola normal perangkat OT, yang memungkinkannya untuk mendeteksi anomali dan potensi ancaman. AI dapat memberikan tindakan respons bedah secara real-time terhadap aktivitas anomali, hanya memblokir aktivitas yang mencurigakan untuk meminimalkan gangguan operasional. Pendekatan ini mendeteksi ancaman yang tidak diketahui atau baru yang tidak terdeteksi oleh alat tradisional.”
Macre mengatakan kepada Industrial Cyber bahwa AI juga membantu menyederhanakan inventaris aset. Meskipun identifikasi aset telah menjadi hal penting dalam keamanan siber OT selama beberapa waktu, AI dapat membantu mengidentifikasi fungsionalitas terperinci suatu perangkat dengan lebih baik, sedangkan alat tradisional hanya dapat mengidentifikasi perangkat dengan informasi umum seperti IP atau nama host.
Pada tingkat yang paling sederhana, Grant Geyer, kepala strategi di Claroty , mengakui bahwa AI generatif digunakan untuk mendemokratisasi peralatan keamanan siber OT. “Dengan pengangguran negatif dalam keamanan TI, pengembangan tenaga kerja keamanan OT menghadapi perjuangan berat yang nyata. Sejauh GenAI dapat dimanfaatkan sebagai kemampuan untuk mempercepat pembelajaran dan memperoleh wawasan, hal itu akan memberikan manfaat bagi para pembela di sektor swasta dan publik.”
"Di dunia yang memiliki terlalu banyak kerentanan di seluruh populasi sistem kontrol industri yang sangat besar, seiring berjalannya waktu AI akan sangat penting dalam membantu tim keamanan siber dan OT untuk memprioritaskan pekerjaan mereka," kata Geyer kepada Industrial Cyber. "AI dapat mencocokkan kerentanan tertentu setelah menganalisis ancaman kerentanan melalui konfigurasi rumit jaringan, firmware, OS, aplikasi pengerasan, dan sebagainya. AI juga dapat digunakan untuk menentukan pola komunikasi yang baik antara pengguna, mesin, dan beban kerja cloud sehingga pengecualian dapat diselidiki untuk menentukan apakah penyimpangan tersebut merupakan serangan siber."
Mengatasi kendala integrasi AI
Para eksekutif berfokus pada tantangan terbesar yang mereka hadapi saat mengintegrasikan AI ke dalam lingkungan OT, terutama terkait sistem lama yang ada. Mereka juga menyoroti cara mengatasi masalah seperti kualitas data dan kesalahan positif.
Gordon mengamati bahwa mengintegrasikan AI ke dalam lingkungan OT merupakan tantangan terutama karena kompatibilitas dengan sistem lama, masalah kualitas data, dan risiko menghasilkan hasil positif palsu. Sistem lama sering kali tidak memiliki standarisasi data yang diperlukan untuk AI, sehingga menyulitkan integrasi dan analisis data. Untuk mengatasi hal ini, sangat penting untuk menerapkan langkah-langkah pembersihan dan praproses data menyeluruh guna memastikan bahwa data yang digunakan oleh sistem AI akurat dan andal.
Ia menyadari bahwa kualitas data merupakan masalah penting lainnya—sistem AI memerlukan kumpulan data yang konsisten dan berkualitas tinggi untuk pelatihan dan pengoperasian. “Memastikan integritas, kelengkapan, dan relevansi kontekstual data sangatlah penting, dan ini dapat dicapai dengan menetapkan protokol manajemen data yang kuat dan melakukan audit rutin.”
"Untuk positif palsu, model AI harus terus-menerus disesuaikan dan disesuaikan untuk memahami nuansa unik lingkungan OT," menurut Gordon. "Hal ini sering kali memerlukan kolaborasi dengan pakar domain yang dapat membantu melatih model AI untuk membedakan antara ancaman nyata dan anomali jinak. Tingkat positif palsu juga dapat dikurangi dengan mengkorelasikan peringatan dan menyempurnakan proses pengambilan keputusan model AI berdasarkan data historis dan konteks dari insiden sebelumnya."
Macre menilai bahwa tantangan terbesar adalah ketakutan untuk menghadirkan teknologi mutakhir ke dalam lingkungan OT. “Banyak tim OT bekerja dengan sistem kontrol industri yang berusia 5 atau 10+ tahun, sehingga menimbulkan kekhawatiran bahwa mengintegrasikan teknologi baru dapat memengaruhi operasi. Namun, banyak alat AI dapat dikonfigurasi dalam mode pasif untuk hanya memantau lalu lintas jaringan, sehingga memastikan risiko minimal bagi operasi. Selain itu, penyadapan jaringan dapat dimanfaatkan untuk memasukkan data jaringan ke dalam AI tanpa koneksi fisik langsung ke sistem OT.”
Ia juga menunjukkan bahwa kualitas data dan positif palsu merupakan masalah utama pada berbagai platform keamanan OT. Namun, ketika memanfaatkan platform AI canggih yang dapat mempelajari dan memahami pola lalu lintas jaringan lingkungan OT tertentu, masalah ini dapat dihilangkan.
“Teknologi AI dapat menjadi sangat penting untuk membantu vendor keamanan siber OT memperoleh pemahaman yang lebih baik tentang protokol khusus industri dan IoT, yang pada gilirannya akan memberikan wawasan yang lebih baik bagi pemilik aset dan tim siber mereka,” kata Geyer. “Kunci untuk memecahkan masalah kualitas data dan positif palsu adalah menggabungkan berbagai tingkat dan sumber informasi. Saat Anda menggabungkan informasi aset dari pengumpulan pasif, pengumpulan aktif, dan integrasi pihak ketiga, Anda dapat meningkatkan kepercayaan data secara drastis melalui inferensi statistik.”
Menyeimbangkan manfaat dan risiko AI dalam keamanan siber OT
Ketika serangan siber berbasis AI, termasuk malware dan rekayasa sosial yang dihasilkan AI , menjadi semakin umum, para eksekutif keamanan siber memeriksa cara untuk menyeimbangkan keunggulan AI dengan risiko terkait dalam keamanan siber OT.
Gordon mencatat bahwa AI tidak diragukan lagi menghadirkan kemampuan ganda bagi para pembela dan penyerang. “Di satu sisi, AI meningkatkan kemampuan deteksi dan respons; di sisi lain, AI dapat dijadikan senjata oleh musuh untuk menciptakan serangan canggih, seperti malware buatan AI atau kampanye rekayasa sosial yang meyakinkan.”
“Untuk menyeimbangkan manfaat dan risiko ini, para praktisi harus mengadopsi pendekatan komprehensif yang mencakup langkah-langkah proaktif dan reaktif,” imbuhnya. Hal ini melibatkan penerapan kerangka kerja keamanan yang kuat yang menggabungkan langkah-langkah keamanan khusus AI, seperti deteksi keracunan model, pertahanan injeksi cepat, dan validasi input yang kuat. Selain itu, pengawasan manusia sangat penting—insinyur senior harus memvalidasi keluaran AI, terutama di lingkungan berisiko tinggi di mana respons yang salah dapat menyebabkan kerusakan yang signifikan.
Lebih jauh, Gordon menegaskan bahwa penggunaan AI yang etis merupakan landasan penerapan AI yang bertanggung jawab. “Organisasi harus memiliki struktur tata kelola untuk mengevaluasi implikasi etis penggunaan AI dan memastikan transparansi dan akuntabilitas dalam pengambilan keputusan yang didorong oleh AI. Dengan menggabungkan kemampuan AI dengan keahlian manusia dan tata kelola yang kuat, kita dapat memaksimalkan manfaat sekaligus mengurangi risiko terkait.”
“Tahun demi tahun, sebagian besar serangan OT berasal dari jaringan IT,” menurut Macre. “Untuk melawan serangan ini, organisasi dapat menggunakan solusi bertenaga AI yang menyediakan dukungan di semua jaringan, tidak hanya OT. Dengan visibilitas di semua domain, termasuk IT, OT, lingkungan DMZ , cloud, email, dll., dalam platform yang sama, tim keamanan siber dapat menggunakan AI untuk mengidentifikasi jalur serangan potensial yang paling kritis dan mengambil langkah-langkah untuk menghilangkan jalur tersebut, memastikan ancaman tidak dapat mencapai sistem OT yang paling kritis.”
Ia menambahkan bahwa pendekatan ini membebaskan tim OT untuk memprioritaskan tugas-tugas khusus OT, daripada mengelola keamanan siber.
Geyer mengatakan bahwa kenyataannya adalah bahwa penyerang tidak bermain berdasarkan aturan atau standar etika apa pun, dan akan memanfaatkan alat apa pun – termasuk AI – untuk mencapai tujuan mereka.
Menyetujui bahwa organisasi industri perlu peduli tentang masa depan AI dalam keamanan siber OT, ia menyoroti bahwa mereka perlu lebih peduli tentang mendapatkan dasar-dasar yang benar. “Tiga proses penting yang perlu dilakukan dengan benar oleh setiap organisasi yang memiliki banyak aset adalah manajemen eksposur, segmentasi jaringan, dan pengelolaan risiko akses pihak ketiga. Setelah Anda mendapatkan proses ini dengan benar, maka Anda berhak untuk khawatir tentang serangan siber berbasis AI,” imbuh Geyer.
Pengawasan manusia muncul sebagai kunci AI dalam keamanan siber OT
Para pakar meneliti peran penting pengawasan manusia dalam aplikasi AI untuk keamanan siber OT. Berdasarkan pengalaman mereka, mereka merekomendasikan langkah-langkah yang harus diambil organisasi untuk memastikan keluaran AI dapat diandalkan dan akurat.
Gordon menilai bahwa pengawasan manusia memainkan peran penting dalam penerapan AI untuk keamanan siber OT, memastikan bahwa keluaran AI tidak hanya akurat secara teknis tetapi juga relevan secara kontekstual. Meskipun model AI dapat menghasilkan wawasan yang sangat akurat, hasil ini dapat menyebabkan tindakan yang tidak tepat tanpa interpretasi spesifik domain yang tepat.
Untuk memastikan bahwa keluaran AI dapat diandalkan, Gordon mengatakan bahwa organisasi dapat menerapkan beberapa strategi utama. “Pertama, verifikasi ahli sangat penting; teknisi berpengalaman harus meninjau rekomendasi yang dihasilkan AI, terutama dalam lingkungan operasional berisiko tinggi, untuk memberikan lapisan jaminan tambahan.”
Selain itu, model AI memerlukan pelatihan dan penyesuaian rutin agar tetap efektif—pembaruan terus-menerus dengan data terbaru membantu model ini mengenali nuansa tertentu dalam konteks OT. Menggabungkan sistem yang melibatkan manusia memastikan bahwa penilaian manusia diterapkan pada titik-titik keputusan penting, mengurangi risiko seperti positif palsu atau kesalahan AI yang dapat mengganggu operasi.
Terakhir, Gordon menunjukkan bahwa membangun mekanisme umpan balik kuat yang mengintegrasikan wawasan dari pengguna akhir dan para ahli membantu menyempurnakan kinerja AI, memastikan keakuratan dan relevansi keluaran dari waktu ke waktu.
Macre mengidentifikasi bahwa ketika AI diterapkan secara bertanggung jawab, pengawasan manusia tidak sepenting yang dipikirkan banyak orang. Ia memberikan perincian bahwa AI dilatih pada data real-time setiap bisnis, memastikan bahwa AI selalu belajar dan tidak bergantung pada masukan manusia – tidak diperlukan algoritma pra-pelatihan atau pra-pelajaran, dan tidak perlu memperbarui tanda tangan atau aturan untuk mengidentifikasi ancaman. AI dapat digunakan dalam lingkungan OT yang terputus sepenuhnya dan akan berfungsi sama seperti di lingkungan yang terhubung. AI dibawa ke data organisasi alih-alih membawa data ke AI, yang berarti pengawasan yang diperlukan lebih sedikit.
“Mempertahankan lingkungan CPS merupakan misi penting, dan itulah sebabnya untuk menggunakan kekuatan AI, Anda memerlukan proses yang akurat dan tepat,” kata Geyer. “Membangun ini sebagai proses manusia-mesin sangatlah penting, yang memerlukan kekuatan pengawasan manusia untuk menentukan dan mengatur proses tersebut.”
Ia menambahkan bahwa meskipun AI dapat dengan cepat menganalisis kumpulan data yang besar dan mengidentifikasi potensi ancaman, keahlian manusia diperlukan untuk menginterpretasikan temuan ini dan memastikan keakuratan kontekstual. “Pendekatan hibrida ini memastikan bahwa perangkat AI selaras dengan kebutuhan keamanan dunia nyata untuk memastikan keluaran tetap akurat dan dapat ditindaklanjuti.”
Mengatur AI dalam keamanan siber OT: Praktik terbaik ke depannya
Seiring dengan terus berkembangnya Undang-Undang AI Uni Eropa dan Kerangka Manajemen Risiko AI ( AI RMF ) Institut Nasional Standar dan Teknologi (NIST) , para ahli keamanan siber mengevaluasi dampak kerangka kerja ini terhadap masa depan adopsi AI dalam keamanan siber OT dan menjajaki praktik terbaik yang direkomendasikan untuk memastikan kepatuhan.
“ Perkembangan lanskap regulasi , termasuk EU AI Act dan NIST AI RMF, akan secara signifikan memengaruhi masa depan adopsi AI dalam keamanan siber OT,” menurut Gordon. “Kerangka kerja ini bertujuan untuk memastikan sistem AI dapat dipercaya, transparan, dan akuntabel—persyaratan utama untuk penerapannya dalam lingkungan industri. Misalnya, EU AI Act berfokus pada transparansi, akuntabilitas, dan mitigasi risiko untuk aplikasi AI berdampak tinggi, sementara NIST AI RMF menekankan pada pengembangan budaya manajemen risiko dan penetapan standar kepercayaan untuk AI.”
Ia menambahkan bahwa untuk menavigasi peraturan ini secara efektif, organisasi harus mengadopsi beberapa praktik terbaik untuk kepatuhan. Pertama, membangun kerangka tata kelola AI sangatlah penting—kerangka ini harus mengintegrasikan standar AI dengan persyaratan kepatuhan yang ada untuk menyelaraskan semua inisiatif AI dengan harapan regulasi.
Selain itu, pemantauan dan dokumentasi berkelanjutan diperlukan untuk melacak kinerja AI dan menunjukkan kepatuhan terhadap standar peraturan, khususnya yang menyangkut manajemen risiko dan privasi data.
Gordon menunjukkan bahwa organisasi juga harus menerapkan praktik manajemen risiko yang kuat, melakukan penilaian risiko yang komprehensif untuk mengantisipasi dan mengurangi potensi ancaman seperti keracunan model dan injeksi cepat, menggunakan pedoman NIST AI RMF sebagai pendekatan sistematis. “Terakhir, melibatkan pembuat kebijakan dan berkontribusi pada pengembangan regulasi dapat membantu organisasi menyesuaikan diri dengan perubahan di masa mendatang sekaligus memastikan bahwa kebutuhan dan perspektif industri terwakili dalam diskusi kebijakan.”
"Sementara kita melihat peningkatan regulasi yang berfokus pada keamanan AI dan risiko AI, kita juga melihat persyaratan kepatuhan yang menyerukan penggunaan AI dalam keamanan siber," kata Macre. "Misalnya, North American Electric Reliability (NERC) Corporation Critical Infrastructure Protection (CIP) menambahkan persyaratan baru untuk Internal Network Security Monitoring (INSM) , yang menyerukan deteksi anomali komunikasi jaringan."
Ia menambahkan bahwa untuk mencapai deteksi anomali yang sebenarnya, penggunaan AI diperlukan. “Kami mengantisipasi industri lain akan membutuhkan AI dalam keamanan siber OT untuk meningkatkan kemampuan deteksi dan respons, serta memperkuat pertahanan mereka.”
Geyer mengatakan bahwa UU AI Uni Eropa dan NIST AI RMF akan memainkan peran penting dalam membentuk penerapan AI yang bertanggung jawab dalam keamanan siber OT. “Kerangka kerja ini menekankan transparansi dan akuntabilitas, memastikan sistem AI diterapkan secara etis dan aman. Untuk mematuhinya, organisasi harus menerapkan tata kelola data yang kuat, melakukan penilaian risiko berkelanjutan, dan memastikan keselarasan dengan persyaratan peraturan yang terus berkembang.”
Ia menyimpulkan bahwa praktik terbaik meliputi menjaga kolaborasi lintas fungsi, mematuhi pendekatan berbasis risiko untuk pemantauan AI, dan melakukan audit rutin untuk melindungi dari potensi kerentanan sekaligus mendorong inovasi dalam aplikasi AI.
Comments
Post a Comment