Kecanggihan kecerdasan buatan (artificial intelligence/AI) yang kian meningkat rupanya memunculkan risiko keamanan siber yang signifikan. Penerapan AI memicu lima risiko keamanan siber sebagai berikut.
- Pelanggaran dan Penyalahgunaan Data
Risiko penyalahgunaan dan kehilangan data meningkat karena ketersediaan proyek GenAI yang tidak terbatas, seperti GPT-4 atau PaLM2. Risiko ini sangat tinggi bagi staf yang menggunakan GenAI untuk mempercepat tugas harian atau bereksperimen dengan teknologi baru.
- Serangan dari Pihak Lawan
Serangan berupa manipulasi data input menyebabkan kesalahan klasifikasi serta terlewatinya langkah-langkah keamanan dan kendali pengambilan keputusan sistem AI.
- Malware dan Ransomware
Platform AI dapat terkena serangan ini dengan risiko—untuk solusi apa pun—yang meliputi
- gangguan pada layanan,
- pembajakan penambangan kripto atau serangan botnet (robot network), dan
- eksploitasi platform AI yang menyebabkan kerusakan.
- Kerentanan Infrastruktur AI
AI dapat ditargetkan melalui layanan AI berbasis cloud, unit pemrosesan grafis (graphic processing unit/GPU), dan unit pemrosesan tensor (tensor processing unit/TPU). GPU dan TPU adalah prosesor khusus untuk mempercepat beban kerja AI yang dapat memperkenalkan vektor serangan baru.
- “Peracunan” Model
Serangan musuh akan menargetkan model atau sistem AI. Dalam “peracunan” model, penyerang memasukkan data berbahaya pelatihan untuk memengaruhi keluaran dari model AI.
Permasalahan Privasi
Penggunaan Informasi Identifikasi Pribadi (Personally Identifiable Information/PII) untuk melatih model AI mengungkap informasi sensitif tentang individu atau kelompok. Kegagalan perlindungan PII dapat menyebabkan pelanggaran privasi, penipuan, dan serangan rekayasa sosial lainnya.
Beberapa potensi masalah dalam teknologi AI berikut dapat menjadi pertimbangan untuk langkah-langkah mitigasi.
- Hilangnya Informasi Sensitif
Meskipun beberapa informasi tidak berbahaya, informasi tersebut dapat digabungkan dengan titik data lain untuk membuat profil individu yang terperinci, yang berpotensi membahayakan privasi.
- Penjelasan Model
Dalam industri yang ketat, seperti keuangan dan perawatan kesehatan, regulator membutuhkan penjelasan tentang keluaran model dan pengambilan keputusan. Kurangnya penjelasan dapat menyebabkan kesalahan yang tidak terdiagnosis dan perbaikan proses yang tidak teridentifikasi. Beberapa risiko ini dapat dikurangi dengan mengadopsi prinsip-prinsip pengembangan AI yang etis, mendorong transparansi, dan meningkatkan.
- Berbagi Data dan Akses Pihak Ketiga
Platform AI dapat melibatkan kolaborasi beberapa pihak. Hal ini meningkatkan risiko akses yang tidak sah atau penyalahgunaan data pribadi.
- Penyimpanan dan Penghapusan Data
Penyimpanan data jangka panjang meningkatkan risiko akses yang tidak sah atau penyalahgunaan. Konteks dan kompleksitas solusi AI juga dapat menyulitkan untuk memastikan bahwa data dihapus ketika sudah tidak diperlukan lagi.
- Penyimpulan Informasi Sensitif
Kemampuan AI yang makin canggih dapat menyimpulkan informasi sensitif tentang pengguna berdasarkan input Bahkan ketika data disamarkan namanya, AI dapat menggunakan pengenalan pola tingkat lanjut tanpa izin.
- Pengawasan dan Pembuatan Profil
Teknologi AI, seperti pengenalan wajah dan pemantauan media sosial, memungkinkan pengawasan dan pembuatan profil individu secara invasif yang membahayakan hak-hak privasi.
Artikel ini telah diterbitkan oleh Grant Thornton, dengan judul “Anticipate Cybersecurity and Privacy Risks in AI” pada 18 Juli 2023. Artikel selengkapnya dapat dibaca di sini.