Kecerdasan buatan (artificial intelligence/AI) tercatat memiliki sejumlah risiko, termasuk bias dan manipulasi data serta pelanggaran privasi dan hak kekayaan intelektual. Selain itu, ada ketakutan bahwa AI telah dipersenjatai dan ancamannya bisa lebih buruk daripada yang telah dialami saat ini. Misalnya, deep fakes, pemalsuan suara, dugaan campur tangan dalam pemilihan umum, eksploitasi phishing, dan ransomware.
“AI generatif (GenAI) sudah ada sejak 1960-an, tetapi sekarang jauh lebih mudah diakses, memiliki kemampuan yang jauh lebih besar, dan lebih mudah digunakan,” ujar Jason Harrell, Direktur Pelaksana Risiko Operasional Dan Teknologi Depository Trust & Clearing Corp (DTCC).
“Apa yang biasanya membutuhkan waktu berhari-hari atau berminggu-minggu bagi para pelaku ancaman untuk membuat kode baru untuk berbagai upaya, GenAI dapat membuatnya hanya dalam hitungan menit,” kata Neal Dennis, Spesialis Intelijen Ancaman dari Cyware.
Langkah Menghadapi Kerentanan
Ancaman keamanan yang ditimbulkan oleh AI harus dipandang signifikan dan meningkat dengan cepat. “Penjahat siber berada pada tahap awal dalam memanfaatkan teknologi canggih ini,” jelas Brett Hansen, Chief Growth Officer Cigent Technology.
Pada pertemuan World Economic Forum di Davos pada Januari, CEO Aset Dan Manajemen Kekayaan JPMorgan Mary Callahan Erdoes mengatakan, keamanan adalah pertimbangan utama dalam pengeluaran bank. Menurutnya, para penipu menjadi lebih pintar, lebih cerdas, lebih cepat, lebih licik, dan lebih nakal. Yang pasti, penjahat siber memiliki cara untuk menghindari pengejarnya.
GenAI dan model bahasa besar (large language models/LLM) memiliki kegunaan yang cukup besar bagi para penyerang. Aplikasi-aplikasi ini dapat mendukung teknik-teknik menipu yang secara curang merepresentasikan orang yang sebenarnya. Ada juga penipuan dokumen atau pembuatan dokumentasi palsu untuk mendukung faktur palsu dan proses pembayaran.
Pada 29 April, National Institute of Standards and Technology Amerika Serikat (AS) menerbitkan beberapa dokumen panduan. Salah satunya, pendamping yang berfokus pada GenAI untuk Kerangka Kerja Manajemen Risiko AI NIST, yang berpusat pada daftar 13 risiko dan lebih dari 400 tindakan yang dapat dilakukan pengembang untuk mengelolanya.
Kondisi Saat Ini
Beberapa pengamat berpendapat, meskipun kecanggihan AI yang lebih besar akan berada dalam jangkauan penyerang siber, kondisi saat ini cukup memuaskan. Bagi Ilia Kolochenko, CEO dan Kepala Arsitek Spesialis Keamanan Aplikasi ImmuniWeb, GenAI hanya memberikan sedikit bantuan dalam kampanye ransomware, serangan siber, atau spionase industri dengan ancaman yang bertujuan untuk mencuri informasi rahasia dari pemerintah.
Meskipun demikian, Kolochenko menyarankan agar sistem otentikasi yang didasarkan pada suara atau tampilan visual klien segera diuji. Karyawan yang mungkin menjadi target untuk menerima surel (email) atau teks yang menipu juga harus dilatih.
Kepala Petugas AI
Dengan mempertimbangkan risiko serta kebutuhan akan kepemimpinan tingkat senior, peran kepala pejabat AI atau jabatan fungsional yang setara dapat memberikan penekanan yang diperlukan pada pelatihan karyawan.
Rata-rata karyawan besar akan dihadapkan pada serangan phishing yang dihasilkan oleh AI. Maka, karyawan perlu dilatih sebab standar kualitas serangan telah ditingkatkan. GenAI juga telah menciptakan lingkungan yang tidak stabil dan mengalami perubahan.
Jika phishing dan teknik-teknik lain lolos dari penanggulangan yang ada saat ini, apa implikasi dari agen atau botnet bertenaga AI?
“Akankah kecerdasan umum buatan menciptakan taktik dan teknik baru?” sebut David Ratner, CEO HYAS. Sebagai penutup, dirinya menyatakan, “Para pembela HAM harus mempersiapkan diri, melakukan penelitian, dan siap untuk beradaptasi.”
Artikel ini telah diterbitkan oleh GARP, dengan judul “AI Rears Its Head as a Cyber Threat” pada 3 Mei 2024. Artikel selengkapnya dapat dibaca di sini.