Sejak kemunculan ChatGPT, teknologi generative AI berkembang pesat dan mulai dimanfaatkan oleh pelaku kejahatan siber. Menurut survei Darktrace, 74% profesional TI menyebut ancaman berbasis AI kini jadi tantangan besar.
Mengapa Generative AI Berbahaya?
- Pemula pun bisa jadi peretas andal hanya dengan meminta bantuan AI untuk membuat kode berbahaya
- Model AI hasil modifikasi dijual murah (di bawah $100) untuk membantu kejahatan siber.
- Serangan jadi lebih cepat, masif, dan pintar: mampu menganalisis kegagalan, mempelajari sistem target, lalu memodifikasi strategi serangan secara instan.
Jenis Serangan Berbasis AI:
- Phishing & Rekayasa Sosial: Email dan pesan palsu buatan AI tampak lebih meyakinkan dan personal.
- Deepfake: Video/audio palsu meyakinkan yang bisa menipu karyawan—pernah menyebabkan kerugian $25 juta.
- Malware & Ransomware yang Bermutasi: AI menulis kode jahat yang lolos deteksi tradisional.
- Eksploitasi Celah Sistem: AI mampu mencari dan memanfaatkan kerentanan perangkat lunak.
- SQL Injection & DDoS: AI mempermudah pencurian data dan overload sistem melalui lalu lintas palsu.
Strategi Pertahanan Siber yang Disarankan:
- Deteksi Ancaman Berbasis AI: Gunakan machine learning untuk analisis pola serangan secara real-time.
- Pemantauan dan Respons Otomatis: Sistem harus terus mengawasi dan segera merespons insiden.
- Kontrol Akses Adaptif: Akses diatur dinamis berdasarkan identitas, lokasi, dan tujuan pengguna.
- Pelatihan Karyawan: Edukasi soal ancaman seperti phishing AI dan deepfake sangat penting karena 60% pelanggaran data melibatkan kesalahan manusia.
Generative AI membuat serangan siber semakin sulit dibendung. Tanpa pembaruan strategi keamanan yang adaptif dan cerdas, organisasi bisa tertinggal jauh dalam menghadapi ancaman generasi baru.
Artikel ini telah diterbitkan oleh OliverWyman, dengan judul The Generative AI Cyber Threat. Artikel selengkapnya dapat dibaca di sini.