Oleh: Haris Firmansyah, SE & Sekretariat IRMAPA

Model dan aplikasi kecerdasan buatan (AI) sering dianggap otomatis dapat diandalkan, dipercaya, adil, dan aman, tetapi kenyataannya tidak selalu demikian. Meskipun canggih, model AI memerlukan pengelolaan yang hati-hati. Untuk memastikan AI berfungsi dengan baik, penerapan AI TRiSM—seperangkat solusi untuk secara proaktif mengidentifikasi dan mengurangi risiko terkait AI—merupakan langkah yang penting.

Dengan munculnya Generative AI, banyak organisasi mulai mengeksplorasi teknologi ini melalui proyek pilot. Namun, risiko sering kali baru dipertimbangkan setelah model atau aplikasi AI diterapkan. Program manajemen kepercayaan, risiko, dan keamanan AI (TRiSM) membantu menerapkan tata kelola yang diperlukan sejak awal, memastikan bahwa sistem AI patuh pada standar, adil, andal, dan menjaga privasi data.

Pilar-Pilar Utama AI TRiSM

  1. Penjelasan dan Monitoring Model: Menjamin bahwa model AI dapat dijelaskan dan dipantau secara efektif.
  2. ModelOps: Mengintegrasikan manajemen risiko ke dalam operasi model AI untuk memastikan kepatuhan dan keadilan.
  3. Keamanan Aplikasi AI: Menjamin bahwa aplikasi AI aman dari ancaman.
  4. Privasi: Melindungi data pribadi dan sensitif dari kebocoran.

Mengelola Risiko dalam Model AI

  1. Kesulitan Menjelaskan AI: Menjelaskan cara kerja model AI kepada pengguna dan konsumen tidak selalu mudah. Penting untuk menguraikan cara kerja model, kekuatan dan kelemahan, perilaku yang mungkin, serta potensi bias. Menampilkan dataset dan metode pemilihan data dapat membantu mengidentifikasi potensi bias.
  2. Akses Luas terhadap Alat Generatif AI: Alat seperti ChatGPT membawa risiko baru yang tidak bisa diatasi dengan kontrol konvensional. Risiko ini meningkat pada aplikasi AI generatif yang di-host di cloud.
  3. Risiko Kerahasiaan Data dari Alat Pihak Ketiga: Integrasi model dan alat AI dari penyedia pihak ketiga dapat menambah risiko. Penggunaan data besar dari model pihak ketiga dapat membuka akses ke data rahasia dan menimbulkan konsekuensi regulasi, komersial, dan reputasi.
  4. Kebutuhan Pemantauan Konstan: Model dan aplikasi AI memerlukan pemantauan yang konsisten. Proses manajemen risiko harus diintegrasikan dalam operasi model AI (ModelOps) untuk memastikan kepatuhan, keadilan, dan etika.
  5. Deteksi dan Penghentian Serangan Berbahaya: Serangan jahat terhadap AI bisa menyebabkan kerugian finansial, reputasi, dan data. Penting untuk menerapkan kontrol dan praktik khusus untuk menguji dan meningkatkan ketahanan alur kerja AI.
  6. Regulasi yang Akan Datang: Regulasi seperti Undang-Undang AI dan kerangka regulasi lainnya menetapkan standar untuk mengelola risiko aplikasi AI. Mematuhi regulasi ini akan membantu memastikan kepatuhan dan menghindari masalah hukum di masa depan.

Dengan memahami dan menerapkan AI TRiSM, organisasi dapat mengelola risiko dengan lebih baik dan memanfaatkan potensi AI secara lebih efektif.

Artikel ini telah diterbitkan oleh Gartner pada 5 September 2023, dengan judul Tackling Trust, Risk and Security in AI Models. Artikel selengkapnya dapat dibaca di sini.