Jakarta, Ekorantt.com – Yayasan Tifa mengadakan diskusi multipihak bertajuk “Pengendalian dan Pengawasan Artificial Inteligence (AI) di Sektor Publik: Regulasi, Risiko, dan Mitigasi” di Jakarta pada Kamis, 19 Februari 2026.
Diskusi terbatas ini mengundang perwakilan Kementerian Komunikasi dan Digital (Komdigi), Gugus Tugas Pokja Etika AI, akademisi hukum, dan organisasi masyarakat sipil untuk membedah poin-poin rekomendasi pengaturan pelindungan (safeguard) yang disampaikan oleh Yayasan Tifa.
Project Manager Data Policy and Governance Yayasan Tifa, Debora I.C berkata, tren penerapan AI di sektor publik berpotensi menimbulkan risiko yang tinggi bagi pemenuhan kepentingan dan layanan publik yang fundamental.
Risiko ini terutama dihadapi kelompok rentan yang masih kesulitan mengakses dan memanfaatkan teknologi digital, serta mereka yang tidak tercermin secara proporsional dalam dataset yang digunakan sebagai dasar pembuatan kebijakan.
Untuk mengendalikan risiko tersebut, kata Debora, Yayasan Tifa merekomendasikan pengaturan pelindungan yang berfokus pada tiga hal antara lain; pertama, pengetatan tanggung jawab pemerintah yang berperan sentral dalam penggunaan AI di layanan publik.
Kedua, penggunaan mekanisme penilaian dampak dan risiko berbasis hak asasi manusia. Ketiga, penyediaan saluran aduan dan prosedur pemulihan yang aksesibel dan responsif bagi warga yang terdampak.
Menanggapi hal tersebut, Ketua Tim Regulasi Peta Jalan, Etika, Tata Kelola dan Pengawasan Kecerdasan Artifisial Komdigi, Irma Handayani menjelaskan, pengaturan terperinci mengenai mekanisme safeguard penggunaan AI di layanan publik diserahkan pada kementerian dan lembaga.
“Kementerian dan lembaga perlu menindaklanjuti pedoman etika AI, termasuk soal mekanisme pemulihan untuk meminimalisasi risiko dan memantau pelaksanaan,” ujar Irma.
Ketua Pokja Etika Gugus Tugas AI, Henke Yunkins menilai, meski mekanisme safeguard diserahkan pada kementerian dan lembaga, tetap diperlukan sebuah badan yang menjadi titik aduan bagi masyarakat yang terdampak oleh pemanfaatan AI di sektor publik.
Badan tersebut perlu memiliki kapabilitas dan kapasitas dalam mengembangkan saluran aduan yang mudah diakses dan dipahami serta terintegrasi dengan mekanisme investigasi yang cepat dan prosedur pemulihan yang bersifat holistik.
Henke berkata, kebutuhan akan mekanisme safeguard menjadi sangat mendesak mengingat berbagai insiden telah terjadi. Hasil pemantauan EngageMedia menunjukkan adanya pelonjakan kasus insiden AI.
Salah satu insiden yang menonjol adalah penilangan ETLE terhadap layanan darurat medis dan penonaktifan layanan BPJS PBI yang dinilai dilakukan dengan bantuan teknologi secara otomatis dan tidak transparan. Dampaknya, akses terhadap layanan kesehatan menjadi terhambat.
Project Coordinator Digital Rights untuk Indonesia, Engage Media, Siti R. Desyana mengatakan, terjadi lonjakan kasus insiden AI sejak diterbitkannya Surat Edaran Etika AI pada tahun 2023, yakni sebanyak 88 kasus.
Sementara itu, Dr. Jur. Sih Yuliana Wahyuningtyas dari Unika Atma Jaya mengusulkan beberapa model regulasi, termasuk yang berbasis risiko dan kerugian, pemisahan regulasi yang bersifat umum dan sektoral, serta penekanan pada aspek kemanusiaan dan pendekatan pentahelix.
“Dalam proses pemantauan dan evaluasi, perlu ada indikator seperti kinerja, tata kelola, dampak operasional dan keuangan, dan kepercayaan publik,” kata Yuliana.
Berbagai masukan dan tanggapan dari para pemangku kepentingan yang diundang dalam diskusi multipihak ini selaras dengan usulan rekomendasi yang dirumuskan oleh Yayasan Tifa, bahwa segala bentuk pemanfaatan AI di sektor publik harus berlandaskan pada hak asasi manusia.
Yayasan Tifa percaya bahwa dalam proses perumusan regulasi mengenai AI, publik, terutama yang terdampak, memiliki hak untuk berpartisipasi aktif. Dengan demikian, pemanfaatan AI diharapkan bisa lebih transparan dan dapat dipertanggungjawabkan.












