
Kementerian Komunikasi dan Digital (Komdigi) Indonesia saat ini menerapkan sistem pengawasan konten di media sosial bernama Sistem Kepatuhan Moderasi Konten (SAMAN). Namun, para pakar dan lembaga pengamat menilai Komdigi perlu membedakan secara jelas antara konten ilegal dan konten berbahaya agar penanganannya tidak tumpang tindih dan tetap melindungi kebebasan berekspresi pengguna.
Peneliti dari Remotivi, Muhammad Heychael, menyampaikan dalam sebuah diskusi publik di Jakarta Selatan pada Senin (3/11) bahwa di Indonesia hampir semua konten yang dianggap “meresahkan masyarakat” secara otomatis dikategorikan sebagai ilegal. Hal ini membuat pendekatan pemerintah terhadap moderasi konten cenderung bersifat pidana dan tidak memberikan ruang bagi mekanisme self-regulation atau pengaturan mandiri oleh platform digital.
Menurut Heychael, persoalan utama terletak pada ketiadaan klasifikasi yang tegas antara konten ilegal dan berbahaya. Di banyak negara demokratis seperti Amerika Serikat, Inggris, dan Kanada, kedua jenis konten ini dipisahkan agar penanganannya dapat berbeda. Konten ilegal adalah materi yang jelas melanggar peraturan perundang-undangan dan dapat diproses secara hukum, seperti judi online yang memang dilarang negara. Sementara itu, konten berbahaya adalah yang mengandung unsur risiko atau dapat memicu bahaya, misalnya konten berkaitan dengan bunuh diri yang lebih tepat ditangani melalui pendekatan edukatif dan panduan komunitas oleh platform.
Heychael menambahkan bahwa di luar negeri, pemerintah bertanggung jawab langsung atas penghapusan konten ilegal, sedangkan platform digital diberikan kewenangan mengatur konten berbahaya melalui kebijakan komunitas dan laporan transparansi. Ini mendorong moderasi yang lebih proporsional dan melindungi kebebasan berekspresi pengguna internet.
Kritik atas Akuntabilitas dan Mekanisme Banding
Komdigi juga dikritik belum memiliki mekanisme akuntabilitas dan proses banding yang jelas dalam penanganan konten. Sebagai perbandingan, di Inggris dan Kanada moderasi konten diawasi oleh lembaga independen seperti Office of Communication (Ofcom), yang tidak berada di bawah kendali langsung pemerintah. Proses penghapusan konten dilakukan secara transparan melalui mekanisme karantina sementara sampai keputusan final diambil bersama.
Organisasi masyarakat sipil SAFEnet mencatat adanya kasus overmoderasi atau penyensoran berlebihan terutama pada masa-masa politik krusial, termasuk Pemilu 2024 dan demonstrasi pada Agustus 2025. Dalam periode tersebut, tercatat 592 akun media sosial diblokir, termasuk beberapa konten jurnalistik dan ekspresi warganet yang seharusnya mendapat perlindungan hukum.
Balqis Zakiyyah, Analis Kebijakan dan Hukum SAFEnet, menilai praktik overmoderasi ini terkait dengan regulasi yang mewajibkan platform digital menurunkan konten dalam waktu empat jam untuk kasus mendesak, seperti tercantum dalam Permenkominfo Nomor 5 Tahun 2020 dan Kepmenkominfo Nomor 522 Tahun 2024. Kebijakan tersebut diduga mendorong platform lebih memilih menurunkan konten secara berlebihan agar administrasi berjalan lancar, bukan demi melindungi kebebasan berekspresi.
Pengaruh Regulasi terhadap Kebebasan Bereksresi
Balqis juga menyoroti bahwa regulasi yang terlalu ketat dan dikendalikan sepenuhnya oleh pemerintah, seperti yang termaktub dalam PP Nomor 71 Tahun 2019 dan UU ITE, berpotensi mengurangi kebebasan berekspresi di ranah digital. Hanya pemerintah yang menentukan batas-batas ekspresi di dunia maya, sementara pengajuan banding atas penghapusan konten baru bisa dilakukan setelah konten tersebut dihapus, dan prosesnya juga masih ditangani oleh Komdigi.
Situasi ini dinilai dapat memperkuat dominasi pemerintah atas ruang digital dan mengurangi transparansi serta keadilan dalam moderasi konten. SAFEnet dan sejumlah kelompok advokasi mendesak agar sistem moderasi konten mengedepankan prinsip akuntabilitas, keterbukaan, dan perlindungan hak-hak digital pengguna.
Kebutuhan Moderasi yang Proporsional dan Terukur
Praktik moderasi konten yang ideal harus mampu membedakan perlakuan terhadap materi ilegal dan berbahaya agar tidak menimbulkan efek buruk bagi kebebasan berekspresi dan dinamika sosial. Sistem pengawasan media sosial perlu didukung oleh aturan yang jelas, mekanisme independen, serta komunikasi yang transparan dengan masyarakat.
Dengan adanya klasifikasi yang tepat, konten berbahaya dapat dikelola secara edukatif dan preventif oleh platform digital, sementara konten ilegal dapat lebih efektif ditangani secara hukum oleh pemerintah. Pendekatan ini diharapkan mampu menciptakan ekosistem digital yang lebih sehat dan kondusif bagi seluruh pengguna internet di Indonesia.
Baca selengkapnya di: katadata.co.id




