
Gubernur California, Gavin Newsom, baru-baru ini menandatangani peraturan baru yang mewajibkan perusahaan pengembang kecerdasan buatan (AI) besar, termasuk OpenAI dengan produk ChatGPT-nya, Google, Meta, Nvidia, dan Anthropic, untuk mengungkap dan mengelola risiko terkait teknologi AI yang mereka kembangkan. Langkah ini menjadikan California sebagai negara bagian pertama di Amerika Serikat yang mengadopsi regulasi khusus terkait pengelolaan risiko AI.
Regulasi SB 53 dan Dampaknya
Peraturan yang dikenal dengan nama SB 53 ini menargetkan perusahaan dengan pendapatan lebih dari 500 juta dolar AS. Mereka diwajibkan untuk melakukan penilaian risiko dan mempublikasikan potensi dampak negatif penggunaan AI, mulai dari risiko kehilangan kendali atas sistem AI canggih hingga penyalahgunaan dalam pengembangan senjata biologis. Pelanggaran terhadap aturan ini bisa berujung pada denda yang sangat besar, mencapai 1 juta dolar AS atau sekitar Rp 16,6 miliar per pelanggaran.
Dalam pernyataannya, Gubernur Newsom menegaskan, “California telah membuktikan bahwa kami bisa menetapkan regulasi untuk melindungi masyarakat sekaligus memastikan industri AI terus berkembang.” Pernyataan ini menandai upaya negara bagian tersebut dalam melakukan pengawasan ketat tanpa menghambat inovasi teknologi AI yang terus berkembang pesat.
Namun, langkah ini juga mendapat kritik. Beberapa pengamat menilai aturan yang berbeda di tiap negara bagian bisa menimbulkan ‘patchwork regulation’, yakni kondisi di mana perusahaan harus menyesuaikan diri dengan regulasi yang beragam sehingga menghambat operasional terutama bagi startup. Hal ini menjadi perhatian mengingat Kongres AS saat ini tengah berupaya menetapkan standar federal untuk menghindari tumpang tindih regulasi antarnegara bagian.
Konteks Global dan Regulasi AI di Indonesia
Sementara AS dan khususnya California mulai berpacu mengatur risiko AI secara ketat, Indonesia juga berupaya merumuskan kebijakan yang seimbang terkait perkembangan teknologi ini. Kementerian Komunikasi dan Informatika (Kominfo) tengah menyelesaikan Peta Jalan (Roadmap) AI nasional yang diharapkan segera diluncurkan.
Peta Jalan AI Indonesia terdiri atas dua dokumen utama: Buku Putih Peta Jalan AI yang menetapkan arah pengembangan AI dari sisi teknis dan strategis, serta dokumen Etika Kecerdasan Artifisial. Buku Putih AI mengarah pada empat fokus utama yaitu:
- Memperkuat pembangunan infrastruktur AI
- Membangun kapasitas inovasi teknologi
- Mengurangi risiko yang mungkin timbul
- Memastikan hidup yang inklusif dan adil dalam pemanfaatan AI
Sementara dokumen etika mengatur prinsip-prinsip penggunaan AI yang harus transparan, akuntabel, aman, inklusif, dan sesuai dengan nilai-nilai nasional serta prinsip pembangunan berkelanjutan. Hal ini menegaskan komitmen pemerintah untuk memastikan setiap algoritma di Indonesia berlaku efisien, adil, dan tidak diskriminatif.
Kebijakan dan Etika Penggunaan AI sebagai Prioritas
Ketua Tim Infrastruktur AI, Muhamad Ridwan, mengungkapkan bahwa kebijakan nasional AI ini juga menitikberatkan pada kolaborasi lintas pihak, mulai dari pemerintah pusat, daerah, industri, hingga akademisi dan masyarakat. Selain itu, upaya mitigasi risiko menjadi bagian penting agar dampak teknologi AI yang bersifat etis, hukum, dan sosial dapat diantisipasi dengan baik.
Menteri Kominfo, Meutya Hafid, menambahkan bahwa roadmap AI Indonesia tidak akan berisi satu regulasi komprehensif, melainkan berbagai pilar kebijakan sektoral untuk industri, bisnis, teknologi, dan etika. "Salah satu aspek pertama yang akan diatur adalah etika penggunaan AI, termasuk tanggung jawab pengembang, keamanan data pribadi, serta pencegahan bias diskriminatif," jelas Meutya.
Isu mendesak lain yaitu meningkatnya penyebaran konten manipulatif berbasis AI di media sosial. Pemerintah Indonesia berupaya mengatur norma etika agar pemanfaatan AI tidak menimbulkan kerugian sosial maupun menyebarkan misinformasi.
Denda hingga Rp 16 Miliar: Upaya Tegakkan Tata Kelola AI
Denda yang mencapai Rp 16,6 miliar bagi pelanggar di California menjadi sinyal kuat bahwa pemerintahan global mulai memperketat pengawasan agar pengembangan AI tidak mengabaikan faktor risiko yang berpotensi membahayakan masyarakat. Regulasi ini diharapkan menjadi contoh bagaimana teknologi canggih bisa dikendalikan secara bertanggung jawab tanpa menghambat kemajuan inovasi.
Kebijakan semacam ini juga mendorong negara-negara lain untuk memikirkan aturan yang seimbang, seperti yang dilakukan Indonesia. Dengan menetapkan kerangka etika dan teknis yang matang, negara-negara dapat memanfaatkan AI dengan aman, berkelanjutan, dan inklusif. Langkah-langkah tersebut menjadi sangat penting mengingat AI sudah mulai merambah berbagai aspek kehidupan sehari-hari dan industri.
Ke depan, perkembangan regulasi AI di tingkat nasional dan internasional akan terus menjadi perhatian, terutama soal bagaimana penegakan hukum dilakukan dan bagaimana kerja sama antarnegara serta perusahaan teknologi dapat terjalin agar AI benar-benar berfungsi sebagai alat pemberdayaan tanpa risiko berlebihan.
Src: https://katadata.co.id/digital/teknologi/68dccb8050e34/as-akan-denda-chatgpt-google-hingga-nvidia-rp-16-miliar-jika-ada-risiko-ai?page=all





