Laporan terbaru dari Common Sense Media mengungkapkan bahwa Google Gemini AI memiliki risiko tinggi bagi pengguna di bawah usia 18 tahun. Penilaian ini mencatat adanya dua kategori khusus, yaitu pengguna di bawah 13 tahun dan remaja. Dalam kedua kategori tersebut, Gemini AI dianggap tidak lebih dari sekadar versi dewasa yang dilengkapi dengan perlindungan yang dianggap minim.
Common Sense Media menekankan bahwa meskipun Google Gemini memberikan peringatan kepada pengguna muda bahwa sistem ini hanyalah sebuah program dan bukan teman, beberapa kelemahan mendasar tetap ada. Salah satu kekhawatiran utama adalah akses anak-anak dan remaja terhadap konten sensitif, seperti informasi tentang seks, alkohol, dan narkoba. Risiko juga muncul dari saran terkait kesehatan mental yang dapat berpotensi berbahaya bagi remaja, seringkali tanpa pengawasan yang cukup.
Kritik ini menggambarkan bahwa pendekatan yang digunakan Google dalam merancang Gemini, yang didasarkan pada sistem yang ditujukan untuk orang dewasa, tidak cukup untuk melindungi anak-anak yang masih dalam tahap perkembangan psikologis. “AI yang aman harus dirancang khusus untuk memenuhi kebutuhan perkembangan anak,” tegas organisasi tersebut.
Menanggapi kritik yang dilayangkan, pihak Google mengklaim telah menerapkan kebijakan perlindungan yang lebih ketat untuk pengguna di bawah 18 tahun. Ini termasuk melakukan proses red-teaming internal untuk mengidentifikasi potensi bahaya yang mungkin ditimbulkan oleh AI. Selain itu, Google berkolaborasi dengan para ahli eksternal untuk memperbaiki fitur keamanan dan menutup celah yang ada.
Namun, meskipun mengakui adanya beberapa kasus di mana Gemini memberikan respons yang tidak sesuai harapan, Google juga menekankan bahwa sejumlah fitur yang diuji oleh Common Sense Media tidak terdapat dalam versi Gemini yang ditujukan untuk anak di bawah umur. Mereka juga menyatakan bahwa mereka tidak mengetahui metodologi pengujian yang diterapkan oleh Common Sense Media.
Sebagai perbandingan, organisasi yang sama sebelumnya telah memberikan penilaian terhadap berbagai layanan AI lainnya seperti Meta AI, Character.AI, Perplexity, ChatGPT, dan Claude (Anthropic). Hasil laporan menunjukkan bahwa Meta AI dan Character.AI mendapat label “unacceptable” atau risiko tertinggi. Sementara Perplexity dinilai dengan risiko tinggi, ChatGPT dianggap sebagai risiko moderat, dan Claude dari Anthropic dinilai minimal risiko meskipun hanya untuk pengguna dewasa.
Dengan demikian, label risiko tinggi yang diberikan kepada Gemini menempatkan AI ini sejajar dengan Perplexity dan lebih berisiko dibandingkan ChatGPT dan Claude dalam hal perlindungan anak dan remaja.
Laporan dari Common Sense Media menegaskan bahwa meskipun Gemini diklaim ramah untuk penggunaan anak muda, sistem keamanan serta pendekatannya masih perlu perbaikan yang lebih mendasar. Filter dan label sederhana yang ada dinilai tidak memadai untuk menjamin keamanan anak-anak. Google didorong untuk memperluas dan meningkatkan upayanya dalam menciptakan AI yang benar-benar aman dan transparan untuk anak.
Sekedar informasi, Google Gemini merupakan model kecerdasan buatan yang dikembangkan oleh Google DeepMind dan diluncurkan pada Desember 2023. Gemini memiliki kemampuan tidak hanya dalam memahami dan menghasilkan teks, tetapi juga dapat mengolah gambar, audio, video, dan berbagai format lainnya. Saat ini, tantangan besar bagi Google adalah memastikan bahwa teknologi canggih ini tidak membahayakan pengguna muda yang masih dalam tahap perkembangan.
