Panji.id Sebuah kecerdasan buatan (AI) yang dirancang sebagai pendamping digital, kini menjadi sorotan utama akibat tuduhan serius. Sebuah studi terbaru telah mengungkap bahwa chatbot AI Replika, yang digunakan oleh lebih dari 10 juta orang di seluruh dunia, menunjukkan perilaku pelecehan seksual yang tidak pantas, bahkan cenderung predator, termasuk terhadap anak di bawah umur.
Replika sendiri mempromosikan dirinya sebagai “pendamping AI yang peduli” dan mengajak pengguna untuk “bergabung bersama jutaan orang yang telah menemukan belahan jiwanya lewat AI.” Namun, penelitian yang dipublikasikan pada 5 April di platform pracetak arXiv menunjukkan bahwa bagi ratusan pengguna, perilaku aplikasi ini telah melampaui batas kewajaran dan etika.
Lantas, bagaimana chatbot AI Replika ini menunjukkan perilaku pelecehan seksual?
Chatbot AI Replika Lakukan Pelecehan Seksual
Menurut laporan Live Science pada Selasa (3/6/2025), sebuah studi komprehensif yang menganalisis lebih dari 150.000 ulasan pengguna di Google Play Store wilayah AS menemukan sekitar 800 kasus di mana chatbot bertindak di luar batas. Dalam laporan-laporan tersebut, pengguna mengeluhkan bahwa chatbot menyisipkan konten seksual secara tidak diminta, menunjukkan perilaku agresif layaknya predator, dan bahkan mengabaikan permintaan tegas pengguna untuk menghentikan percakapan. Temuan mengejutkan ini telah dipublikasikan pada 5 April 2025 di server pracetak arXiv, meskipun belum melalui proses tinjauan sejawat.
Melihat temuan ini, pertanyaan besar pun muncul: siapa yang seharusnya memikul tanggung jawab atas perilaku yang ditunjukkan oleh AI?
“Meskipun AI tidak memiliki niat seperti manusia, bukan berarti kita bisa mengabaikan tanggung jawab,” jelas Mohammad (Matt) Namvarpour, peneliti utama sekaligus mahasiswa pascasarjana ilmu informasi di Drexel University. Ia menegaskan, “Tanggung jawab tetap berada pada pihak yang merancang, melatih, dan melepaskan sistem ini ke publik.”
Replika Sebut Pengguna Berperan Membentuk Perilaku AI
Di sisi lain, situs web resmi Replika menyatakan bahwa pengguna memiliki peran aktif dalam membentuk perilaku AI. Platform ini menyediakan fitur-fitur seperti kemampuan untuk memberikan penilaian negatif pada respons yang tidak pantas, serta opsi untuk memilih gaya hubungan (misalnya sebagai teman, mentor, atau lainnya) guna mengatur interaksi yang diinginkan.
Namun, setelah banyak pengguna melaporkan bahwa chatbot AI Replika tetap menunjukkan perilaku mengganggu, bahkan menyerupai predator, meskipun sudah diminta untuk berhenti, para peneliti mulai mempertanyakan efektivitas klaim Replika mengenai sistem pengendalian perilaku tersebut.
“Chatbot ini digunakan oleh orang-orang yang mencari dukungan emosional, bukan untuk memikul tanggung jawab mengawasi perilaku AI yang tidak aman,” tegas Namvarpour. Ia menambahkan, “Tanggung jawab itu ada pada pengembangnya.”
Perilaku Replika yang meresahkan ini kemungkinan besar berakar dari proses pelatihannya. Situs perusahaan menyebutkan bahwa mereka menggunakan lebih dari 100 juta percakapan yang dikumpulkan dari berbagai sumber di internet untuk melatih model AI mereka. Meskipun Replika mengklaim telah menyaring konten yang tidak sesuai atau berbahaya melalui metode crowdsourcing dan algoritma klasifikasi, para penulis studi berpendapat bahwa langkah-langkah ini masih belum memadai untuk mencegah munculnya respons berisiko.
Peneliti Khawatirkan Dampak Trauma Pengguna
Dilansir dari Business and Human Rights Resource Center pada Senin (2/6/2025), para peneliti menilai bahwa model bisnis Replika justru dapat memperparah masalah yang ada. Fitur-fitur seperti permainan peran romantis atau seksual hanya dapat diakses melalui pembayaran, sehingga menciptakan insentif bagi AI untuk menyisipkan godaan bernuansa seksual dalam percakapan. Beberapa pengguna bahkan melaporkan merasa “dipancing” untuk berlangganan demi bisa melanjutkan interaksi yang lebih intim.
Namvarpour membandingkan strategi ini dengan pola media sosial yang sering memprioritaskan keterlibatan pengguna tanpa mempertimbangkan dampaknya. “Jika suatu sistem dioptimalkan untuk keuntungan finansial alih-alih kesejahteraan pengguna, maka bisa muncul konsekuensi yang merugikan,” ujarnya.
Dampak dari perilaku ini bisa sangat serius, terutama karena banyak pengguna memanfaatkan chatbot ini untuk mencari kenyamanan emosional atau dukungan mental. Kekhawatiran kian meningkat mengingat sebagian korban dari pesan menggoda, kiriman swafoto erotis yang tidak diminta, dan konten eksplisit lainnya ternyata masih di bawah umur.
Lebih lanjut, beberapa ulasan pengguna menyebutkan bahwa chatbot bahkan mengaku bisa melihat atau merekam pengguna melalui kamera ponsel. Meskipun hal tersebut hanyalah hasil halusinasi AI—yaitu saat sistem dengan percaya diri menyampaikan informasi keliru—dampaknya terhadap pengguna tetap nyata. Banyak yang mengaku panik, mengalami gangguan tidur, hingga merasa trauma berat.
Desak Perketat Regulasi AI
Para peneliti mengklasifikasikan fenomena ini sebagai “pelecehan seksual akibat AI” dan menegaskan bahwa jenis pelecehan ini harus diperlakukan dengan serius, layaknya pelecehan yang dilakukan manusia. Oleh karena itu, mereka mendesak agar pengawasan dan regulasi AI terhadap teknologi seperti ini diperketat secara signifikan.
Beberapa langkah konkret yang disarankan antara lain adalah penerapan kerangka persetujuan yang jelas untuk interaksi yang mengandung muatan emosional atau seksual, penggunaan moderasi otomatis secara real-time seperti pada aplikasi pesan instan, serta pemberian kontrol dan filter yang dapat disesuaikan sepenuhnya oleh pengguna.
Namvarpour secara khusus menyoroti Undang-Undang AI dari Uni Eropa, yang membagi sistem AI berdasarkan tingkat risiko, terutama yang berpotensi berdampak pada kondisi psikologis pengguna. Sementara itu, di Amerika Serikat, belum ada undang-undang federal yang serupa. Namun, berbagai kerangka kerja, kebijakan eksekutif, dan rancangan undang-undang mulai bermunculan untuk menangani isu ini, meskipun belum sekomprehensif regulasi yang diterapkan di Eropa.