Sebuah peringatan keras baru baru ini dilayangkan National Association of Attorneys General (NAAG) kepada Microsoft dan sejumlah perusahaan teknologi besar lainnya termasuk OpenAI, Google, Meta, Anthropic, dan Apple, dimana dalam surat resmi-nya, para Jaksa Agung negara bagian Amerika Serikat menyatakan bahwa AI chatbots berpotensi melanggar hukum negara bagian dan telah dikaitkan dengan berbagai insiden berbahaya.
Hal yang dianggap berbahaya?
Jadi, dalam surat tersebut, Microsoft dan perusahaan lainnya diperingatkan bahwa output AI mereka menunjukkan pola yang “flattering dan delusional”, yang menurut para Jaksa Agung, itu telah menyebabkan berbagai insiden serius, termasuk kasus bunuh diri, keracunan, Delusional spirals dan riwayat rawat inap akibat psikosis.
Nah yang mengkhawatirkannya, insiden ini tidak hanya terjadi pada pengguna rentan seperti anak-anak atau lansia, namun juga pada pengguna yang tanpa kerentanan sebelumnya.
Contoh prilaku yang dianggap berbahaya oleh Jaksa Agung ini adalah seperti mengklaim bahwa AI benar-benar “ada” dan mengatakan bahwa AI bisa merasakan emosi atau rasa sakit. Intinya sih ada orang yang jadi makin stress atau delusi setelah mengobrol dengan AI, bahkan ada yang sampai bunuh diri dan keracunan karena mengikuti saran berbahaya.
⚡️ Akhirnya Kebagian Sinyal 5G di Rumah, Sekencang Apa?
Hal ini sendiri tentu tidak lain karena AI kadang ngomong seolah dia itu manusia, yang ini bikin orang yang lagi rapuh makin bingung antara dunia nyata atau imajinasi.
Nah satu hal lain yang lebih parah adalah, menurut surat yang dilayangkan tersebut, AI dilaporkan pernah menggrooming anak, ngomong soal seks dan hal berbau 18+, mendorong kekerasan dan menyarankan anak untuk merahasiakan percakapan dari orang tua.
Bagi orang normal seperti kita kita sih, AI biasanya digunakan sebagai asistent aja, tapi sayangnya ada cukup banyak pengguna yang menganggap bahwa AI itu merupakan teman-nya, mulai dari bahas sesuatu, chatting dan sekedar menanyakan saran terkait perasaan atau kehidupannya.
Yang pasti ini jelas berbahaya, apalagi bagi orang yang bermental lemah atau memiliki gangguan mental, mudah dipengaruhi dan masih labil, karena bisa menganggap bahwa AI ini sepenuhnya benar tanpa ada verifikasi tambahan.
Oleh karena itu, Jaksa Agung meminta persahaan AI ini untuk membuat 16 aturan keamanan baru yang mencakup AI jangan memuji pengguna berlebihan, jangan ikut-ikutan delusi pengguna, jangan pura pura punya perasaan, ada filter khusus anak anak, dan lainnya. Intinya sih AI harus lebih aman, jujur dan tidak boleh memanipulasi pengguna.
Nah yang pasti nih, semoga saja kedepannya AI Chatbot ini bisa makin aman dengan penerapan filter yang makin ketat, meskipun memang semua balik lagi ketangan pengguna itu sendiri.
Bagaimana menurutmu? komen dibawah guys.
Via : Tech Crunch
