Microsoft Blokir Lebih Banyak Kata di Image Generator Copilot

Pengontrolan dan penyesuaian masih kerap dilakukan Microsoft agar konten yang dihasilkan oleh Image Generator Copilot mereka tidak melanggar kebijakan Microsoft.

Nah setelah sebelumnya beberapa perintah teks yang akan menghasilkan karya seni berupa kekerasan atau seksual diblokir, kini menurut laporan terbaru dari CNBC, pesan teks seperti “pro-choice”, “four Twenty”, dan “pro-life” ketika diketik akan menghasilkan peringatan “may conflict with our content policy”.

Gambar hasil dari teknologi AI memang dapat dikatakan cukup baik, namun dengan itu ada banyak creator yang memanfaatkan teknologi ini untuk membuat konten yang menampilkan kekerasan dan seksual, sehingga tentu langkah tambahan perlu dilakukan untuk mencegah konten tersebut tercipta.

Lalu apakah pemblokiran kata sangat diperlukan?

Jawabannya tentu saja sangat diperlukan, karena seperti yang kita tahu teknologi AI saat ini sudah cukup mampu menipu banyak orang terlebih para orang tua yang baru saja mencicipi teknologi.

Dengan akses yang tidak terbatas, AI bisa menghasilkan banyak konten negatif berupa hoax, pornography dan bahkan konten kekerasan, yang tentu dapat merugikan bukan satu pihak namun banyak pihak lainnya.

Nah jika kita ingat dengan kasus foto AI dari Taylor Swift beberapa minggu lalu, itu adalah satu dari sekian contoh kasus yang mungkin ditindak lanjuti, karena ada banyak kasus serupa dari hasil teknologi AI ini.

Kedepannya, Microsoft, OpenAI dan lainnya mungkin akan menerapkan keamanan extra pada hasil konten yang dibuat, karena bagaimanapun pembatasan pada AI ini sebenarnya sangat diperlukan.

Bagaimana menurutmu? komen dibawah guys.

Via : CNBC

Gylang Satria

Penulis, Pengguna Windows 11, Elementary OS, dan Iphone SE 2020. Tag @gylang_satria di Disqus jika ada pertanyaan.

Post navigation