Pengguna Sekarang Mempercayai AI Seperti Manusia Untuk Menandai Konten Bermasalah – Pengguna media sosial dapat mempercayai kecerdasan buatan (AI) seperti halnya editor manusia untuk menandai ujaran kebencian dan konten yang berbahaya, menurut para peneliti di Penn State.
Pengguna Sekarang Mempercayai AI Seperti Manusia Untuk Menandai Konten Bermasalah
idecosystem – Menurut peneliti, pengguna lebih mempercayai AI ketika mereka memikirkan kualitas positif dari mesin, seperti akurasi dan objektivitas. Tetapi ketika pengguna ingat bahwa mesin tidak mampu membuat keputusan subjektif, kepercayaan mereka rendah.
Temuan ini dapat membantu pengembang merancang sistem kurasi konten bertenaga AI yang lebih baik yang dapat menangani sejumlah besar informasi yang saat ini dihasilkan sambil menghindari persepsi bahwa materi telah disensor, atau diklasifikasikan secara tidak akurat, kata S. Shyam Sundar, Profesor James P. Jimirro Media Effects di Donald P. Bellisario College of Communications dan co-director dari Media Effects Research Laboratory.
Baca Juga : Esensi GRC Dan Keamanan Siber, Bagaimana Keduanya Saling Memberdayakan
“Ada kebutuhan mendesak untuk moderasi konten di media sosial dan media online pada umumnya,” kata Sundar, yang juga merupakan afiliasi dari Institut Ilmu Komputasi dan Data Penn State. “Di media tradisional, kami memiliki editor berita yang bertindak sebagai penjaga gerbang.
Tetapi secara online gerbangnya terbuka lebar dan manusia tidak selalu mampu menjaga gerbang. Terutama ketika jumlah informasi yang dihasilkan besar. Ketika industri bergerak menuju solusi yang semakin otomatis, penelitian ini meneliti perbedaan antara moderator konten manusia dan otomatis dalam hal bagaimana orang merespons.”
Baik editor manusia maupun AI memiliki kelebihan dan kekurangan. Manusia cenderung akurat menilai apakah konten itu berbahaya, seperti ketika konten tersebut rasis atau berpotensi memicu tindakan menyakiti diri sendiri , menurut Maria D. Molina, asisten profesor periklanan dan hubungan masyarakat, Michigan State, yang merupakan penulis pertama studi tersebut. Namun, orang-orang tidak dapat memproses konten dalam jumlah yang besar sekarang dibuat dan dibagikan secara online.
Di sisi lain, sementara editor AI dapat menganalisis konten dengan cepat, orang sering tidak mempercayai algoritme ini untuk membuat rekomendasi yang akurat, serta takut bahwa informasi tersebut dapat disensor.
“Ketika berpikir tentang moderasi konten otomatis, muncul pertanyaan apakah editor dengan kecerdasan buatan melanggar kebebasan berekspresi,” kata Molina. “Ini adalah kombinasi dari fakta bahwa orang-orang membagikan semua konten bermasalah ini dan konten itu perlu dimoderasi, dan pada saat yang sama orang-orang khawatir tentang kemampuan AI untuk memoderasi konten. Pada akhirnya, kami ingin tahu bagaimana orang dapat membangun moderator konten AI yang tepercaya tanpa melanggar kebebasan berbicara mereka.”
Transparansi Dan Transparansi Interaktif
Menurut Molina, menyatukan orang dan AI dalam proses moderasi dapat menjadi salah satu cara untuk membangun sistem moderasi yang terpercaya. Dia menambahkan bahwa transparansi atau memberi sinyal kepada pengguna bahwa mesin terlibat dalam moderasi adalah salah satu pendekatan untuk meningkatkan kepercayaan pada AI. Namun, mengizinkan pengguna untuk menawarkan saran kepada AI, yang oleh para peneliti disebut sebagai “transparansi interaktif”, tampaknya semakin meningkatkan kepercayaan pengguna.
Untuk mempelajari transparansi dan transparansi interaktif, di antara variabel lainnya, para peneliti merekrut 676 peserta untuk berinteraksi dengan sistem klasifikasi konten. Peserta secara acak ditugaskan ke salah satu dari 18 kondisi eksperimental, yang dirancang untuk menguji bagaimana sumber moderasi AI, manusia atau keduanya dan transparansi reguler, interaktif atau tanpa transparansi dapat memengaruhi kepercayaan peserta pada editor konten AI.
Para peneliti menguji keputusan klasifikasi apakah konten tersebut diklasifikasikan sebagai “ditandai” atau “tidak ditandai” karena berbahaya atau penuh kebencian. Konten tes “berbahaya” berhubungan dengan ide bunuh diri, sedangkan konten tes “kebencian” mencakup ujaran kebencian.
Di antara temuan lain, para peneliti menemukan bahwa kepercayaan pengguna bergantung pada apakah kehadiran moderator konten AI memunculkan atribut positif dari mesin, seperti akurasi dan objektivitas, atau atribut negatif, seperti ketidakmampuan mereka untuk membuat penilaian subjektif tentang nuansa dalam bahasa manusia.
Memberi pengguna kesempatan untuk membantu sistem AI memutuskan apakah informasi online berbahaya atau tidak juga dapat meningkatkan kepercayaan mereka. Para peneliti mengatakan bahwa peserta studi yang menambahkan istilah mereka sendiri ke hasil daftar kata yang dipilih AI yang digunakan untuk mengklasifikasikan posting mempercayai editor AI sama seperti mereka mempercayai editor manusia.
Keprihatinan Etis
Sundar mengatakan bahwa membebaskan manusia dari meninjau konten lebih dari sekadar memberi pekerja istirahat dari tugas yang membosankan. Mempekerjakan editor manusia untuk tugas itu berarti bahwa para pekerja ini terpapar pada berjam-jam gambar dan konten penuh kebencian dan kekerasan, katanya.
“Ada kebutuhan etis untuk memoderasi konten otomatis,” kata Sundar, yang juga direktur Pusat Kecerdasan Buatan yang Bertanggung Jawab Sosial di Penn State. “Moderator konten manusia harus melindungi dari paparan konstan konten berbahaya setiap hari dengan memberikan manfaat sosial.”
Menurut Molina, pekerjaan di masa depan dapat melihat bagaimana membantu orang tidak hanya mempercayai AI, tetapi juga untuk memahaminya. Transparansi interaktif mungkin menjadi bagian penting dalam memahami AI juga, tambahnya.
“Sesuatu yang sangat penting tidak hanya kepercayaan pada sistem, tetapi juga melibatkan orang dengan cara yang benar-benar memahami AI,” kata Molina. “Bagaimana kita bisa menggunakan konsep transparansi interaktif ini dan metode lain untuk membantu orang memahami AI dengan lebih baik? Bagaimana cara terbaik untuk menghadirkan AI sehingga memunculkan keseimbangan yang tepat antara apresiasi kemampuan mesin dan skeptisisme tentang kelemahannya? Pertanyaan-pertanyaan ini layak untuk diteliti.” Para peneliti mempresentasikan temuan mereka dalam edisi terbaru Journal of Computer-Mediated Communication.