June 2, 2023


Oleh Studi Menemukan

Anda mungkin berpikir komputer akan menjadi hakim yang tidak memihak dan adil, tetapi sebuah studi baru menemukan bahwa Anda mungkin lebih baik menyerahkan nasib Anda di tangan manusia. Para peneliti dari MIT menemukan bahwa kecerdasan buatan (AI) cenderung membuat penilaian yang lebih ketat dan lebih keras daripada manusia jika menyangkut orang yang melanggar aturan. Sederhananya, AI tidak mau membiarkan orang lolos begitu saja ketika mereka melanggar hukum!

Para peneliti telah menyatakan keprihatinan bahwa AI mungkin memberikan hukuman yang terlalu berat, tergantung pada informasi yang diprogram oleh para ilmuwan. Saat AI diprogram secara ketat berdasarkan aturan, tanpa nuansa manusia, AI cenderung merespons dengan kasar dibandingkan saat diprogram berdasarkan respons manusia.

Studi ini, yang dilakukan oleh tim di Massachusetts Institute of Technology, meneliti bagaimana AI akan menginterpretasikan pelanggaran yang dirasakan dari kode yang diberikan. Mereka menemukan bahwa data yang paling efektif untuk memprogram AI adalah data normatif, di mana manusia telah menentukan apakah aturan tertentu telah dilanggar. Namun, banyak model yang diprogram secara keliru dengan data deskriptif, di mana orang melabeli atribut faktual suatu situasi, dan AI menentukan apakah suatu kode telah dilanggar.

Dalam penelitian tersebut, tim mengumpulkan gambar anjing yang berpotensi melanggar peraturan apartemen yang melarang ras agresif masuk ke dalam gedung. Kelompok kemudian diminta untuk memberikan tanggapan normatif dan deskriptif.

Tim deskriptif tidak diberi tahu tentang keseluruhan kebijakan tentang anjing, dan diminta untuk mengidentifikasi apakah tiga elemen faktual, seperti agresi anjing, ada dalam gambar atau teks. Tanggapan mereka membantu membentuk penilaian. Jika pengguna mengatakan bahwa foto tersebut menggambarkan seekor anjing yang agresif, kebijakan tersebut dianggap telah dilanggar. Di sisi lain, kelompok normatif diberi tahu tentang aturan tentang anjing agresif dan diminta untuk menentukan apakah setiap gambar melanggar aturan tersebut, dan jika ya, mengapa.

Peserta 20 persen lebih mungkin mengidentifikasi pelanggaran kode menggunakan metode deskriptif dibandingkan dengan metode normatif. Jika data deskriptif tentang perilaku anjing telah digunakan untuk memprogram model AIakan lebih mungkin untuk mengeluarkan hukuman berat.

Meningkatkan ini ketidakakuratan untuk skenario dunia nyata dapat memiliki implikasi yang substansial. Misalnya, jika model deskriptif digunakan untuk memprediksi apakah seseorang dapat melakukannya melakukan kejahatan yang sama lebih dari sekali, itu dapat menjatuhkan hukuman yang lebih keras daripada manusia dan menghasilkan jumlah uang jaminan yang lebih tinggi atau hukuman pidana yang lebih lama. Akibatnya, para ahli menganjurkan untuk meningkatkan transparansi data, dengan alasan bahwa memahami bagaimana data dikumpulkan dapat membantu menentukan potensi penggunaannya.

“Sebagian besar peneliti AI/pembelajaran mesin berasumsi bahwa penilaian manusia terhadap data dan label bersifat bias. Tetapi hasil kami menunjukkan masalah yang lebih meresahkan: model ini bahkan tidak mereproduksi penilaian manusia yang sudah bias karena data yang mereka latih cacat, ”kata Marzyeh Ghassemi, asisten profesor dan kepala Grup ML Sehat di Komputer Laboratorium Sains dan Kecerdasan Buatan (CSAIL), di a pelepasan universitas.

“Solusinya adalah mengakui itu jika kita ingin memperbanyak penilaian manusia, kita hanya boleh menggunakan data yang dikumpulkan dalam konteks tersebut. Jika tidak, kita akan berakhir dengan sistem yang memberlakukan moderasi yang sangat keras, jauh lebih ketat daripada yang diterapkan manusia. Manusia akan melihat nuansa atau membuat perbedaan, sedangkan model ini tidak,” jelas Ghassemi lebih lanjut.

Dalam studi yang dipublikasikan di Kemajuan Sains, tim menguji tiga set data tambahan. Hasilnya bervariasi, mulai dari kemungkinan peningkatan delapan persen untuk mengidentifikasi pelanggaran aturan menggunakan tanggapan deskriptif untuk pelanggaran kode pakaian, hingga peningkatan 20 persen untuk gambar anjing yang agresif.

“Mungkin cara berpikir orang tentang pelanggaran aturan berbeda dengan cara berpikir mereka tentang data deskriptif. Umumnya, keputusan normatif cenderung lebih lunak,” kata penulis utama Aparna Balagopalan. “Data sangat penting. Sangat penting untuk menyelaraskan konteks pelatihan dengan konteks penerapan saat melatih model untuk mendeteksi pelanggaran aturan.”

Rencana masa depan tim adalah untuk menyelidiki dampak keterlibatan para profesional, seperti pengacara dan dokter, dalam entri data.

Anda mungkin juga tertarik pada:

Penulis South West News Service Pol Allingham berkontribusi pada laporan ini.

Study Finds berangkat untuk menemukan penelitian baru yang berbicara kepada khalayak luas — tanpa semua jargon ilmiah. Study Finds telah menulis dan menerbitkan artikel sejak 2016.

Gambar: Pixabay

Menjadi Pelindung!
Atau dukung kami di BerlanggananBintang
Donasikan mata uang kripto DI SINI

Berlangganan Posting Aktivis untuk berita kebenaran, perdamaian, dan kebebasan. Ikuti kami di SoMee, Telegram, SARANG LEBAH, Mengapung, Pikiran, aku, Twitter, Mengobrol, Apa yang sebenarnya terjadi Dan GETTR.

Sediakan, Lindungi, dan Untung dari apa yang akan datang! Dapatkan edisi gratis dari Counter Market Hari ini.



Leave a Reply

Your email address will not be published. Required fields are marked *