June 9, 2023


Oleh Morgiane Noel, Trinity College Dublin

Kecerdasan buatan (AI) telah menjadi bagian dari kehidupan kita sehari-hari sehingga sulit untuk dihindari – bahkan jika kita mungkin tidak mengenalinya.

Sementara ChatGPT dan penggunaan algoritme di media sosial mendapat banyak perhatian, area penting di mana AI menjanjikan dampaknya adalah hukum.

Gagasan AI memutuskan kesalahan dalam proses hukum mungkin tampak dibuat-buat, tapi itu salah satu yang sekarang perlu kita pertimbangkan dengan serius.

Itu karena menimbulkan pertanyaan tentang kompatibilitas AI dengan melakukan uji coba yang adil. UE memiliki perundang-undangan yang diundangkan dirancang untuk mengatur bagaimana AI bisa dan tidak bisa digunakan dalam hukum pidana.

Di Amerika Utara, algoritme yang dirancang untuk mendukung uji coba yang adil sudah digunakan. Ini termasuk Kompasitu Penilaian Keamanan Publik (PSA) dan Instrumen Penilaian Risiko Pra-Percobaan (PTRA). Pada November 2022, House of Lords menerbitkan sebuah laporan yang mempertimbangkan penggunaan teknologi AI dalam sistem peradilan pidana Inggris.

Algoritma yang mendukung

Di satu sisi, akan menarik untuk melihat bagaimana AI dapat memfasilitasi keadilan secara signifikan dalam jangka panjang, seperti mengurangi biaya dalam layanan pengadilan atau menangani proses peradilan untuk pelanggaran ringan. Sistem AI dapat menghindari kekeliruan khas psikologi manusia dan dapat tunduk pada kontrol yang ketat. Untuk beberapa, mereka bahkan mungkin lebih tidak memihak daripada hakim manusia.

Selain itu, algoritme dapat menghasilkan data untuk membantu pengacara mengidentifikasi preseden dalam kasus hukum, menemukan cara untuk merampingkan prosedur peradilan, dan mendukung hakim.

Di sisi lain, keputusan otomatis yang berulang dari algoritme dapat menyebabkan kurangnya kreativitas dalam interpretasi hukum, yang dapat memperlambat atau menghentikan perkembangan sistem hukum.

Alat AI yang dirancang untuk digunakan dalam persidangan harus mematuhi sejumlah instrumen hukum Eropa, yang menetapkan standar untuk menghormati hak asasi manusia. Ini termasuk Komisi Eropa Prosedural untuk Efisiensi Keadilanitu Piagam Etika Eropa tentang Penggunaan Kecerdasan Buatan dalam Sistem Yudisial dan Lingkungannya (2018), dan undang-undang lain yang diberlakukan dalam beberapa tahun terakhir untuk membentuk kerangka kerja yang efektif tentang penggunaan dan batasan AI dalam peradilan pidana. Namun, kami juga membutuhkan mekanisme pengawasan yang efisien, seperti hakim manusia dan komite.

Mengontrol dan mengatur AI merupakan tantangan dan mencakup berbagai bidang hukum, seperti undang-undang perlindungan data, undang-undang perlindungan konsumen, dan undang-undang persaingan, serta beberapa bidang lain seperti hukum perburuhan. Misalnya, keputusan yang diambil oleh mesin secara langsung tunduk pada GDPR, yaitu Regulasi Perlindungan Data Umumtermasuk persyaratan inti untuk keadilan dan akuntabilitas.

Menjadi Antipeluru Online Hari Ini Dengan RISIKO NOL!

Ada ketentuan dalam GDPR untuk mencegah orang semata-mata tunduk pada keputusan otomatis, tanpa campur tangan manusia. Dan telah ada diskusi tentang asas ini di bidang hukum lainnya.

Masalahnya sudah ada pada kita: di AS, alat “penilaian risiko” telah digunakan untuk membantu penilaian prapersidangan yang menentukan apakah terdakwa harus dibebaskan dengan jaminan atau ditahan sambil menunggu persidangan.

Salah satu contohnya adalah algoritma Compas di AS, yang dirancang untuk menghitung risiko residivisme – risiko terus melakukan kejahatan bahkan setelah dihukum. Namun, ada tudingan – dibantah keras oleh perusahaan di belakangnya – bahwa Compas algoritma memiliki bias rasial yang tidak disengaja.

Pada 2017, seorang pria dari Wisconsin adalah divonis enam tahun penjara dalam penilaian yang sebagian didasarkan pada skor Compas-nya. Perusahaan swasta yang memiliki Compas menganggap algoritmenya sebagai rahasia dagang. Oleh karena itu, baik pengadilan maupun para terdakwa tidak diizinkan untuk memeriksa rumus matematika yang digunakan.

Menuju perubahan masyarakat?

Karena hukum dianggap sebagai ilmu manusia, relevan bahwa alat AI membantu hakim dan praktisi hukum daripada menggantikannya. Seperti dalam demokrasi modern, keadilan mengikuti pemisahan kekuatan. Inilah prinsip dimana lembaga-lembaga negara seperti legislatif, yang membuat hukum, dan yudikatif, sistem pengadilan yang menerapkan hukum, jelas terbagi. Ini dirancang untuk melindungi kebebasan sipil dan menjaga dari tirani.

Penggunaan AI untuk keputusan pengadilan dapat mengguncang keseimbangan kekuasaan antara legislatif dan yudikatif dengan menantang hukum manusia dan proses pengambilan keputusan. Akibatnya, AI dapat menyebabkan perubahan nilai-nilai kita.

Dan karena semua jenis data pribadi dapat digunakan untuk menganalisis, memperkirakan, dan memengaruhi tindakan manusia, penggunaan AI dapat mendefinisikan kembali perilaku yang dianggap salah dan benar – mungkin tanpa perbedaan.

Mudah juga membayangkan bagaimana AI akan menjadi kecerdasan kolektif. Kolektif AI diam-diam muncul di bidang robotika. Drone, misalnya, dapat berkomunikasi satu sama lain terbang dalam formasi. Di masa depan, kita dapat membayangkan semakin banyak mesin yang berkomunikasi satu sama lain untuk menyelesaikan semua jenis tugas.

Pembuatan algoritme untuk ketidakberpihakan keadilan dapat menandakan bahwa kami menganggap algoritme lebih mampu daripada hakim manusia. Kita bahkan mungkin siap untuk mempercayai alat ini dengan nasib hidup kita sendiri. Mungkin suatu hari, kita akan berevolusi menjadi masyarakat yang mirip dengan yang digambarkan dalam serial novel fiksi ilmiah The Robot Cycle, oleh Isaac Asimov, di mana robot memiliki kecerdasan yang mirip dengan manusia dan mengendalikan berbagai aspek masyarakat.

Dunia di mana keputusan-keputusan penting didelegasikan ke teknologi baru menimbulkan ketakutan bagi banyak orang, mungkin karena mereka khawatir hal itu dapat menghapus apa yang pada dasarnya menjadikan kita manusia. Namun, pada saat yang sama, AI adalah alat potensial yang ampuh untuk mempermudah kehidupan kita sehari-hari.

Dalam penalaran manusia, kecerdasan tidak mewakili keadaan kesempurnaan atau logika yang sempurna. Misalnya, kesalahan memainkan peran penting dalam perilaku manusia. Mereka memungkinkan kita untuk berkembang menuju solusi konkret yang membantu kita meningkatkan apa yang kita lakukan. Jika kita ingin memperluas penggunaan AI dalam kehidupan kita sehari-hari, sebaiknya terus menerapkan penalaran manusia untuk mengaturnya.Percakapan

Morgiane NoelKandidat PhD, Hukum Lingkungan, Hak Asasi Manusia, Hukum Eropa., Trinity College Dublin

Artikel ini diterbitkan ulang dari Percakapan di bawah lisensi Creative Commons. Membaca artikel asli.

Menjadi Pelindung!
Atau dukung kami di BerlanggananBintang
Donasikan mata uang kripto DI SINI

Berlangganan Posting Aktivis untuk berita kebenaran, perdamaian, dan kebebasan. Ikuti kami di SoMee, Telegram, SARANG LEBAH, Mengapung, Pikiran, aku, Twitter, Mengobrol, Apa yang sebenarnya terjadi Dan GETTR.

Sediakan, Lindungi, dan Untung dari apa yang akan datang! Dapatkan edisi gratis dari Counter Market Hari ini.



Leave a Reply

Your email address will not be published. Required fields are marked *