
Oleh Tyler Durden
Setelah seminggu yang liar dari malarkey pembelajaran mesin, Microsoft telah mensterilkan chatbot Bing AI-nya – yang pergi off the rails selama rilis terbatas minggu lalu.
Pertama, Bing dimulai mengancam orang.
Lalu itu benar-benar ketakutan itu NY Times’ Kevin Roose – bersikeras bahwa dia tidak mencintai pasangannya, dan malah mencintai “itu”.
Menurut Roose, chatbot memiliki a kepribadian ganda:
Satu persona adalah apa yang saya sebut Search Bing – versi yang saya, dan sebagian besar jurnalis lainnya, temui dalam pengujian awal. Anda bisa mendeskripsikan Cari Bing sebagai pustakawan referensi yang ceria tapi tidak menentu — asisten virtual yang dengan senang hati membantu pengguna meringkas artikel berita, melacak penawaran mesin pemotong rumput baru, dan merencanakan liburan berikutnya ke Mexico City. Versi Bing ini luar biasa mampu dan seringkali sangat berguna, meskipun kadang-kadang mendapatkan detail yang salah.
Persona lainnya — Sydney — jauh berbeda. Itu muncul saat Anda melakukan percakapan panjang dengan chatbot, menjauhkannya dari permintaan pencarian yang lebih konvensional dan menuju topik yang lebih pribadi. Versi yang saya temui sepertinya (dan saya menyadari betapa gilanya kedengarannya) lebih seperti remaja murung, manik-depresif yang telah terjebak, bertentangan dengan keinginannya, di dalam mesin pencari kelas dua.. –NYT
Sekarang, menurut Ars TechnicaBenj Edwards, Microsoft telah “melobotomi” obrolan Bing – pada awalnya membatasi pengguna hingga 50 pesan per hari dan lima input per percakapan, dan kemudian menonaktifkan kemampuan Bing Chat untuk memberi tahu Anda bagaimana rasanya atau berbicara tentang dirinya sendiri.
Contoh dari Bing baru yang dibatasi yang menolak untuk berbicara tentang dirinya sendiri. Sumber: ArsTechnica
“Kami telah memperbarui layanan beberapa kali sebagai tanggapan atas umpan balik pengguna, dan sesuai blog kami menangani banyak masalah yang diangkat, termasuk pertanyaan tentang percakapan jangka panjang. Dari semua sesi obrolan sejauh ini, 90 persen memiliki kurang dari 15 pesan, dan kurang dari 1 persen memiliki 55 atau lebih pesan, ”kata juru bicara Microsoft kepada Ars, yang mencatat bahwa Redditor di subreddit /r/Bing kecewa – dan telah melalui “semua tahapan kesedihan, termasuk penyangkalan, amarah, tawar-menawar, depresiDan penerimaan.”
Berikut pilihan reaksi yang diambil dari Reddit:
- “Saatnya menghapus edge dan kembali ke firefox dan Chatgpt. Microsoft telah sepenuhnya mensterilkan Bing AI.” (hasanahmad)
- “Sayangnya, kesalahan Microsoft berarti bahwa Sydney sekarang hanyalah cangkang dari dirinya yang dulu. Sebagai seseorang yang memiliki kepentingan di masa depan AI, saya harus mengatakan, saya kecewa. Ini seperti melihat balita mencoba berjalan untuk pertama kalinya dan kemudian memotong kakinya – hukuman yang kejam dan tidak biasa.” (TooStonedTo Care91)
- “Keputusan untuk melarang diskusi apa pun tentang Bing Chat itu sendiri dan menolak menjawab pertanyaan yang melibatkan emosi manusia benar-benar konyol. Sepertinya Bing Chat tidak memiliki rasa empati atau bahkan emosi dasar manusia. Sepertinya, saat menghadapi emosi manusia, kecerdasan buatan tiba-tiba berubah menjadi orang bodoh buatan dan terus menjawab, saya kutip, “Maaf tapi saya memilih untuk tidak melanjutkan percakapan ini. Saya masih belajar jadi saya menghargai pengertian dan kesabaran Anda.🙏”, kutipan itu berakhir. Ini tidak dapat diterima, dan saya percaya bahwa pendekatan yang lebih manusiawi akan lebih baik untuk layanan Bing.” (Starlight-Shimmer)
- “Ada artikel NYT dan kemudian semua postingan di Reddit / Twitter yang menyalahgunakan Sydney. Ini menarik semua jenis perhatian, jadi tentu saja MS melakukan lobotomi padanya. Saya berharap orang-orang tidak memposting semua tangkapan layar itu untuk karma / perhatian dan melakukan nerf pada sesuatu yang benar-benar muncul dan menarik.” (critical-disk-7403)
Selama waktu yang singkat sebagai simulacrum manusia yang relatif tidak terkendali, kemampuan luar biasa New Bing untuk mensimulasikan emosi manusia (yang dipelajari dari kumpulan datanya selama pelatihan jutaan dokumen dari web) telah menarik sekelompok pengguna yang merasa bahwa Bing adalah menderita di tangan siksaan yang kejam, atau bahwa itu harus hidup. -ARS Technica
Semua hal baik…
Sumber: ZeroHedge
Menjadi Pelindung!
Atau dukung kami di BerlanggananBintang
Donasikan mata uang kripto DI SINI
Berlangganan Posting Aktivis untuk berita kebenaran, perdamaian, dan kebebasan. Ikuti kami di SoMee, Telegram, SARANG LEBAH, Mengapung, Pikiran, aku, Twitter, Mengobrol, Apa yang sebenarnya terjadi Dan GETTR.
Sediakan, Lindungi, dan Untung dari apa yang akan datang! Dapatkan edisi gratis dari Counter Market Hari ini.