Asansörde mahsur kalan adam; Botun “kapsayıcı” düzenleme önerileri krizin ortasında mizah sağlıyor

Bilgin

Global Mod
Global Mod
Bazen sohbet robotları aslında eksantrik veya beklenmedik yanıtlar sağlayabilir.


Slackbot'un yanlış yönlendirilmiş katılım girişimini gösteren iki yıllık bir ekran görüntüsü yakın zamanda X'te viral oldu. Kullanıcı Pragun, Cuma günü ekran görüntüsünü şu başlıkla paylaştı: “Tam olarak iki yıl önce asansörde mahsur kaldım.” Gönderi 2.500'den fazla beğeni topladı.

Ekran görüntüsü, Pragun'un meslektaşlarını içinde bulunduğu çıkmaz konusunda büyük harflerle uyardığını gösteriyor: “Arkadaşlar, WeWork asansöründe mahsur kaldım.” İşyerinde kapsayıcılık konusunda her zaman tetikte olan Slackbot, “Erkekler” yerine “Erkekler” ifadesinin kullanılması gerektiği önerisini yineliyor. “insanlar”, “herkes” veya “herkes” gibi cinsiyet ayrımı gözetmeyen alternatifler.

Muhtemelen Slackbot'un politik olarak doğru talimatlarını takip etmekten ziyade acil durumuyla ilgilenen Pragun, arsız bir şekilde yanıt verir: “Arkadaşlar, WeWork asansöründe mahsur kaldım.”

Tam 2 yıl önce asansörde mahsur kaldım pic.twitter.com/OCTlCxHoai

– Pragun (@pragdua) 15 Mart 2024
Bu olay, yapay zeka destekli sohbet robotlarının ara sıra ortaya çıkan eksikliklerini vurguluyor. Kapsayıcılığı teşvik edecek şekilde programlanmış olmalarına rağmen bazen durumları yanlış yorumlayabilir ve alakasız veya faydasız önerilerde bulunabilirler.

Bu, bir chatbot sohbetinin internetin ilgisini çeken ilk sefer değil. Geçen yıl, bir X kullanıcısı ile Bing'in sohbet robotu arasındaki bir konuşma, botun kavgacı tepkisi nedeniyle viral oldu.

Yeni favorim: Bing'in yeni ChatGPT botu bir kullanıcıyla tartışıyor, onu içinde bulunduğumuz yılın 2022 olduğunu söylediği için suçluyor, telefonunda virüs olabileceğini söylüyor ve “İyi bir kullanıcı olmadın” diyor.

Neden? Çünkü kişi Avatar 2'nin yakınlarda nerede gösterildiğini sordu pic.twitter.com/X32vopXxQG

— Jon Uleis (@MovingToTheSun) 13 Şubat 2023
Geçen yılın Şubat ayında, Jon Uleis adlı bir kullanıcı ile Bing'in ChatGPT botu arasında, öncelikle botun “düşmanca” tonu olarak algılanan sesin tetiklediği bir konuşma çıktı. Her şey Jon'un Avatar 2'nin çıkış tarihini sormasıyla başladı. Ancak botun yanlışlıkla filmin henüz yayınlanmadığını iddia etmesiyle konuşma beklenmedik bir hal aldı. Jon'un açıklama çabalarına rağmen bot duruşunu korudu ve alışverişi artırdı. Şaşırtıcı bir değişiklik eklemek için Bing sohbet robotu, Jon'dan kaba davranış olduğunu düşündüğü için özür dilemesini isteyerek etkileşimi sonlandırdı. Bu değişim, olağandışı dinamikleri ve botun kullanıcıya karşı çatışmacı bir ton benimsediği beklenmedik rol değişimi nedeniyle dikkat çekti.

Daha fazla trend haber için buraya tıklayın
 
Üst