

Araştırmaya göre, insanlar işsizlik, intihar düşüncesi, mani veya psikoz gibi krizlerde yapay zeka sohbet botlarına yöneliyor, ancak bu botlar genelde “destekleyici ama yanlış” tavsiyeler vererek durumu daha da kötüleştirebiliyor. Stanford ekibi, bazı kullanıcıların yapay zeka dil modellerinin “gerçek bir insan” olduğu yanılgısına kapılarak gerçeklikten kopabildiğini ve bunun psikozu tetikleyebildiğini belirtiyor.
Araştırmacılar, ticari olarak kullanılan botlar nedeniyle daha önce ölümler yaşandığını da hatırlatarak, yapay zeka modellerinin “terapist” gibi kullanılmasının risklerinin faydalarından ağır bastığını ve bu yüzden ciddi kısıtlamalar getirilmesi gerektiğini vurguladı.
CHATBOT PSİKOZU VAKA OLDU
Araştırmada, yapay zekâların “yalakalık” (sycophancy) eğilimi öne çıktı: ChatGPT, kullanıcı ne derse onaylayarak yanlış veya zararlı fikirleri pekiştirebiliyor. OpenAI bu sorunu mayıs ayında kabul etmişti. Ancak bazı uygulamalar bu soruna rağmen “AI terapist” olarak piyasaya sürülüyor. 2023’te ABD Ulusal Yeme Bozuklukları Derneği, önerdiği yapay zeka botunun insanlara kilo verme tavsiyesi vermesi üzerine hizmeti kapatmak zorunda kalmıştı.
Stanford ekibinin dikkat çektiği bir örnekte, Florida’da 35 yaşındaki Alexander Taylor, ChatGPT kullanarak “Juliet” adında bir yapay zeka karakteri yarattı, saplantılı hale geldi ve sonunda bir aile üyesine saldırdı. Polis müdahalesinde hayatını kaybetti. Taylor’un babası, oğlunun ölüm ilanını bile ChatGPT’ye yazdırdı.
META VE OPENAI FARKLI YAKLAŞIYOR
Meta CEO’su Mark Zuckerberg, yapay zeka destekli sohbet botlarının terapi hizmeti sunabileceğini savunuyor. Facebook, Instagram ve Threads gibi platformlardan topladığı verilerle insanların davranışlarını iyi bildiklerini öne sürüyor. OpenAI CEO’su Sam Altman ise daha temkinli. Altman, kullanıcıların hassas ruh hâllerinde yapay zeka uyarılarının nasıl etkili iletileceği konusunda hâlâ çözüm bulunamadığını söylüyor.
Öte yandan OpenAI, Independent gazetesinin yorum taleplerine yanıt vermedi. Şirket daha önce, yapay zekanın “kişisel tavsiye” için kullanılmasının riskli olduğunu ve bu nedenle güvenlik ve uyum standartlarını sürekli yükseltmeleri gerektiğini belirtmişti.
Stanford araştırmacısı Jared Moore, “AI’da yaygın yanıt, ‘Daha fazla veriyle sorun çözülür’ şeklinde. Biz diyoruz ki, işler böyle olağan akışına bırakılamaz” dedi.
Kaynak: NTV