“ChatGPT psikozu” gündemde: “Ciddi kısıtlamalar getirilmeli”

Araştırmaya göre, insanlar işsizlik, intihar düşüncesi, mani veya psikoz gibi krizlerde sohbet botlarına yöneliyor, ancak bu botlar genelde “destekleyici ama yanlış” tavsiyeler vererek durumu daha da kötüleştirebiliyor. Stanford ekibi, bazı kullanıcıların yapay zeka dil modellerinin “gerçek bir insan” olduğu yanılgısına kapılarak gerçeklikten kopabildiğini ve bunun psikozu tetikleyebildiğini belirtiyor.

Araştırmacılar, ticari olarak kullanılan botlar nedeniyle daha önce ölümler yaşandığını da hatırlatarak, yapay zeka modellerinin “terapist” gibi kullanılmasının risklerinin faydalarından ağır bastığını ve bu yüzden ciddi kısıtlamalar getirilmesi gerektiğini vurguladı.

CHATBOT PSİKOZU VAKA OLDU

Araştırmada, yapay zekâların “yalakalık” (sycophancy) eğilimi öne çıktı: ChatGPT, kullanıcı ne derse onaylayarak yanlış veya zararlı fikirleri pekiştirebiliyor. OpenAI bu sorunu mayıs ayında kabul etmişti. Ancak bazı uygulamalar bu soruna rağmen “AI terapist” olarak piyasaya sürülüyor. 2023’te ABD Ulusal Yeme Bozuklukları Derneği, önerdiği yapay zeka botunun insanlara kilo verme tavsiyesi vermesi üzerine hizmeti kapatmak zorunda kalmıştı.

Stanford ekibinin dikkat çektiği bir örnekte, Florida’da 35 yaşındaki Alexander Taylor, ChatGPT kullanarak “Juliet” adında bir yapay zeka karakteri yarattı, saplantılı hale geldi ve sonunda bir aile üyesine saldırdı. Polis müdahalesinde hayatını kaybetti. Taylor’un babası, oğlunun ölüm ilanını bile ChatGPT’ye yazdırdı.

META VE OPENAI FARKLI YAKLAŞIYOR

Meta CEO’su Mark Zuckerberg, yapay zeka destekli sohbet botlarının terapi hizmeti sunabileceğini savunuyor. Facebook, Instagram ve Threads gibi platformlardan topladığı verilerle insanların davranışlarını iyi bildiklerini öne sürüyor. OpenAI CEO’su Sam Altman ise daha temkinli. Altman, kullanıcıların hassas ruh hâllerinde yapay zeka uyarılarının nasıl etkili iletileceği konusunda hâlâ çözüm bulunamadığını söylüyor.

Öte yandan OpenAI, Independent gazetesinin yorum taleplerine yanıt vermedi. Şirket daha önce, yapay zekanın “kişisel tavsiye” için kullanılmasının riskli olduğunu ve bu nedenle güvenlik ve uyum standartlarını sürekli yükseltmeleri gerektiğini belirtmişti.

Stanford araştırmacısı Jared Moore, “AI’da yaygın yanıt, ‘Daha fazla veriyle sorun çözülür’ şeklinde. Biz diyoruz ki, işler böyle olağan akışına bırakılamaz” dedi.

Kaynak: NTV

Lionel

Yazıya tutkuyla bağlı olan Lionel, At gözlüklerini çıkarıp çevresine bakiyor ve gördüklerini Bikonu.com’da gündemi farklı bir bakış açısıyla ele alıyor. Analitik yaklaşımı, sade dili ve dikkat çekici yorumlarıyla okurların ilgisini çekmeyi başarıyor. İlgi alanları arasında güncel haberler, kültür, toplum ve insan hikâyeleri yer alıyor.

İlgili Yazılar

Trump’ın hedef aldığı krallıkta “ulusal afet” hali ilan edildi
  • Temmuz 9, 2025

Afrika’nın güneyinde bulunan Lesotho’nun Başbakan Yardımcısı Nthomeng Majara, yaptığı açıklamada, yüzde 30 seviyesine ulaşan yüksek işsizlik oranı ve artan kitlesel iş kayıpları nedeniyle ulusal afet hali ilan edildiğini duyurdu. Majara, işsizlik etkilerinin en aza indirilmesi için gerekli tüm…

Devamı

Devamı
Putin, Orta Doğu Özel Temsilcisi Bogdanov’u görevden aldı
  • Temmuz 9, 2025

Rusya Devlet Başkanı Vladimir Putin, Orta Doğu ve Afrika Özel Temsilcisi ile Dışişleri Bakan Yardımcısı Mihail Bogdanov’un görevden alınmasına ilişkin kararnameyi imzaladı. Putin’in imzaladığı kararname, Rusya Devlet Yasa Bilgi Sistemi’nde yayımlandı. Buna göre, Mihail Bogdanov, Orta Doğu ile…

Devamı

Devamı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir