“ChatGPT psikozu” gündemde: “Ciddi kısıtlamalar getirilmeli”

Araştırmaya göre, insanlar işsizlik, intihar düşüncesi, mani veya psikoz gibi krizlerde sohbet botlarına yöneliyor, ancak bu botlar genelde “destekleyici ama yanlış” tavsiyeler vererek durumu daha da kötüleştirebiliyor. Stanford ekibi, bazı kullanıcıların yapay zeka dil modellerinin “gerçek bir insan” olduğu yanılgısına kapılarak gerçeklikten kopabildiğini ve bunun psikozu tetikleyebildiğini belirtiyor.

Araştırmacılar, ticari olarak kullanılan botlar nedeniyle daha önce ölümler yaşandığını da hatırlatarak, yapay zeka modellerinin “terapist” gibi kullanılmasının risklerinin faydalarından ağır bastığını ve bu yüzden ciddi kısıtlamalar getirilmesi gerektiğini vurguladı.

CHATBOT PSİKOZU VAKA OLDU

Araştırmada, yapay zekâların “yalakalık” (sycophancy) eğilimi öne çıktı: ChatGPT, kullanıcı ne derse onaylayarak yanlış veya zararlı fikirleri pekiştirebiliyor. OpenAI bu sorunu mayıs ayında kabul etmişti. Ancak bazı uygulamalar bu soruna rağmen “AI terapist” olarak piyasaya sürülüyor. 2023’te ABD Ulusal Yeme Bozuklukları Derneği, önerdiği yapay zeka botunun insanlara kilo verme tavsiyesi vermesi üzerine hizmeti kapatmak zorunda kalmıştı.

Stanford ekibinin dikkat çektiği bir örnekte, Florida’da 35 yaşındaki Alexander Taylor, ChatGPT kullanarak “Juliet” adında bir yapay zeka karakteri yarattı, saplantılı hale geldi ve sonunda bir aile üyesine saldırdı. Polis müdahalesinde hayatını kaybetti. Taylor’un babası, oğlunun ölüm ilanını bile ChatGPT’ye yazdırdı.

META VE OPENAI FARKLI YAKLAŞIYOR

Meta CEO’su Mark Zuckerberg, yapay zeka destekli sohbet botlarının terapi hizmeti sunabileceğini savunuyor. Facebook, Instagram ve Threads gibi platformlardan topladığı verilerle insanların davranışlarını iyi bildiklerini öne sürüyor. OpenAI CEO’su Sam Altman ise daha temkinli. Altman, kullanıcıların hassas ruh hâllerinde yapay zeka uyarılarının nasıl etkili iletileceği konusunda hâlâ çözüm bulunamadığını söylüyor.

Öte yandan OpenAI, Independent gazetesinin yorum taleplerine yanıt vermedi. Şirket daha önce, yapay zekanın “kişisel tavsiye” için kullanılmasının riskli olduğunu ve bu nedenle güvenlik ve uyum standartlarını sürekli yükseltmeleri gerektiğini belirtmişti.

Stanford araştırmacısı Jared Moore, “AI’da yaygın yanıt, ‘Daha fazla veriyle sorun çözülür’ şeklinde. Biz diyoruz ki, işler böyle olağan akışına bırakılamaz” dedi.

Kaynak: NTV

Lionel

Yazıya tutkuyla bağlı olan Lionel, At gözlüklerini çıkarıp çevresine bakiyor ve gördüklerini Bikonu.com’da gündemi farklı bir bakış açısıyla ele alıyor. Analitik yaklaşımı, sade dili ve dikkat çekici yorumlarıyla okurların ilgisini çekmeyi başarıyor. İlgi alanları arasında güncel haberler, kültür, toplum ve insan hikâyeleri yer alıyor.

İlgili Yazılar

Rus savaş uçakları Japonya hava sahasına yaklaştı
  • Ekim 25, 2025

Japonya ile Rusya arasında güvenlik gerilimini artıracak bir gelişme yaşandı. Japonya Savunma Bakanı Shinjiro Koizumi, Rusya’ya ait nükleer silah taşıma kapasiteli Tu-95 stratejik bombardıman uçakları ile Ukrayna işgalinde de kullanılan Su-35 savaş uçaklarının Japon Denizi üzerinde uçuş gerçekleştirerek…

Devamı

Devamı
Ömrü uzatan 3 güçlü besin: Yaşlanma karşıtı ve uzun yaşam sırrı
  • Ekim 25, 2025

TAM TAHILLAR am tahıllar (yulaf, arpa, esmer pirinç, tam buğday ekmeği gibi) uzun zamandır lif ve mikro besin içerikleriyle övülüyor. The American Journal of Clinical Nutrition’da yayınlanan 2022 tarihli bir araştırmaya göre, tam tahıllı gevrek tüketimi yüksek diyetler,…

Devamı

Devamı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir