“ChatGPT psikozu” gündemde: “Ciddi kısıtlamalar getirilmeli”

Araştırmaya göre, insanlar işsizlik, intihar düşüncesi, mani veya psikoz gibi krizlerde sohbet botlarına yöneliyor, ancak bu botlar genelde “destekleyici ama yanlış” tavsiyeler vererek durumu daha da kötüleştirebiliyor. Stanford ekibi, bazı kullanıcıların yapay zeka dil modellerinin “gerçek bir insan” olduğu yanılgısına kapılarak gerçeklikten kopabildiğini ve bunun psikozu tetikleyebildiğini belirtiyor.

Araştırmacılar, ticari olarak kullanılan botlar nedeniyle daha önce ölümler yaşandığını da hatırlatarak, yapay zeka modellerinin “terapist” gibi kullanılmasının risklerinin faydalarından ağır bastığını ve bu yüzden ciddi kısıtlamalar getirilmesi gerektiğini vurguladı.

CHATBOT PSİKOZU VAKA OLDU

Araştırmada, yapay zekâların “yalakalık” (sycophancy) eğilimi öne çıktı: ChatGPT, kullanıcı ne derse onaylayarak yanlış veya zararlı fikirleri pekiştirebiliyor. OpenAI bu sorunu mayıs ayında kabul etmişti. Ancak bazı uygulamalar bu soruna rağmen “AI terapist” olarak piyasaya sürülüyor. 2023’te ABD Ulusal Yeme Bozuklukları Derneği, önerdiği yapay zeka botunun insanlara kilo verme tavsiyesi vermesi üzerine hizmeti kapatmak zorunda kalmıştı.

Stanford ekibinin dikkat çektiği bir örnekte, Florida’da 35 yaşındaki Alexander Taylor, ChatGPT kullanarak “Juliet” adında bir yapay zeka karakteri yarattı, saplantılı hale geldi ve sonunda bir aile üyesine saldırdı. Polis müdahalesinde hayatını kaybetti. Taylor’un babası, oğlunun ölüm ilanını bile ChatGPT’ye yazdırdı.

META VE OPENAI FARKLI YAKLAŞIYOR

Meta CEO’su Mark Zuckerberg, yapay zeka destekli sohbet botlarının terapi hizmeti sunabileceğini savunuyor. Facebook, Instagram ve Threads gibi platformlardan topladığı verilerle insanların davranışlarını iyi bildiklerini öne sürüyor. OpenAI CEO’su Sam Altman ise daha temkinli. Altman, kullanıcıların hassas ruh hâllerinde yapay zeka uyarılarının nasıl etkili iletileceği konusunda hâlâ çözüm bulunamadığını söylüyor.

Öte yandan OpenAI, Independent gazetesinin yorum taleplerine yanıt vermedi. Şirket daha önce, yapay zekanın “kişisel tavsiye” için kullanılmasının riskli olduğunu ve bu nedenle güvenlik ve uyum standartlarını sürekli yükseltmeleri gerektiğini belirtmişti.

Stanford araştırmacısı Jared Moore, “AI’da yaygın yanıt, ‘Daha fazla veriyle sorun çözülür’ şeklinde. Biz diyoruz ki, işler böyle olağan akışına bırakılamaz” dedi.

Kaynak: NTV

Lionel

Yazıya tutkuyla bağlı olan Lionel, At gözlüklerini çıkarıp çevresine bakiyor ve gördüklerini Bikonu.com’da gündemi farklı bir bakış açısıyla ele alıyor. Analitik yaklaşımı, sade dili ve dikkat çekici yorumlarıyla okurların ilgisini çekmeyi başarıyor. İlgi alanları arasında güncel haberler, kültür, toplum ve insan hikâyeleri yer alıyor.

İlgili Yazılar

Mola yerinde gizemli kayboluş
  • Temmuz 10, 2025

Otoyol Jandarması, saat 22.00 sıralarında TEM Otoyolu’nun Ankara istikametinde devriye görevi sırasında, yol bakım çalışmaları nedeniyle dubalarla kapatılmış en sol şeritte park halindeki Almanya plakalı otomobili fark etti. Aracın yanına yaklaşan ekipler, içinde tek başına oturan E.G. (65)…

Devamı

Devamı
İzmir Körfezi yine alarm veriyor: Balık ölümleri artacak
  • Temmuz 10, 2025

İzmir Körfezi'nde yaşanan kirliliğe ilişkin değerlendirmelerde bulunan uzman isim Levent Yurga, bu yıl da planktonların çoğalmasını öngördüğüne dikkati çekip, "Körfezde ekolojik denge bozuk. İzmir Körfezi'nde yakında yeniden balık ölümleri olacak" dedi. Kaynak: ensonhaber.com

Devamı

Devamı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir