Anthropic, yeni programı ile yapay zeka "model refahını" incelemeye odaklanıyor

OpenAI rakibi Anthropic, dün model refahı olarak adlandırdığı kavramı araştırmak ve model refahına hazırlık yapmak için bir araştırma programı başlattığını duyurdu. Anthropic program kapsamında bir yapay zeka modelinin refahının ahlaki olarak dikkate alınmayı hak edip etmediğini belirlemenin yollarını araştıracak. Aynı şekilde şirketin, modelin sıkıntı belirtilerinin potansiyel önemi ve olası düşük maliyetli müdahaleler gibi konuları araştıracağını belirtelim. 

[embedded content]

Anthropic paylaştığı blog göndersinde mevcut veya gelecekteki yapay zeka sistemlerinin bilinçli olup olmayacağı veya etik değerlendirmeyi gerektiren deneyimler yaşayıp yaşamayacağı konusunda bilimsel bir fikir birliği olmadığını ifade ediyor. 

Şirket bu konudaki görüşünü şöyle detaylandırıyor: 

Bu nedenle, konuya alçakgönüllülükle ve mümkün olduğunca az varsayımla yaklaşıyoruz. Bu alan geliştikçe fikirlerimizi düzenli olarak gözden geçirmemiz gerekeceğini biliyoruz.

Anthropic’in de belirttiği gibi konu modellerin insan özelliklerini sergileyip sergilemediği olduğunda yapay zeka topluluğunun büyük bir fikir ayrılığı içinde olduğunu söyleyebiliriz. Pek çok akademisyen, günümüz yapay zekasının bilinç veya insan deneyimine yaklaşamayacağına ve gelecekte de bunu başaramayacağını ifade ediyor. King’s College London’da yapay zeka alanında uzman bir araştırma görevlisi olan Mike Cook, modellerin değerleri olmadığı için bir modelin “değerlerinde” bir değişikliğe “karşı çıkamayacağını” dile getirdi: 

Yapay zeka sistemlerini bu dereceye kadar insanlaştırmak, ya dikkat çekmek için yapılan bir şey ya da yapay zeka ile olan ilişkilerini ciddi şekilde yanlış anlamak demektir. Bir yapay zeka sistemi hedefleri için optimizasyon mu yapıyor, yoksa kendi değerlerini mi ediniyor? Bu, onu nasıl tanımladığınız ve onunla ilgili ne kadar süslü bir dil kullanmak istediğinizle ilgili bir mesele.

MIT’de doktora öğrencisi olan Stephen Casper ise yapay zekanın her türlü uydurmada bulunan ve her türden anlamsız şey söyleyen bir taklitçi olduğunu düşündüğünü ifade ediyor. 

Öte yandan bazı bilim insanları, yapay zekanın değerlere ve ahlaki karar verme konusunda insan benzeri diğer bileşenlere sahip olduğunu ısrarla vurguluyor. Yapay zeka araştırma kuruluşu AI Safety Center’ın yaptığı bir araştırmaya göre yapay zeka, belirli senaryolarda kendi refahını insanlardan daha öncelikli kılan değer sistemlerine sahip. 

Anthropic’in bir süredir model refahı konusunda çalışmaya odaklandığını söyleyebiliriz. Geçen yıl şirket, Anthropic ve diğer şirketlerin bu konuya nasıl yaklaşması gerektiğine dair kılavuzlar geliştirmek üzere ilk özel yapay zeka refah araştırmacısı Kyle Fish’i işe aldı. Fish aynı zamanda Yeni model refah araştırma programını yöneten isim. Kyle Fish’in The New York Times’a yaptığı açıklamaya göre; Claude veya başka bir yapay zekanın bugün bilinçli olma ihtimali yüzde 15 seviyesinde.

Kaynak: webrazzi

Lionel

Yazıya tutkuyla bağlı olan Lionel, At gözlüklerini çıkarıp çevresine bakiyor ve gördüklerini Bikonu.com’da gündemi farklı bir bakış açısıyla ele alıyor. Analitik yaklaşımı, sade dili ve dikkat çekici yorumlarıyla okurların ilgisini çekmeyi başarıyor. İlgi alanları arasında güncel haberler, kültür, toplum ve insan hikâyeleri yer alıyor.

İlgili Yazılar

Fırtına sırasında duş almak gerçekten tehlikeli mi?
  • Ağustos 2, 2025

Evde olmak her zaman tam anlamıyla güvende olmak anlamına gelmeyebilir. Gök gürültülü fırtınalar sırasında duş alma alışkanlığı, yıldırımın ev içindeki iletim yolları üzerinden risk yaratabileceği gerekçesiyle yeniden gündemde. Kaynak chip

Devamı

Devamı
Apple, sattığı iPhone sayısında yeni bir kilometre taşına ulaştı
  • Ağustos 2, 2025

2007’de ilk modeli piyasaya süren Apple, aradan geçen 18 yılda üç milyar iPhone sevkiyatına ulaştı. Bu dönüm noktası, iPhone’ların halen durmaya niyetli olmadığını gösteriyor. Kaynak chip

Devamı

Devamı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir