Google’ın yedinci nesil TPU yapay zeka hızlandırıcı çipi: Ironwood

Google, dün Ironwood adlı yedinci nesil yapay zeka çipini tanıttı. Şirketin belirttiğine göre; Ironwood, yapay zeka uygulamalarının performansını hızlandırmak için tasarlandı. Google’ın yedinci nesil tensör işleme birimi (TPU) olan Ironwood, yapay zeka modellerini çalıştırmak üzere çıkarım için optimize edilmiş ilk çip olma özelliğini taşıyor.

Google Cloud Başkan Yardımcısı Amin Vahdat Ironwood’un şirketin şimdiye kadarki en güçlü, yetenekli ve enerji tasarruflu TPU’su olduğuna dikkat çekerken, düşünen, çıkarımsal yapay zeka modellerini büyük ölçekte güçlendirmek için özel olarak tasarlandığını ifade etti. Şirketin belirttiğine göre; TPU’nun mimarisi, çip üzerindeki veri hareketini ve gecikmeyi en aza indirecek şekilde tasarlandı. Bu sayede Ironwood’un güç tasarrufu sağladığını söylemek mümkün. 

Google’ın kurum içinde gerçekleştirdiği kıyaslamalarına göre Ironwood en yüksek seviyede 4.614 TFLOP işlem gücü sunabiliyor. Ayrıca her bir çip, 7,4 Tbps’ye yaklaşan bant genişliği ile 192 GB özel RAM’e sahip olmasıyla öne çıkıyor. 192 GB kapasite Google’ın son nesil Trillium TPU’sundan altı kat daha fazla. Bellek bant genişliğinin ise 4,5 kat iyileşme gösterdiğini belirtmekte fayda var. Bununla birlikte Ironwood’un SparseCore’a sahip olduğunu belirtelim. SparseCore, gelişmiş sıralama ve öneri iş yüklerinde yaygın olarak kullanılan veri türlerini işlemek için geliştirilmiş özel bir çekirdek. 

Ironwood’un bu yılın sonlarına doğru Google Cloud müşterilerine sunulması planlanıyor. Ironwood, 256 çipli bir küme ve 9.216 çipli bir küme olmak üzere iki konfigürasyonda sunulacak. Yani Ironwood, 9.216 adede kadar sıvı soğutmalı çiplerden oluşan kümeler halinde çalışabilecek. Söz konusu çipler, yeni geliştirilmiş Yongalar Arası Bağlantı (ICI) aracılığıyla birbirleriyle doğrudan iletişim kuracak. Amin Vahdat’ın paylaştığı bilgilere göre; Google, Ironwood’u yakın gelecekte Google Cloud’daki modüler bir bilgi işlem kümesi olan AI Hypercomputer ile entegre etmeyi planlıyor. 

Günümüzde pek çok teknoloji devinin kendi yapay zeka hızlandırıcılarını hayata geçirdiğini görüyoruz. Amazon, AWS üzerinden kullanılabilen Trainium, Inferentia ve Graviton işlemcilerine sahipken, Microsoft, Maia 100 AI çipi ile dikkat çekiyor. Son dönemde OpenAI ve Meta’nın da kendi çiplerini geliştirmeye odaklandığını da ekleyelim. 

Kaynak: webrazzi

Lionel

Yazıya tutkuyla bağlı olan Lionel, At gözlüklerini çıkarıp çevresine bakiyor ve gördüklerini Bikonu.com’da gündemi farklı bir bakış açısıyla ele alıyor. Analitik yaklaşımı, sade dili ve dikkat çekici yorumlarıyla okurların ilgisini çekmeyi başarıyor. İlgi alanları arasında güncel haberler, kültür, toplum ve insan hikâyeleri yer alıyor.

İlgili Yazılar

Bitcoin madenciliğinin sonu geliyor: Neden eskisi kadar karlı değil?
  • Mayıs 1, 2025

Bitcoin madenciliği maliyetleri endişe verici seviyelere ulaştı. CoinShares ve BitInfoCharts verileri, dev operasyonların bile kâr marjının daraldığını, küçük madencilerin ise zarar ettiğini gösteriyor. Peki bu ekonomik tablo, Bitcoin’in geleceğini nasıl etkileyebilir? Kaynak chip

Devamı

Devamı
LG, akıllı telefonlarının tabutuna son çiviyi de çakmaya hazırlanıyor
  • Mayıs 1, 2025

LG’nin akıllı telefon ekosistemi için son kilometre taşı yaklaşıyor. Şirket, mobil cihazlarına yönelik yazılım güncelleme ve destek hizmetlerini sonlandıracağını açıkladı. Bu durum, LG telefon sahiplerinin cihazlarını güncel tutmaları için belirli bir süreleri olduğu anlamına geliyor. Kaynak chip

Devamı

Devamı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir