Google’ın yedinci nesil TPU yapay zeka hızlandırıcı çipi: Ironwood

Google, dün Ironwood adlı yedinci nesil yapay zeka çipini tanıttı. Şirketin belirttiğine göre; Ironwood, yapay zeka uygulamalarının performansını hızlandırmak için tasarlandı. Google’ın yedinci nesil tensör işleme birimi (TPU) olan Ironwood, yapay zeka modellerini çalıştırmak üzere çıkarım için optimize edilmiş ilk çip olma özelliğini taşıyor.

Google Cloud Başkan Yardımcısı Amin Vahdat Ironwood’un şirketin şimdiye kadarki en güçlü, yetenekli ve enerji tasarruflu TPU’su olduğuna dikkat çekerken, düşünen, çıkarımsal yapay zeka modellerini büyük ölçekte güçlendirmek için özel olarak tasarlandığını ifade etti. Şirketin belirttiğine göre; TPU’nun mimarisi, çip üzerindeki veri hareketini ve gecikmeyi en aza indirecek şekilde tasarlandı. Bu sayede Ironwood’un güç tasarrufu sağladığını söylemek mümkün. 

Google’ın kurum içinde gerçekleştirdiği kıyaslamalarına göre Ironwood en yüksek seviyede 4.614 TFLOP işlem gücü sunabiliyor. Ayrıca her bir çip, 7,4 Tbps’ye yaklaşan bant genişliği ile 192 GB özel RAM’e sahip olmasıyla öne çıkıyor. 192 GB kapasite Google’ın son nesil Trillium TPU’sundan altı kat daha fazla. Bellek bant genişliğinin ise 4,5 kat iyileşme gösterdiğini belirtmekte fayda var. Bununla birlikte Ironwood’un SparseCore’a sahip olduğunu belirtelim. SparseCore, gelişmiş sıralama ve öneri iş yüklerinde yaygın olarak kullanılan veri türlerini işlemek için geliştirilmiş özel bir çekirdek. 

Ironwood’un bu yılın sonlarına doğru Google Cloud müşterilerine sunulması planlanıyor. Ironwood, 256 çipli bir küme ve 9.216 çipli bir küme olmak üzere iki konfigürasyonda sunulacak. Yani Ironwood, 9.216 adede kadar sıvı soğutmalı çiplerden oluşan kümeler halinde çalışabilecek. Söz konusu çipler, yeni geliştirilmiş Yongalar Arası Bağlantı (ICI) aracılığıyla birbirleriyle doğrudan iletişim kuracak. Amin Vahdat’ın paylaştığı bilgilere göre; Google, Ironwood’u yakın gelecekte Google Cloud’daki modüler bir bilgi işlem kümesi olan AI Hypercomputer ile entegre etmeyi planlıyor. 

Günümüzde pek çok teknoloji devinin kendi yapay zeka hızlandırıcılarını hayata geçirdiğini görüyoruz. Amazon, AWS üzerinden kullanılabilen Trainium, Inferentia ve Graviton işlemcilerine sahipken, Microsoft, Maia 100 AI çipi ile dikkat çekiyor. Son dönemde OpenAI ve Meta’nın da kendi çiplerini geliştirmeye odaklandığını da ekleyelim. 

Kaynak: webrazzi

Lionel

Yazıya tutkuyla bağlı olan Lionel, At gözlüklerini çıkarıp çevresine bakiyor ve gördüklerini Bikonu.com’da gündemi farklı bir bakış açısıyla ele alıyor. Analitik yaklaşımı, sade dili ve dikkat çekici yorumlarıyla okurların ilgisini çekmeyi başarıyor. İlgi alanları arasında güncel haberler, kültür, toplum ve insan hikâyeleri yer alıyor.

İlgili Yazılar

Honor’dan yapay zeka odaklı yeni işletim sistemi: MagicOS 10 tanıtıldı! Yeni işletim sistemi neler getiriyor?
  • Ekim 30, 2025

Honor, Shenzhen’de düzenlenen Küresel Geliştirici Konferansı’nda MagicOS 10’u duyurdu. Şirket, bu sistemi “dünyanın kendini geliştirme yeteneğine sahip ilk yapay zeka ajanı işletim sistemi” olarak nitelendiriyor ve ekosistem stratejisini de paylaştı. Kaynak chip

Devamı

Devamı
Sahte bir NVIDIA canlı yayınını gerçek olandan daha fazla insan izledi
  • Ekim 30, 2025

NVIDIA CEO’su Jensen Huang’ın sahte AI yayını, gerçek etkinlikten kat kat fazla izleyici topladı. İşte kripto dolandırıcılığı ve deepfake teknolojisinin yükselişiyle ilgili detaylar. Kaynak chip

Devamı

Devamı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir