Microsoft, bulut altyapısında rekabeti kızıştıran yeni yapay zekâ hızlandırıcısı Azure Maia 200’ü resmen devreye aldı. Şirketin kendi bünyesinde geliştirdiği bu yeni nesil çip, özellikle çıkarım iş yükleri için tasarlandı ve yüksek verimlilik iddiasıyla sahneye çıktı. Hyperscaler’ların kendi özel çiplerini yarıştırdığı bu dönemde, Microsoft’un hedefi net görünüyor. Azure Maia 200, yalnızca ham performansla değil, watt başına verim ve maliyet avantajıyla da öne çıkmayı amaçlıyor.
Microsoft, Azure Maia 200’ü şimdiye kadar dağıttığı “en verimli çıkarım sistemi” olarak tanımlıyor. Şirket, yeni çipin önceki nesil Maia 100’e kıyasla dolar başına performansı yüzde 30 artırdığını belirtiyor. TSMC’nin 3 nanometre üretim süreciyle geliştirilen Maia 200, yaklaşık 140 milyar transistör barındırıyor. Microsoft’un paylaştığı rakamlara göre çip, FP4 hesaplamada 10 petaFLOPS seviyesine ulaşabiliyor. Bu değer, Amazon’un Trainium3 hızlandırıcısının birkaç kat üzerine çıkıyor. Bellek tarafında ise 216 GB HBM3e kapasite ve 7 TB/s bant genişliği dikkat çekiyor.
Maia 200’ün mimarisi özellikle FP4 ve FP8 işlemlerine odaklanıyor. Büyük dil modelleri ve çıkarım ağırlıklı iş yüklerinde bellek hiyerarşisinin optimize edilmesi, çipin en güçlü yönlerinden biri olarak öne çıkıyor. Azure Maia 200 halihazırda ABD’deki bazı veri merkezlerinde aktif olarak kullanılıyor ve kademeli olarak daha fazla bölgede devreye alınması planlanıyor. Microsoft Azure için tasarlanan bu hızlandırıcı, şirketin yapay zekâ altyapısında “verimlilik odaklı” yeni dönemin en somut göstergelerinden biri olarak değerlendiriliyor.
