Nvidia’nın bir sonraki yapay zeka çipine dair yeni raporlar, şirketin “her işi yapan tek GPU” yaklaşımından daha uzman çözümlere kaydığını gösteriyor. Wall Street Journal’a göre Nvidia, özellikle sorgu yanıtı (inference) odaklı yeni bir işlemciyi GTC 2026’da, yani 16–19 Mart 2026 tarihlerinde tanıtmayı planlıyor. Bu hamle, eğitim ve çalıştırma yüklerini tek sınıfta toplamak yerine, görevine göre özelleşen donanımlara işaret ediyor.
The Information’ın paylaştığı ayrıntılarda ise “Rubin CPX” adında, uzun bağlam pencereleri ve yüksek verimlilik için ayarlanmış yeni bir GPU sınıfından söz ediliyor. Bu modelin 2026’nın sonuna doğru hazır olacağı belirtiliyor.
Nvidia’nın Rubin platformu için paylaştığı hedefler de odağın inference maliyetini düşürmeye çevrildiğini teyit ediyor. Tom’s Hardware’in aktardığına göre şirket, Vera Rubin tabanlı NVL72 sistemlerinde Blackwell’e kıyasla belirgin şekilde daha yüksek inference performansı ve belirli senaryolarda token başına maliyette 10 kata varan düşüş vaat ediyor; dağıtımların 2026’nın ikinci yarısında başlaması bekleniyor.
Neden şimdi? Rekabet ve maliyet baskısı
Bulut devleri, inference tarafında verimlilik için giderek daha fazla kendi çiplerine yöneliyor. TrendForce, 2026’da bulut sağlayıcılarının özelleşmiş ASIC sevkiyatlarının %44,6 büyüyerek GPU’lardaki %16,1’lik büyümeyi geride bırakacağını öngörüyor. Benzer biçimde Meta, veri merkezlerine altı ayda bir yenisi gelecek şekilde tasarlanan yeni MTIA inference çiplerini duyurdu. Bu tablo, Nvidia’nın genel amaçlı GPU’nun yanına daha odaklı çözümler koyma ihtiyacını güçlendiriyor.
Özetle: Nvidia, eğitim ve inference için “tek tip GPU” yerine iş yüküne göre ayrışan bir ürün yol haritasına yaklaşıyor. Bu, müşterilere daha düşük maliyet, daha az enerji tüketimi ve daha kolay ölçekleme seçenekleri sunabilir; aynı zamanda rakiplerin inference’a özel tasarımlarına karşı Nvidia’nın konumunu sağlamlaştırmayı hedefliyor.
Kaynak: www.techspot.com