Çin’de daha öncesine kadar adı duyulmamış olan yapay zeka laboratuvarı olan DeepSeek, daha ucuz ve düşük performans gösteren çiplerle altyapısını oluşturmasına rağmen ABD’nin bu sektördeki liderlerinden daha iyi performans gösteriyor. Bu durum, Silikon Vadisi‘nde paniğe yol açtı.
DeepSeek, Çok Kısa Bir Zamanda Rakipleri ile Yarışır Hale Geldi
DeepSeek, Aralık ayı sonunda NVIDIA’nın H800s adlı düşük kapasiteli yonga setlerini kullanarak, yalnızca iki ayda ve 6 milyon dolardan daha az bir bütçeyle geliştirdiğini bildirdiği ücretsiz, açık kaynaklı bir büyük dil modelini tanıttı. Bu yeni gelişmeler, ABD tarafındaki yapay zeka küresel liderliğinin azalıp azalmadığına dair endişeleri artırdı ve büyük teknoloji şirketlerinin yapay zeka modelleri ve veri merkezleri inşa etmek için yaptığı devasa harcamaları sorgulattı.
Bir dizi üçüncü taraf kıyaslama testinde DeepSeek’in modeli, Meta’nın ve diğer rakip şirketlerin modellerinden daha iyi performans gösterdi. DeepSeek Meta’nın Llama 3.1, OpenAI’nin GPT-4o ve Anthropic’in Claude Sonnet 3.5 yapay zeka modellerini karmaşık problem çözmeden matematik ve kodlamaya kadar çeşitli aşamalarda geride bıraktı.
Microsoft CEO‘su Satya Nadella, Çarşamba günü İsviçre’nin Davos kentinde düzenlenen Dünya Ekonomik Forumu‘nda yaptığı konuşmada, DeepSeek’in yeni yapay zeka modelinden de bahsetti. CEO, kısa bir zaman aralığında geliştirilmesine karşın stabil ve efektif çalışan bu yapay zeka modelinden etkilendiğini açıkladı. Nadella, aynı zamanda Çin’deki gelişmelerin çok ama çok ciddiye alınması gerektiğini de açıkladı.