Google, yapay zeka alanındaki rekabetin kızıştığı bu dönemde insan benzeri tepkiler verebilen ve ChatGPT’ye benzer şekilde sorunları çözebilen yapay zeka modeli Gemini 1.5 Pro’nun en yeni verilerini paylaştı. Şirket bu sefer, modelin matematiksel kabiliyetlerini vurguluyor. Yapay zeka modelleri, üniversite düzeyindeki matematik problemlerini çözme becerileriyle dikkat çekiyor. Google’ın yayınladığı araştırma makalesine göre Gemini 1.5 Pro’nun, matematik puanlarında iyileşme göstererek Uluslararası Matematik Olimpiyatı sorularını başarıyla çözdüğü görülüyor.
Gemini 1.5 Pro Yapay Zeka Modeli, Karmaşık Matematik Problemlerinin Üstesinden Geliyor
Google, yapay zeka modeli Gemini’nin matematiksel becerilerini geliştirmek için matematikçilerin eğitim süreçlerini taklit eden özel bir eğitim programı uyguladı. Bu programın sonuçları, geçtiğimiz hafta yayınlanan teknik bir raporda detaylandırıldı. Raporda, Gemini’nin karmaşık matematik problemlerini çözme yeteneğinde önemli ilerlemeler kaydettiği ve bu gelişmelerin modelin son matematik skorlarına yansıdığı belirtildi.
Yapay zeka modeli Gemini 1.5 Pro, matematiksel problem çözme yeteneğini ölçmek adına çeşitli testlerden geçirildi. Şirketin teknik raporuna göre model; MATH Benchmarks, American Invitational Mathematics Examination (AIME) ve Google’ın kendi geliştirdiği HiddenMath Benchmarks gibi farklı ölçütlerle değerlendirildi.
Google’ın açıklamasına göre matematik odaklı yapay zeka modeli Gemini 1.5 Pro, MATH kıyaslamalarında uzman insanlar ile aynı seviyede performans gösteriyor. Ayrıca modelin, American Invitational Mathematics Examination (AIME) testlerinde daha fazla problem çözdüğü ve standart Gemini 1.5 Pro modeline göre genel puanlarını artırarak matematiksel yeteneklerini önemli ölçüde geliştirdiği belirtiliyor.
Şirket, yapay zeka modelinin başarılarına dair somut örnekler sunarak bu modelin, GPT-4 Turbo ve önceki Gemini modellerine kıyasla daha üstün performans sergilediğini belirtti. Raporda yer alan bilgilere göre Gemini 1.5 Pro’nun çözdüğü sorular, Google’ın yapay zeka ürünlerindeki performans standartlarını daha da yükseltiyor.
Paylaşılan üç örnekten ikisi, cebirdeki temel matematiksel formülleri ve kuralları kullanarak doğru şekilde çözüldü. Ancak üçüncü problemde, standart Gemini 1.5 Pro varyantı hata yaptı. Bu, modelin matematiksel problemleri çözme konusunda hala geliştirilmesi gerektiğini gösteriyor.
Şirketin paylaştığı bilgilere göre bu özel matematik modeli, 5 farklı kıyaslamada GPT-4 Turbo ve Amazon’un Claude modelini geride bırakarak lider konumda yer aldı.
Son olarak Google matematik odaklı yapay zeka modeli Gemini 1.5 Pro’nun MATH kıyaslamasında, tek bir örnekleme ile %80,6 doğruluk oranına ve 256 çözüm örnekleme sonucunda ise %91,1 doğruluk oranına ulaştığını açıkladı. Bu sonuçlar, modelin uzman insanlarla benzer bir seviyede performans gösterdiğini gösteriyor. Google Deep Mind’ın Baş Bilim İnsanı Jeff Dean; bu %91,1’lik skorun, 3 yıl önceki en iyi teknoloji (SOTA) skoru olan %6,9’luk orandan büyük bir ilerleme olduğunu belirtti.
Kaynak: wccftech.com