OpenAI, yapay zekâ teknolojilerini hızla geliştirirken güvenlik konusundaki yaklaşımıyla da dikkat çekiyor. Ancak şirketin eski politika araştırmacılarından Miles Brundage, OpenAI’ın güvenlik konusundaki geçmiş açıklamalarıyla şu anki duruşunun birbirini tutmadığını iddia etti.
Miles Brundage, OpenAI’ın Güvenlik Yaklaşımını Değiştirdiğini İddia Etti
OpenAI, kısa süre önce yapay zekâ sistemlerini kademeli olarak piyasaya sürdüğünü anlatan bir belge yayınladı. Bu belgede, OpenAI’ın yapay zekâ modellerini dikkatli bir şekilde geliştirdiği ve her aşamada güvenlik önlemleri aldığı vurgulandı. Şirket, bu yaklaşımın GPT-2 modeli için de geçerli olduğunu belirtti.
Ancak Miles Brundage, OpenAI’ın geçmişi yanlış yansıttığını düşünüyor. Ona göre GPT-2 modeli zaten aşamalı olarak yayınlanmış ve güvenlik uzmanlarının desteğiyle dikkatli bir şekilde kullanıma sunulmuştu. Brundage, şirketin şimdi bu süreci olduğundan daha farklı gösterdiğini ve güvenlik konusundaki yaklaşımını değiştirdiğini iddia etti.
Brundage ayrıca OpenAI’ın AGI (Yapay Genel Zekâ) geliştirme süreciyle ilgili söylediklerinden de endişe duyduğunu belirtti. OpenAI, AGI’ın bir anda ortaya çıkmayacağını, zaman içinde aşamalı olarak geliştirileceğini söylüyor. Ancak Brundage, şirketin bu açıklamalarının güvenlik kaygılarını hafife almak için yapılmış olabileceğini düşünüyor. Yapay zekâ teknolojilerinin hızla ilerlediğini belirten eski yönetici, güvenlik konusunun hafife alınmasının büyük riskler yaratabileceğini ifade etti.
Daha önce de OpenAI, güvenlikten çok ticari kazanca odaklandığı yönünde eleştirilmişti. Brundage gibi birçok uzman, yapay zekâ güvenliğinin gerçekten öncelik olup olmadığı konusunda şüphe duymaya devam ediyor.
Kaynak: wccftech.com