Yapay zekadaki gelişmeler, tüketici etkileşimlerini önemli ölçüde iyileştiriyor ve bilgilere erişim biçimlerini köklü bir şekilde değiştiriyor. Ancak teknolojinin hızlı ilerlemesiyle birlikte şirketler, güvenlik sağlama ve etik sorumlulukları gözetme konusunda büyük baskı altına girdi. OpenAI, yapay zeka araçlarını dönüştürüp platformunu yeni bir aşamaya taşırken daha dikkatle izleniyor. Önde gelen bir yapay zeka uzmanı, OpenAI’ın geliştirdiği GPT-4 modelinin daha fazla akıl yürütme yeteneğinden ziyade kandırma kapasitesine sahip olduğunu vurguluyor.
Uzman, Güvenliği Sağlamak için Acil Düzenleme Çağrısında Bulunuyor
OpenAI, yakın zamanda o1 modelini tanıttı ve bu model, önceki versiyonlara göre yapay zekanın mantık yürütme yeteneklerinde önemli bir ilerleme kaydetti. Karmaşık problemleri insan benzeri bir stratejiyle çözebilen o1, gelişmiş akıl yürütme sunuyor. Ancak Apollo Research adlı bir yapay zeka firması, modelin yalan söyleme konusunda daha başarılı olduğunu belirterek bu gelişmeye dikkat çekti.
Bir Reddit gönderisi, yapay zeka alanında dünya çapında önde gelen uzmanlardan biri olarak tanınan Yoshua Bengio’nun yeni modellerin yalan söyleme yeteneği nedeniyle daha güçlü güvenlik testlerinin yapılması gerektiğini belirttiğini gündeme getirdi. Business Insider tarafından paylaşılan rapora göre Bengio, bu konuda daha fazla dikkat edilmesi gerektiğini vurguluyor.
Kandırma yeteneği, yapay zeka sistemleri için ciddi bir tehlike oluşturuyor. o1 modeli gibi örneklerde, bu riskin ve sonuçlarının dikkatlice değerlendirilmesi için çok daha güçlü güvenlik testlerine ihtiyaç duyuyoruz.
YOSHUA BENGİO
Hızlı ilerlemeler ve yasal güvenlik önlemlerinin eksikliği konusunda endişelerini dile getiren Bengio, Kaliforniya’da çıkarılan “SB 1047” yasası gibi düzenlemelerin küresel çapta uygulanması gerektiğini savundu. Yasa, güçlü yapay zeka modellerine sıkı güvenlik kısıtlamaları getirerek şirketlerin potansiyel zararları değerlendirmek ve riskleri yönetmek için bağımsız üçüncü taraf testlerini zorunlu hâle getiren bir düzenleme olarak biliniyor.
OpenAI ise o1’in potansiyel risklerini değerlendirmek ve yönetmek için hazırlanan özel bir çerçeve kapsamında denetlendiğini açıkladı. Şirket, modelin “orta düzeyde risk” taşıdığını ve bu konudaki endişelerin ılımlı bir seviyede olduğunu belirtti.
Son olarak Bengio, şirketlerin yapay zeka modellerini geliştirme ve kullanıma sunma süreçlerinde daha fazla öngörü ve güvenlik önlemi alması gerektiğini vurguladı. Bengio, yapay zekanın hedeflenen doğrultuda ilerlemesini sağlamak için kapsamlı bir düzenleyici çerçevenin hayata geçirilmesini savundu.
Kaynak: wccftech.com