Yapay zekanın gelişimi ile birlikte iletişimin hazırlanması ve sunulması üzerine alışkanlıklarımız tamamen değişti ancak özellikle içerik üretiminde yapay zekaya karşı artan güven, başka sorunları da beraberinde getiriyor. Bir dezenformasyon uzmanı, hukuki bir dilekçe için belgelerini hazırlarken ChatGPT kullandığı ve bunların uydurma atıflar içermesi nedeniyle eleştiri oklarının hedefi oldu.
Durumu daha trajikomik hâle getiren ise bu hukuki başvurunun, ABD seçimleri öncesi seçmenleri yanıltmak amacıyla “yapay zeka tarafından üretilen içeriğin kullanımını engellemeye” yönelik olmasıydı. Dezenformasyon uzmanı, ChatGPT’yi atıfları düzenlemek için kullandığını kabul etti ve bu hatanın beyanını sunduğu argümanlar üzerinde etkili olmaması gerektiğine inandığını ifade etti.
Jeff Hancock, Stanford Üniversitesi’nde profesör ve dezenformasyon uzmanı olarak Minnesota Yasası’nı destekleyen bir dava kapsamında mahkemeye bir beyanname sundu. Bu yasa, seçimleri etkilemek amacıyla Deep Fake teknolojisinin kullanımını yasaklamayı amaçlıyordu. Yapay zekanın kullanıcıları yanlış yönlendirmek için kullanılmasına karşı hazırlanan belge, yapay zeka tarafından oluşturulan ve yanlış bilgiler içeren detayların varlığı nedeniyle büyük eleştirilere maruz kaldı.
Hancock, açıklamasında atıfları düzenlemek için ChatGPT-4o kullandığını kabul etti ancak aracın sahte detaylar veya uydurma referanslar eklediğini bilmediğini belirterek hatanın kasıtlı olmadığını ifade etti. Daha sonraki bir beyanında ise şunları yazdı:
“Belgenin içeriğini ben yazdım ve inceledim; içindeki her bir iddianın arkasında kararlılıkla duruyorum. Tüm iddialar, bu alandaki en güncel akademik araştırmalarla desteklenmektedir ve yapay zeka teknolojisinin dezenformasyon üzerindeki etkisi ve toplumsal sonuçları hakkında bir uzman olarak görüşlerimi yansıtmaktadır.”
Ayrıca Hancock, atıf listesini oluştururken Google Scholar ve GPT-4o kullandığını ancak belgenin hazırlanmasında bu aracın kullanılmadığını belirtti. Yapay zeka “halüsinasyonları” hakkında bilgi sahibi olmadığını ve bu durumun bazı hatalara yol açtığını vurguladı. Hancock, beyanın içinde geçen argümanların bu karışıklık nedeniyle etkilenmemesi gerektiğini savundu ve sözlerine ekledi:
“Mahkeme veya avukatları yanıltmayı amaçlamadım. Neden olduğum tüm karışıklık için içtenlikle üzgünüm. Ayrıca bildirideki tüm esaslı noktaların arkasındayım.”
Şimdilik mahkemenin Hancock’un hatalarına ilişkin açıklamalarını kabul edip etmeyeceği bilinmese de bu durum, yapay zeka araçlarının hukuksal konularda kullanılmasının risklerini gözler önüne seriyor.
Kaynak: wccftech.com