OpenAI, ChatGPT’nin veri toplama uygulamaları nedeniyle İtalya’nın veri koruma otoritesi Garante tarafından 15 milyon Euro ceza alabilir. Bu ceza, şirketin kullanıcı verilerini şeffaf bir şekilde toplamadığı ve bu süreç için yasal bir dayanağa sahip olmadığı gerekçesiyle verildi. İtalya’nın veri koruma kurumu, OpenAI’ın kullanıcıların kişisel verilerini eğitim amacıyla kullandığını ancak bu kullanımı yeterince açıklamadığını belirtti. Ayrıca ChatGPT’nin eğitim sürecinin, Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği (GDPR) ile çeliştiği ifade edildi.
OpenAI, İtalya’daki Veri Gizliliği Standartlarına Uymadığı için Büyük Bir Ceza ile Karşı Karşıya
Garante’nin yaptığı araştırma, OpenAI’ın veri koruma standartlarına yeterince riayet etmediğini ortaya çıkardı. İtalya’daki yetkililer, ChatGPT’nin verileri toplarken kullanıcılara yeterli kadar bilgi vermediğini belirtti. Ayrıca platformda yaş doğrulama sistemi bulunmadığı için genç yaştaki kullanıcıların olumsuz içeriklere erişiminin engellenemediği vurgulandı.
Bunun yanı sıra, OpenAI’ın 2023 Mart ayında yaşanan bir güvenlik ihlalini kullanıcılarla paylaşmadığı da ortaya çıktı. Bu güvenlik açığının açıklanmaması, kullanıcı güvenliği açısından ciddi bir ihlal olarak değerlendirildi. Garante, bu tür ihlallerin kullanıcı verilerinin gizliliği ve güvenliği açısından ciddi bir tehdit oluşturduğunu belirtti.
İtalya’daki veri koruma kurumu, 15 milyon Euro’luk para cezasına ek olarak OpenAI’ın bir bilgilendirme kampanyası başlatmasını da istedi. Bu kampanya; ChatGPT’nin nasıl çalıştığı, veri toplama süreçlerinin nasıl yürütüldüğü, kullanıcı hakları ve kullanıcı verilerine nasıl erişildiği hakkında halkı bilgilendirecek. Kampanya ile kullanıcıların veri güvenliği konusunda daha bilinçli hâle gelmesi hedefleniyor.
Öte yandan OpenAI, cezayı orantısız ve aşırı bulduğunu ifade etti. Şirket, İtalya’daki gelirlerinin ceza miktarını karşılamadığını belirterek karara itiraz edeceğini açıkladı. Ayrıca şirket, veri güvenliği ve kullanıcı gizliliği konusunda daha dikkatli olmayı taahhüt etti. OpenAI, yapay zekâ teknolojilerinin gelecekte daha kullanıcı dostu ve güvenli bir şekilde kullanılmasını sağlamak için daha fazla önlem almayı planlıyor.
Bu ceza kararı, yapay zekâ teknolojilerinin hızla geliştiği günümüzde, veri güvenliği ve kullanıcı gizliliği gibi etik meselelerin önemini bir kez daha gözler önüne seriyor. OpenAI’ın bu cezaya karşı nasıl bir tutum sergileyeceği ilerleyen günlerde belli olacak.
Kaynak: wccftech.com