GPT Store'da Kritik Güvenlik Açığı Tespit Edildi
GPT Store'da tespit edilen güvenlik açığı, kullanıcı verilerinin izinsiz toplanmasına neden olabilir. Detaylar haberimizde.
ABD'deki üniversite araştırmacıları tarafından yapılan bir çalışma, OpenAI’ın GPT Store’da ciddi bir güvenlik açığı bulunduğunu ortaya çıkardı.
Kullanıcıların oluşturduğu GPT’ler üzerinden veri toplandığı ve bu durumun gizlilik endişelerine yol açtığı belirtildi. Araştırmada, mağazada bulunan yapay zeka uygulamalarının birçok hassas kullanıcı verisini izinsiz olarak topladığı tespit edildi.
KULLANICI VERİLERİ RİSK ALTINDA
Araştırma, dört aylık bir süre boyunca 120 binden fazla GPT sistemini ve bunların erişebildiği 2500 hizmeti analiz etti. Sonuçlar, parolalar, web tarama geçmişleri ve kişisel bilgiler gibi hassas verilerin, kullanıcı izni olmadan toplandığını gösterdi. Daha da endişe verici olan ise GPT’lerin birbirlerinin verilerine sınırsız erişime sahip olabilmesi. Bu durum, bir sohbette kullanılan bilgilerin başka sohbetlerle paylaşılabileceği anlamına geliyor.
Yapılan analize göre, hizmetlerin yalnızca yüzde 6’sı gizlilik politikalarını açıkça belirtmiş durumda. Bu durum, birçok GPT’nin gereğinden fazla veri toplamasına neden oluyor. Örneğin, bazı GPT’lerin kullanıcı şifrelerini depoladığı tespit edildi. OpenAI, bu bulguların ardından gizlilik politikalarını ihlal eden 2800’den fazla GPT’yi mağazadan kaldırdı, ancak bu durum üçüncü taraf geliştiricilerin neler toplayabileceğine dair önemli soruları gündeme getirdi.
OPENAI DAHA SIKI DENETİM İSTENİYOR
Araştırmacılar, OpenAI’ın mağaza üzerindeki kontrolünü artırması gerektiğini belirtiyor. Kullanıcıların kişisel GPT’ler geliştirmesi için herhangi bir kod bilgisine ihtiyaç duyulmaması, güvenlik risklerini daha da artırıyor. Web sitesi oluşturma, vergi danışmanlığı gibi farklı alanlarda geliştirilen binlerce özel sohbet botu, potansiyel bir güvenlik tehdidi oluşturabilir.