ChatGPT üzere üretken yapay zeka araçlarının kullanımının yaygınlaşması, ferdî datalar için yeni tehlikeleri beraberinde getiriyor. Bir siber güvenlik firmasının araştırmasına nazaran, ChatGPT benzeri araçları kullanan şirketler, saklı bilgilerini ve ticari sırlarını yapay zeka ile paylaşıyor olabilir.
ChatGPT üzere araçlar şirketlerin bilinmeyen bilgilerini ifşalayacak
Team8’in yürüttüğü yeni araştırma, bilgisayar korsanlarının bilinmeyen kurumsal bilgilere erişmek için ChatGPT’yi kullanabileceğini ortaya çıkardı. Yapay zeka sohbet botları ve başka yazı araçlarını kullanan şirketler, data sızıntılarına karşı savunmasız kalabilir. Ayrıyeten sohbet botlarına aktarılan dataların silinmesi de epey sıkıntı olabilir.
Rapor, üretken yapay zekayla kontaklı bilgi çalınma riskini “yüksek dereceli” olarak sınıflandırdı. Lakin Team8 araştırmacıları, uygun tedbirlerin alınması durumunda risklerin “yönetilebilir” olabileceğini tabir etti. Ayrıyeten ChatGPT’nin oluşturduğu yanlış bilgilerin tehdit oluşturduğuna dikkat çekildi.
Bu kaygılara karşın, Microsoft ve Google gibi teknoloji şirketleri yapay zeka yarışında geri kalmak istemiyor. Lakin rapor, bu araçların bâtın datalarla beslenmesi durumunda bilgileri silmenin çok sıkıntı olabileceğine dikkat çekti.
Buna ek olarak ChatGPT üzere araçlar, telif hakkı konusunda da tartışmalara yol açtı. Örneğin birçok yazılımcı, kendi kodlarına bakarak yeni kodlar yazdığını düşünüyor. Misal halde sanatkarlar ise yapay zekanın oluşturduğu görsellere karşı çıkıyor.
Siber güvenlik firmasının bu araştırması, ABD Siber Komutanlığı’nın eski Lideri Michael Rogers tarafından da desteklendi. Ayrıyeten birçok firmanın bilgi güvenliği araştırmacısının imzasını içeriyor.
Peki siz ChatGPT üzere araçların ferdî bilgiler için tehlike yaratacağını düşünüyor musunuz? Görüşlerinizi bizimle paylaşın.
ELEMENTS – TCL Green Horizon Standı, Teknoloji ve Tabiatın Ahengini Gözler Önüne Seriyor
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.