Samsung’a ChatGPT şoku: Hassas datalar ezkaza sızdırıldı
ChatGPT, yüzeysel olarak bakıldığında bir dizi iş için yararlı olabilecek bir araç üzere görünebilir, fakat ondan kıymetli notları özetlemesini ya da çalışmanızda kusur olup olmadığını denetim etmesini istemeden evvel, paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta tahminen de başka kullanıcılara verdiği karşılıklar halinde geri dönebileceğini hatırlamakta yarar var. En azından birtakım Samsung çalışanları, bunu en acı yoldan öğrendi.
The Economist Korea’ya nazaran, Samsung’un yarı iletken kısmı mühendisleri bir müddettir ChatGPT’yi kullanıyorlar. Lakin bu süreçte çalışanların en az 3 defa zımnî bilgileri ChatGPT’ye sızdırmış olduğu ortaya çıktı. Bir çalışanın ChatGPT’den hassas veritabanı kaynak kodunda kusur olup olmadığını denetim etmesini istediği, bir oburunun kod optimizasyonu talep ettiği ve bir 3’üncüsünün de ChatGPT’ye kaydedilmiş bir toplantıyı aktararak tutanak oluşturmasını istediği bildirildi.
Raporlar, Samsung’un bu güvenlik yanlışlarını öğrendikten sonra, çalışanların ChatGPT istemlerinin uzunluğunu 1 kilobayt yahut 1024 karakterlik metinle sınırlayarak gelecekteki muhtemel sızıntıların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıyeten kelam konusu 3 çalışan için soruşturma başlattığını ve emsal aksilikleri önlemek için kendi sohbet robotunu oluşturmak istediği söyleniyor.