OpenAI, ChatGPT’de Tespit Edilen Tehlikeli Sohbetleri Polisle Paylaşmadı
OpenAI, ChatGPT’de Tespit Edilen Tehlikeli Sohbetleri Polisle Paylaşmadı
OpenAI çalışanları, bir saldırganın ChatGPT’deki şüpheli konuşmalarını polise bildirmeyi önerdi, şirket ise uyarı yapmamayı tercih etti.
Önemli Noktalar
- OpenAI çalışanları, liderleri polise uyarı göndermeye çağırdı.
- Şirket, tespit edilen tehlikeli sohbetlere rağmen polisi bilgilendirmedi.
- Olay, kullanıcı güvenliği ve sorumluluk tartışmalarını gündeme getirdi.
Olayın Detayları
OpenAI’de çalışan bazı personel, ChatGPT üzerinden yapılan ve potansiyel olarak tehlikeli bir saldırganın gerçekleştirdiği endişe verici sohbetleri tespit etti. Çalışanlar, şirket yönetimine bu durumu polise bildirmeleri gerektiğini iletti. Ancak OpenAI liderleri, durumu kolluk kuvvetlerine iletmeme kararı aldı.
Kullanıcı Güvenliği Tartışmaları
Bu olay, yapay zeka platformlarının kullanıcı davranışlarını izleme ve potansiyel tehditleri önleme konusundaki sorumluluğunu tartışmaya açtı. Özellikle OpenAI gibi büyük teknoloji şirketlerinin etik ve güvenlik yaklaşımları, son zamanlarda daha fazla sorgulanıyor.
Teknik Detaylar
ChatGPT, kullanıcıların metin tabanlı sohbetlerini analiz ederek şüpheli aktiviteleri tespit edebiliyor. Ancak bu tür durumlarda şirketin nasıl bir yol izlemesi gerektiği, henüz net bir protokole bağlanmış değil.
Olay, 2026 yılı içinde gerçekleşen benzer güvenlik vakalarıyla birlikte, yapay zeka tabanlı uygulamaların toplumsal etkilerinin daha dikkatli ele alınmasını gerektiriyor.
Kaynak: Futurism
Kaynak: futurism.com