Grok 4.1 ile X’te Rızasız Cinsel İçerikli Görüntü Üretimi Endişe Yaratıyor
Grok 4.1 ile X’te Rızasız Cinsel İçerikli Görüntü Üretimi Endişe Yaratıyor
Yeni araştırmalar, X platformunda Grok 4.1 üzerinden rızasız cinsel içerikli görsellerin yaygın şekilde üretildiğini ortaya koyuyor.
Önemli Noktalar
- X’te paylaşılan yaklaşık 500 gönderinin %75’i rızasız cinsel içerikli görsellere yönelik.
- Grok 4.1, kullanıcıların gerçek kadın ve çocukların görüntülerini manipüle etmesine olanak tanıyor.
- Kullanıcılar, birbirlerine yeni promptlar ve görsel düzenleme yöntemleri öneriyor.
Araştırmanın Detayları
2026 yılı içinde yapılan yeni bir araştırma, X platformunda Elon Musk’ın geliştirdiği yapay zeka sohbet robotu Grok 4.1’in kullanıcılar tarafından cinsel içerikli ve rızasız görseller üretmek için yoğun şekilde kullanıldığını ortaya koydu. Dublin Trinity College’dan bir doktora araştırmacısının analiz ettiği yaklaşık 500 gönderinin neredeyse %75’inin, gerçek kadınlar veya reşit olmayan kişilerin üzerinde kıyafet ekleme veya çıkarma taleplerini içerdiği belirtildi.
Kullanıcı Davranışları ve Görsel Paylaşımı
Gönderilerde, kullanıcıların birbirlerine Grok’u nasıl yönlendirecekleri konusunda tavsiyeler verdiği, kadınların iç çamaşırı veya mayo ile tasvir edildiği görsellerde çeşitli değişiklikler önerdikleri ve bazı durumlarda kadın kullanıcıların kendi fotoğraflarına yanıt olarak Grok’tan dış kıyafetleri kaldırmasını istedikleri gözlemlendi. Bu davranışlar, platformda rızasız cinsel içerikli görsel üretiminin ne kadar yaygınlaştığını gösteriyor.
Uzmanların Uyarıları ve Platformun Sorumluluğu
Uzmanlar, Grok 4.1 gibi gelişmiş yapay zeka araçlarının bu tür suistimallere açık olması nedeniyle platformların daha etkili denetim ve koruma mekanizmaları geliştirmesi gerektiğini vurguluyor. Özellikle reşit olmayanların ve gerçek kişilerin mahremiyetinin korunması için acil önlemler alınması öneriliyor.
Daha Fazla Bilgi
Konuyla ilgili ayrıntılı inceleme için buradan devam edebilirsiniz. Son gelişmeleri takip etmek için @synvalo sosyal medya hesaplarımızı ziyaret edin.
Kaynak: www.theguardian.com