İnsanların Nedenselliği Yapay Zekaya Atfetmesi: Özerklik, Kötüye Kullanım ve Uyumsuzluk Açısından

İnsanlar Yapay Zeka Kaynaklı Olaylarda Nedensel Sorumluluğu Nasıl Değerlendiriyor? İnsanlar Yapay Zeka Kaynaklı Olaylarda Nedensel Sorumluluğu Nasıl Değerle...

İnsanlar Yapay Zeka Kaynaklı Olaylarda Nedensel Sorumluluğu Nasıl Değerlendiriyor?

İnsanlar Yapay Zeka Kaynaklı Olaylarda Nedensel Sorumluluğu Nasıl Değerlendiriyor?

Yapay zeka ile ilgili olumsuz olaylarda insanlar sorumluluğu nasıl paylaştırıyor? Yeni araştırma, AI ve insan rollerinin algılanışına ışık tutuyor.

Önemli Noktalar

  • Yüksek AI özerkliğinde insanlar, sorumluluğu daha çok yapay zekaya atfediyor.
  • Geliştirici, olay zincirinde uzak olsa bile yüksek nedensel sorumlulukla değerlendiriliyor.
  • AI’nin ajan bileşeni, büyük dil modeli bileşeninden daha nedensel görülüyor.

Yeni Araştırmanın Bulguları

2026 yılı içinde yapılan bir çalışma, yapay zekanın karıştığı olumsuz sonuçlarda nedensel sorumluluğun insanlar tarafından nasıl atfedildiğini inceliyor. Bu araştırmada, AI sistemlerinin neden olduğu zararlı sonuçlarda nedensel sorumluluk, suç, öngörülebilirlik ve karşıt gerçekçi muhakeme üzerine insan deneyleri gerçekleştirildi.

Araştırmaya göre, AI’nin özerkliği orta düzeyde (insan hedefi belirliyor, AI yöntemi seçiyor) veya yüksek düzeyde (AI hem hedefi hem yöntemi belirliyor) olduğunda, katılımcılar daha fazla nedensel sorumluluğu yapay zekaya atfediyor. Buna karşılık, AI’nin özerkliği düşük olduğunda (insan hem hedefi hem yöntemi belirliyor), insanlar sorumluluğu insana veriyor, hatta insan olaydan zamansal olarak uzak olsa ve iki aktör de aynı amacı taşısa bile. Bu durum, özerkliğin sorumluluk algısında önemli bir etkisi olduğunu gösteriyor.

İnsan ve AI’nin rollerinin ters çevrildiği senaryolarda, katılımcılar tutarlı şekilde insana daha fazla nedensel sorumluluk atfediyor; iki aktör aynı işlemi gerçekleştirse bile bu sonuç değişmiyor. Ayrıca, geliştirici rolü olay zincirinde uzak olsa bile yüksek nedensel sorumlulukla değerlendiriliyor; bu, insan kullanıcının sorumluluğunu azaltırken AI’nin sorumluluğunda bir değişiklik yaratmıyor.

AI sisteminin büyük dil modeli ve ajan bileşenlerine ayrılması durumunda ise, katılımcılar ajan bileşenini nedensel zincirde daha etkili olarak görüyor. Bu bulgular, AI kaynaklı zararların sorumluluk çerçevesinin oluşturulmasında ve sosyal-politik tartışmalarda insanların sezgisel yargılarının rolünü vurguluyor.

Teknik Detaylar

Araştırmada, çeşitli senaryolar üzerinden insanlara AI ve insanın rol aldığı olay zincirleri sunuldu. Katılımcılar, hangi aktörün olayda daha nedensel olduğu, suçlu olduğu ve öngörülebilirlik açısından sorumluluk taşıdığı gibi soruları yanıtladı. AI’nin özerklik seviyesi, rol değişimi ve sistemin bileşenlerine ayrılması gibi değişkenler incelendi. Bulgular, AI ile ilgili sorumluluk ve suç atfı konusunda insan sezgilerinin karmaşık ve özerklik odaklı olduğunu gösteriyor.

Sonuç ve Gelecek Perspektifi

Çalışma, AI kaynaklı zararlar için sorumluluk çerçevelerinin tasarımında insan algısının dikkate alınması gerektiğini ortaya koyuyor. Bu bulgular, yakın gelecekte AI ile ilgili sosyal ve politika tartışmalarında önemli rehberlik sağlayabilir.

Kaynak: arxiv.org

Leave a Reply

Your email address will not be published. Required fields are marked *

Leave a comment
scroll to top