LLM’lerde Halüsinasyonların Geometrik Taksonomisi

Büyük Dil Modellerinde Halüsinasyonlara Geometrik Yaklaşım: Yeni Bir Taksonomi Önerisi Büyük Dil Modellerinde Halüsinasyonlara Geometrik Yaklaşım: Yeni Bir...

Büyük Dil Modellerinde Halüsinasyonlara Geometrik Yaklaşım: Yeni Bir Taksonomi Önerisi

Büyük Dil Modellerinde Halüsinasyonlara Geometrik Yaklaşım: Yeni Bir Taksonomi Önerisi

Yeni bir çalışma, büyük dil modellerindeki halüsinasyonları üç farklı türde sınıflandırarak, gömülü uzayda tespit yöntemlerinin sınırlarını ortaya koyuyor.

Önemli Noktalar

  • Halüsinasyonlar üç ana kategoriye ayrıldı: bağlamdan kopma, uydurma ve gerçeklik hatası.
  • Gömülü uzayda, tür I ve II hatalar tespit edilebilirken; tür III hatalar için dış doğrulama gerekiyor.
  • Çalışma, halüsinasyon tespitinin alanlar arası başarısının ciddi şekilde azaldığını gösteriyor.

Çalışmanın Temel Bulguları

Büyük dil modellerinde (LLM) “halüsinasyon” terimi, aslında farklı geometrik özelliklere sahip üç ayrı olguyu barındırıyor. Son yayımlanan bir araştırmada, bu fenomenler bağlamsal bağlılık eksikliği (unfaithfulness), uydurma (confabulation) ve gerçeklik hatası (factual error) olarak sınıflandırıldı.

Araştırmacılar, standart testlerde halüsinasyon tespitinin genellikle alan (domain) içinde yüksek doğrulukla (AUROC 0.76-0.99) yapılabildiğini, ancak farklı alanlar arasında bu başarının şansa (AUROC 0.50) yaklaştığını gösterdi. Alanlar arası ayrım yönlerinin neredeyse dik olduğu (ortalama kosinüs benzerliği -0.07) tespit edildi.

Teknik Detaylar

  • İnsan tarafından oluşturulan uydurmalar üzerinde, tek bir global yön kullanılarak %96 AUROC başarısı elde edildi; alanlar arası sadece %3,8’lik bir düşüş gözlemlendi.
  • Gerçeklik hatalarında (tip III), AUROC değeri 0.478 ile şans seviyesinde kaldı. Bu, gömülü temsillerin dış dünyayla doğrudan uyuşmadığını gösteriyor.
  • Araştırma, gömülü uzay tabanlı tespit yöntemlerinin kapsamını netleştiriyor: Bağlamdan kopma ve uydurma tespit edilebilirken, gerçeklik hataları için harici doğrulama mekanizmalarına ihtiyaç var.

Çalışmanın Önemi

Bu yeni taksonomi, halüsinasyonların neden ve nasıl tespit edilebileceğini açıklığa kavuşturuyor. Özellikle LLM’lerin ürettiği içeriklerin güvenilirliğinin değerlendirilmesinde, hangi hata türlerinin otomatik olarak tespit edilebileceği ve hangilerinin harici doğrulama gerektirdiği netleşmiş oldu.

Gelecekteki Çalışmalar

2026 yılı içinde, bu taksonominin farklı alanlarda uygulanabilirliği ve harici doğrulama mekanizmalarının entegrasyonu üzerine yeni araştırmalar bekleniyor.

Son gelişmeleri takip etmek için bizi sosyal medyada @synvalo üzerinden izleyebilirsiniz!

Kaynak: arxiv.org

Leave a Reply

Your email address will not be published. Required fields are marked *

Leave a comment
scroll to top