MIT çıkışlı Liquid AI, kurumsal düzeyde küçük model eğitimi için yol haritası yayınladı

Küçük Modellerde Kurumsal Seviye Yapay Zeka: Liquid AI'nın LFM2 Planı Açıklandı Küçük Modellerde Kurumsal Seviye Yapay Zeka: Liquid AI'nın LFM2 Planı Açıkla...

Küçük Modellerde Kurumsal Seviye Yapay Zeka: Liquid AI’nın LFM2 Planı Açıklandı

Küçük Modellerde Kurumsal Seviye Yapay Zeka: Liquid AI’nın LFM2 Planı Açıklandı

MIT çıkışlı Liquid AI, LFM2 mimarisiyle küçük ve verimli yapay zeka modellerinin eğitimine dair ayrıntılı yol haritasını herkese açık olarak yayınladı.

Önemli Noktalar

  • Liquid AI, LFM2 mimarisiyle küçük ve hızlı modellerin kurumsal cihazlarda çalışmasını kolaylaştırıyor.
  • Şirket, tüm teknik süreci ve eğitim reçetesini ayrıntılı bir raporla paylaştı.
  • LFM2, gerçek cihaz kısıtlarına göre optimize edilerek bulut bağımlılığını azaltıyor.

LFM2: Küçük Modeller İçin Detaylı Bir Yol Haritası

MIT bilgisayar bilimcileri tarafından 2023’te kurulan Liquid AI, Temmuz 2025’te Liquid Foundation Models serisinin ikinci nesli LFM2’yi tanıttı. Bu mimari, OpenAI’nın GPT serisi ve Google Gemini gibi büyük dil modellerine alternatif olarak, cihaz üzerinde çalışan, hızlı ve verimli küçük modeller sunmayı amaçlıyor.

İlk sürümde 350M, 700M ve 1.2B parametreli yoğun kontrol noktaları, kısa konvolüsyon ağırlıklı hibrit yapı ve rakipleri Qwen3, Llama 3.2 ve Gemma 3’e kıyasla hem kalite hem de CPU verimliliğinde üstün benchmark sonuçları yer aldı. LFM2, gerçek zamanlı ve gizlilik odaklı yapay zekanın telefon, dizüstü ve araçlarda gecikme sorunu olmadan kullanılmasını sağlıyor.

Liquid AI, LFM2’yi daha geniş bir ürün ailesine dönüştürdü: görev ve alan özel varyantlar, video analizi için küçük modeller ve uç cihazlara odaklı LEAP dağıtım altyapısı geliştirildi. Modeller, cihaz üstü ve yerinde çalışan ajan sistemlerinin kontrol katmanı olarak konumlandırılıyor.

Son olarak arXiv’de yayınlanan 51 sayfalık teknik rapor ile mimari arama süreci, eğitim veri karışımı, distilasyon hedefi, müfredat stratejisi ve son eğitim adımları kamuya açıldı. Liquid AI, tekrarlanabilir ve donanım odaklı bir eğitim reçetesi sunarak, kurumların kendi küçük ve verimli modellerini sıfırdan eğitmesi için ayrıntılı bir kılavuz oluşturdu.

Teknik Detaylar: Gerçek Donanım Kısıtlarına Göre Tasarım

Model Mimarisi

LFM2 raporu, kurumsal sistemlerin akademik benchmarklardan önce donanım sınırlarına takıldığını vurguluyor. Gecikme, hafıza ve ısınma limitleri; dizüstü, tablet, sunucu ve mobil cihazlarda gerçek üretim ortamını belirliyor.

Liquid AI, Snapdragon mobil SoC’ler ve Ryzen dizüstü CPU’lar gibi hedef donanımlar üzerinde mimari arama yaptı. Sonuç olarak, kısa konvolüsyon blokları ve az sayıda grouped-query attention (GQA) katmanı içeren sade, parametre verimli ve ölçeklenebilir bir hibrit mimari ortaya çıktı.

  1. Öngörülebilirlik: Yapı, 350M’den 2.6B parametreye kadar tüm boyutlarda tutarlılık sunuyor.
  2. Operasyonel Taşınabilirlik: Yoğun ve MoE varyantları aynı temel yapıyı paylaşıyor, karma donanımlarda dağıtımı kolaylaştırıyor.
  3. Cihaz Üstü Uygulanabilirlik: CPU’larda ön doldurma ve çözümleme hızı benzer açık modellere göre yaklaşık 2 kat daha yüksek.

Eğitim Süreci

LFM2, küçük model ölçeğini yapılandırmayla telafi eden bir eğitim yaklaşımı benimsiyor. Ana unsurlar:

  • 10–12 trilyon token ön eğitim ve 32K-kontekst ara eğitim aşaması ile geniş bağlam penceresi ve düşük hesaplama maliyeti.
  • Standard KL distilasyonunun kararsızlığını aşan ayrık Top-K bilgi distilasyon hedefi.
  • SFT, uzunluk-normalize tercih hizalaması ve model birleştirme içeren üç aşamalı son eğitim süreci.

Bu yaklaşım sayesinde LFM2 modelleri yalnızca “küçük LLM” gibi değil, yapılandırılmış formatlara uyan, JSON şemalarını takip edebilen ve çok adımlı sohbet akışlarını yönetebilen pratik ajanlar gibi davranıyor. Birçok açık küçük modelin başarısız olduğu noktalar, LFM2’nin son eğitim reçetesiyle doğrudan hedefleniyor.

Multimodalite: Cihaz Kısıtlarına Uygun Tasarım

LFM2-VL ve LFM2-Audio varyantları, multimodal yetenekleri token verimliliği odaklı şekilde sunuyor. LFM2-VL, dev bir görsel transformer yerine SigLIP2 kodlayıcıyı, PixelUnshuffle ile görsel token sayısını azaltarak bağlıyor. Yüksek çözünürlükte dinamik bölme sayesinde mobil cihazlarda token bütçesi kontrol altında tutuluyor. LFM2-Audio ise gömleme ve üretim için iki ayrı yol kullanarak mütevazı CPU’larda gerçek zamanlı ses işleme sağlıyor.

  • Belge analizi doğrudan saha cihazlarında gerçekleşebiliyor.
  • Sesli ajanlar ve transkripsiyon yerelde çalışarak gizliliği koruyor.
  • Multimodal ajanlar sabit gecikme ile veri akışını cihaza bağlı tutuyor.

Bilgi Getirme: Ajan Sistemlerine Uyumlu Küçük Modeller

LFM2-ColBERT, geç etkileşimli bilgi getirmeyi küçük bir ayak izinde sunarak, çok dilli RAG gereksinimlerini özel vektör veritabanı hızlandırıcılarına ihtiyaç duymadan karşılıyor. Bu, belge sınırını aşmadan hızlı yerel getirme ve yönetişim avantajı sağlıyor. VL, Audio ve ColBERT varyantları, LFM2’nin modüler bir sistem olduğunu gösteriyor.

Kurumsal Hibrit Yapay Zeka Mimarileri İçin Yeni Bir Çizim

LFM2 raporu, geleceğin kurumsal yapay zeka mimarisinin hibrit bulut-yerel orkestrasyona dayanacağını vurguluyor. Küçük, hızlı modeller cihazda zaman kritik algılama ve karar süreçlerini yönetirken, buluttaki büyük modeller gerektiğinde ağır mantık yürütme sunacak.

  • Maliyet kontrolü: Rutin çıkarımlar cihazda çalıştırılarak bulut fatura belirsizliği önleniyor.
  • Gecikme tutarlılığı: Cihazda çalışan ajanlar ağ gecikmesinden etkilenmiyor.
  • Yönetişim ve uyumluluk: Yerel işlem, KVK ve denetim süreçlerini kolaylaştırıyor.
  • Dayanıklılık: Ajan sistemleri bulut erişimi kesilse bile işlevini sürdürebiliyor.

LFM2, bu kontrol katmanı için en açık ve uygulanabilir açık kaynak temelini sunuyor.

Stratejik Sonuç: Cihaz Üstü Yapay Zeka Artık Bir Tercih

Yıllarca “gerçek yapay zeka” için bulut çıkarımı zorunlu kabul edildi

Kaynak: venturebeat.com

Leave a Reply

Your email address will not be published. Required fields are marked *

Leave a comment
scroll to top