1. Anasayfa
  2. Teknoloji Haberleri

Nvidia yeni tekniği ile yapay zeka verimliliğini artıracak


Nvidia, yapay zeka modellerinin gerçek vakitli belleğini kökten dönüştürebilecek yeni bir paralel sürece formülü duyurdu. “Helix Parallelism” ismi verilen bu teknik, bilhassa büyük lisan modellerinin milyonlarca sözlük uzun içerikleri çok daha verimli ve gecikmesiz işlemesini sağlıyor. Geliştirme süreci, Nvidia’nın en yeni GPU mimarisi Blackwell üzerine inşa edildi.

Yapay zekada verimlilik artıyor

Yapay zeka modellerinin karşılaştığı en temel zorluklardan biri, geçmiş bilgileri hatırlayarak yeni içerik üretmeye devam edebilme kapasitesi diyebiliriz. Bilhassa hukuk, tıp ya da müşteri takviye sistemleri üzere uzun müddetli geçmişe dayanan bilgiye muhtaçlık duyan uygulamalarda, bu geçmişin her söz üretiminde yine taranması zarurî hale geliyor.

nvidia yeni teknigi ile yapay zeka verimliligini artiracak 0 K3iD3gDg

Ancak bu süreç, GPU belleği üzerindeki yükü katlanarak artırıyor. Yapay zekâ modelleri, her yeni söz için hem KV önbelleğine (Key-Value cache) hem de büyük boyutlu Feed-Forward Network (FFN) yüklerine yine erişmek zorunda kalıyor. Bu da sistem kaynaklarını süratle tüketiyor ve süreçlerde gecikmeye neden oluyor.

Nvidia, Helix Parallelism ile bu iki darboğaza direkt müdahale ediyor. Formül, bir modelin dikkat (attention) ve FFN katmanlarını başka farklı ele alıyor. Dikkat düzeneği için kullanılan KV Parallelism (KVP) tekniğiyle, geçmişe ilişkin bilgiler farklı GPU’lar ortasında bölüştürülüyor.

Böylece her GPU sırf kendi kısmından sorumlu oluyor ve sistemin tüm geçmişi tekrar tekrar taramasına gerek kalmıyor. FFN katmanı ise klasik Tensor Parallelism (TP) ile çalıştırılıyor. Her iki süreç de paralel formda işliyor, böylelikle GPU’lar boşta beklemiyor.

Veri iletimi, Nvidia’nın yüksek süratli bağlantı altyapısı NVLink ve NVL72 üzerinden sağlanıyor. Ayrıyeten HOP-B ismi verilen yeni bir usulle, hesaplama ve data transferi süreçleri üst üste bindirilerek gecikme müddeti minimuma indiriliyor. Bu sayede bilgi hem aktarılıyor hem de işleniyor; süreçler birbirini beklemiyor.

nvidia yeni teknigi ile yapay zeka verimliligini artiracak 1 FPH6J3yf

Simülasyon sonuçları, bu yeni yaklaşımın performansta büyük bir sıçrama sağladığını gösteriyor. DeepSeek-R1 671B isimli dev modelle yapılan testlerde, Helix tekniği birebir gecikme müddetiyle 32 kat daha fazla kullanıcıya hizmet verebildi. Düşük yoğunluklu kullanım senaryolarında ise reaksiyon müddeti 1.5 kata kadar kısaltıldı. Bu da hem yüksek performans hem de kaynak verimliliği manasına geliyor.

  • 0
    alk_
    Alkış
  • 0
    sevdim
    Sevdim
  • 0
    _a_rd_m
    Şaşırdım
  • 0
    k_zd_m
    Kızdım

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir