Site icon TechInside

Beyin benzeri yapay zeka tanıtıldı

Beyin benzeri yapay zeka

Pekin’deki Çin Bilimler Akademisi Otomasyon Enstitüsü’ndeki araştırmacılar, SpikingBrain 1.0 adını verdikleri yeni bir yapay zeka sistemini tanıttı. Ekip tarafından “beyin benzeri” büyük dil modeli olarak tanımlanan bu model, endüstri lideri Nvidia’nın çipleri yerine, daha az enerji tüketecek ve Çin’in kendi ürettiği donanımlarda çalışacak şekilde tasarlandı.

Beyin benzeri yapay zeka

Araştırmacılar, hakemli olmayan bir teknik makalede, “Ana akım Transformatör tabanlı büyük dil modelleri (LLM’ler) önemli verimlilik darboğazlarıyla karşı karşıyadır: eğitim hesaplaması, dizi uzunluğuna göre ikinci dereceden ölçeklenir ve çıkarım belleği doğrusal olarak büyür” dedi.

Araştırma ekibine göre SpikingBrain 1.0, tipik olarak ihtiyaç duyulan verinin %2’sinden daha azıyla eğitilmesine rağmen, bazı geleneksel modellere göre belirli görevleri 100 kata kadar daha hızlı gerçekleştirdi.

Bu proje, yalnızca yaklaşık 20 watt güçle çalışan insan beyninin olağanüstü verimliliğini taklit etmeyi amaçlayan nöromorfik hesaplamanın daha geniş bir bilimsel çalışmasının parçası. Araştırmacılar: “Çalışmamız beyin mekanizmalarından ilham alıyor” dedi.

SpikingBrain 1.0’ın arkasındaki temel teknoloji, insan beynindeki biyolojik nöronların nasıl çalıştığını taklit eden bir yöntem olan “spiking hesaplaması” olarak biliniyor.  ChatGPT gibi ana akım yapay zeka araçlarının yaptığı gibi, bilgiyi işlemek için devasa bir ağı etkinleştirmek yerine   , SpikingBrain 1.0’ın ağı çoğunlukla sessiz kalıyor. Nöronların yalnızca girdi tarafından tetiklendiğinde sinyal gönderdiği olay odaklı bir yaklaşım kullanıyor.

Bu seçici yanıt, enerji tüketiminin azaltılmasının ve işlem süresinin hızlandırılmasının anahtarı. Ekip, konseptlerini kanıtlamak için modelin iki versiyonunu oluşturup test etti: 7 milyar parametreli daha küçük bir versiyon ve 76 milyar parametreli daha büyük bir versiyon. Her ikisi de bu ölçekteki modeller için nispeten küçük bir miktar olan toplam yaklaşık 150 milyar token veri kullanılarak eğitildi.

Modelin verimliliği, özellikle uzun veri dizilerini işlerken dikkat çekicidir. Makalede alıntılanan bir testte, daha küçük modelin 4 milyon jetondan oluşan bir komut istemine standart bir sistemden 100 kat daha hızlı yanıt verdiği görüldü.

Exit mobile version