Site icon TechInside

Moore Threads, son teknoloji yapay zeka çiplerini tanıtıyor!

Şirketin yepyeni amiral gemisi, her biri 1.000 S4000 GPU’dan oluşan kümeler içeren bir veri merkezi olan KUAE Akıllı Bilgi İşlem Merkezi’nde yer alacak. Moore Threads ayrıca KUAE donanım ve yazılım ekosistemini hayata geçirmek için Lenovo dahil diğer birçok Çinli şirketle ortaklık kuruyor.

Moore Threads, S4000 GPU’su hakkında bilinmesi gereken her şeyi açıklamamış olsa da; bu kesinlikle S2000 ve S3000’e göre büyük bir gelişme. S2000 ile karşılaştırıldığında S4000 iki kattan fazla FP32 performansına, beş kat daha fazla INT8 performansına, %50 daha fazla VRAM’e ve muhtemelen çok daha fazla bellek bant genişliğine sahip.

GPUMTT S4000MTT S3000MTT S2000
Mimari3. nesil MUSA1. nesil MUSA1. nesil MUSA
SPU’lar (GPU çekirdekleri)?40964096
Çekirdek Saat?1,8–1,9 GHz~1,3 GHz
TFLOP’lar (FP32)2515.210.6
ÜSTLER (INT8)20057.642.4
Hafıza kapasitesi48GB GDDR632GB32GB
Bellek Veri Yolu Genişliği384 bit256 bit256 bit
Bellek Bant Genişliği768 GB/sn448 GB/snBilinmeyen
TDP?250W150W

Yeni amiral gemisi aynı zamanda ikinci nesil MUSA mimarisini kullanırken, S2000/S3000 birinci nesil mimariyi kullanıyor.

Nvidia modelleriyle karşılaştırıldığında S4000, 2018’deki Turing tabanlı Tesla sunucu GPU’larından daha iyi ancak yine de sırasıyla 2020 ve 2022’de piyasaya sürülen Ampere ve Ada Lovelace’in gerisinde.

S4000 özellikle ham beygir gücü açısından eksik, ancak yine de oldukça fazla bellek kapasitesi ve bant genişliğine sahip; bu, Moore Threads’in amiral gemisinin kullanılacağını öngördüğü AI ve büyük dil modeli (LLM) iş yükleri için kullanışlı olabilir.

S4000 aynı zamanda bir karttan diğerine 240 GB/s veri bağlantısı ve RDMA desteğiyle GPU’dan GPU’ya kritik veri yeteneklerine de sahip. Bu, NVLink‘in Hopper’daki 900 GB/sn bant genişliğinden çok uzak, ancak S4000 muhtemelen çok daha zayıf bir GPU ve bu kadar yüksek miktarda bant genişliğini gereksiz kılıyor.

Moore Threads, S4000’in yanı sıra KUAE Akıllı Bilgi İşlem Merkezini de tanıttı. Şirket bunu, tam özellikli S4000 GPU‘nun merkezde olduğu “yazılım ve donanımı birleştiren tam yığın çözüm” olarak tanımlıyor. KUAE kümeleri, her biri sekiz S4000 kartına sahip olan MCCX D800 GPU sunucularını kullanıyor. Moore Threads, her KUAE Kilocard Kümesinin 1.000 GPU’ya sahip olduğunu, bunun da küme başına toplam 125 MCCX D800 sunucusu anlamına geldiğini söylüyor.

Yazılım tarafında Moore Threads, KUAE’nin GPT gibi ana akım büyük dil modellerini ve DeepSpeed ​​gibi çerçeveleri desteklediğini iddia ediyor. Şirketin MUSIFY aracı görünüşe göre S4000’in Nvidia GPU’larına dayanan CUDA yazılım ekosistemiyle çalışmasına izin veriyor ve bu da Moore Threads ve Çin’in yazılım endüstrisini tekerleği yeniden icat etme zorunluluğundan kurtarıyor.

Görünüşe göre bir KUAE kümesi, bir yapay zeka modelini kabaca bir ay içinde eğitebilir; ancak bu, büyük ölçüde bazı ayrıntılara bağlı. Örneğin Moore Threads, 70 milyar parametreli Aquila2 modelinin eğitiminin 33 gün sürdüğünü, ancak parametrelerin 130 milyara çıkarılmasının eğitim süresini 56 güne çıkaracağını söylüyor.

Bu tür bir donanım ve yazılım ekosistemini desteklemek her şirket için zorlayıcı olabilir ancak Moore Threads’in bu işi tek başına yapması neredeyse imkansız olurdu; özellikle de birçok çalışanını işten çıkarmak zorunda kaldıktan sonra. Şirketin, Moore Threads ve diğer birçok Çinli şirket arasında bir ortaklık olan Akıllı Bilgi İşlem ve Büyük Model Ekolojik İttifakı’nı kurmasının nedeni muhtemelen bu. Çinli GPU üreticisi en önemli desteği uluslararası varlığı da olan Lenovo’dan aldı.

Her ne kadar Moore Threads yakın zamanda Nvidia, AMD veya Intel gibi firmalarla kesinlikle rekabete girmeyecek olsa da, bu Çin için tamamen gerekli değil.

ABD yaptırımları, güçlü GPU’ların Çin’e ihracatını engelledi; bu, yalnızca Çin’in yerel yarı iletken endüstrisine var olmak için iyi bir neden vermekle kalmadı, aynı zamanda Moore Threads ve rakibi Biren gibi şirketlerin rekabetini de zayıflattı. Nvidia’nın Çin’e özel kartlarıyla karşılaştırıldığında S4000 ve KUAE’nin şansı yaver gidebilir.

Exit mobile version