Techinside Google News
Techinside Google News

DeepSeek Coder, GPT-4 Turbo’yu yendi

Açık kaynaklı kodlama modeli DeepSeek Coder GPT-4 Turbo'yu yenerek bir ilki başardı. GPT-4’e karşı ilk kez birisi galip geldi.
- Advertisement -

Çin’in DeepSeek Coder’ı GPT-4 Turbo’yu yenen ilk açık kaynaklı kodlama modeli oldu. Daha önce 2 trilyon İngilizce ve Çince token üzerinde eğitim almış bir ChatGPT rakibiyle manşetlere çıkan Çinli yapay zeka girişimi DeepSeek , açık kaynaklı uzman karışımı (MoE) kod dili modeli olan DeepSeek Coder V2’nin piyasaya sürüldüğünü duyurdu.

DeepSeek Coder GPT-4 Turbo’dan daha mı iyi?

Geçtiğimiz ay piyasaya sürülen bir MoE modeli olan DeepSeek-V2 üzerine inşa edilen DeepSeek Coder V2, hem kodlama hem de matematik görevlerinde üstün performans sergiliyor. 300’den fazla programlama dilini destekler ve GPT-4 Turbo, Claude 3 Opus ve Gemini 1.5 Pro dahil olmak üzere son teknoloji ürünü kapalı kaynak modellerinden daha iyi performans gösteriyor. Şirket, Llama 3-70B ve kategorideki diğer modellerin çok önünde yer alan açık bir modelin bu başarıya ilk kez ulaştığını iddia ediyor. Ayrıca DeepSeek Coder V2’nin genel muhakeme ve dil yetenekleri açısından karşılaştırılabilir performansı koruduğu da belirtiliyor.

Geçen yıl ” YGZ’nin gizemini merakla ortaya çıkarma” misyonuyla kurulan DeepSeek, yapay zeka yarışında Qwen, 01.AI ve Baidu gibi rakiplerin arasına katılan önemli bir Çinli oyuncu oldu. Aslında, lansmanından sonraki bir yıl içinde şirket, DeepSeek Coder ailesi de dahil olmak üzere birçok modeli zaten açık kaynaklı hale getirdi.

33 milyara kadar parametreye sahip orijinal DeepSeek Coder, proje düzeyinde kod tamamlama ve doldurma gibi yeteneklerle kıyaslamalarda iyi performans gösterdi, ancak yalnızca 86 programlama dilini ve 16K bağlam penceresini destekledi. Yeni V2 teklifi bu çalışmayı temel alarak dil desteğini 338’e ve bağlam penceresini 128K’ya genişleterek daha karmaşık ve kapsamlı kodlama görevlerini yerine getirmesine olanak tanıyor.

Gelişmiş dillere kod oluşturma, düzenleme ve problem çözme yeteneklerini değerlendirmek üzere tasarlanan MBPP+, HumanEval ve Aider kıyaslamalarında test edildiğinde DeepSeek Coder V2 sırasıyla 76,2, 90,2 ve 73,7 puan alarak çoğu kapalı ve açık kaynaklı modelin önünde yer aldı. GPT-4 Turbo, Claude 3 Opus , Gemini 1.5 Pro, Codestral ve Llama-3 70B dahil . Modelin matematiksel yeteneklerini değerlendirmek için tasarlanan kıyaslamalarda da benzer performans görüldü (MATH ve GSM8K).

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir