Anthropic’in Claude Code aracında bazı sistemleri engelleyen bir hata vardı. Anthropic’in kodlama aracı Claude Code’un lansmanı inişli çıkışlı bir başlangıç yaptı. Anthropic, Claude 3.7 Sonnet’i sektörün ilk “hibrit AI akıl yürütme modeli” olarak adlandırıldı.
Kodlama aracı Claude Code için büyük sorun
Model, Anthropic’in AI ürünleri etrafındaki kullanıcı deneyimini basitleştirme yönündeki daha geniş çabasını temsil ediyor. Günümüzdeki çoğu AI sohbet robotu, kullanıcıları maliyet ve yetenek açısından farklılık gösteren birkaç farklı seçenek arasından seçim yapmaya zorlayan göz korkutucu bir model seçiciye sahip.
GitHub’daki raporlara göre, Claude Code’un otomatik güncelleme işlevi, bazı iş istasyonlarını dengesiz ve bozuk hale getiren hatalı komutlar içeriyordu . Claude Code “kök” veya “süper kullanıcı” düzeylerine kurulduğunda (programlara işletim sistemi düzeyinde değişiklikler yapma yeteneği veren izinler), hatalı komutlar uygulamaların genellikle kısıtlanmış dosya dizinlerini ve en kötü senaryoda “tuğla” sistemlerini değiştirmesine izin veriyordu.
Sorunlu Claude Code otomatik güncelleme komutları belirli kritik sistem dosyalarının erişim izinlerini değiştirdi. İzinler hangi programların ve kullanıcıların dosyaları okuyabileceğini veya değiştirebileceğini veya belirli uygulamaları çalıştırabileceğini tanımlar. Bir GitHub kullanıcısı, Claude Code komutlarının yanlışlıkla bozduğu dosyaların izinlerini düzeltmek için bir “kurtarma örneği” kullanmak zorunda kaldıklarını söyledi.
Anthropic, Claude Code’daki sorunlu komutları kaldırdığını ve programa kullanıcıları bir sorun giderme kılavuzuna yönlendiren bir bağlantı eklediğini söyledi. Bağlantıda başlangıçta bir yazım hatası vardı. Ancak Anthropic bunun da düzeltildiğini söylüyor.