Site icon TechInside

OpenAI yapay zeka hataları için önlem aldı: Artık yalan söylemeyecek!

yapay zeka hataları

OpenAI yapay zeka hataları için yeni bir yöntem geliştirdi. Bu yöntem, halüsinasyon olarak tanımlanan hataları önleyebilir. Yapay zeka modelleri gelişmiş olmasına ve olağanüstü şeyler yapabilmesine rağmen, halüsinasyon olarak bilinen hata yapma ve yanlış cevaplar üretme yeteneğine sahipler.

OpenAI yapay zeka hataları için açıklama yapmıştı

ChatGPT ve Google Bard dahil olmak üzere tüm büyük yapay zeka sohbet robotları bu halüsinasyonlara eğilimli. Hem OpenAI hem de Google, sohbet robotlarının muhtemelen yanlış bilgiler ürettiğine dair açıklamalar yapmıştı. Bir ChatGPT blog gönderisinde OpenAI, “ChatGPT bazen kulağa makul gelen ancak yanlış veya anlamsız cevaplar yazıyor” diyor.

Yanlış bilgilerin yaratılması, yanlış bilgilerin yayılması ve bunun potansiyel olumsuz sonuçları hakkında yaygın endişelere yol açıyor. Yeni bir araştırma gönderisinde OpenAI, yapay zeka modellerinin daha mantıklı hareket etmesini ve halüsinasyonlardan kaçınmasını sağlamanın bir yolunu bulmuş olabileceğini paylaştı.

OpenAI, nihai sonuç hakkında geri bildirim sağlayan “sonuç denetimi” yerine her bir adım için geri bildirim sağlayan bir yöntem olan “süreç denetimi” yoluyla karmaşık matematik problemlerini çözebilen bir model geliştirdi. Araştırma makalesinde OpenAI, MATH veri setini kullanarak her iki yöntemi de test etti ve süreç denetim yönteminin “önemli ölçüde daha iyi performansa” yol açtığını buldu.

OpenAI araştırma makalesinde, “Süreç denetiminin, modeli insan tarafından onaylanan bir süreci izlemeye teşvik ettiğinden, yorumlanabilir muhakeme üretme olasılığı daha yüksektir” ifadelerini kullandı. OpenAI, matematik problemlerinin kapsamı dışında, bu sonuçların ne kadar geniş ölçüde uygulanacağının bilinmediğini, ancak diğer alanlarda keşfetmenin hala önemli olduğunu belirtiyor. 

Exit mobile version