Apple’ın yapay zekâ araştırma ekibi, büyük dil modellerinin matematiksel akıl yürütme görevlerinde beklenmedik hatalar yaptığını tespit etti. Büyük dil modelleri, mantıksal akıl yürütme yerine örüntü tanıma tekniklerine başvuruyor. Bu da, soruların farklı şekilde sorulması durumunda cevapların da farklılık göstermesine neden oluyor.

BÜYÜK DİL MODELLERİNDE MANTIĞIN SINIRI

Apple, Meta, OpenAI ve Google gibi teknoloji devlerinin yapay zekâ modelleri, eğitim verilerindeki örüntüleri tanıma üzerine kurulmuş durumda. Bu sistem, yapay zekânın mantık yürütme görevlerinde beklendiği kadar başarılı olamamasına yol açıyor. Araştırma ekibi, büyük dil modellerinin isim ya da birim gibi küçük değişiklikler yapıldığında bile yüzde 10’luk performans kaybı yaşadığını gözlemledi. Model, farklı sorularda mantık kurmak yerine daha önce gördüğü örnekleri eşleştiriyor.

Yapay zeka Chatbot'ları tıbbi tavsiyelerde ne kadar güvenli? Yapay zeka Chatbot'ları tıbbi tavsiyelerde ne kadar güvenli?

YAPAY ZEKÂDA NÖROSİMBİYOTİK YAKLAŞIMLAR

Araştırmacılara göre bu sorunu çözmek için nörosimbiyotik yapay zekâ yaklaşımları kullanmak gerekiyor. Bu yöntem, nöral ağların örüntü tanıma yeteneklerini geleneksel sembolik akıl yürütme yöntemleriyle birleştirerek daha doğru ve tutarlı sonuçlar elde edilmesini sağlayabilir.

Kaynak: www.webtekno.com