Bilim ve Teknoloji

Apple'ın yapay zekâ modellerinde akıl yürütme sorunu: Yapısal hatalar ortaya çıktı

Apple’ın yapay zekâ araştırmacıları, büyük dil modellerinin mantıksal akıl yürütme yerine örüntü tanıma tekniklerine başvurduğunu ve bu durumun modellerin güvenilirliğini olumsuz etkilediğini ortaya koydu.

Abone Ol

Apple’ın yapay zekâ araştırma ekibi, büyük dil modellerinin matematiksel akıl yürütme görevlerinde beklenmedik hatalar yaptığını tespit etti. Büyük dil modelleri, mantıksal akıl yürütme yerine örüntü tanıma tekniklerine başvuruyor. Bu da, soruların farklı şekilde sorulması durumunda cevapların da farklılık göstermesine neden oluyor.

BÜYÜK DİL MODELLERİNDE MANTIĞIN SINIRI

Apple, Meta, OpenAI ve Google gibi teknoloji devlerinin yapay zekâ modelleri, eğitim verilerindeki örüntüleri tanıma üzerine kurulmuş durumda. Bu sistem, yapay zekânın mantık yürütme görevlerinde beklendiği kadar başarılı olamamasına yol açıyor. Araştırma ekibi, büyük dil modellerinin isim ya da birim gibi küçük değişiklikler yapıldığında bile yüzde 10’luk performans kaybı yaşadığını gözlemledi. Model, farklı sorularda mantık kurmak yerine daha önce gördüğü örnekleri eşleştiriyor.

YAPAY ZEKÂDA NÖROSİMBİYOTİK YAKLAŞIMLAR

Araştırmacılara göre bu sorunu çözmek için nörosimbiyotik yapay zekâ yaklaşımları kullanmak gerekiyor. Bu yöntem, nöral ağların örüntü tanıma yeteneklerini geleneksel sembolik akıl yürütme yöntemleriyle birleştirerek daha doğru ve tutarlı sonuçlar elde edilmesini sağlayabilir.