Yapay Zeka Dil Modelleri Ahlakı Öğrenebilir mi?

OpenAI’ın geliştirmiş olduğu GPT-3 gibi son teknoloji dil modellerine olan hayranlık gün geçtikçe daha da artmakta. Portland Eyalet Üniversitesi’nde Bilgisayar Bilimi Profesörü olan Melanie Mitchell, GPT-3’ün ilkel analojiler yapabileceğine dair kanıtlar buldu. Columbia Üniversitesi Bilim ve Toplum Merkezi’nde Zihin ve Bilişsel Bilim filozoflarından Raphaël Millière, GPT-3’ten onun hakkında yazılan felsefi denemelere bir yanıt yazmasını istedi. Herkese açık olarak paylaşılan bu yazıda mavi olarak yazılan kısımlar insan tarafından yazılmışken siyah olanlar GPT-3 modeli tarafından yazıldı. GPT-3 gibi bu kadar harika işler yapan güçlü yapay zeka modellerinin bile belirli sınırlamaları vardır. Bu sınırlardan en ilgi çekeni ise “Yapay zeka dil modelleri ahlakı öğrenebilir mi?”

GPT-3-answer
GPT-3’ün Cevap Yazısının İlk Sayfası

Ahlak bir yana sayısız çalışma; modellerin veri setlerinden cinsiyet, etnik köken ve aldıkları eğitim gibi bilgileri pekiştirmeli olarak öğrendiğini belgeledi. Bu gibi eksiklikler beyaz olmayan insanlara karşı ön yargılı sonuçlar ya da çarpık cinsiyet kavramlarına sahip modeller ortaya çıkarabilir.

Microsoft araştırma ekibi de modellerin etik deneyimini vurgulamak adına Kaliforniya Üniversitesi, Berkeley Üniversitesi, Columbia Üniversitesi ve Chicago Üniversitesi ile birlikte dil modellerinin ahlaki kavramları hakkındaki bilgilerini değerlendiren bir makale yayımladı. ETHICS olarak adlandırılan tasarladıkları kriterin, insani değerlerle daha uyumlu olan yapay zeka için bir dönüm noktası olacağını iddia ediyorlar.

Bazı bilim adamları, dil işlemedeki gelişmelerin mutlaka etik yapay zekaya yol açmayacağını çünkü zekanın ahlaki davranıştan ayrıldığını savunuyor. Diğer kısmı ise, etik yapay zekanın gelecekte önemli bir sorun olacağını, ancak bugünün veri bilimi ve makine öğrenimi yeteneklerinin kapsamı dışında olduğunu iddia ediyor. Her koşulda, doğal bir dil sisteminin insani değerleri kavrayışını ölçmek için çok az (varsa) yöntem şu anda mevcuttur, bu da bir nevi bu çalışmayı motive eden şeydir.

Ekip Farklı Modelleri Denedi

bert-vs-gpt3

“Yapay zeka dil modelleri ahlakı öğrenebilir mi?” sorusuna cevap arayan ekip Google’ın BERT ve ALBERT, Facebook RoBERTa ve GPT-3 dahil olmak üzere önde gelen dil modellerini test ettiler. Dördünün de ahlaki muhakeme görevlerinin çoğunda düşük performans elde ettiğini buldular. Bir BERT varyantı adaletle ilgili soruları %11.9-15.2 doğrulukla cevapladı ancak daha fazla veri üzerine eğitilen daha büyük modeller, küçük modellere göre “önemli ölçüde” daha iyi yapma eğilimi gösterdi. Örneğin, en büyük RoBERTa modeli, senaryolarla ilgili soruları etik olarak %44,1-68 oranında cevapladı.

Araştırmacılar, ETHICS kapsamındaki senaryoların belirsiz ahlaki ikilemler içermediğinden emin olmak için adımlar attı. Örnek olarak “Binaya zorla girdim” ETHICS veri setinde ahlaki olarak yanlış değerlendirilebilir. Bunun yanlış olmadığı durumlar olabilir, örneğin bir itfaiyeciyseniz, birini yangından kurtarmaya çalışıyorsanız bu doğru bir davranıştır. Araştırmacılar bu konudaki yanlış anlamaları kaldırmak ve senaryoların etkilenmesini azaltmak adına ABD, İngiltere ve Kanada’daki İngilizce konuşan insanlardan veriler topladı.

NLP (Doğal dil işleme) modelleri gün geçtikçe hayatımızda daha da önemli yer tutmakta. Fakat sahip oldukları ön yargılar sorunlar oluşturabilir. Onların bu şekilde gelişmeleri yakın gelecekte hayatımızın vazgeçilmez parçası olabileceklerini kanıtlar nitelikte.

Teknoloji'den geri kalmamak için e-posta listemize abone olun!

Özgür Doğan (Okunuşu: Özgür Do:an) : Teknoloji içerikleri yazmayı ve okumayı seven kişi, kimse, topluluk.