Nvidia’dan AI Modelleri İçin Yeni Veri Çoğaltma Tekniği

Günümüzde çok farklı işlerde başarılı olan yapay zekaya olan yatırım her geçen gün artmakta. GPT-3 ile doğal dil işlemede ve doğal dili anlayabilmede çığır açan yapay zeka, çok farklı özellikleri ile bizleri şaşırtmaya devam ediyor. Bu şaşkınlıkta belki de en fazla pay sahibi olan kısım ise GAN mimarileri yani Generative Advertasial Networks. Generator (üretici) ve Discriminator (Ayırıcı) olarak iki farklı derin ağa sahip olan GANlar genelde görsel üretiminde kullanılıyor. Fakat harika işlere imza atan bu GAN sinir ağlarını eğitmek o kadar da kolay değil. Çok fazla işlem gücü ve eğitim süresi isteyen ağlar için ayrıca çok fazla eğitim verisi de gerekmekte. Günümüzde veri artırımı için çeşitli teknikler kullanılsa da bunlar belirli sorunlara yol açmakta. Bu veri eksikliği sorunu için ise dev teknoloji firması Nvidia’dan yeni bir veri çoğaltma tekniği geldi.



GAN Sinir Ağları ve Veri

This Person Does not Exist ya da This Cat Does not Exist gibi projeler GANlar kullanılarak geliştirilmiş gerçekten de bizleri şaşırtan muazzam çalışmalar. Sonuçları her ne kadar bize çok güzel gelse de bu modelleri eğitmek için araştırmacılar çok zorlu aşamalardan geçmekte. GAN mimarilerini eğitmek hem işlem gücü hem de zaman açısından oldukça maliyetli. Güçlü bir sistemde aralıksız 20-25 gün eğitilen modeller bile bazen güzel sonuçlar ortaya koyamamakta. Ayrıca GAN modellerinden sıfırdan bir şeyler üretmek gibi zor bir şey istenildiğinde onları yeterince veri ile beslemek gerekmekte. Buradaki yeterince 50.000-100.000 adet veri olarak düşünülebilir. Bu sayılardan daha azı ile eğitilecek modeller ise over-fitting (aşırı öğrenme) problemleri ile karşılaşabilir.

Bunun için yapay zeka araştırmacıları farklı data augmentation (veri artırma) teknikleri kullanmakta. Eldeki hali hazırda bulunan görseli çevirmek, açısal olarak değiştirmek, blurlamak ve yakınlaştırmak gibi tekniklerle ekstra görseller üretilmekte. Fakat veri çeşitliliği açısından eksikliklere yol açan bu teknikler GAN’ın yeni bir şey yaratmak yerine bu çarpıtmaları taklit etmeyi öğreneceği bir duruma yol açıyor.

Nvidia’dan Yeni Veri Çoğaltma Tekniği

Günümüzde kullanılan bu teknikler her ne kadar bir nebze etkili olsa da, çok büyük potansiyele sahip GANlar için yeterli seviyede değil. Bu sebeple Nvidia, adaptive discriminator augmentation (ADA) adında yeni bir yaklaşım geliştirdiklerini açıkladı. Görseller üzerinde değişikleri farklı şekillerde yapan bu teknikle GANlar, hem daha az veri ile iyi bir öğrenme süreci geçiriyor hem de aşırı öğrenme sorunu ortadan kalkıyor. Nvidia’nın yeni yaklaşımı, GANlar için büyük bir kilometre taşı olarak görülmekte. Bu sayede GAN mimarileri ilerde farklı amaçlarda kullanılabilir. Nvidia, yeni yaklaşımı için pek detay vermedi fakat bir video yayımladı. Gerekli bilgileri NeurIPS konferansında paylaşacaklar.

Teknoloji'den geri kalmamak için e-posta listemize abone olun!

Özgür Doğan (Okunuşu: Özgür Do:an) : Teknoloji içerikleri yazmayı ve okumayı seven kişi, kimse, topluluk.