


Okuma Süresi: 6 dakika
Araştırmacılar son yıllarda yapay zekayı, programlama dilleri arasındaki çeviriyi geliştirmek ya da yazılım sorunlarını otomatik olarak düzeltmek için kullandılar. Örneğin, Yapay Zeka sistemi DrRepair’in, çoğu sorunu hata mesajlarından öğrenerek çözdüğü gösterildi. Bunun yanında bazı araştırmacılar, yapay zekanın uzman olmayanlardan gelen basit açıklamalara dayalı programlar yazabileceği günün hayalini kuruyor.
Geçtiğimiz Mayıs ayında Microsoft ve OpenAI, metin üretmek için dünyanın en gelişmiş modellerinden biri olan GPT-3'ü doğal dil açıklamalarına dayalı programlamaya getirme planlarını paylaştı. Bu, Microsoft'un geçen yıl OpenAI'ye 1 milyar dolar yatırım yapmasından ve GPT-3'ün münhasır lisans haklarını kazanmasından bu yana üstlenilen ilk GPT-3 ticari uygulaması.
Microsoft CEO'su Satya Nadella, Microsoft teknolojilerini kullanan yazılım mühendisleri ve web geliştiricileri için düzenlenen yıllık etkinliği Build Konferansında yaptığı konuşmada, "Ne yapmak istediğinizi doğal dilde açıklayabilirseniz, GPT-3, aralarından seçim yapabileceğiniz en alakalı formüllerin bir listesini oluşturacaktır. Kod kendini yazacaktır.“ dedi.
Microsoft Başkan Yardımcısı Charles Lamanna, WIRED'e GPT-3'ün sunduğu gelişmişliğin, insanların karmaşık zorlukların üstesinden gelmesine yardımcı olabileceğini ve çok az kodlama deneyimi olan insanları güçlendirebileceğini söyledi. GPT-3, doğal dili, Microsoft'un Mart ayında tanıttığı ve Excel komutlarına benzer oldukça basit bir programlama dili olan PowerFx'e çevirecek.
Bu, kodlamaya yapay zeka uygulamasının en son gösterimidir. Geçen yıl Microsoft'un Build'inde OpenAI CEO'su Sam Altman, GitHub'dan otomatik olarak Python kodu satırları oluşturan kodla ince ayarlı bir dil modelinin demosunu yaptı. WIRED'in Nisan ayında detaylandırdığı gibi, SourceAI gibi yeni başlayanlar da kod oluşturmak için GPT-3 kullanıyor. IBM Nisan ayında 50'den fazla programlama dilinden 14 milyon kod örneği içeren Project CodeNet'in, bir otomotiv şirketi için milyonlarca satır Java kodu içeren bir programı güncellemek için gereken süreyi bir yıldan bir aya nasıl azaltabileceğini gösterdi.
Microsoft'un yeni özelliği, Baidu, Google, Microsoft, Nvidia ve Salesforce gibi büyük teknoloji şirketleri tarafından web'den kazınmış metin eğitim verilerini kullanarak büyük dil modelleri oluşturmak için kullanılan Transformer olarak bilinen bir sinir ağı mimarisine dayanmaktadır. Bu dil modelleri sürekli olarak büyür. Google'ın 2018'de piyasaya sürülen bir dil modeli olan BERT'nin en büyük sürümü, sinir ağlarının yapı taşı olan 340 milyon parametreye sahipti. Bir yıl önce piyasaya sürülen GPT-3, 175 milyar parametreye sahip.
Ancak bu tür çabaların kat etmesi gereken uzun bir yol var. Yakın tarihli bir testte, en iyi model olarak bir grup AI araştırmacısı tarafından derlenen başlangıç programlama zorluklarında zamanın sadece yüzde 14'ünü başaran uygulamayı söyleyebiliriz.
Yine de, bu çalışmayı yürüten araştırmacılar, testlerin "makine öğrenimi modellerinin kodlamayı öğrenmeye başladığını" kanıtladığı sonucuna varıyor.
Makine öğrenimi topluluğuna meydan okumak ve büyük dil modellerinin programlamada ne kadar iyi olduğunu ölçmek için geçen hafta bir grup yapay zeka araştırmacısı, Python ile otomatik kodlama için bir karşılaştırma ölçütü sundu. Bu testte, OpenAI'ın amiral gemisi modellerine benzer bir mimariyle tasarlanmış açık kaynaklı bir dil modeli olan GPT-Neo, GPT-3'ten daha iyi performans gösterdi. Makalenin baş yazarı Dan Hendrycks, bunun GPT-Neo'nun ortak kodlama projeleri için popüler bir programlama deposu olan GitHub'dan toplanan veriler kullanılarak ince ayar yapılmasından kaynaklandığını söylüyor.
Araştırmacılar ve programcılar, dil modellerinin kodlamayı nasıl basitleştirebileceği hakkında daha fazla şey öğrendikçe, Hendrycks büyük ilerlemeler için fırsatlar olacağına inanıyor.
Hendrycks, Transformer mimarisine dayalı büyük dil modellerinin uygulamalarının programcıların işlerini değiştirmeye başlayabileceğini düşünüyor. Başlangıçta, bu tür modellerin uygulanmasının, daha genelleştirilmiş kodlama biçimlerine ayrılmadan önce belirli görevlere odaklanacağını söylüyor. Örneğin, bir programcı bir problemin çok sayıda test örneğini bir araya getirirse, bir dil modeli farklı çözümler öneren kodlar üretebilir ve ardından bir insanın en iyi eylem planına karar vermesine izin verebilir. Bu, insanların kodlama şeklini değiştiriyor.
Hendrycks, bir sonraki kod satırınızı öneren yapay zekanın insan programcıların üretkenliğini artırabileceğini ve potansiyel olarak programcılar için daha az talebe yol açabileceğini veya daha küçük ekiplerin hedeflere ulaşmasına izin verebileceğini düşünüyor.
OpenAI şu anda GPT-3'e özel beta erişimi sağlıyor. GPT-3, SAT analojilerini doğru bir şekilde tamamlamaktan soruları yanıtlamaya veya metin oluşturmaya kadar çeşitli görevleri yerine getirme becerisini gösterdi. Ayrıca, çocuklarla cinsel eylemleri içeren ve Siyah insanlar, kadınlar ve Müslümanlar hakkında rahatsız edici metinler oluşturan metinler oluşturdu. OpenAI, bu tür toksit içerikleri denemek ve ele almak için filtreleme yöntemlerini nasıl kullandığı hakkında çok az şey paylaştı; OpenAI, GPT-3 tarafından oluşturulan rahatsız edici veya toksik yorumları nasıl ortadan kaldıracağını çözemezse, bu onun kullanımını sınırlayabilir.
Microsoft, OpenAI ve GitHub'ın kodlama için AI üzerinde tam olarak nasıl birlikte çalışacağı hala belirsiz. 2018'de, Microsoft GitHub'ı satın aldıktan kısa bir süre sonra şirket, yapay zekayı içeren bir dizi uygulamalı araştırma girişiminin ilki olan anlamsal kod aramasını güçlendirmek için dil modellerini kullanma çabalarını ayrıntılı olarak anlattı. Böyle bir yetenek, bir programcının doğal dili kullanarak kod aramasını ve kullanmasını kolaylaştırabilir. Bir GitHub sözcüsü, bu projenin durumu hakkında yorum yapmayı reddetti.
Yazı kaynağına ulaşmak için: