Telefon : +90 212 275 71 06  
2016'daki 10 Yapay Zeka Fiyaskosu

2016'daki 10 Yapay Zeka Fiyaskosu

Sürücüsüz araçlar, ses tanımlama ve ‘deep learning’ konularında yakın zamandaki gelişmeler makinelerin neler yapabileceğini gösteriyor. Ancak, 2016 aynı zamanda AI başarısızlıklarına da şahit oldu. İşte liste : 


Geçtiğimiz yıl AI dünyasında, sürücüsüz araç teknolojisi, ses tanıma ve "Go" oyununun hakimiyeti ile makinelerin ne kadar yetenekli olabileceğinin gösterildiği bir rönesans yaşandı.



Ancak AI'nin tüm bu başarısına rağmen, gelecekteki hataları önlemek için AI'nin ne zaman, nasıl yanlışlık yapabileceğine dikkat etmek de önemli. Louisville Üniversitesi Cybersecurity Laboratuvarı direktörü Roman Yampolskiy tarafından yakın zamanda yayımlanan bir makale , AI'nin "doğrudan bu gibi sistemlerin sergilemek için tasarlandığı zeka tarafından üretilen hatalarla ilgili" geçmişi gözler önüne serdi. Yampolskiy'ye göre bu tür hatalar; öğrenme aşamasındaki yanlışlara ya da AI sisteminin performans aşamasındaki yanlışlara atfedilebilir.


Aşağıda, Yampolskiy'nin listesinin yanı sıra diğer çeşitli AI uzmanlarının sağladığı verilerden düzenlenen TechRepublic'in 2016'daki ilk 10 AI fiyaskosunun listesini bulabilirsiniz.


1. Gelecekteki suçları tahmin etmek için oluşturulan AI ırkçı çıktı


Northpointe şirketi, sözde bir saldırganın yeniden suç işleme olasılıklarını tahmin etmek için tasarlanan bir AI sistemi oluşturdu.  Gawker (Philip K. Dick'in eserine göre uyarlanan bir karşı ütopya kısa öyküsüne ve filme atıf olarak) tarafından "Minority Report-esque" olarak adlandıran algoritma, ırkçı açıdan taraf tutmakla suçlandı, zira siyahi saldırganlar diğer ırklara göre gelecekte bir suç işleme riski daha yüksek olarak işaretleniyordu. Bir diğer basın kuruluşu olan ProPublica, Northpointe'nin yazılımının "ırktan bağımsız bir şekilde genel olarak etkili bir tahmin aracı olmadığını" belirledi.


2. Bir video oyununda oyuncu olmayan karakterler, oyunun yaratan kişinin planlarının ötesinde silahlar üretti


Haziran ayında,  AI destekli bir video oyunu olan Elite: Dangerous , yaratıcılarının asla tasarlamadığı bazı davranışlar sergiledi: AI'nin oyunun tasarım kapsamının ötesinde olan süper silahlar üretme yeteneği vardı. Bir oyun web sitesine göre, "[O]yuncular, kendilerini parçalara ayırabilecek gerçekçi olmayan silahlarla donatılmış gemilere karşı yapılan savaşlara sokuluyordu." Silahlar daha sonra oyunun geliştiricileri tarafından çıkarıldı.


3. Robot bir çocuğu yaraladı


Knightscope platformu tarafından yaratılan sözde  "suçla mücadele robotu", Temmuz ayında bir Silikon Vadisi alışveriş merkezinde 16 aylık bir çocuğun üzerine düştü. Los Angeles Times, haberi, şirkettin demecinden "acayip bir kaza" alıntısını yaparak geçti.


4. Tesla Otopilot modunda ölümlü kaza


TechRepublic tarafından daha önce rapor edildiği üzere, Joshua Brown, Otopilot modundaki bir Tesla aracını kullanırken Florida otobanında bir tır dorsesine çarparak özelliğin ilk ölümcül kazasına neden oldu. Kazadan sonra Telsa, Otopilot yazılımında, Elon Musk'ın kazayı önleyebileceğini iddia ettiği büyük geliştirmeler yapıldığını duyurdu. Otopilotun karıştığı başka ölümcül kazalar da oldu; bunlara Çin'deki bir kaza da dahildi, yine de hiçbir kaza doğrudan AI sistemi ile bağlantılı bulunmadı.


5. Microsoft'un sohbet botu Tay ırkçı, cinsiyetçi, homofobik söylemlerde bulunuyor


Daha genç müşterilerle ilişkiler oluşturmaya yönelik bir denemede, Microsoft, geçtiğimiz baharda Twitter'da "Tay.ai" olarak adlandırılan AI destekli bir sohbet botu çıkarttı. "Tay" genç bir kız çerçevesinde modellendi çevrimiçi olduktan sonra yalnızca bir gün içinde "Hitler seven, feminist düşmanı bir trole" dönüştü. Microsoft Tay'ı sosyal medya platformundan çekti ve algoritmasında "ayarlamalar" yapılmasını planladığını duyurdu.


6. AI jürili bir güzellik yarışması ırkçılığa imza attı


Yapay Zeka jüriliğinde yapılan "İlk Uluslararası Güzellik Yarışması "nda bir robot jürisi yüzleri, yarışma sitesinde yapılan açıklamada, insan güzelliği ve sağlığı algısıyla bağlantılı kriterleri doğru şekilde değerlendirebilen algoritmalara" göre oyluyor. Ancak AI'ye çeşitli eğitim setleri beslenmemesinden dolayı, yarışmanın kazananları hep beyaz ırktan seçiliyordu. Yampolskiy'nin söylediğine göre "Güzellik model algılayıcıda gerçekleşiyor".


7. Pokémon Go, oyuncuları beyaz mahallelerinde tutuyor


Son derece popüler Pokémon Go oyununun Temmuz ayındaki çıkışından sonra, birçok kullanıcı temelde siyah mahallelerinde daha az Pokémon lokasyonu olduğunu belirtti. Mint at Intuit için baş veri sorumlusu olan Anu Tewary'ye göre, bunun nedeni algoritmanın yaratıcılarının farklı eğitim setleri sağlamaması ve bu mahallelere zaman ayırmaması.


8. Google'ın AI'si AlphaGo, Go oyununda Lee Sedol'e karşı 4 oyunda yenildi


Mart 2016'da, Google'ın AI'si AlphaGo, otunda 18 kez dünya şampiyonu olan Lee Sedol'e karşı Go oyununun beş turluk serinin dördüncüsünde yenildi. Ve her ne kadar AI programı seriyi kazansa da, Sedol'un galibiyeti AI'nin algoritmasının henüz kusursuz olmadığını kanıtladı.

New South Wales Üniversitesi AI profesörü Toby Walsh, "görünüşe göre Lee Sedol'un Monte Carlo ağaç aramasında bir zayıflık bulduğunu" söyledi. Ama her ne kadar bu bir AI hatası olarak kabul edilebilir olsa da, Yampolskiy mağlubiyetin ayrıca "bazıları tarafından normal çalışma özellikleri dahilinde kabul edilebileceğini" belirtiyor.


9. Çin yüz tanıma çalışması mahkumları algılıyor ancak sapmalar gösteriyor


Çin'deki Shanghai Jiao Tong Üniversitesi'nden iki araştırmacı "Yüz Resimler Kullanarak Suçlulukta Otomatik Çıkarım" başlıklı bir çalışma yayımladı. Mirror'a göre, araştırmacılar "1.856 kişinin (şiddet suçlarından hüküm giyenlerin yarısı) yüzünü bir bilgisayara besledi ve bunları analiz etmeye soyundu." Çalışmada, araştırmacılar "suçluluğu tahmin etmek için, dudak kıvrımı, gözün iç köşe mesafesi ve sözde burun-ağız açısı gibi bazı ayırt edici yapısal özellikler" olduğu sonucuna vardı."  Alandaki bir çok uzman sonuçları ve raporun etik dayanaklarını sorguladı.


10. Oranları belirlemek için Facebook verilerini kullanan sigorta şirketi sapma gösteriyor


Ve son olarak bu yıl, İngiltere'nin en büyük araç sigorta şirketi Admiral Insurance, sosyal medya sitesi kullanımları arasında bir korelasyon olup olmadığını ve iyi bir acemi sürücüler olup olmadıklarını görmek için Facebook kullanıcılarının iletilerini kullanmaya başladı.


Bu doğrudan bir AI hatası olmasa da, bu bir yanlış AI kullanımı olarak görülüyor. Walsh, "Facebook'un bunu önleyerek iyi bir iş yaptığını" belirtti. "Firstcarquote" adındaki girişimci, şirketin verilere erişiminin Facebook tarafından engellenmesi ile hiçbir zaman ilerleyemedi. Facebook bu engellemeyi "Facebook tarafından toplanan kullanım verisinin uygunluk hakkında, bir başvurunun onaylanması veya reddedilmesi ya da bir kredinin faizinin ne kadar olacağı gibi konularda karar verme sürecinde kullanılamayacağını" belirten ilkesine dayandırıyor.


Bu örneklerin de gösterdiği üzere, AI sistemleri ileri düzeyde sapma eğilimli, ve bunu önlemek için makine öğrenme algoritmalarının çeşitli veri kümelerinde eğitim alması kritik önemde. AI yetenekleri arttıkça, doğru kontrolleri, veri çeşitliliğini ve araştırma için etik standartları sağlamak bir numaralı önceliğe sahip.


Yazının orijinali için tıklayınız.