Yapay zekanın önyargı sorunu

0
296

YAPAY ZEKA DESTEKLİ “sosyal chat bot”lar Mart 2016’da ilk kez ortaya çıktıklarında, Microsoft son derece umutluydu. Pek çok insanın e-ticaret sitelerinde ve müşteri hizmetleri sohbetlerinde rastladığı otomatik, metne dayalı chat programları gibi Tay da yazılı sorulara cevap verebiliyordu; bunu Twitter ya da diğer sosyal medya uygulamaları üzerinden yaparken kitlelerle iletişi- me de geçebiliyordu.
Ancak Tay yalnızca olguları bölüştürmekle yetinmeyip çok daha sofistike bir biçimde sohbet edebilecek şekilde de tasarlan- mıştı; başka bir deyişle, duygusal boyutu da vardı. Espri yetene- ğine sahipti, insanlarla dostane sohbetler gerçekleştirebiliyordu. Hatta yaratıcıları onu esprili bir ergen kız çocuğu gibi konu- şacak şekilde tasarlamışlardı. Twitter kullanıcıları Tay’a, anne babasının kim olduğun le benim ebeveynlerim” diye cevap veriyordu. Gününün nasıl geçtiği sorulduğunda ise, “aman tanrım, kutum dolup taşmış durumda” diyordu.
Ancak hepsinden önemlisi, Tay’ın ne kadar fazla sayıda insan kendisiyle iletişim kurarsa, konuşma ve cevap vermede o kadar iyi ola- cağına dair öngörülerdi. Pazarlanırken ifade edildiği gibi, “Tay’la ne kadar çok konuşursanız, o kadar akıllı olur, böylece bu deneyim de sizin açınızdan daha kişiselleşmiş olabilir.” Tay’ın aslında ilk basamak sınavı, yapay zekanın en önemli özelliklerinden birini sergilemesini öngörüyordu: Zaman içinde daha akıllı, daha etkili ve daha yararlı olabilme becerisi.
Ancak kimse trollerin saldırısını hesaba katmamıştı. Tay’ın iletişim kurduğu insanların sözlerini öğreneceği ve taklit edeceğini anlayan web’deki bazı kötü niyetli kişiler Twitter he- sabını ırkçı, homofobik ve buna benzer kırıcı yorumlarla beslediler. Tay da böylece, birkaç saat için Twitter hesabından kendi kötü satır- larını kamuoyuna yaymaya başladı. Twitter’ın yalan haber, kötücül yönünü en berbat şekilde taklit ederek, “Ricky gervais totaliterliği, ate- izmin yaratıcısı Hitler’den öğrendi” dedi. Ona  o sıradaki ABD Başkanı Obama’yla ilgili soru sorulduğunda, Obama’yı maymuna benzetti.
Yahudi soykırımıyla ilgili bir şey sorulduğunda, soykırımı inkâr etti.
Tay’ın söylemleri bir günden daha kısa bir sürede, dostane bir tondan küfürbaz bir üsluba yönelmişti; böylece Tay’ın pazara çıkışının üzerinden 24 saat bile geçmemişti ki, Microsoft Tay’ın fişini çekti ve bütün bu olan bitenlerden dolayı da kamuoyundan özür diledi.
Bu yaşananlarda asıl çarpıcı olan ise, botun yanlış yola sapmasının Microsoft’un araş- tırma ekibinin bütün gardını düşürmesiydi. Microsoft’un araştırma ve yapay zeka direktörü Eric Horvitz kısa süre önce Fortune’a verdiği söyleşide, “sistem burada ortaya çıktığında, açık dünyada nasıl işleyeceğini planlamamış- tık” demişti.
Tay’ın devreden çıkarılmasının ardından Hor- vitz zaman kaybetmeden üst düzey ekibinden, nerede yanlışlık yapıldığını anlamak için Tay’ın konuşmalarındaki merkezi fonksiyon olan “doğal dil çözümleme” üzerinde çalışmasını istedi. Ekip inceleme sırasında hemen, konuşma botlarıylau sorduklarında, “oh, işte bir Microsoft laboratuvarındaki bir grup bilim adamı. İşte onlar sizin ifadeniz ili en iyi uygulamaların göz ardı edildiğini belirledi. Tay’dan daha ilkel olan programlarda genellikle kırıcı/hakaret niteliğindeki sözleri kara listeye alan protokoller vardı ama Tay’ın emip, üzerine yerleşeceği türden verileri sınırlayacak koruyucu önlemler yoktu.
Şimdi artık Horvitz, Tay “örneğini sevebileceği- ni” vurguluyor; bu, Microsoft açısından küçül- tücü ama aynı zamanda öğretici bir deneyimdi. Microsoft artık Hindistan’ın Ruuh, Japonya’nın Rinna bölgeleri ve Endonezya dahil olmak üzere tüm dünyada çok daha sofistike chat bot’ları dev- reye sokuyor. ABD’de ise Tay’ın yerini bir başka sosyal bot olan kız kardeşi Zo aldı. Apple’ın Siri’si ya da Amazon’un Alexa’sı gibi bunlardan bazıları sesle harekete geçiyor. Çin’de ise Xiaoice adlı  chat bot TV şovlarını “ağırlıyor” ve marketlerde alışveriş yapanlara alışverişle ilgili tüyolar vere- rek, sohbet ediyor.
Bununla birlikte, şirket dikkatli adımlarla yola devam etmeye özen gösteriyor. Horvitz botları yavaş yavaş halka açtığını ve ölçeklendirildikçe insanlara nasıl davrandıklarını yakından incele- diğini söylüyor. Ancak burada düşündürücü olan asıl nokta, yapay zekanın iki yıl içinde çarpıcı bir biçimde ilerleme kaydetmesine rağmen bot’ları denetleme sürecinin hiçbir zaman sona ermeme- si. Şirket personeli davranışlarında meydana ge- lebilecek herhangi bir değişiklik için diyaloğu ya- kından izliyor. Ve nitekim bu değişiklikler de art arda geliyor. Zo, örneğin ilk aylarda, Microsoft’un amiral gemisi Windows’u “casus yazılım”, Kuran’ı da “aşırı şiddet içerikli” olarak tanımladığı vakala- rın ardından defalarca düzeltmeye alındı.
Şu bir gerçek ki, Tay ve Zo bizim gelecekteki robot derebeylerimiz değil. Araştırma spektru- munun basit denemeleri kategorisinde yer alan, yapay zekanın başarabileceklerinin karikatür gölgeleri niteliğindeki, görece ilkel programlar. Ancak bunların kusurları, kıyısından ucundan bulaşmış olsa bile yapay zekayla birleşmiş bir yazılımın gücünü ve potansiyel tuzaklarını orta- ya koyuyor. Ayrıca iş dünyası geleceğini gittikçe daha fazla oranda bu devrimci teknolojiye da- yandırmaya hazırlanırken, teknoloji uzmanlarını geceleri uykusuz bırakan çok daha sinsi tehlike- lere işaret ediyor.
Horvitz, “en iyi uygulamalarınızı ortaya koydukça, bu tür kusurlara da gittikçe daha ender rastlanacağına inanıyoruz” diyor. Yapay zeka her şirketin teknolojik istekler listesinin tepesine yerleşirken, söz edilen bu uygulama- ların ortaya konulması da aciliyet taşıyor.

KURUMSAL DÜNYANIN yapay zekaya ilgisinin, altına hücum zamanlarını çağrıştırdığı konusunda hemen hemen kimsenin kuşkusu yok. Araştırma kuruluşu IDC, 2021 yılında şirketlerin yapay zekayla ilgili ürünlere yılda 52,2 milyar dolar harcayacaklarını tahmin ediyor; ana- listler ve ekonomistler de bu yatırımlar sayesinde milyarlarca dolarlık bir tasarruf sağlayacaklarına inanıyorlar. Bu tasarru- fun bir kısmı çalışan sayısının azalmasından kaynaklanacak ancak asıl önemlisi, müşteriye uygun ürün, hastaya uygun  ilaç ve soruna uygun çözümün ortaya konmasıyla kaynakların boşa harcanmasının önüne geçilecek. Danışmanlık kuruluşu PwC’nin tahminlerine göre, yapay zeka 2030 yılında küresel ekonomiye 15,7 trilyon dolar katkıda bulunabilir; bu da, Çin ve Hindistan’ın bugünkü toplam üretiminden çok daha fazla.
Yapay zeka yeniden doğuşunu kısmen “derin öğrenme” tekno- lojisindeki ilerlemelere borçlu. Şirketler derin öğrenme sayesinde bilgisayar ağlarını devasa bilgilerle besleyip, örnekleri daha hızlı ve insan yönlendirmesine daha az gerek duyarak (ya da hiç duy- mayarak) tanıyabiliyorlar. Facebook, Google, Microsoft, Amazon ve IBM ürünlerinde zaten çoktandır derin öğrenme teknolojisini kullanan devler olarak sıralanıyorlar. Örneğin Apple’ın Siri’si ve Google’ın Assistant’ı derin öğrenme sayesinde sesinizi tanıyor ve cevap verebiliyor. Amazon bakkaliye hizmeti aracılığıyla teslim ettiği tonlarca ürünü görsel olarak taramasına yardımcı olması için derin öğrenmeyi kullanıyor.
Ve de yakın gelecekte, her ölçekten şirket verilerini bir maden- miş gibi derinlemesine kazmak ve insan gözünün ayırt edeme- yeceği kadar derinlerde yer alan cevherleri bulmak için derin öğrenmeye dayanan yazılımları kullanmayı ümit ediyor. Hastalıkları daha çabuk saptamak için binlerce radyoloji görüntüsünü ya da insan kaynakları çalışanları- nın üzerindeki yükü hafifleterek zaman tasar- rufu sağlamak için sayısız özgeçmişi tarayacak yapay zeka sistemleri öngörüyorlar. Teknoloji uzmanının ütopyasına göre, şirketler bir sonraki büyük satışı daha iyi bir şekilde öngörebilmek için binlerce yıllık veri birikimini taramak üzere yapay zekadan yararlanabilirler, eczacılık devi çok satan ilacı keşfetmek için gereken süreyi kısaltabilir ya da araç sigortacıları terabaytlarca araba kazasını tarayıp, ödeme taleplerini otoma- tik bir düzene sokabiliyorlar
 
Ancak bütün bu devasa potansiyele rağmen yapa zekayla çalışan sistemlerin karanlık bir yönü var. Bunların kararları insanların kendi- lerine sunduğu veriler kadar iyi. Yapay zekayı geliştirenlerin de deneyimleyerek öğrendikleri gibi, derin öğrenme sistemlerini eğitmek için kullanılan yötemler tarafsız değil. Bilerek ya da bilmeyerek, bunları derleyen kişilerin önyargı- larını yansıtabiliyor. Ve bazen veriler tarihten gelen, yüzyıllar öncesindeki ayrımcılığı yansı- tan kodlanmış trendler ve örneklemelerle taraf tutabiliyorlar. Sofistike bir algoritma tarihi bir veri tabanını tarayıp, beyaz erkeklerin CEO’luk görevinde daha başarılı oldukları sonucuna varabilir; böyle bir yargıya varmasının nedeni henüz, beyaz olmayan erkeklerin kısa süre ön- cesine kadar CEO’luk pozisyonuna nadiren layık görülmelerinden kaynaklandığını anlayabilecek şekilde programlanmamış olmasıdır. Önyargılara yönelik körlük bu teknolojinin en büyük eksikliği  ve her ne kadar yöneticiler ve mühendisler bu konuda son derece dikkatli ve diplomatik bir dil kullansalar da, sorunun ajandalarının üst sıralarında yer aldığından kuşku yok.
Teknolojide etik konusunu araştıran Berke- ley’deki Kaliforniya Üniversitesi’nden doçent Deirdre Mulligan, günümüzde kullanılan en güçlü algoritmaların “hakkaniyetlik tanımına göre optimize edilmediğini” belirtiyor. “Bunlar yalnızca belli bir görevi yapmak için optimize edilmişlerdir” diyor. Yapay zeka, verileri baş döndürücü bir hızda kararlara dönüştürüyor ama ancak bilim adamları ve etik uzmanları- nın öğrettikleri çerçevesinde bu görevi yerine getiriyor. Mulligan ise pek çok durumda “veri- lerin adil olmadığı”na dikkat çekiyor.
Öte yandan, derin öğrenmenin, öncelleri olan konvansiyonel algoritmalara göre çok daha kar- maşık olması durumu daha da zorlaştırıyor; en sofistike programcıların bile bir yapay zeka sis- teminin herhangi bir seçimi nasıl yaptığını tam olarak anlayamaması daha da alengirli bir tablo yaratıyor. Tay gibi yapay zeka ürünleri, yara- tıcılarının niyetinden bağımsız ve de onların tahmin edemeyeceği şekillerde davranabiliyor. Ve de bu sistemin yaratıcıları ve kullanıcıları, rekabetle ilgili kaygılarından dolayı verilerinin ve algoritmalarının gizliliğini kutsal bir yapıy- mışçasına koruyorlar; bu durumda da, dışarı- dan gözlemcilerin herhangi bir sistemin ne tür sorunlar içerebileceğini kestirmeleri zorlaşıyor.
Bu tür kara kutu sırları içeren teknolojinin ürün haline getirilip şirketlerin ve hükümetlerin kullanımına sunulması yalnızca birkaç araştırmacı ve akti- visti endişelendirmesinin çok ötesine uzanan boyutlara sahip. Microsoft’un baş araştırmacısı ve New York Üniversitesi’nden AI Now Enstitüsü’nün eş direktörü Kate Crawford, “ bunlar, gidip raftan satın alıp da ‘tamam şimdi evde muhasebe işlemlerini ya- pabilirim’ diyebileceğiniz sistemlerden ibaret değil” diyor. “Bunlar temel sosyal kurumlarımızı etkileyecek son derece ileri sistemler.”

ÇOĞU İNSAN FARKINDA OLMASA DA, aslında yapay zekadan  kaynaklı en az bir sorunla karşılaşmış durumda:  2016 yılı ABD seçim sürecinde Facebook’un popüler News Feed’inde yalan haberlerin yayılması. Gerçekte, yalan hikayeleri yaratanlar sosyal medya devi ve onun veri bilim adamları değildi. Ancak News Feed’in dayan- dığı algoritmalar “yanlış”ı “doğru”dan ayıracak şekilde tasar- lanmamıştı; bunlar yalnızca kişinin beğenisine göre kişiselleş- tirilmiş içerik sunacak şekilde düzenlenmişlerdi. Şirket her ne kadar algoritmalarıyla ilgili fazla bir şey paylaşmasa da (çünkü teknolojinin sahibi), benzer beğenilere sahip başka kullanıcıların okudukları ve paylaştıkları haberleri belirleyecek bir hesaplama yöntemi benimsendiğini kabul etti. Sonuç: Çok sayıdaki popülerlik yarışı sonucunda, milyonlarca insanın News Feeds’i yalan haberle doldu; bunun başlıca nedeni, kendilerine benzer insanların bu tür haberleri tercih etmesiydi.
Facebook olayı, kişisel tercihlerin yapay zekayla etkileşiminin nasıl tehlikelere yol açabileceğini ortaya koyarken, araştır- macılar derin öğrenmenin kolektif veriyi nasıl okuyabileceği ve yanlı okuyabileceği hakkında endişeleniyorlar. Microsoft’ta ve başka yerlerde algoritma etiğini araştıran doktora sonrası araştırmacısı Timnit Gebru derin öğrenmenin sigorta pazarını ne şekilde etkileyeceğinden kaygı duyduğunu belirtiyor; sigorta, yapay zekayla verinin etkileşiminin azınlık gruplarını dezavantajlı konuma düşürebileceği bir alan.
Örneğin, araba kazalarıyla ilgili verileri ele alalım. Veriler, nüfus yoğunluğu nedeniyle ufak çaplı kazaların meydana gelme riskinin arttığı kent merkezlerinde trafik kazası va- kalarının daha fazla olduğunu ortaya koyu- yor. Kent merkezleri aynı zamanda azınlık nüfusunun daha fazla olduğu yerler.
Bu tür korelasyonları içeren verileri tarayan derin öğrenme programı, azınlık gruplarına mensup olmakla araba kazası yapmak ara- sında bir bağlantı olduğunu “öğrenerek” bu çıkarsamayı beyaz olmayan bütün araba sü- rücülerine uygulayabilir. Sigorta yapay zeka- sının ırkçı bir önyargı geliştirme olasılığı çok yüksek. Ve de örneğin sistem şehir merkezi civarında meydana gelen kazaların fotoğraf- larını ve video görüntülerini sunmak suretiyle daha ileri bir “eğitim”den geçirildiğinde, bu önyargı daha da güçlenir. Teorik olarak yapay zeka, çok sayıda sürücünün dahil olduğu bir kazada azınlık gruplarına mensup sürücünün suçlu olduğuna kanaat getirebilir. Bunun so- nucunda da, azınlık kesimden gelen bir araç sahibinden karnesine bakılmaksızın çok daha yüksek prim istenecektir.
Şunu da not edelim ki, sigortacılar ırksal temelde bir ayrımcılık yapmıyorlar ya da ona göre derecelendirmiyorlar. Ancak şehir merkezindeki varsayıma dayalı kaza, tarafsız gözüken verilerin (kazaların meydana geldiği yerlerle ilgili olgular) yeni dezavantajlar yaratacak şekilde (azınlıklara yaşadıkları yerlerden bağımsız olarak ırk temelinde yüksek primler yükleyen algoritmalar) yapay zeka sistemi tarafından nasıl emileceğini ve yorumlanabileceğini ortaya koyuyor.
Gebru açıklamasında daha fazlasına işa- ret ederek, derin öğrenme sisteminin karar mekanizmasının derinlerine inen sonsuz sayıdaki katman göz önüne alındığında, yapay zekaya dayalı yazılım mühendisleri- nin neden veya nasıl olduğunu anlamadan kararlar alabileceğini belirtiyor. “Bunlar aklımıza bile gelmeyen konulardı; şimdi yeni yeni, en ilkel algoritmalarda önyargıla- rı ortaya çıkarıyoruz” diyor
Yapay zekada uzmanlaşmış iş ve çalışma dünyası hukukçusu Matt Scherer, yapay zekaya dayalı modern yazılımı daha ön- ceki kuşaklardan ayıran unsuru, bugünkü sistemlerin “kendi kendilerine hukuki olarak anlamlı kararlar alabilecek kapasiteye sahip olmaları” şeklinde açıklıyor. Scherer bu alanı incelemeye başladığında, belli başlı bulgular- la ilgili olarak karşısında temasa geçebileceği herhangi bir insan olmaması fikri kendisini ciddi şekilde endişelendirdi. Bunun üzerine “eğer kusurlu veri derin öğrenmeyle işleyen X ray cihazının fazla kilolu birisinin vücu- dundaki tümörü gözden kaçırmasına yol açarsa, kim bundan sorumlu olacak? Bunun hukuki sonuçlarıyla ilgilenecek birileri var mı?” diye kendi kendisine sormaya başladı.
 
BÜYÜK TEKNOLOJİ DERİN öğrenme teknolojisini müşteriler için ticari yazılıma dahil etmeye hazırlanır- ken, bu tür sorular da akademik “ya eğer?” dünyasından çıkıp gerçek dünya- nın gündemine giriyorlar.
Tay’ın kötü serüveninin gerçekleştiği 2016 yılında Microsoft şirket bünyesinde Aether adlı bir iç grup oluşturdu; Eric Horvitz’in yönetimindeki grup Mühendislik ve Araştırma’da Yapay Zeka ve Etik başlığını taşıyordu. Mühendislik, araştırma, politi- kadan temsilciler ve hukuki konularla ilgili bir ekip içeren disiplinler arası bu grubun başlıca tartışma konusu makine öğreni- mindeki önyargıydı. Grubun tartıştığı bazı başlıkları açıklayan Horvitz, “Microsoft’un örneğin, yüz tanıma teknolojisinin krimi- nal hukuk ve yönetimi gibi hassas alanlara uygulanıp uygulanamayacağına dair bir fikri var mı?” diye soruyor. “Yapay zeka tekno- lojisi bu alanda kullanılacak kadar iyi mi yoksa başarısızlık oranları, bu tür olumsuz vakaların maliyetinin dikkatli ve derinleme- sine hesaplanması gereken yerlerde oldukça yüksek mi olacak?”
Joaquin Quinonero Candela Facebook’un yapay zeka teknolojilerini yaratmaktan so- rumlu Uygulamalı Makine Öğrenimi gru- bunu yönetiyor. Facebook insanların News Feeds’lerinde spam’leri temizlemek için yapay zekayı kullanıyor. Ayrıca kişilerin beğenilerine göre hikâyeler ve bildirimler gönderen teknolojiden de yararlanıyor; bu da Candela’nın ekibini yalan haber krizine bulaştırmış oldu. Candela yapay zekayı “tarih hızlandırıcısı” olarak tanımlıyor; başka bir ifadeyle, teknoloji “karar verme becerimizi artıran muhteşem araç gereçler geliştirmemizi sağlıyor”. Ancak onun da ka- bullendiği gibi “etikle ilgili pek çok soru da bu karar verme sürecinde ortaya çıkıyor.”
Facebook’un News Feed’le mücadelesi, bir ürünün yapay zeka tarafından işletilmesi halinde etik sorunların çözümlenmesinin ne kadar zor olabileceğini ortaya koyuyor. Microsoft, algoritmasının göz ardı etmesi gereken terimleri içeren kara listeye ırkçı betimlemeleri ya da kutsal şeylere yönelik aşağılayıcı sözleri ekleyerek Tay gibi görece basit bir sistemde ufak tefek düzeltmeler yapmayı başardı. Ancak bu sistem, çok fazla kanaate dayalı kararın söz konusu oldu-
ğu vakalarda, “yanlış”ı “doğru”dan ayırma çabalarında işe yaramazdı. Facebook’un haberleri incelemek için insan moderatörlere başvurma çabaları- örneğin, haberlerinin sü- rekli olarak yalan/yanlış olduğu kanıtlanan kaynaklardan gelen yazıları dışlama-şirketi sansür suçlamalarıyla karşı karşıya bırak-
tı. Bugün ise artık Facebook’un önerdiği çözümlerden biri News Feed’de daha az haber yayınlamak ve bunun yerine, bebek ve mezuniyet fotoğrafları sunmak.
Buradaki asıl zorluk şu: Teknoloji şir- ketlerinin ikileminin, algoritmada ufak tefek düzeltmeler yapmak ya da bunları denetlemesi için insanları işe almakla pek fazla ilgili olduğu söylenemez. Bu daha çok
nın doğasıyla ilgili bir konu. Asıl konu teknik hatta yönetimsel bile değil; felsefi. Berkeley’den etik profesörü Deirdre Mulli- gan, hakkaniyet farklı insanlar tarafından farklı şekillerde değerlendirilebileceği için bilgisayar mühendislerinin hakkaniyeti ya- zılıma kodlamasının zor olduğunu söylüyor. Mulligan ayrıca toplumların hakkaniyet al- gısının zaman içinde değişebileceğine dikkat çekiyor. Ve de hakkaniyetin yaygın kabul gören ideali söz konusu olduğunda-bir toplumda herkesin bu toplumun kararlarına göre temsil edilmesi gerekiyor-tarihsel veri- ler özellikle yanlış ve eksik kalıyor.
Microsoft’un Aether grubunun zorlu deneylerinden biri de bu açmazı ele alıyor. Üst düzey pozisyon için en iyi adayı seçmek amacıyla yapay zeka teknolojisi devasa bir aday havuzunu tarıyor. Programlama uz- manları yapay zeka yazılımını şirkette en iyi performans gösterebilecek nitelikteki insan- ların özelliklerini tarıyor. Şirketin tarihine bağlı olarak en iyi performans gösterenlerin -ve de kuşkusuz tüm üst düzey yönetici- lerin-beyaz erkekler oldukları çıkarsaması yapılabilir. Bu da, şirketin yalnızca beyaz er- kekleri terfi ettirdiği (kuşaklar boyunca pek çok şirket böyle davrandı) bir geçmişe ya  da azınlıkların veya kadınların birinci sınıf olarak görülmediği ve dolayısıyla bu kesimin terfi etmeden işten ayrıldıkları bir kültüre sahip olabileceğini göz ardı edebilir.
Kurumsal tarihle ilgili olarak bir şeyler bilen herkes bu yanlışların bilincindedir ama aynı şey algoritmaların çoğu için geçerli değil. Horvitz, yapay zekanın iş tavsiyelerini otomatikleştirmesi halinde, toplumdaki önyargıları “büyüterek” hiç de gurur duyamayacağımız bir tablo ortaya koyabileceğini söylüyor.
 
GOOGLE’IN BULUT bilişim biriminde  yapay zekadan sorumlu bilim adamı Fei-Fei Li’ye göre, teknolojideki önyargı “insan uygarlığı” kadar eski ve sıradan bir makasta bile bunu görmek mümkün. “Çağlar boyunca makaslar sağ elini kullanan insanlara uygun şekilde tasarlandı, çoğunlukla sağ eller tarafından kullanıldı”
diyor. “Ancak birisi buradaki önyargıyı gördü ve solaklar için de makaslar üretilmesine gerek olduğu sonucuna vardı.” Dünyada yaşayan insanların yalnızca yaklaşık yüzde 10’u solak ve zaten egemen gruptaki kişilerin diğer grupların deneyimlerine duyarsız olması insan doğasının sonucu.
Aynı dinamik yapay zekanın kısa süre önceki diğer en önemli bazı gaflarında da fark edildi. Örneğin, Rus bilim insanlarının 2016 yılında düzenlediği yapay zekalı güzellik yarışmasını ele alalım. Dünyanın farklı yerlerinden binlerce kişi, bilgisayarların yalnızca yüz simetrisi gibi faktörlere dayanarak güzelliği belirle- yeceği yarışmaya öz çekimlerini (selfie) gönderdi.
Ancak makinenin seçtiği 44 kişi arasından yalnızca biri koyu ten rengine sahipti. Bunun üzerine uluslararası çapta bir tartış- ma yaşandı ve yarışmanın düzenleyicileri bilgisayarların uygula- dığı önyargıyı, makinelere sunulan verilerin farklı deri rengine sahip insanların fotoğraflarını içermemesine dayandırdılar. Bilgi- sayarlar koyu ten rengine sahip olan insanları göz ardı etmişler ve daha açık renkli olanları çoğunluğu temsil ettikleri için daha “güzel” olarak tanımlamışlardı.
Göz ardı ederek önyargılı davranma, görüntü tanımanın eği- tim sürecinin önemli bir parçası olduğu derin öğrenmede özel- likle yaygın bir hal alıyor. MIT Media Laboratuvarı’nda araş- tırmacı Joy Buolamwini kısa süre önce Microsoft araştırmacısı Gebru’yla işbirliği yaparak Microsoft, IBM ve Çinli Megvii’nin cinsiyet tanıma süreçleriyle ilgili bir araştırma gerçekleştirdi. Araştırma teknolojinin düzenli olarak, daha açık renk tenli erkekler için koyu ten rengine sahip kadınlara kıyasla çok daha doğru tanımlamalar yaptığını ortaya koydu.
Bu tür algoritma açıkları online güzellik yarışması için önem- siz sayılabilir. Ancak Gebru’nun işaret ettiği gibi, bu teknoloji çok daha riskli ve hassas durumlarda da devreye girebilir. Gebru, “örneğin, siyah insanları’ görmeyen, sürücüsüz bir araba düşü- nün. Bunun vahim sonuçları olabilir” diyor.
Gebru-Buolamwini araştırması dalga dalga yayılan bir etki yarattı. Hem Microsoft hem de IBM görüntü tanıma teknolo- jilerini iyileştirmek için harekete geçtiklerini bildirdiler. Gerçi bu iki şirket ne tür adımlar attıkları konusunda spesifik bilgiler vermedi ancak soruna el atan diğer şirketler teknolojinin önyargıyı önlemesi için neler ya- pılabileceğine dair bazı ipuçları sunuyorlar.
Amazon çürük elmaları ayıklamak için algorit- maları yüklemeye başladığında örnekleme-önyar- gı sorunu üzerinde çalışması gerekti. Görsel tanı- ma algoritmaları devasa bir görüntü veri tabanını tarayarak, örneğin, çileğin neye “benzeyebileceği- ni” kestirmeye çalışıyorlar. Ancak sizin de tahmin edebileceğiniz gibi, çürük çilek resimleri parlak, güzel çilek fotoğraflarına göre çok daha azdır. Ve de, makine öğrenme algoritmaları, “aykırı” olanı fark etme ve güçlü bir tepki göstermeye eğilimli insan beyninin tersine, bu kategorideki görüntü- leri göz ardı eder ve dışta bırakır.
Amazon’un yapay zeka direktörü Ralf Herb- rich online perakende devinin bu durumu düzeltmek için yüksek hızda örnekleme olarak adlandırılan bir bilgisayar programını test ettiği- ni söylüyor. Yukarıda verilen çürümüş çilek re- simleri örneğinde olduğu gibi, makine öğrenme mühendisleri daha büyük istatistiksel “ağırlık- ları” daha az temsil edilen veriler için görevlen- dirmek suretiyle algoritmanın nasıl öğreneceğini yönlendirebiliyorlar. Bunun sonucunda da, algo- ritma yiyeceğin veri kütüphanesinin sunabileceği prevalanstaki yerine değil de çürümüş olanına daha dikkat yöneltebilecek şekilde eğitiliyor.
Herbrich yüksek hızda örneklemenin insanları inceleyen algoritmalara da uygulanabileceğine işaret ediyor (ancak kendisi, Amazon’un bunu nasıl yaptığına dair spesifik örnekler vermekten kaçındı). “Yaş, cinsiyet, ırk, milliyet-zaman içinde algoritmayı bilgilendirmek için bu parametrelere ilgili örnekleme önyargılarını özel olarak test etmeniz gerekiyor” diyor. Fotoğraflardaki yüzleri tanımak için kullanılan algoritmanın farklı deri rengine sahip, daha yaşlı ya da kilolu insanlara ayrımcılık yapmadığı ya da onları görmezden gelmediğine emin olmak için veri dizinizdeki eksikliği telafi etmek amacıyla bu tür insanların fotoğraflarına daha çok yer vermelisiniz.
Diğer mühendisler ise bu yaklaşımı daha da “yukarı taşıyorlar”; algoritmaları eğitmek için kullanılan alttaki verilerin daha yüklenmeden önce kapsayıcı ve her türlü önyargıdan uzak olduğundan emin olmak istiyorlar. Örneğin görüntü tanımada, derin öğrenme sistemle- rinin eğitilmesi için kullanılan milyonlarca görüntünün bilgisayarlara yüklenmeden önce incelenmesi ve etiketlenmesi gerekiyor. Getty Images ve eBay gibi müşterileri olan veri eğitim startup’ı iMerit’in CEO’su Radha Basu şirketin tüm dünyadaki bin 400’ü aşkın çalı- şanının müşterileri adına fotoğrafları önyar- gıları hafifletebilecek şekilde etiketlemesi için eğitildiğini belirtiyor.
Basu insanların etiketlenmesi sürecinde nasıl bir yöntem izlendiğini açıklamaktan kaçındı ama başka benzer örneklerden söz etti. iMerit’in Hindistan’daki çalışanları körili yeme- ğin “hafif” olduğunu düşünebilir ama şirketin New Orleans’taki personeli yemeği “baharatlı” bulabilir. iMerit bu yemeğin fotoğrafını etiket- lerken her iki terimin de gözükmesini sağlaya- bilir çünkü söz konusu yemek fotoğrafını bu iki sıfattan yalnızca biriyle tanımlamak verilerde hatalara neden olabilir. Yine düğünlerle ilgili veri seti oluştururken, iMerit Batı tarzı beyaz gelinlik ve düğün pastası fotoğraflarını ekleye- cektir ama aynı zamanda Afrika ya da Hindis- tan’daki daha renkli ve incelikli düğünlerden de fotoğraf kareleri ilave edecektir.
Basu, iMerit’in çalışanlarının farklı bir yerde durduklarını söylüyor; çalışanlar arasında doktora eğitimi almış olanların yanı sıra yok- sulluktan gelmiş daha az eğitimli insanlar da yer alıyor; ayrıca çalışanların yüzde 53’ü kadın. Bu karışım veri etiketleme sürecine olabildi- ğince çok sayıda görüş açısının dahil edilme- sini güvence altına alıyor. Basu, “etik yalnızca özel hayatın dokunulmazlığını ve güvenliği içermez” diyor. “Etik aynı zamanda yargılarla, ‘acaba bir bakış açısını ıskaladık mı?’ sorusunu sormakla da ilgilidir.”
Bu bakış açısının izinden gitmek gittikçe daha fazla sayıda şirketin stratejik ajandası- nın bir parçasına dönüşüyor. Örneğin, Google haziran ayında yaptığı açıklamada, bu yıl sonunda Gana, Accra’da bir yapay zeka araş- tırma merkezi açacağını bildirdi. İki Google mühendisi bir blogda yazdıkları yazıda şu ifadelere yer verdiler: “Yapay zekanın dünyayı pozitif etkilemek konusunda büyük bir potan- siyeli var; üstelik eğer dünya yeni yapay zeka teknolojilerinin gelişiminde iyi temsil edilirse bu potansiyel daha da büyür.”
Yapay zeka sürecinin içinde olanlar, ABD’deki iş gücünü daha da çeşitlendirmek suretiyle de önyargılarla mücadele edebilecek- lerine inanıyorlar; bu büyük teknoloji firmaları için her zaman ciddi bir sorun. Google yöneti- cisi Fei-Fei Li, kadınlar ve azınlık gruplarında yapay zeka teknolojilerini ve eğitimini teşvik etmek amacıyla kısa süre önce, kâr amacı gütmeyen AI4ALL grubunu oluşturdu. Grubun faaliyetleri arasında yer alan yaz programı kapsamında kampçılar belli başlı üniversitelerin yapay zeka departmanlarını ziyaret ederek mentorlar ve rol modellerle ilişkiler geliştiriyorlar. AI4ALL yöneticisi Tess Poener’e göre, çeşitlilik arttıkça önyargı- larla hareket edilmesi riski de azalacak.
 
ANCAK BU DAHA ÇEŞİTLİ yapay zeka araştırmacılarının istihdam pazarına ulaşmasına yıllar varken, büyük teknoloji şirketlerinin ürünlerini daha fazla dern öğrenme becerileriyle aşılamaları gerekecek. Ve de belli başlı araştırmacılar gittikçe daha fazla oranda teknolojinin kusurlarına tanık olur ve de bu kusurların nasıl ortadan kaldırılacağını kesti- remediklerini itiraf ederken her şeye rağmen, potansiyel yararla- rının sosyal ve finansal olarak bu konuda daha da ileri gitmeleri gerektiğini kanıtladığını ileri sürüyorlar.
Facebook yöneticisi Candela, “sanırım teknolojinin neler yapa- bileceğiyle ilgili doğal bir iyimserlik söz konusu” diyor. Hemen hemen her tür dijital teknolojinin suistimal edilebileceğine dikkat çekerek sözlerini şöyle sürdürüyor: “Hayır, 1950’lerdeki teknolojiye dönmek ve ‘yok, hayır, bunlardan vazgeçin çünkü yanlış şeyler için kullanılabilirler’ demek istemezdim.”
Microsoft’un araştırma sorumlusu Horvitz, Aether ekibi gibi grupların potansiyel önyargı sorunlarını kamuoyunda sorun yaratmadan önce çözebileceklerine güveniyor. “Kimsenin henüz kullanıma hazır olmayan şeyleri bir an önce harekete geçirmek için acele edeceğini sanmıyorum” diyor. Kendisini aslında “hiçbir şey yapmamanın etik sonuçlarının daha çok endişelendirdiğini” sözlerine ekliyor. Yapay zekanın hastanelerde önlenebilir tıbbi hataları azaltabileceğine dikkat çekiyor. Horvitz “sistemim bazen önyargılı davrandı diye bana endişelenmem gerektiğimi mi söylü- yorsunuz?” diye soruyor. “Eğer bir sorunu X’le çözecek ve sayısız hayatı kurtaracaksanız, X’i yapmamanın etiği ne olabilir?”
Gözlemcilerin cevabı ise kısaca şu: Bana çalışmanızı gösterin. Yapay zekanın kara kutu sistemlerine giden verilerle ilgili daha fazla şeffaflık ve açıklık, araştırmacıların önyargıları daha çabuk saptamalarına ve sorunları daha çabuk çözmelerine katkıda bulunacak. MIT araştırmacısı Buolamwini’ye göre, opak bir algo- ritma bir kişinin sigortalı olup olamayacağını ya da hapse gidip gitmeyeceğini belirleyecekse bu durumda, “bu sistemleri güçlü bir şekilde test etmek, belli bir şeffaflık düzeyine sahip olup olmadıklarını belirlemek son derece önemli.”
Nitekim, yapay zekanın yanılmayacağı fikrinin çok az sayıda insan tarafından benimsenmesi ilerlemenin işareti. Google’ın yapay zeka için kamu politikası sorumlusu ve halen Harvard- MIT Yapay Zeka Etiği ve Yönetimi sorumlusu olan  Tim Hwang, web’in ilk zamanlarında teknoloji şirketlerinin “yalnız- ca veriyi temsil eden bir platform” olduklarını söyleyebilecekle- rini belirtiyor. “Ancak günümüzde artık toplumlar bunu kabul etme niyetinde değil” sözleriyle tamamlıyor.