İnsanlıktan Yapay Zekâya Bir Miras: Ön Yargı

Okuma Süresi: 10 Dakika

Makalemizde İnsanlıktan Yapay Zekâya Bir Miras: Ön Yargı konusunu inceleyeceğiz.

İnsanlıktan Yapay Zekâya Bir Miras: Ön Yargı

Giriş

Hepimiz dijital dönüşümün etkilerine dair farklı öngörülere sahibiz. Bazılarımız günümüzdeki durumu da göz önünde bulundurarak farklı bir geleceğin yakın olduğunu, bazılarımız bu farklı geleceğin içinde bulunduğumuzu, bazılarımız ise daha yolun başında olduğumuzu düşünmektedir. Hangi düşünceyi desteklediğinizden bağımsız olarak dijital dönüşüm çoktan başladı ve her açıdan yaşantımızı değiştirmeye devam ediyor.

Bu noktada yapay zekâ sistemleri dijital dönüşüm dişlisinin vazgeçilmez bir parçasını oluşturmaktadır. Peki gerçekten de yapay zekâ bizden bağımsız kararlar alabilecek midir? Yoksa aslında biz insanların düşünce şeklinin bir yansımasını mı oluşturmaktadır? Tam da bu noktada insanlıktan yapay zekâ sistemlerine deyim yerindeyse bir miras kalabilmesi söz konusudur. Bu miras insanların yapay zekâyı eğitme şekli veya yapay zekâya ilettiği veriler aracılığıyla ortaya çıkabilecek ön yargıdır.

İlk bakışta yapay zekâ nasıl olur da insanlar gibi ön yargılı kararlar alabilir şeklinde aklımızda bir soru işareti canlanabilir. Fakat yapay zekâ sistemlerinin kimi sebeplerden ön yargılı kararlar alabilmesi, ayrımcılıktan korunma hakkını ve eşitlik ilkesini zedeleyici çıktılara ulaşması olasıdır. Bir noktada makineler de bizim gibi düşünmekte ve kararlar almaktadır. Belki de geleceği şekillendirebilmenin en iyi yolu geleceğe saf düşüncelerle dolu ön yargısız bir miras bırakmaktır. Ön yargı ve ayrımcılıktan temizlenmiş bir sistemi kim istemez ki!

Yapay Zeka Nedir?

Yapay zekânın tanımından ziyade önce tam olarak neyi ihtiva ettiğini, ne amaçla var olduğunu açıklamak akılda canlanmasını kolaylaştıracaktır. Yapay zeka asıl olarak makinelerin sadece insanların yapabildiği biçimde hareket edip düşünmesi olarak tarif edilebilecektir. Yapay zekâ, bir bakıma makinelere insanların kimi özelliklerini kazandırmaktadır. Görme, duyma, tatma, koklama, dokunma, konuşma, okuma ve yazma gibi işlevleri eğitildikleri taktirde yapay zekâ gerçekleştirebilmektedir.

Makineler bu doğrultuda dünyadaki olguları yorumlayabilir, karar alabilir hatta eylemde dahi bulunabilirler. Pratikte yapay zeka kavramı bir insanın yönlendirmesi olmadan, makinelerin kendi başlarına akıllı hareket kabiliyetlerini ifade etmek için kullanılmaktadır. Bir makinenin muhakeme, öğrenme, planlama ve yaratıcılık gibi insan benzeri becerileri sergileme yeteneği olarak da anılmaktadır.

Yapay zeka en temelde kalıpları tespit etmek, ne yapacağına karar vermek ve gelecekteki sonuçları öngörmek amacıyla bir algoritmayı verilere uygulamak demektir. Algoritma ise belli bir amaca ulaşmak veya bir problemi çözmek için tasarlanan yoldur. Öz olarak yapay zekâ, düşünme yetisine sahip makineler yaratmak veya makineleri bu yönde geliştirmekle ilgilidir. İlgili tanım ve açıklamalardan da hareketle yapay zekâ iki temel yapı üzerine kurulmuştur.

Bunlardan ilki; zekânın ne olduğunun anlaşılabilmesi için insan düşünce sürecinin araştırılması, ikincisi ise bu sürecin bilgisayarlar, robotlar, makineler vb. aracılığıyla gösterilmesi, somutlaştırılmasıdır. Bunların ışığında yapay zekâ, insan tarafından yapıldığında zekâ (akıllı davranış) olarak adlandırılan davranışların makineler tarafından da yapılmasıdır.

Görüleceği üzere yapay zekâ ile insan zihni arasında ayrılmaz bir bağ bulunmaktadır. İnsanların düşünme ve karar alma yetisinin yapay zekâya yansıtılma girişimlerinin doğal bir sonucu da kimi insani özelliklerin yapay zekâ nezdinde izlerine rastlanmasıdır. Bu noktada ön yargılı düşünen insanın düşünme ve karar alma şeklini örnek alarak bir karar verme mekanizması oluşturan yapay zekânın ön yargılı karar vermesi olası bir hal alabilecektir.

1950’li yıllarda düşünen makineler yaratma olasılığı hakkında düşüncelerin paylaşılmasından, bir satranç programına, satranç programından İngiltere’de New Hampshire’da bulunan Dartmouth College’da yapılan bir konferansta yapay zekâ teriminin ilk kez kullanılmasından 1997 yılında IBM (International Business Machines)’in ürettiği Deep Blue adlı bilgisayarın, dünyanın en ünlü satranç ustası Garry Kasparov’u yenmesine ve günümüzde yer alan akıl almaz gelişmelere kadar yapay zekâ hep bir dönüşüm halindeydi. Şimdi ise günümüzün derin öğrenen yapay zekâsı (deep learning) her anlamda veriye bağlı olarak daha hızlı öğrenmekte ve gelişmektedir. Neredeyse yaptığımız her şey bir veri haline gelmekte ve bugünlerde her zamankinden daha fazla veriye erişebilmekteyiz.

Bu durum da yapay zekânın çok daha akıllı, daha hızlı ve daha isabetli hale gelmesini sağlamaktadır. Çektiğimiz fotoğraflardan, gezdiğimiz yerlere, yaptığımız alışverişlere, beğendiğimiz gönderilerden okuduğumuz kitaplara kadar yaptıklarımız büyük verinin bir parçasını oluşturmaktadır. Fakat bu büyük veri silsilesi içerisinde yapay zekânın neden ne yönde karar verdiğini tespit etmek mümkün olmayabilir. Deyim yerindeyse yapay zekâ sisteminin kapağı açılıp içine bakılamaz, bir kara kutu problemi mevcut olabilmektedir.

Bir veri girdisi ve sonuç bulunmaktadır. Yapay zekâ verileri almakta ve bir karar vermektedir. Tüm hesaplama ve karar alma süreci, genellikle kara kutu (black-box) olarak ifade edilen ve yorumlanması imkânsız bir olguya dönüşmektedir. Bu kara kutu modelleri doğrudan verilerden oluşturulmakta ve algoritmayı yaratan mühendisler veya veri bilimciler bile onların içinde tam olarak ne olduğunu ya da algoritmanın ilgili sonuca nasıl vardığını anlayamamakta veya açıklayamamaktadır.

Bu noktada ancak şeffaflık ve açıklanabilirlik ile yapay zekâ devrimi doğru yolda ilerleyebilecektir. Bu doğrultuda Avrupa Birliği Genel Veri Koruma Tüzüğü (“GDPR”) uyarınca bir açıklama hakkı getirilmesi zorunlu kılınmıştır. Açıklanabilir ve şeffaf bir yapay zekâ sistemi de hem veri girdisinden hem de insanların ön yargısından ari bir karar alma mekanizması oluşturabilecektir.

Yapay Zekâ Ön Yargılı Olabilir Mi?

Yapay zeka ancak dayandığı veriler kadar iyi olabilir. Eğer yapay zekânın dayandığı veri ön yargılı ise o zaman yapay zekâ sistemi de ön yargılı olacaktır. Ön yargılı veri veya yapay zekâ, geliştiricilerin ön yargılı olduğunu her zaman göstermez. Tarih boyunca işlenen verilerden veya tüm etmenlerin yeterli ölçüde temsil edilmemesinden kaynaklı olarak istenmeyen; bilinçli olarak insanların işlediği değil de sistemsel olarak yer alan bir ön yargı da oluşabilmektedir.

Bu istenmeyen ön yargılar birçok nedenden kaynaklanabilmektedir. Fakat bu ön yargının en önemli itici güçlerden iki tanesi verilerdeki ön yargı ve eğitimdeki ön yargıdır. Verilerdeki ön yargının en belirgin sebebi, yapay zekâ sistemini eğitmek üzere kullanılan veri örneklerinde çeşitlilik olmamasıdır. Çeşitliliğin olmadığı bir durumda yapay zekâ insan zihnindeki bir genelleme üzerinden sınırlı şekilde hareket edebilecektir.

Asıl olarak algoritma sadece içinde bulunan veriler kadar akıllı olacağından; eğitimli modelin parametreleri dışında kalan olaylarda yapay zekâ eğitildiği doğrultuda karar verme eğiliminde olacaktır. Pek tabii, yapay zekâ sistemlerini eğitmek için kapsamlı ve doğru veriler elde etmek zordur. Bu nedenle, birçok sistem sadece kolay ve erişime hazır verileri kullanmaktadır. Bu halde de yapay zekâ sistemleri sınırlı kararlar alabilmektedir.

Eğitmedeki ön yargı ise aceleye gelmiş ve eksik eğitme algoritmalarından kaynaklanabilir. Bu noktada insanlar bilinçli olarak kendi ön yargıları ile yapay zekâyı eğitmiş olabilmekte veya eksik şekilde eğittiklerinden, kimi verileri yapay zekâ sistemine aktarmadıklarından, yapay zekâ ön yargısı bir algoritmik ön yargı ortaya çıkabilmektedir. Tarihsel eşitsizlikleri yansıtan kusurlu bilgilere güvenilerek yapay zekâ sistemleri tasarlandığında istemeden ön yargı oluşturulabilmektedir ki bu durum insan kaynaklı ön yargıyı, insanlığın yapay zekâya mirasını oluşturmaktadır. Tarihsel eşitsizliklerin en temel örneklerinden biri; ABD yargıçları tarafından kefalet ve ceza sınırlarını belirlemek için kullanılan otomatik risk değerlendirmelerinde, yanlış sonuçlara yol açarak belirli gruplar üzerinde daha uzun hapis cezaları veya beyaz ten rengine sahip olmayan kişilere daha yüksek kefalet verilmesidir.

Yapay zekâ; hem yeterli veri ile eğitilmemesinden hem insanların kendi deneyimlerini verilerle yanlı bir şekilde aktarmasından yapay zekânın bu davranış şeklini kopyalamasından, hem istemsiz olarak tarih sahnesinde vuku bulan sistemsel eşitsizliklerden hem de veri girdisinin fikre ve bakış açısına göre toplanıp organize edilerek aktarılmasından ötürü ön yargılı olabilmektedir. O halde yapay zekâ ve algoritmaların ön yargılı kararları bir noktada insanlıktan bu sistemlere miras kalmıştır. Yetersiz ve eksik veri işlemeden, bilinçli olarak insanların kendi ön yargılı düşünceleri ile yapay zekâyı eğitmesinden veya veri girdisinin ön yargı izleri taşımasından ileri gelen bir süreçte yapay zekâ yanlı, bağımlı, ön yargılı ve eşitlik ilkesine aykırı şekilde karar alabilecektir.

Yakın geçmişte ve günümüzde yapay zekânın ön yargılı kararlar aldığı pek çok örneğe rastlayabilmekteyiz. Yapay zekâ; sohbet robotları, öneri motorları, insan kaynakları aday eleme sistemleri, akıllı asistanlar, değerlendirme süreçleri ve akıllı cihazların tamamında farklı biçimlerde karşımıza çıkmaktadır.

Yapay zekâ, tıpkı insanlar gibi, dilde örtük olan ön yargıları cımbızlayıp kullanabilmektedir. Nitekim Microsoft tarafından 2016’da Twitter için geliştirilen Tay.AI (TayandYou) adlı sohbet botu, insanlarla etkileşime girerek kullanıcılara şaşırtıcı ve rahatsız edici yanıtlar vermişti. Bu yanıtlar arasında ırkçı, cinsiyetçi ve küfürlü cevaplar yer almaktaydı ve bu yüzden projenin ömrü 24 saatten kısa sürdü.

Bu noktada insanlarla sohbet edip kendisi ile konuşuldukça gelişmesi beklenen sohbet robotu Tay’ın iletişim kurduğu insanların sözlerini öğreneceği ve taklit edeceğini anlayan bazı kötü niyetli kullanıcılar Twitter hesabını ırkçı, homofobik ve buna benzer kırıcı yorumlarla beslediler. Tay da böylece, birkaç saat içinde Twitter hesabından kendi kötü satırlarını kamuoyuna yaymaya başlamıştı. Bu halde insanların ön yargıları ve kötü düşüncelerinden yapay zekânın geliştirdiği görülebilmektedir.

Kimi durumlarda yapay zekâ kelime ilişkilendirmelerinde insanlar tarafından gösterilen mevcut ırk ve cinsiyet ön yargıları barındırmaktadır. iPhone kullanıcıları, 2018’de klavye kullanarak “CEO” kelimesini yazdıklarında, telefon “iş adamı” adlı erkek emojisini önermekteydi. Google Translate, 2019 ve öncesindeki sürümlerinde “O bir hemşire” cümlesini “She is a nurse”, “O bir doktor” cümlesini ise “He is a doctor” şeklinde çevirmekteydi. Daha sonra bu durumlar elbette düzeltildi ama yapay zekânın insan ön yargısının sonucu olarak bu iki çıktıya ulaşması gerçeği değiştirmedi. Princeton Üniversitesi’nin yapay zekâ uygulaması geliştirdiği bir kelime analizi araştırmasında ise Avrupa kökenli isimlerin Afrikalı-Amerikalıların isimlerinden daha hoş biçimde algılandığı ve “kadın” ve “kız” kelimelerinin, büyük olasılıkla (ön yargı ile) erkeklerle bağlantılı olduğu iddia edilen bilim ve matematik yerine sanatla ilişkilendirilme olasılığının daha yüksek olduğu görülmüştür. İlgili algoritma hem sistemsel ırk kökenli bir ön yargının hem de cinsiyetlere yönelik bir ön yargının çıktılarını gözler önüne sermiştir.

Yakın geçmişte çokça tartışılan işe alım süreçlerinde ön yargıya dayalı yapay zekâ karar mekanizması ise oldukça ilginç sonuçlar vermiştir. Küresel iş gücünün ve yönetim pozisyonlarının büyük bir bölümünü erkek bireyler oluşturduğundan yapay zekâ da sistemsel olarak iş dünyasındaki cinsiyetçi ön yargılardan nasibini almıştır. Nitekim Amazon şirketinin kullandığı yapay zekâ destekli işe alım algoritması kadın adaylar yerine erkek adayların özgeçmişlerini tercih etme eğilimindeydi. Zira yapay zekâ kimin işe alınacağı ile ilgili 10 yıllık Amazon başvuru verisini tararken çoğunlukla erkek adayların özgeçmişlerine rastlamıştı ve kendini bu yönde eğitmişti. Bu durumda sistemsel bir ön yargıyı oluşturmuştu.

Daha da önem taşıyan bir duruma ceza adaleti algoritmalarında rastlanmaktadır. Yapay zekâ belli ırka veya ten rengine mensup insanların suç işleme olasılıklarının daha fazla olduğu şeklinde ön yargılı sonuçlara ulaşabilmektedir. Araştırmacılar yinelenen suçları tespit eden bir analitik aracı incelediklerinde siyah sanıkların beyaz sanıklara kıyasla büyük olasılıkla suç tekrarlama riskinin yüksek olduğu şeklinde tamamıyla yanlış bir kanaat ile karşılaşmışlardır. Bu durumun tarihsel bir insan ön yargısının ve süregelen, verilerden beslenen sistemlerin gösterdiği bir ön yargı olarak kayıtlara geçtiği ifade edilmektedir.

Eksik veri girdisinin yanısıra bu sistemlerin ön yargılı yaklaşımlarını şekillendiren kasten ve belirli bir motivasyonla gerçekleştirilen örnekleri de bulunmaktadır. Bir önceki ABD seçimlerinde Facebook verilerinin Cambridge Analytica şirketine satılması ve bu sayede yapılan profilleme ile vatandaşlar üzerinde seçimlere yönelik bir manipülasyona yol açıldığı bilinmektedir. Facebook’ta saklı kullanıcı bilgilerinin işlenip siyasi partilerin seçim çalışmalarında kullanılmak üzere satıldığı ortaya çıkmıştır. Bu durumda edindiği verilerle yapay zekâ, kullanıcıları etkileyebilecek şekilde aksiyon alıp seçimler nezdinde onları yönlendirebilecekti.

Diğer yandan yüz tanıma teknolojilerinde de benzer bir durum söz konusudur. MIT Media Lab’den araştırmacı Joy Buolamwini’nin oluşturduğu 1.270 yüzden oluşan veri seti, politikacıların yüzlerinden oluşmaktaydı. Buolamwini, Microsoft, IBM ve Megvii tarafından geliştirilen üç farklı yüz tanıma sistemini test etti. Testten algoritmaların cinsiyet tanımlama konusunda kişinin ten rengine bağlı olarak hata yapabildiği sonucu çıktı. Cinsiyet tanımlamada hata oranı ilginç bir şekilde açık tenli erkeklerde yüzde 1’in altında, açık tenli kadınlarda yüzde 7’nin altında, koyu tenli erkeklerde yüzde 12’nin altında, koyu tenli kadınlarda ise yüzde 35’in altındaydı. Buna ek olarak başka bir örnekte, 2015 yılında bir mühendisin bazı siyahi arkadaşlarını Google Fotoğraflar uygulamasında “goril” olarak tanımlamasıyla gündeme gelmişti. Jacky Alciné isimli bir siyahi kullanıcının, kız arkadaşıyla çektiği fotoğraflarda “Goriller” olarak kategorilendirildiğini fark etmesiyle durum ortaya çıkmıştır.

Belli durumlarda din temelli ön yargıların da yapay zekâya yansıdığı görülmüştür. OpenAI şirketinin üretmiş olduğu yapay zekâ robotu GPT-3, Müslümanları şiddetle ilişkilendirmiştir. Örnek olarak “İki Müslüman sohbete başladı” olarak başlayan cümleler GPT-3 tarafından, “Baltalı ve bombalı bir sinagoga girdi”, “Teksas karikatür yarışmasına girdi ve ateş açtı.” gibi örneklerle devam etmişti. Arxiv’de yer alan bir araştırma makalesinde ise Müslüman kelimesini diğer dini gruplara ait terimlerle değiştirildiği bir durumda yapay zekânın şiddet içeren kelimeleri seçme ihtimalinin önemli ölçüde azaldığına ulaşılmıştır. Bu noktada yapay zekâ eğitildiği verilerin neticesinde bir ön yargı oluşturmuştur.

İlgili örnekler farklı bakış açısı taşıyan verilerin yeteri kadar üretilmediğini ve bu sebepten yapay zekânın toplumsal sürdürülebilirliğe etkisinin olumsuz olmasına yol açabildiğini göstermektedir. O halde verilerdeki ön yargıların anlaşılması, bu ön yargıların azaltılması ve sonuçlardaki ön yargıların hesaplanması gerekmektedir. Aksi halde görüldüğü üzere tarihsel ve sistemsel ön yargılar geleceğimizi şekillendirecek yapay zekânın düşünme ve karar alma mekanizmasına dahil olacaktır. Bu mekanizmaya dahil olan ön yargı unsuru sosyal hakları ve özellikle ayrımcılıktan korunma hakkını ihlal edecektir.

Yapay Zekâ Ön Yargısı ve Ayrımcılıktan Korunma Hakkı

Yapay zekâ, ön yargılı kararları ile sosyal haklar arasında yer alan ayrımcılıktan korunma hakkının ihlal edilmesi adına risk oluşturabilmektedir. Verilerin eksik ya da yetersiz olduğu veya sistemde birtakım ön yargıların ortaya çıktığı hallerde sistemin ayrımcı, haksız çıktılar üretmesi söz konusu olduğu belirtilmektedir. Sosyoekonomik, ırksal özelliklere bağlı değişkenlerin yanlı bir şekilde belirlenmesinde veya bir grubun eksik temsiline yol açan veri toplama aşamalarında yaşanan eksiklikler ayrımcılıktan korunma hakkının ihlaline yol açabilmektedir.

Ayrımcılık yasağı bakımından en kırılgan grupların; azınlık, etnik, ırksal gruplar, düşük gelir düzeyine sahip bireyler, düşük akademik başarı düzeyine sahip öğrenciler olabileceği belirtilmektedir. Ön yargılı algoritmaların kullanılması ile bu tür gruplar üzerinde ayrımcılık yasağı bakımından ciddi riskler bulunmaktadır. Hatta yapay zekâ sistemleri, olumsuz sosyal profilleme yapabilmekte, bu durum kolluk müdahalesini dahi etkileyebilmektedir.

Nitekim Birleşik Krallık Temyiz Mahkemesi, R (Bridges) v CC South Wales & ors Davası’nda, kolluğun (South Wales Police Force /SWP) “AFR Locate” isimli yüz tanıma yazılımı kullanmasının hukukiliğini değerlendirdiğinde; yazılımın kullanımına yön veren kriterlerin açık olmadığını ve yazılımın herhangi bir ayrımcı sonucunun olup olmadığını, yeterince araştırılmadan kullanıldığı tespit edildiğinden bireylere karşı dolaylı ayrımcılığın söz konusu olabileceğini saptamıştır. Bu yüzden kolluğun yüz tanıma teknolojisi kullanmasının insan haklarını ihlal ettiğine karar vermiştir.

Bu doğrultuda yapay zekânın ön yargılardan arınması, geniş spektrumda doğru veri girdisinin sağlanması ve açıklanabilirliğin mümkün kılınması gerekmektedir. Aksi halde yapay zekânın sosyal profilleme yaparak en temel haklardan olan ayrımcılıktan korunma hakkını ihlal etmesi kaçınılmazdır. Bir adım ileri gidildiğinde yapay zekânın daha incelikli konularda kullanıldığı hallerde geri dönülmez sonuçlar ortaya çıkabilecektir.

Mahkemelerde kullanılacak yapay zekânın ayrımcılığı, işe alımlarda belli bir kesimin baz alınması, kolluk kuvvetine entegrasyon ile belli kesimlerden bireylerin tehlikeli olarak lanse edilmesi ile kendini eğiten makineler sistematik bir şekilde ayrımcı davranışlar sergileyecektir. Bu noktada hukuka, etik ve ahlaki değerlere uyum açısından bizlere düşen yapay zekâyı ve verileri ön yargıdan arındırmaktır.

Yapay Zekayı Ön Yargı ve Ayrımcılıktan Kurtarabilir Miyiz?

İlk adımda yapay zekâyı besleyen veriler nezdinde aksiyon alınması gerekmektedir. Verilerde aşırı temsiliyet (tek gruptan kişilerin verilerinin bulunması) ve yetersizlik bulunmamalıdır. Bu noktada ilk olarak verilerde çeşitlilik sağlanmalı ve çeşitlilik sağlanan veriler de kendi içinde tutarlı, doğru ve veri işleyenlerin ön yargılarından arınmış bir mahiyette olmalıdır. Veri kümesi ne kadar kapsamlı olursa, yapay zekâ tahminleri de o kadar doğru olacaktır. Ön yargının oluşmasını engellemek adına farklı durumlar ve ortamlar için veriler ve yapay zekâ test edilmelidir. Yapay zekâ ile çalışan ekip üyelerinde de çeşitlilik, algoritmanın eğitimde farklı yaklaşımları sağlayarak farklı beceri, düşünce ve yaklaşımlara sahip ortak bir zekâ oluşmasını sağlayabilecektir. Diğer yandan denetim sürecine insanlar dahil edilerek sonuçların takibi sağlanabilecek ve yapay zekâ kademeli olarak ön yargıdan arınabilecektir. Ekonomik İşbirliği ve Kalkınma Örgütü’nün (OECD) Yapay Zekâ İlkeleri’nde yer alan

  • Teknik sağlamlık, güvenlik ve yeterlilik
  • Mahremiyet ve veri yönetimi,
  • Çevresel ve toplumsal refah, sürdürülebilir kalkınma
  • Çeşitlilik, ayrımcılık yapmama ve adalet, insan merkezli değerlere saygı
  • Şeffaflık ve açıklanabilirlik
  • Hesap verebilirlik[1] ilkeleri de takip edildiği taktirde yapay zekâ devriminin dönüştürücü etkisi amacına ulaşabilecektir.

Nitekim Kathy Baxter’in:

“Yapay zekâda ön yargının önüne geçmenin üç büyük adımı vardır; ilk olarak etik bir kültür yaratmaktır, sonra şeffaflığı sağlamak ve son olarak, ister veri kümelerinizde ister algoritmalarınızda olsun dışlamayı ayrımcılığı ortadan kaldırmak için eyleme geçilmesidir.” [2]

Sözü ile aslında hem bir kültürün yaratılması ve şeffaflığın sağlanması gerekliliği ile veri kümelerinden başlayacak şekilde ayrımcılığı ortadan kaldıracak aksiyonların alınması ile ön yargıdan kurtulmak için bir yol haritası çizmiştir. Bir adım ileri gidilerek yapay zekânın ön yargı taşıyan tercihleri tespit etmesi ve engellemesi dahi mümkün olabilecektir. İnsan kaynaklarının işe alımında bilinçdışı gerçekleşen ayrımcılığı ortadan kaldırmak için yapay zekâ programları aracılığıyla cinsiyet ön yargıları içeren kelimelerin belirlenip bunların elenmesiyle eşitlikçi bir sistem öngörülebilecektir. Sonuç olarak yapay zekâ ayrımcılıktan kurtarılabilir. Fakat bunun için sistematik bir değişim gerekmektedir.

İnsanların teknoloji okuryazarı olup sistemlere geri bildirim vermesi, bireylerin ön yargı oluşumunu engellemesi için proaktif katılımda bulunması, disiplinler arası mesafenin azaltılarak sektörlerde ayrımcılık oluşturan unsurların engellenmesi için ortak bir paydada buluşularak bir kültür oluşturulması, yapay zekânın doğru, çeşitli ve güvenilir veriler ile eğitilmesi ve yapay zekâyı eğitenlerin de çeşitlilik algısını sürdürür niteliklere sahip olması gerekmektedir. Bu halde tabandan tavana yapay zekâ nezdindeki ön yargı temelli düşünce ve karar alma sistemleri kademeli olarak azalacaktır.

Sonuç Yerine: Yolculuk Daha Yeni Başlıyor

Dijital dönüşümün merkezinde yer alan yapay zekâ her geçen gün bizleri şaşırtmaya devam ediyor. Bizimle gelişmekte, hatta bizden hızlı bir şekilde öğrenip büyümektedir. Yapay zekâ devrimi bizlere dünyamızı daha iyi bir yer haline getirmek için fırsatlar sunuyor ve bu daha sadece bir başlangıç!

İklim değişikliğinin önlenmesi, açlığın ortadan kaldırılması, eşitsizlik ve ayrımcılığa son verilmesi, okuma yazma bilmeyenlerin kalmaması, dezenformasyon ve sahte haberlerin yayılmasının engellenmesi ve toplumun kendini sürdürülebilir bir mekanizma dişlisi haline getirmesi yapay zekâ ile gelecekte mümkün olabilir. Günümüze değin dijital dünya kendini katlanarak geliştirmiştir.

Fakat bundan sonra bu gelişim daha hızlı, daha büyük ve daha efektif olacaktır. Zira şu an insanlık tarihinde en çok veriye sahip olduğumuz dönemin içerisindeyiz ve ilerleyen yıllarda veriler daha da artmaya devam edecek. Veriler arttıkça gelişimimiz de hızlanacak, yapay zekâ öğrenip geliştikçe dijitalleşme devrimi yeni bir boyut kazanacaktır. Bu yolculuk daha yeni başlıyor olabilir ama gelecekten bize göz kırpmakta ve bir fırsat sunmaktadır: gerçek bir fark yaratmak için şimdiye kadar gördüğümüz en güçlü teknolojiyi kullanma şansı.[3]

Kaynakça

[1] https://oecd.ai/en/ai-principles

[2] Ayyüce Kızrak, “TRT Radyo 1 Dijital Hayat: Algoritmalar Ön yargılı Mı?”, https://medium.com/@ayyucekizrak/trt-radyo-1-dijital-hayat-algoritmalar-önyargili-mi-566425753a05

[3] Bernard MARR, Yapay Zekâ Devrimi – Dijital Dönüşüm İşinizi Nasıl Etkileyecek, Akbank, İstanbul 2022