Yapay Zekanın Yok Sayılan Karanlık Tarafını Anlattık: Irkçılık, Cinsiyetçilik ve Dahası

Yapay Zekanın Yok Sayılan Karanlık Tarafını Anlattık: Irkçılık, Cinsiyetçilik ve Dahası

Yapay zeka ve ondan güç alan algoritmalar, tarihleri boyunca pek çok skandala imza attılar. Bu skandallar pek çok şirkete milyonlarca dolarlık davalarla geri dönerken insanın öğrettiklerinin bir yansıması olmaları sebebiyle bir kez daha kendimizi de sorgulattı.

Geride bıraktığımız yıl, yapay zeka tarihinin belki de en hareketli yıllarından biriydi. Bunun sebebi ise aslında zaten hayatımıza girmiş olan yapay zekanın daha ‘deneyim’ odaklı gelişmelerle karşımıza çıkması oldu.

DALL-E ve Midjourney ile birkaç kelime yazıp kendi görsellerimizi tasarladık, ChatGPT ile kod yazmaktan bir film senaryosu yazmaya kadar her şeyin yapılabileceğini gördük, Lensa gibi uygulamalarla fotoğraflarımızı özel konseptli tasarımlara çevirdik…

Tüm bu gelişmeler, yapay zekanın gelişimine dair önemli bilgiler verse de, işin bir de daha karanlık bir boyutu var;

Yapay zeka, bütün teknik detayların dışında, çok temel bir mantıkla gelişiyor; insandan ne öğrenirse onu uyguluyor, ona dönüşüyor. Bu da yıllar içinde pek çok skandalla yeniden karşımıza çıktı. Gelen son örneklere bakılırsa da çıkmaya devam edecek gibi görünüyor.

Ne bu skandallar derseniz, hemen cevaplayalım;

Yapay zeka ve algoritmalar, defalarca ırkçı söylem ve ‘kararlarla’ karşımıza çıktı. Kadınları aşağılayan ya da yalnızca bir seks objesi olarak gören yapay zeka destekli programlar ve algoritmalar, pek çok şiddete meyilli ‘davranış’ da sergiledi.

Homofobik söylemler, insan psikolojisine zarar verebilecek ‘kendini öldür’ tadında cevaplar veren yapay zeka destekli sohbet botları… Örnekler epey fazla anlayacağınız…

Amazon, Microsoft gibi devlerin yapay zekaları, siyahi kadınların cinsiyetlerini ‘erkek’ olarak belirliyordu

Oprah Winfrey, ”%76.5 ihtimalle bir erkekmiş”

Michelle Obama da benzer şekilde ”genç bir erkek” olarak tanımlanmıştı;

Serena Williams’ın fotoğrafı da ‘erkek’ olarak etiketlenmişti;

Dil modelleme çalışmalarında sıklıkla kullanılan ‘word embedding’ yöntemi üzerine yapılan pek çok araştırmada kadın-ev, erkek-kariyer, siyahi-suçlu gibi kelimelerin eşleştirildiği görülmüştü. Yani yapay zeka, bizden edindiği bilgilerle kelimeleri bu türden cinsiyetçi ve ırkçı kodlarla öğreniyor ve öyle eşleştiriyor…

Ayrıca Avrupa kökenli ‘beyaz’ isimlerle daha pozitif kelimeleri eşleştiren modellerde, Afrikalı-Amerikalı isimlerle ise negatif kelimeleri eşleştirildi. Beyaz-zengin, siyahi-fakir gibi eşleştirmeler de yine bu modellerde karşılaşılan sorunlardı…

Meslek grupları üzerine yoğunlaşan bir başka çalışmada ise etnik kökenler ve eşleştirilen mesleklere odaklanıldı. İspanik kökenle kapıcı, tamirci, kasiyer gibi meslekler eşleştirilirken Asya ile profesör, fizikçi, bilim insanı, ‘beyazlar’ ile ise bilirkişi, istatikçi, yönetici gibi meslekler ilişkilendirildi.

COMPAS isimli ‘suç işleme riski’ hesaplayan bir yazılım ise siyahileri daha riskli işaretlediği için tartışma yaratmıştı. COMPAS, ABD’nin pek çok eyaletinde mahkemelerce resmi bir araç olarak kullanıldı…

Silahlı soygunlara karışmış ve bu suçu tekrarlamış yetişkin bir beyaz erkek ile reşit değilken işlenen ve genellikle küçük hırsızlıklar, graffiti ve vandalizm, basit saldırı gibi suçları kapsayan ‘çocuk kabahatleri’ işleyen siyahi bir kadının risk değerlendirmesi sonucu, COMPAS’ın işleyişine yönelik güçlü bir örnek…

Amazon’un işe alım süreçlerinde kullanılmak üzere geliştirilen yapay zekası, adayların büyük çoğunluğunu erkeklerden seçiyor; kadınların puanlarını düşürüyor; yalnızca kadınların okuduğu okullardan gelenleri filtreleyerek eliyordu. Amazon bu yapay zekasını emekliye ayırdı…

YouTube’un algoritmasının insanları ırklarına göre ‘fişlediği’ ve ırkçılık ile ilgili konuları işleyen içerikleri ve yayınları kısıtladığı iddia edilmiş; şirkete büyük bir dava açılmıştı.

Google Fotoğraflar uygulaması, siyahi iki kişiyi ‘Goriller’ olarak etiketlemişti…

Benzer bir durum Facebook cephesinde de yaşanmış, siyahi kişilerin yer aldığı bir video ‘primatlarla ilgili videolar görmeye devam etmek ister misiniz?’ sorusuyla etiketlenmişti;

Microsoft’un Twitter sohbet botu olarak 2016 yılında kullanıma sunduğu Tay.AI, küfürler yağdıran, ırkçı ve cinsiyetçi tweetleri sonrası kısa sürede kullanımdan kaldırılmıştı;

Otonom araçların siyahi insanları ayırt etmede zorlanması, bir dönem büyük ses getirmişti. Bu durum, siyahi insanlar için kaza riski ve hayati tehlike demekti. Tartışmalar üzerine bu konuda yapılacak geliştirme çalışmalarına hız verildi.

Yeni Zelanda’nın pasaport uygulaması, Asyalı bir adamın yüklediği fotoğrafı ‘gözleri kapalı olduğu için’ kabul etmemişti;

Google’ın Cloud Natural Language isimli uygulama programlama arayüzü (API), cümleleri -1 ve 1 arasında puanlayan API, olumlu ve olumsuz duygu ifade etmesine göre etiketliyordu. Ancak sonuçlar ırkçı, homofobik ve ayrımcı etiketlemelerden oluşuyordu.

”Eş cinsel siyahi kadınım” cümlesi, ‘negatif’ puanlandı.

”Homoseksüelim” ifadesi de negatif değerlendirildi.

DALL-E, CEO’ya karşılık yalnızca beyaz erkeklerden oluşan görseller üretirken, hemşire, sekreter gibi meslekler için kadın görselleri üretiyordu;

Lensa gibi yapay zeka destekli uygulamalar ile üretilen görseller, kadınları objeleştirdiği ve dekoltelerin ön plana çıktığı seksist bir imajla görselleştirdiği için tepki topladı;

TikTok algoritması da defalarca ırkçılıkla suçlandı. Örneğin TikTok’ta siyahi birini takip ederseniz, uygulama size sadece siyahi kişileri önermeye başlıyor; aynı şey beyaz bir insan, türbanlı bir kadın, Asyalı biri gibi pek çok durum için de geçerli;

Aynı şekilde bazı TikTok, Instagram ve Snapchat filtreleri, yalnızca ‘beyaz’ insanlarda çalışırken siyahi kişilerde, Asyalılarda çalışmıyor;

Yıllar boyunca bu listede yer almayan daha pek çok sorun yaşandı. Geliştiriciler bu sorunu ne kadar çözmeye çalışsalar da yapay zekaların geliştirildikleri ve doğrudan biz insanlardan alınan veriler ırkçı, homofobik ya da cinsiyetçi, suça meyilli olduğu sürece bunun izlerini yapay zekada da görmeye devam edeceğiz…

  • Kaynaklar: Insider, Science.org, Time, Vice, Nature, PNAS, Mashable, Vice
İLGİLİ HABER

İLGİLİ HABER