Yapay zeka ihtilali hızlandıkça, bir eğilim netleşiyor: Yapay zeka sistemlerinin eğitimindeki önyargılar, gerçek dünyada ayrımcı uygulamalarla sonuçlanıyor.
YÜZ TANIMA TEKNOLOJİSİ SKANDALA NEDEN OLMUŞTU
Yapay zeka işe alım araçlarının bayanlara karşı ayrımcılık yaptığı gösterilmiştir. ChatGPT ırkçı ve ayrımcı önyargıları ortaya koymuştur. Polisin yüz tanıma teknolojisi nedeniyle bir şüpheliyi yanlış teşhis ettiği bildirilen her hadisede, bu kişinin ise siyahi bir kişiydi.
Şimdi de yeni bir araştırma, şoförsüz araçlardaki yaya algılama yazılımının bile yapay zeka önyargısının bir sonucu olarak renkli insanları ve genel olarak çocukları tespit etmede daha az tesirli olabileceğini ve daha fazla araba üreticisi teknolojiyi kullandıkça onları daha büyük güvenlik riskine sokabileceğini öne sürüyor.
KOYU RENKTEKİ YAYALARI TESPİT ETMEDE BAŞARISIZ
Insider’in aktardığı bilgilere nazaran, İngiltere ve Çin’de bir küme araştırmacı, sekiz tanınan yaya dedektörünün kişinin ırkına, cinsiyetine ve yaşına bağlı olarak ne kadar yeterli çalıştığını test etti.
Cinsiyet doğrulukta yalnızca küçük bir farklılık gösterirken, araştırmacılar tespit sistemlerinin koyu cilt rengine sahip yayaları tespit etmede daha az hakikat olduğunu buldular.
“Daha evvel azınlık bireyler hayati hizmetlerden yoksun bırakılabiliyordu. Artık ise önemli yaralanmalarla karşı karşıya kalabilirler.” King’s College London’da bilgisayar bilimcisi ve araştırma takımının bir üyesi olan Jie Zhang yaptığı açıklamada şunları söyledi
“Araştırmaya nazaran, tespit sistemlerinin yetişkinleri tespit etme mümkünlüğü çocuklara kıyasla %19,67 ve daha açık deri rengine sahip bireyleri tespit etme mümkünlüğü daha koyu deri rengine sahip şahıslara kıyasla %7,52 daha yüksekti.
“Genel olarak, bu çalışma mevcut yaya dedektörlerinin karşılaştığı adalet sıkıntılarına ışık tutmakta, yaş ve cilt tonuyla ilgili önyargıları ele almanın kıymetini vurgulamaktadır.” “Elde edilen bilgiler gelecekte daha adil ve tarafsız otonom sürüş sistemlerinin önünü açabilir.”
YAPAY ZEKAYA YÖNELİK ÖNYARGILAR HAKLI ÇIKIYOR
Bu eğilim, birçok şirketin dedektörleri oluşturmak için kullandığı açık kaynaklı yapay zeka sistemlerinde aslında mevcut olan önyargıların bir sonucu olarak görülüyor.
Zhang’a nazaran, çalışma Tesla üzere şirketlerin şoförsüz araçlara güç sağlamak için kullandıkları yazılımları bâtın oldukları için tam olarak kullanmamış olsa da, çalışma için kullanılan yazılım sistemleri bu şirketlerin kullandığı tıpkı açık kaynaklı yapay zekaya dayanıyor.
Araştırma grubu, kanun koyucuları, algılama sistemlerindeki önyargıyı önlemek için şoförsüz araç yazılımlarını düzenlemeye çağırdı.
Çalışmada, “Politika yapıcıların tüm bireylerin haklarını koruyan ve bu kaygıları uygun bir halde ele alan yasa ve yönetmelikleri yürürlüğe koyması elzemdir” deniyor.