2020 yılında bir gün Abeba Birhane kendini Wikipedia’da bir iftira listesi yazarken buldu. O zamanlar Birhane, University College Dublin’de bilişsel bilimler alanında doktora yapıyordu ve yapay zeka sistemlerini eğitmek için sıklıkla kullanılan büyük bir veri kümesinin görüntü açıklamalarında bu karalamalardan kaç tanesinin göründüğünü görmeye çalışıyordu.
Zaten bariz toprakta pek çok kibrit yapmıştı ama Birhan’ın ne arayacağına dair fikirleri tükeniyordu. “Wikipedia’ya gitmemin sebebi yeterince çirkin kelime bulamamamdı” diyor
Terimlerin listesi büyüdükçe Birhan’ın bulguları da büyüdü, ta ki bu önemli teknolojik altyapıda aşağılayıcı terimlerin ne kadar yaygın olduğunu ayrıntılarıyla anlatan bir makalenin ortak yazarı olmaya yetecek kadar kanıt toplayana kadar. O kağıt Veri setinin bulunduğu Massachusetts Teknoloji Enstitüsü bunu almayı talep etti Çevrimdışıve Birhan’ın, dünyanın giderek daha karmaşık hale gelen yapay zeka modellerini besleyen veri setlerinin lider denetçisi olarak konumunu güçlendirdi. Şimdi Birhane bu çalışmalarını Yapay Zeka Sorumluluk Laboratuvarı adı verilen yeni kurulan bağımsız bir araştırma laboratuvarı altında sürdürüyor.
Birhan’ın araştırması, çoğu nefret dolu 4 kanallı panolardan ve kadın düşmanı porno sitelerinden oluşan, açık internetten alınan büyük miktarda filtrelenmemiş veriler üzerinde yapay zeka modellerini eğitmeye odaklanıyor. Uygun korumalar olmadan, bu yapay zeka modelleri, insanlar daha sonra onlardan yanıt istediğinde aynı nefreti ve kötü davranışı tekrarlayabilir. Yakın zamanda bir tanesinde kağıtBirhane ve ortak yazarları, büyük veri kümeleri kullanıma sunuldukça, bunlar üzerinde eğitilen yapay zeka modellerinin siyahi insanları suçlu olarak sınıflandırmak gibi taraflı sonuçlar ürettiğini buldu.
Birhan, “Sistemi gelecekteki bazı varsayımsal, potansiyel riskler açısından değerlendirmiyoruz” dedi. “Bu denetimler gerçek sorunları, gerçek sorunları ortaya çıkarıyor; ister ırkçılık, ister cinsiyetçilik, ister stereotiplerin ve tarihsel adaletsizliklerin kodlanması, vb.”
Etiyopyalı Birhane, verilerin nereden geldiği ve önyargılı çıktılara nasıl dönüştüğüyle ilgili bu soruların, çalıştığı araştırma laboratuvarında her zaman akıllarda yer almadığını söylüyor. “Geleneksel bilgisayar bilimcileri genellikle erkek, beyaz veya Asyalı oluyor. Afrikalıların nasıl temsil edildiğini düşünmüyorlar mı? Siyah kadınlar nasıl temsil ediliyor?” “Deneyimlerim ve geçmişim denetimlerime nasıl yaklaşacağımı etkiliyor” diyor.
İşi yeterince çabuk gelemezdi. Zaten insan hayatını mahveden kusurlu yapay zeka sistemlerinin pek çok örneği var. İngiltere’de hükümet bir algoritma kullandı Not verme aracı Pandemi nedeniyle sınavları iptal edildikten sonra öğrencilerin tahmini notları için değişiklik yapıldı ve dezavantajlı okullardaki öğrencilere, daha zengin okullardan daha kötü notlar verilmesi durduruldu. Hollanda’daki Hollanda hükümeti kullanılmış İnsanların çocuk parası sistemini aldatma riskini öngören ve bazılarının çocukları ellerinden alınan binlerce düşük gelirli insanı cezalandıran bir algoritma.
Birhan, “Bütün bu örneklerde hapse girenlerin, haklarından mahrum bırakılanların, ölenlerin, olumsuz etkilenenlerin çoğunlukla toplumun en uç kısımlarında yer aldığını görüyorsunuz.” dedi. “Bu, algoritmik sistemleri devreye almadan önce değerlendirmemenin ölümcül maliyetidir.”
Bu hikaye, yapay zeka dünyasını şekillendiren en ilginç teknoloji uzmanlarını, girişimcileri, kurumsal liderleri ve yaratıcı düşünürleri ön plana çıkaran bir ay süren profil serimiz olan AI 20’nin bir parçasıdır.