Önyargılı yapay zekalar tespit edilecek
BİLİŞİM teknolojisi şirketi IBM, algoritmaların verdiği kararların nasıl ve neden verildiğini anlık olarak analiz edebilecek bir araç geliştirdi. Fairness 360 (Adalet 360) adı verilen araç, yapay zekanın önyargılara sahip olup olmadığının belirtilerini tarayarak gerekli düzenlemeler konusunda önerilerde bulunacak.
Teknoloji devleri ve diğer şirketler tarafından kullanılan algoritmaların karar verme sürecinde her zaman adil olmadığına dair endişeler son dönemde artıyor. Örneğin bazı yüz tanıma algoritmalarının beyaz yüzleri tanırken siyah yüzleri tanıyamadığı ortaya çıkmıştı.
Yine Google’ın fotoğraf algoritmasının Afrika kökenli Amerikalıları “goril” olarak tanımlaması gibi örnekler, yakın gelecekte hayatın her alanında kullanılma ihtimali bulunan bu algoritmaların ne kadar önyargılı olduğunu tartışmaya açmıştı.
Bu algoritmalar artık emniyet, sigorta veya internet içerikleri gibi pek çok alanda kullanıldığı için olası bir önyargının geniş etkileri olabilir.
Algoritmalar genellikle “kara kutu” mantığına göre işliyor, yani çalışma sürecinde algoritma sahipleri hangi kararın nasıl ve neden verildiğini göremiyor. IBM’IN bulut temelli yazılımı açık kaynaklı ve algoritma geliştirmek için yaygın olarak kullanılan platformlarla uyumlu olacak.
Tüketiciler bir ara yüz üzerinden algoritmaların nasıl karar verdiğini ve kararı verirken hangi faktörleri değerlendirdiğini görebilecek. BBC’YE konuşan IBM’IN Bilişsel Çözümler Birimi Başkan Yardımcısı David Kenny, “Yapay zeka kullanan ve hatalı bir kararın yaratacağı risklerle karşı karşıya olan şirketlere şeffaflık ve kontrol sağlıyoruz” dedi. (DIŞ HABERLER)