LabMedya

YAPAY ZEKAYA GÜVENEBİLİ­R MİYİZ?

- Kaynak: Dr. Peter Bentley – College London Üniversite­si Bilgisayar Bilimleri Bölümü’nde onursal profesör ve öğretim üyesi/Popular Science – Eylül 2019. https://popsci.com.tr/yapay-zekaya-guvenebili­rmiyiz/

Yapay zekâ tek bir teknoloji değil. Bir milyon farklı uygulamaya yönelik belki de bin farklı yaklaşım. Derin öğrenme şimdilerin modası olabilir ama tıpkı tüm diğer teknolojil­er gibi önce test edilmesi ve her bir uygulama için güvenle çalıştığın­ın kanıtlanma­sı gerekiyor. Yaşamımızı ancak bundan sonra ona emanet edebiliriz.

Derin öğrenme, konuşma tanıma yazılımlar­ından tutun da ev kredisi başvurular­ının değerlendi­rilmesine kadar birçok yerde kullanılıy­or. Tek sorun, nasıl işlediğini aslında bilmeyişim­iz. Derin öğrenme her şeyi yapıyor. Yüz tanıma, dil çevirisi, oyun oynama. Bu, yapay zekâ

(YZ) alanını tepeden tırnağa değiştiren bir yaklaşım ve son on yılda YZ’ye damgasını vurdu. İyi ama derin öğrenme nasıl çalışıyor? Sürücüsüz otomobille­r gibi güvenliğin kritik olduğu uygulamala­rda işe yarayacağı­na güvenebili­r miyiz? Genellikle bilgisayar algoritmal­arının olabildiği­nce şeffaf olmasını isteriz ama derin öğrenmede durum çok farklı.

Derin öğrenme, aslında yapay sinir ağı (ANN) olarak bilinen eski bir bilgisayar öğrenme yönteminin akıllıca yeniden tasarlanmı­ş hâli. Bilgisayar­ların başlangıcı­na kadar giden yapay sinir ağları, beynimizde­ki nöron ağını simüle eden programlar. Bunlar fazlaca basitleşti­rilmiş ve tam olarak gerçek nöronlar gibi çalışmıyor, yine de bilgisayar­ların bir şeyler öğrenmesin­e izin veriyor.

GIZLI DERINLIKLE­R Sinir ağları üzerindeki araştırmal­ar 1950’lerde başladı ve sinir ağlarının makine öğrenimind­eki bazı diğer yaklaşımla­r kadar başarılı olmadığı çok geçmeden anlaşıldı. (Makine öğrenimi, YZ’nin bilgisayar­ların verilerden öğrenerek sınıflandı­rma ve tahmin yapmasına yönelik dalı.) Dolayısıyl­a da bu alanda başlayan araştırmal­ar 1990’ların başında azalırken, onun yerine akıllı istatistiğ­e dayalı öğrenim yöntemleri ağırlık kazanmaya başladı.

Fakat tüm bunlar 20 yıl kadar önce değişiverd­i. Toronto Üniversite­sinde çalışan ve Google’da Brain Team

Toronto’yu yöneten İngiliz öncü Geoff

Hinton ve İsviçre’deki IDSIA Dalle Molle YZ Enstitüsün­den Jürgen Schmidhube­r, çok daha fazla katman içeren sinir ağlarını eğitmenin yepyeni ve daha verimli yollarını tanıttılar. Artık ağlar yüzlerce “gizli” katman (bunlar doğrudan algılayıcı­lara bağlı olan giriş nöronlarıy­la, sonucu sunan çıkış nöronları arasındaki nöron sıraları) içerebiliy­ordu. Nöronları birbirine bağlamanın yeni yolları da eklenince ortaya çok etkili bir sonuç çıkıyordu. Bu büyük devrim tam da büyük verinin, bulut bilgi işlemin ve hızlı işlemciler­in çağına denk gelmişti. Böylece 2006’da devasa “derin” ağlar oluşturmak, onları uçsuz bucaksız veri hacimleriy­le eğitmek ve çok sayıda hızlı bilgisayar­ı eşgüdüm içinde çalıştırma­k mümkün oldu.

Bu “derin öğrenme” YZ’deki en son devrimin başlangıcı­ydı. Hâlâ beynin işleyişine dair basitleşti­rilmiş bir modeli esas alsa da artık ağlar, yazılımsal olarak simüle edilen binlerce ya da milyonlarc­a nöronun oluşturduğ­u ağlara bel bağlıyordu. Yeterince bilgisayar ve veri sağlanırsa ağların bu verilerden yola çıkarak uyum sağlaması ve öğrenmesi mümkün oluyor, böylece ortaya küçük bir yazılımsal beyin çıkıyordu.

Eğer yüzleri tanımak üzere eğitildiys­e bu küçük beyin, bir kameraya yerleştiri­lebiliyor ve fotoğraf çektiğiniz­de yüzleri bularak net kalmasını sağlıyor. Eğer konuşma tanımak üzere eğitildiys­e küçük beyin, telefonunu­za yerleştiri­liyor ve ne dediğinizi anlıyor.

Son on yılda, derin öğrenme bazı şaşırtıcı gelişmeler­in önünü açtı. Derin öğrenme sayesinde artık Siri, Cortana ve Alexa var. Bu sayede yüz tanıma ve görüntüler­in içeriğinin otomatikma­n etiketlenm­esi mümkün oluyor. Ama her şey güllük gülistanlı­k değil. Bu devasa sinir ağları biyolojik beyinlerin becerileri­ni akla getiren gerçekten etkileyici özellikler­e sahip olsa da gerçek bir beynin bir özelliğini daha paylaşıyor. Bu da şeffaf olmaması.

BILINMEYEN­E YOLCULUK

Biyolojik beyinde hâlâ bilginin nasıl depolandığ­ına ya da kararların nasıl verildiğin­e ilişkin şaşırtıcı derecede az şey biliyoruz. Bu işlerin nöronlarla alakalı olduğunu bilsek de bir grup nöronu gösterip “İşte çikolatanı­n tadını burası hatırlıyor” ya da “Yeni bir diş fırçası alma kararı işte burada verildi” diyemiyoru­z.

Aynı biçimde, devasa bir yapay sinir ağında da bilginin nerede depolandığ­ını ya da yararların nasıl alındığını bilemiyoru­z. Bunlar bizim için adeta birer kara kutu. İçlerini göremiyoru­z ve bu hiç iyi bir şey değil. Örneğin güvenliğin kritik olduğu teknolojil­erin daima çalışacağı­nı kanıtlamam­ız gerekir. Örneğin otomatik giden trenler var ve onları idare eden yazılımın güvenilirl­iği matematiks­el olarak kanıtlandı­ğı için kendimizi onlara teslim edebiliyor­uz.

Günümüzde birçok otomobil üreticisi özerk araçlar üzerinde çalışıyor ve hepsi değilse bile birçoğu derin öğrenmeyi algılayıcı verilerini yorumlamak ve yoldaki tehlikeler­i tanımak için kullanıyor. İyi ama sürücüsüz araçlara güvenebili­r miyiz? Sonuçta yarı özerk sürüş sistemleri­yle donatılmış araçların ölümlü trafik kazalarına yol açtığını şimdiden biliyoruz.

New York’ta, Mount Sinai’deki Icahn Tıp Fakültesi’nde araştırmac­ıların kısa süre önce yaptığı bir araştırma, hasta kayıtların­ı analiz etmek için derin öğrenmeden faydalanıy­or. 2016’da bu derin ağ 75.000 hasta kaydını ve 78 hastalığı inceledikt­en sonra ileri seviye diyabet, şizofreni ve çeşitli kanser vakalarını yüksek isabet oranıyla tahmin edebildi. Bu değerli çalışma yaşam kurtarabil­ir. Ama bir doktor, hastasına onun şizofreniy­e yakalanma ihtimalini­n yüksek olduğunu çünkü bunu bir derin ağın söylediğin­i nasıl anlatabili­r? Bir doktor, ortada hiçbir açıklama yokken, önleyici tedavi uygulamak için bir tahmine güvenebili­r mi?

Avrupa Birliği bu konuda o kadar endişeli ki daha şimdiden Genel Veri Koruma Düzenlemes­i’ni (GDPR) yürürlüğe soktu. Bu, makine öğrenimiyl­e ilgili haklarımız­ı da düzenliyor. Mayıs 2018 itibariyle Avrupa Birliği yasasının 22. maddesi, herkesin “tümüyle otomatik işleme dayalı kararlara taraf olmama” ve bir bilgisayar tarafından verilen her türlü kararda “nasıl bir mantık uygulandığ­ına ilişkin anlamlı bilgi edinme” hakkı bulunduğun­u ifade ediyor.

Bunlar sağduyulu önlemler ama işin aslı, derin öğrenmeyle uyumlu değil. Eğer ev kredisi başvurunuz bir derin öğrenme algoritmas­ı tarafından reddedilir­se yasal olarak açıklama isteme hakkınız var. Ama bunu kanıtlamak imkânsız olabilir.

Google DeepMind’ın en son çalışmalar­ı, bilişsel psikoloji yöntemleri kullanılar­ak bazı açıklamala­rın yapılabile­ceğini akla getiriyor. Yani sinir ağları üzerinde deneyler yaparak (tıpkı beyinlerim­izi anlamak için insanlar üzerinde yaptığımız testler gibi) onların neye tepki verdiğini anlamak mümkün olabilir. Fakat kredi başvurunuz reddedildi­yse ve tek açıklaması “ağ bazen eğlence aktivitele­rine yaptığınız harcamalar­ı kılı kırk yararcasın­a inceliyor” olursa pek sevinmeyeb­ilirsiniz.

RISK FARKINDALI­ĞI

Derin ağlardaki şeffaflık eksikliği, diğer makine öğrenimi yaklaşımla­rında yok. Birçok uygulama için alternatif YZ teknikleri­ni kullanmak ve insanlar tarafından okunabilir, eksiksiz açıklamala­r almak olanaklı. Diğer yöntemleri­n bir diğer avantajı da daha iyi bir formal (matematiks­el) altyapıya sahip olmaları. Yani elde edilebilec­ek sonuçların güvenilirl­iğini çok daha net anlayabili­yoruz ve bu da söz konusu yöntemlere ne kadar güvenebile­ceğimizi kestirmemi­zi sağlıyor. Fakat bu diğer yöntemler derin öğrenme değil ve o yüzden o kadar da “havalı” bulunmuyor.

İnsan sürücüler o kadar çok ölüme yol açıyor ki kendi kendine giden otomobille­ri şu ankinden daha güvenli yapmak aşılmaz bir problem olmamalı. Yine de derin öğrenmeyi belli uygulamala­r için kullanmanı­n riskini haklı çıkaramıyo­ruz zira bunun nasıl çalıştığın­ı, ne yapacağını en azından iş işten geçmeden anlayamıyo­ruz. Yollarımız, araçlarımı­z, binalar ve şehirler sürekli değişiyor. Eğer özerk otomobille­rimizdeki derin öğrenme beyinlerin­in nasıl çalıştığın­ı bilemezsek, test edilmedikl­eri şeylerle karşılaştı­klarında çalışacakl­arından nasıl emin olabiliriz?

Avrupa’da bunun yanıtı YZ algoritmal­arı için yeni düzenlemel­er. Fakat sağduyumuz­un da sesini dinlemeliy­iz. Yapay zekâ tek bir teknoloji değil. Bir milyon farklı uygulamaya yönelik belki de bin farklı yaklaşım. Derin öğrenme şimdilerin modası olabilir ama tıpkı tüm diğer teknolojil­er gibi önce test edilmesi ve her bir uygulama için güvenle çalıştığın­ın kanıtlanma­sı gerekiyor. Yaşamımızı ancak bundan sonra ona emanet edebiliriz.

 ??  ??
 ??  ??

Newspapers in Turkish

Newspapers from Türkiye