Büyük veri mi, Büyük içgörü mü?

Capital (Turkey) - - YENİ DÖNEM -

zellikle son 2 yıldır ortalıkta olan bir kavram büyük veri. Konuyla ilgili bir McKinsey raporu, büyük veriyi tipik veritabanı yazılımlarıyla kaydedilmesi, yönetilmesi ve analizi mümkün olmayan boyutlarda veri kümeleri olarak tanımlıyor. Teknoloji hızla geliştiği için “ne kadar büyük” olduğu konusuna girmek istememişler. Başka bir kaynakta ise bahsedilen boyutun bugün için bir katrilyon bayt üzeri hacimler olduğu ifade ediliyor.

KIRINTILARDAN ANLAM ÇIKARMA

Bugün birçok şirketin elinde ciddi boyutta müşteri verisi var. Örneğin Google, internet kullanan herkesle ilgili ürkütücü miktarda bilgiye sahip. Bankaların elinde müşterilerinin satın alma alışkanlıklarına dönük çok miktarda bilgi var. Cep telefonu operatörleri, Facebook, Foursquare gibi şirketler, kişilerin gerçek zamanlı konumlarını bilme gücüne sahip. Sigorta şirketlerinin elinde kişilerin sağlık durumlarıyla ilgili bilgiler var. Şirketlerin topladığının dışında internet, sosyal medya gibi ortamlarda kişiler bilerek veya bilmeyerek kendileriyle ilgili muazzam bilgi bırakıyor.

Bu veri patlamasının ötesinde asıl patlama, nesnelerin interneti olarak anılan makineler arası iletişim yaygınlaştığı zaman olacak. Gartner’ın tahminlerine göre 2020 yılında 26 milyar cihaz internete bağlı olacak. GE ise 60 milyar bağlantı öngörüyor. Şu anda internete bağlı kişilerin ise 4 milyar civarında olduğu düşünülüyor. Makineler arası iletişimde, bilgi algılayan mobil cihazlar, uzaktan algılama, kameralar, mikrofonlar, RFID okuyucuları ve kablosuz algılayıcı ağlarının gönderdiği verilerle sayı çok artacak.

Peki bu veriler toplanıyor da ne oluyor? Büyük veriden şirketlerin umduğu faydalar, gömülü kalmış müşteri bilgisini ortaya çıkarmak ve kullanılır hale getirmek, müşterilerin geçmiş davranışlarını analiz ederek gelecekteki davranışlarını öngörebilmek, yönlendirebilmek ve kişiye özel hedeflenmiş iletişim yapabilmek. Bugün şirketleri ilgilendiren büyük veri, internet aramaları, kredi kartı harcamaları, konum bilgisi gibi farklı amaçlarla toplanmış karışık noktasal verilerden oluşuyor. Büyük verinin destekçileri, veri analizinin kesin sonuçlar vereceğini, herbir veri noktasının yakalanabildiğini dolayısıyla istatistiki örneklemeye gerek olmadığını, sebep-sonuç ilişkisinin önemli olmadığını, yalnızca yakalanan veriler arasındaki ilişkinin yeterli olduğunu söylüyor. Yani elinizde yeterince büyük bir veri kümesi varsa istatistiki ve bilimsel modellerin gerekli olmadığını iddia ediyorlar.

HER ŞEY TOZPEMBE DEĞİL

Cambridge Üniversitesi profesörlerinden David Spiegelhalter, bu düşüncelerin iyimser bakışla aşırı basitleştirmeler, en olumsuz bakışla da bir saçmalıktan ibaret olduğu fikrinde. Spiegelhalter’e göre büyük veri, içinde çok sayıda küçük veri problemi barındırıyor. Hacim büyüdükçe de bu problemler yok olmuyor, aksine kötüleşiyor. Daha fazla veri daha iyi bir analize yol açmıyor. Google Grip Trendleri çalışması buna bir örnek. Google 2008 yılında başlattığı bu hizmette bölgesel grip yayılımını Google aramalarına bakarak tahmin etmeye çalışıyor. İlk başta anlamlı sonuçlar veren bu servis, 4’üncü yılından sonra gerçeğin 2 katı oranında yanılmaya başladı. Çünkü tamamen sağlıklı insanlar da medyada gördükleri haberler üzerine merak veya korkudan griple ilgili aramalar yapıyordu. Buradaki temel sorun, Google’ın arama yapılan kelimelerle gribin yayılması arasındaki bağlantıyı bilmiyor olmasıydı. İnternet ve sosyal medyada insanların yarattığı objektif olmayan veri kümeleri sistemde önemli hatalara yol açıyor. Büyük veriye dayalı kararlar kaçınılmaz olarak geçmişe veya en iyimser halde şimdiki duruma baz ediliyor. Oysa geleceğin geçmiş gibi olacağının garantisi yok. Büyük verinin önemli eksiklerinden biri içgörü sorunu. Yani neler olup bittiğini anlamlandıramama ve daha iyi sonuçlar alabilmek için neyin nasıl değiştirilebileceğini bilememe. Imperial College’dan Prof. David Hand, “Kimse veri istemiyor, istedikleri yanıtlar” diyor. “Niçin” ve “nasıl” sorularının yanıtları büyük veride bulunmuyor. Yani büyük veri geldi ama büyük içgörü henüz ortada yok!

İyi örneklerden bazılarını anmadan geçmeyelim. Örneğin Google Translate, insanlar tarafından tercüme edilmiş yüz milyonlarca belgeyi analiz ederek kopyalayabileceği şablonlar arıyor. Amazon sürekli inovatif özellikler çıkarak büyük müşteri verisini aksiyona çevirebiliyor.

Büyük veri henüz gelişmekte olan bir alan. Zamanla daha sağlıklı veri kümelerine ve daha gelişmiş analiz algoritmalarına ulaşıldığında çok kârlı sonuçlar verebilir. Özellikle nesnelerin interneti ve yapay zeka uygulamalarının gelişimiyle büyük verinin daha isabetli sonuçlar vermesini bekleyebiliriz.

Newspapers in Turkish

Newspapers from Turkey

© PressReader. All rights reserved.