Memilih Chip Deep Learning

Salah satu terobosan penting di bidang AI ( artificial intelligence) adalah deep learning (DL). DL yang merupakan cabang dari machine learning mengalami banyak kemajuan akhir-akhir ini dan dukungan hardware untuk DL pun bermunculan.

Info Komputer - - Expert Says - JULIANTO Pemerhati TI

DL MERUPAKAN sistem neural network yang meniru cara kerja otak manusia yang tingkat kerumitannya lebih tinggi dibandingkan dengan machine

learning (ML). Seperti manusia, agar berpengetahuan, maka perlu ada pembelajaran. Demikian juga sistem DL, ada fase training sebelum sistem ini dapat memroses

input data secara real time. Pada fase training digunakan data-data yang sudah tervalidasi sebagai

input. Setelah fase training, sistem DL siap digunakan untuk mengolah data-data baru, fase ini disebut sebagai tahap inference.

Contoh aplikasi DL, antara lain, image recognition, voice

recognition, dan aplikasi prediktif lainnya. Pada image recognition, DL tidak hanya mengenali seekor burung di suatu foto tetapi juga bisa mengetahui adanya sel-sel ganas pada pada suatu gambar 3D dari suatu organ tubuh.

DL membutuhkan daya komputasi besar, terutama sistem paralel, untuk mengolah sejumlah besar data baik pada fase training maupun inference. Banyak orang memanfaatkan GPU (Graphichs Processing Unit) untuk mendayai sistem DL, dan sebagian yang lain menggunakan chip FPGA (Field Programmable Gate Array). Dan,

chip khusus AI pun mulai banyak dibuat.

Mengapa Menggunakan GPU?

Bukankah GPU dirancang untuk mempercepat proses

rendering pada aplikasi grafis seperti game? Memang benar, sistem DL memanfaatkan keunggulan GPU, yaitu terutama kemampuannya mengolah data secara paralel. Fitur-fitur GPU terutama banyak termanfaatkan pada fase training. Pada fase ini dilaksanakan pengolahan sejumlah besar data dan agar prosesnya cepat dibutuhkan sistem paralel. Sebaliknya, pada fase

inference, sistem memroses input data baru. Fase ini lebih banyak membutuhkan akses ke memori dan respon yang cepat ( low latency). Contohnya, pada aplikasi untuk autonomous

car, sistem perlu “menyadari” dengan cepat bahwa beberapa meter di depan mobil sedang ada orang menyeberang jalan. Sistem dengan latency rendah sangat diperlukan di sini. Sayangnya GPU dirancang tidak untuk memiliki fitur low latency, walau belakangan ini vendor GPU sudah menyempurnakan produknya untuk aplikasi DL.

Pasar GPU kini didominasi oleh NVIDIA. Pada produk terbarunya NVIDIA memaketkan Tensor Cores, yaitu arsitektur yang ditujukan untuk aplikasi ML maupun DL. Keunggulan lain dari GPU NVIDIA adalah disertakannya

library untuk aplikasi ML/ DL, yaitu CUDA dan cuDNN.

Software layer ini diperlukan agar kode program yang jalan di atasnya lebih optimal.

Framework AI yang mendukung penggunaan GPU, antara lain, Caffe, CNTK, DeepLearning4j, SciKit, dan TensorFlow.

Alternatifnya Menggunakan FPGA

Selain GPU, sistem DL juga dapat menggunakan chip Field Programmable Gate Arrays (FPGA) untuk menangani

workload- nya. FPGA yang sudah ada sejak tahun 1980-an merupakan chip yang dapat dikonfigurasikan kembali, sehingga sesuai dengan kebutuhan aplikasi tertentu. Setelah dikonfigurasikan, chip ini akan mirip dengan chip yang khusus diciptakan untuk aplikasi tertentu (ASIC = Application-Specific Integrated Circuits). Konfigurasi ulang tersebut menggunakan bahasa Hardware Description Language (HDL).

Pemain FPGA untuk sistem AI, antara lain Intel, yang telah mengakuisisi Altera, salah satu pembuat FPGA. Seri produk FPGA dari Intel antara lain Intel Arria10 dan Intel Stratix 10. Microsoft juga telah menggunakan chip FPGA.

Alternatif Chip Khusus

Pilihan selain GPU dan FPGA adalah chip yang khusus dibuat untuk menangani workload

AI. Karena dirancang dari awal,

chip AI memiliki efisiensi dan kecepatan lebih tinggi. Selain

chip berkelas high end yang ditujukan untuk sistem yang lebih besar, ada pula chip AI kelas low end yang dipakai pada smartphone dan peranti IoT. Chip AI pada smartphone ditujukan untuk aplikasi seperti pengenalan wajah, image detection, image tagging, dan real-time video processing.

Para pemain chip AI selain vendor besar, seperti Intel, Google, IBM, dan Qualcomm, juga startup, seperti Cerebras, Graphcore, Cambricon Technologies, Horizon Robotics, dan Nervana. Nervana barubaru ini diakuisisi Intel. Facebook juga berkolaborasi dengan Intel membuat chip AI yang dinamai Neural Network Processor.

Google telah membuat chip AI yaitu Tensor Processing Unit (TPU). Chip ini menggunakan

framework ciptaan Google sendiri, yaitu TensorFlow. Tetapi Google tidak menjualnya melainkan dipakai untuk sistem

back-end pada layanan cloud miliknya.

Pilih Mana?

Secara umum chip AI lebih ekonomis. GPU dirancang dengan presisi tinggi yang sebenarnya tidak diperlukan pada sistem neural networks.

Chip AI dibuat dengan presisi yang lebih rendah sehingga lebih hemat daya. Neural

networks tidak membutuhkan tingkat presisi setinggi yang diperlukan pada pengolahan grafis. Sehingga chip AI 8- bit dapat melaksanakan tugasnya dengan baik, sebaik GPU 16 sampai 32- bit.

Masalahnya memang yang sudah terbukti dan tersedia di pasar adalah GPU dan juga FPGA. Penggunaan GPU dibutuhkan software

engineer dan data scientist. Sementara penerapan FPGA juga membutuhkan

hardware engineer. Kelak ketika chip AI sudah disempurnakan sehingga mendukung framework seperti TensorFlow maka akan lebih mudah bagi pengguna untuk menggunakannya tanpa bantuan hardware engineer. IK

Tensor Processing Unit (TPU) dibuat oleh Google khusus untuk aplikasi machine learning.

Intel Nervana Neural Network Processor yang dirancang khusus untuk aplikasi deep learning.

Newspapers in Indonesian

Newspapers from Indonesia

© PressReader. All rights reserved.