Smartphone Menjadi Lebih Pintar dengan On Device Machine Learning atau AI


https://m.facebook.com/story.php?story_fbid=370583753448334&id=370536530119723

https://spectrum.ieee.org/tech-talk/telecom/wireless/smartphones-will-get-even-smarter-with-ondevice-machine-learning

Artikel ini ditulis oleh seseorang yang saya kenal ketika saya mendatangi kota Oulu di Finlandia untuk menghadiri konferensi European Wireless (EW), Mei 2016, yaitu Prof. Mehdi. Saya coba untik menerjemahkan tulisannya dengan santai dan mencoba untuk menikmati. Pertama kali mencicil dalam menerjemahkan pada 22 April 2018 dan baru selesai 28 Mei 2018. Enjoy your reading.

Judul yang diambil olehnya adalah “Smartphones Will Get Even Smarter With On-Device Machine Learning” yaitu tentang smartphone yang akan menjadi lebih cerdas dengan menggunakan perangkat machine learning. Tulisan ini ditulis pada majalah yang terkenal yaitu IEEE Spectrum. Posisinya pada majalah ini sebagai penulis tamu. Tulisan tersebut tidak mewakili pandangan dari majalah ini, melainkan pandangan pribadi penulis.

Disebutkan pada artikel ini bahwa on-device machine learning telah tiba waktu kemunculannya yang ditunjukkan dengan workshop bertema machine learning pada konferensi tahunan Neural Information Processing Systems (NISP) 2017 serta ditandai juga dengan datangnya dua prosesor neural yang baru yaitu Kirin 970 dari Huawei dan Snapdragon 845 dari Qualcomm.

Lanjut ke paragraf berikutnya penulis menyatakan bahwa perkembangan teknologi kecerdasan buatan, artificial intelligence, saat ini sebagian utama didukung oleh ketersediaan data serta daya komputasi. Masuk kalimat kedua penulis membahas bahwa machine learning klasik yang kebanyakan dibangun pada node terpusat tunggal (biasanya di dalam sebuah pusat data) dengan akses penuh terhadap dataset global serta sejumlah penyimpanan dan daya komputasi yang masif. Kalimat ketiga ia kemudian membandingkannya dengan perkembangan terkini yaitu algoritma deep learning yang banyak terletak di dalam cloud, dan didukung oleh toolkit seperti Caffe dan TensorFlow, serta perangkat keras khusus seperti tensor processing unit.

Selanjutnya penulis masuk ke paragraf baru yang membahas kelemahan pendekatan terpusat dimana ia tidak akan bekerja pada benda dan aplikasi yang memerlukan latency yang rendah seperti drone terbang, mobil yang menyetir sendiri secara otomatis, maupun untuk mengirimkan instruksi ke robot bedah. Penulis menggunakan kata “delicate task” pada contoh-contoh tugas di atas yang menunjukkan kerumitan, sangat sensitif, halus. Selain harus melakukan tugas-tugas yang delicate ini ternyata ditambah lagi dengan kondisi di mana aktivitas para ahli tidak dapat mengantisipasi jika terjadi masalah. Oleh karena itu, sistem nirkabel di masa depan bahkan perlu sekali untuk dapat membuat keputusan yang lebih banyak, lebih cepat, dan lebih handal di ujung jaringan (yang lebih dekat dengan perangkat-perangkat), bahkan jika ketika perangkat-perangkat tersebut kehilangan sambungan dengan jaringan.

Penulis tersebur selanjutnya menggambarkan bahwa semua yang disebutkan di atas adalah contoh realisasi yang memercikkan ketertarikan yang sangat besar di dalam machine learning terdistribusi, sebuah paradigma baru dimana training data menggambarkan sebuah masalah yang disimpan melalui sejumlah node yang sangat besar, yang bekerja Bersama sama dalam mencari solusi.

Penulis juga mengemukakan bahwa tetap saja masih ada tantangan yang harus diselesaikan oleh para insinyur dan peneliti agar dapat menghadirkan kemampuan on-device machine learning ini ke tengah khalayak ramai. Yaitu untuk menjamin privasi tersebut terjaga dengan tidak peduli dengan apapun caranya, sehingga para peneliti perlu menggabungkan berbagai privasi yang berbeda, yang tujuannya bukanlah untuk mengungkapkan apakah sebuah data point tertentu digunakan selama training.

Kemudian penulis berpendapat bahwa para peneliti juga harus memasukkan teknik-teknik seperti federate learning dan transfer learning ketika training data tersebut tersebar di mana-mana. Daripada mempelajari dari scratch, algoritma tersebut lebih mempelajari sebuah model di dalam sebuah rich data source domain, sebagai cara yang efisien untuk menjinakkan masalah cold-start.

Terlebih lagi menurut penulis, karena perangkat-perangkat memiliki sumber daya yang terbatas, maka on-device machine learning harus mengoptimalkan model yang berjalan di perangkat, yaitu dengan mengurangi (“mencubit”) jumlah layer, jumlah neuron per layer, dan parameter-parameter lainnya. Juga, tetap perlunya mengoptimalkan penggunaan daya. Selain itu keakuratan prediksi dan batasan-batasan privasi juga tetap perlu diperhatikan.

Penulis menyampaikan bahwa di dalam beberapa skenario, karena keterbatasan sumber daya pada perangkat, sebuah algoritma machine learning perlu berjalan secara simultan di dalam ponsel maupun dengan jarak jauh melalui jaringan. Dengan memanfaatkan keduanya, yaitu intelijensi individu (AI pada perangkat) dan intelijensi kolektif (AI pada cloud), serta dengan mengizinkan perangkat untuk menggunakan penyimpanan dan daya komputasi yang berlimpah dari jaringan, maka akan didapatkan sebuah inferensi (keputusan atau kesimpulan) yang lebih baik dan cepat.

Penulis membahas bahwa isu komputasi lokal maupun jarak jauh merupakan task offloading, dimana sebuah task dijalankan secara lokal pada perangkat, atau dari jarak jauh melalui jaringan, maupun keduanya. Mencari strategi yang terbaik dengan tetap memperhatikan kebutuhan aplikasi, model dari neural learning, penggunaan daya, dan kongesti jaringan, semuanya adalah permasalahan-permasalahan yang mendasar dimana para insinyur saat ini masih terus bekerja untuk menyelesaikannya.

Penulis juga mengemukakan sebuah tantangan lain yang begitu pentingnya untuk mengaktifasi on-device Al terkait dengan desain sistem. Yaitu, ketika machine learning klasik dipusatkan pada pemaksimalan rata-rata reward (atau fungsi biaya rata-rata) untuk setiap agen, on-device AI malah lebih cenderung kepada ketidakpastian dan ketidakteraturan karena terbatasnya akses terhadap training data, link yang tidak reliable diantara perangkat, dan bertambahnya latency ketika sebuah perangkat melakukan offload sebuah task pada cloud ataupun peer-nya. Semua ini berarti bahwa on-device AI haruslah tahu bagaimana cara prediksi untik mengurangi dan memisahkan luaran dengan perbedaan yang besar, daripada menyatukan mereka ke dalam rata-rata sebagaimana yang telah dilakukan di dalam machine learning klasik.

Penulis kemudian menyebutkan bahwa machine learning terdistribusi ini ada kemiripan dengan ultra-reliable dan low-latency communication (URLLC) yang menjadi salah satu fitur kunci dari 5G. Faktanya adalah salah satu komponen utama dari URLLC adalah konsep mengenai resiko, yang muncul dari ketidakpastian terkait dengan kejadian-kejadian di masa depan.

Selanjutnya penulis mengisahkan bahwa ketika Google telah menjadi salah satu dari pendukung yang pertama kali terhadap on-device AI, kelompok riset dia serta para kolaboratornya sedang menginvestigasi on-device Al terhadap nirkabel dari sisi teori dan algoritma. Fokus utama di dalam 5G adalah menerapkan AI kepada jaringan otomatis. Mereka percaya bahwa on-device AI akan membentuk jaringan nirkabel generasi berikutnya.

Sekarang ini, on-device AI adalah bidang riset yang baru saja lahir dimana dengan jelas secara mayoritas perlu meninggalkan pendekatan berbasis cloud terpusat. On-device AI menggerakkan machine learning melalui sebuah desain dimana perangkat pada sisi ujung jaringan mengkomunikasikan model pembelajaran mereka (bukannya data privat mereka) untuk membangun sebuah trained model terpusat, yang semuanya memperhitungkan latency, reliabilitas, privasi, efisiensi daya, dan akurasi. Jika sukses, maka pergeseran ini akan menghasilkan perangkat dan program dengan kemampuan baru yang sangat berguna yang belum kita bayangkan.

Demikianlah tulisan dari Prof. Mehdi Bennis yang saat ini menjadi Associate Professor di Centre for Wireless Communications, the University of Oulu in Finland. Saat ini penelitiannya fokus pada machine learning di dalam jaringan nirkabel 5G dan juga pada ultra-reliable, low-latency communication. Ketika pertama kali bertemu dengannya di EW 2016, Prof. Mehdi mendapatkan penghargaan paper terbaik. Tak lama kemudian dia mendapatkan penghargaan lagi dari IEEE yang diserahkan kepadanya pada IEEE ICC di Kuala Lumpur, Malaysia.

Wassalamu’alaykum Warahmatullahi Wabarakatuh

Diterjemahkan secara bebas dan bahasa populer oleh Muhammad Reza Kahar Aziz, S.T., M.T., Ph.D

#AI #machinelearning #smartphone #telcommunications #telekomunikasi