AI bisa makin pintar tanpa mengintip data pribadi kita: Mengenal ‘federated learning’
- Written by Rachmad Andri Atmoko, Kepala Laboratorium Internet of Things & Human Centered Design, Universitas Brawijaya
● Federated learning memungkinkan AI belajar tanpa mengirim data pribadi ke server.
● Teknologi ini menjaga privasi pengguna sambil tetap meningkatkan kecerdasan sistem.
● Federated learning jadi jalan tengah bagi kemajuan AI dan perlindungan data.
Pernahkah kamu merasa takjub saat keyboard ponsel bisa menebak kata yang akan kamu ketik? Atau saat aplikasi kesehatan memberi rekomendasi yang sangat personal?
Di balik kepintaran itu, ada kecerdasan buatan (AI) yang terus belajar dari kebiasaan kita. Masalahnya, cara konvensional melatih AI mengharuskan data kita dikirim ke server pusat milik perusahaan teknologi.
Bayangkan semua pesan, riwayat pencarian, dan kebiasaan kita terkumpul di satu tempat. Ini ibarat memaksa semua siswa pindah ke satu sekolah raksasa untuk belajar: Boros, ribet, dan rentan bocor.
Kabar baiknya, ada cara lain yang lebih aman. Namanya federated learning[1].
Guru yang datang ke rumah
Federated learning mengubah cara AI belajar. Jika cara lama mengharuskan data kita “pergi” ke server, cara baru ini justru mengirim algoritma AI ke perangkat kita.
Analoginya sederhana. Cara lama seperti menyuruh semua pasien datang ke satu rumah sakit pusat. Cara baru seperti dokter yang berkunjung ke rumah masing-masing pasien.
Gambaran soal besarnya kebutuhan energi untuk pusat data.Dalam federated learning[2], AI belajar langsung di ponsel atau komputer kita. Setelah selesai, AI hanya mengirim “rangkuman hasil belajar” ke server, bukan data mentahnya.
Data foto, pesan, dan kebiasaan kita tetap tersimpan aman di perangkat sendiri.
Sudah dipakai Google
Federated learning bukan sekadar teori. Google sudah menerapkannya sejak 2017 untuk keyboard Gboard[3] di ponsel Android.
Saat kita mengetik, Gboard mempelajari pola kata yang sering kita pakai. Proses belajar ini terjadi di ponsel kita. Yang dikirim ke Google hanya pola umum, bukan isi ketikan kita.
Apple juga menggunakan pendekatan serupa untuk Siri dan keyboard QuickType di iPhone. Mereka menyebutnya differential privacy[4] yang dikombinasikan dengan pemrosesan lokal.
Menjaga rahasia medis
Federated learning punya potensi besar di dunia kesehatan. Selama ini, riset AI medis terkendala aturan privasi yang melarang berbagi data pasien antar-rumah sakit.
Dengan federated learning, peneliti bisa melatih AI[5] menggunakan data dari berbagai rumah sakit tanpa memindahkan rekam medis ke satu tempat.
Read more: Benarkah AI bisa mengurangi kesenjangan layanan kesehatan di Indonesia?[6]
Sebuah studi di jurnal Nature[7] menunjukkan teknik ini berhasil mendeteksi tumor otak menggunakan data dari lembaga medis di beberapa negara. Data pasien tetap aman di masing-masing rumah sakit.
Ini membuka peluang riset lintas negara tanpa melanggar aturan privasi seperti regulasi perlindungan data (GDPR) di Uni Eropa[8].
Bukan tanpa tantangan
Federated learning bukan solusi sempurna. Karena proses belajar terjadi di perangkat pengguna, ponsel kita harus bekerja lebih keras.
Penelitian terbaru[9] menunjukkan federated learning bisa menguras baterai dan membutuhkan koneksi internet stabil. Perangkat murah dengan prosesor lemah mungkin kesulitan menjalankan proses ini.
Ada juga tantangan keamanan. Meski data asli tidak dikirim, pola hasil pembelajaran[10] tetap bisa membocorkan informasi sensitif jika tidak dilindungi dengan baik.
Para peneliti terus mengembangkan teknik tambahan, seperti secure aggregation[11] dan differential privacy[12] untuk menutup celah ini.
Secure aggregation adalah teknik kriptografi yang memungkinkan server menggabungkan pembarian model dari berbagai klien tanpa bisa melihat update masing-masing klien secara individual. Penelitian tahun 2022[13] menunjukkan bahwa teknik ini bisa melindungi privasi pengguna sambil tetap mempertahankan efisiensi komunikasi, bahkan ketika banyak pengguna lagi menggunakan suatu AI tersebut.
Sementara itu, differential privacy memberikan jaminan matematis bahwa output model tidak akan berubah secara signifikan meskipun data satu individu ditambahkan atau dihapus. Teknik ini menambahkan “noise” (gangguan) ke dalam proses pembelajaran AI. Analoginya seperti mencampurkan suara latar belakang di ruang rapat: kita bisa mendengar kesimpulan umum, tapi tidak bisa mengidentifikasi suara individu.
Studi tahun 2022[14] menunjukkan kombinasi differential privacy dengan secure aggregation bisa memberikan perlindungan ganda: server tidak melihat update individual, dan hasil pengolahan data juga terlindungi dari analisis statistik yang mendalam.
Jalan tengah yang menjanjikan
Di tengah kekhawatiran global soal privasi dan penyalahgunaan data oleh perusahaan teknologi besar, federated learning menawarkan harapan.
Kita tidak harus memilih antara “memakai AI, tapi privasi hilang” atau “menjaga privasi, tapi teknologi bodoh”. Ada jalan tengahnya.
Tentu masih banyak pekerjaan rumah. Namun, arah pengembangannya sudah jelas: AI masa depan harus bisa pintar tanpa harus mengintip data pribadi kita.
Read more: Bisakah anggota DPR digantikan AI?[15]
References
- ^ federated learning (research.google)
- ^ federated learning (www.nature.com)
- ^ keyboard Gboard (ai.googleblog.com)
- ^ differential privacy (www.apple.com)
- ^ peneliti bisa melatih AI (pmc.ncbi.nlm.nih.gov)
- ^ Benarkah AI bisa mengurangi kesenjangan layanan kesehatan di Indonesia? (theconversation.com)
- ^ jurnal Nature (www.nature.com)
- ^ regulasi perlindungan data (GDPR) di Uni Eropa (gdpr.eu)
- ^ Penelitian terbaru (ieeexplore.ieee.org)
- ^ pola hasil pembelajaran (dl.acm.org)
- ^ secure aggregation (proceedings.mlr.press)
- ^ differential privacy (www.usenix.org)
- ^ Penelitian tahun 2022 (proceedings.mlr.press)
- ^ Studi tahun 2022 (www.usenix.org)
- ^ Bisakah anggota DPR digantikan AI? (theconversation.com)
Authors: Rachmad Andri Atmoko, Kepala Laboratorium Internet of Things & Human Centered Design, Universitas Brawijaya




