Dalam sebuah kabar terbaru, disebutkan bahwa LinkedIn menggunakan data pengguna untuk melatih model AI mereka secara default. Begini cara keluar dari program pembelajaran AI LinkedIn.
LinkedIn beberapa waktu lalu mengumumkan bahwa mereka telah melatih AI mereka dengan menggunakan data pengguna tanpa meminta persetujuan pengguna terlebih dahulu. Saat ini, pengguna tidak memiliki opsi untuk keluar dari pelatihan AI ini, karena LinkedIn hanya memungkinkan penghapusan untuk pelatihan AI di masa mendatang.
Dalam blog resmi yang diunggah oleh penasihat umum LinkedIn, Blake Lawit, mereka mengungkapkan bahwa syarat dan ketentuan serta kebijakan privasi LinkedIn akan diperbarui untuk menjelaskan lebih lanjut bagaimana data pribadi pengguna digunakan untuk melatih AI di platform.
Menurut kebijakan privasi yang baru, LinkedIn memberi tahu pengguna bahwa mereka dapat menggunakan data pribadi untuk mengembangkan dan melatih model AI, serta untuk meningkatkan dan mempersonalisasi layanan mereka. Data pribadi dapat dikumpulkan setiap kali pengguna berinteraksi dengan fitur AI, membuat postingan, atau memberikan umpan balik di platform.
Data yang dikumpulkan akan disimpan sampai pengguna menghapus konten yang dihasilkan oleh AI. LinkedIn menyarankan pengguna untuk menggunakan alat akses data mereka jika ingin menghapus data yang telah dikumpulkan.
Model AI yang mendukung fitur generatif di LinkedIn dapat dilatih oleh LinkedIn sendiri atau oleh penyedia lain, seperti Microsoft. Kolom FAQ mencatat bahwa ada risiko privasi bagi pengguna yang memberikan data pribadi sebagai masukan ke fitur AI, karena data tersebut bisa muncul sebagai keluaran.
LinkedIn saat ini sudah berusaha untuk meminimalkan penggunaan data pribadi dalam pelatihan model AI dengan menerapkan teknologi yang dapat menghapus data pribadi dari kumpulan data. Namun, tidak ada kejelasan apakah data yang sudah ada dapat dihapus dari kumpulan pelatihan AI.
Cara berhenti
Untungnya, saat ini pengguna dapat memilih keluar dari pelatihan AI dengan menavigasi ke bagian “Privasi data” di pengaturan akun mereka, lalu menonaktifkan opsi yang mengizinkan pengumpulan “data untuk peningkatan AI generatif” yang biasanya diaktifkan secara otomatis oleh LinkedIn.
Satu-satunya pengecualian adalah bagi pengguna di Area Ekonomi Eropa atau Swiss, yang dilindungi oleh undang-undang privasi yang lebih ketat yang mengharuskan persetujuan dari platform untuk mengumpulkan data pribadi atau bagi platform untuk membenarkan pengumpulan data sebagai kepentingan yang sah.
Pengguna tersebut tidak akan melihat opsi untuk memilih keluar, karena mereka tidak pernah memilih ikut serta, LinkedIn berulang kali mengkonfirmasi.
Di sisi lain, pengguna dapat “menolak penggunaan data pribadi mereka untuk pelatihan” model AI generatif yang tidak digunakan untuk menghasilkan konten LinkedIn dengan mengirimkan Formulir Keberatan Pemrosesan Data LinkedIn.
Tahun lalu, LinkedIn berbagi prinsip-prinsip AI, berjanji untuk mengambil “langkah-langkah yang berarti untuk mengurangi potensi risiko AI.”
Salah satu risiko yang ditentukan dalam perjanjian pengguna yang diperbarui adalah bahwa penggunaan fitur generatif LinkedIn untuk membantu mengisi profil atau menghasilkan saran saat menulis posting dapat menghasilkan konten yang “mungkin tidak akurat, tidak lengkap, tertunda, menyesatkan, atau tidak sesuai untuk tujuan pengguna.”
Pengguna diimbau untuk bertanggung jawab dalam menghindari penyebaran informasi yang menyesatkan atau menyebarkan konten buatan AI yang dapat melanggar pedoman komunitas LinkedIn. Selain itu, pengguna juga diperingatkan untuk berhati-hati saat mengandalkan informasi apa pun yang dibagikan di platform.
“Seperti semua konten dan informasi lain di Layanan kami, terlepas dari apakah konten tersebut diberi label dibuat oleh ‘AI’, pastikan untuk meninjaunya dengan saksama sebelum mengandalkannya,” kata perjanjian pengguna LinkedIn.
Pada tahun 2023, LinkedIn mengklaim bahwa pihaknya akan selalu “berusaha menjelaskan dengan cara yang jelas dan sederhana bagaimana penggunaan AI berdampak pada orang,” karena “pemahaman pengguna tentang AI dimulai dengan transparansi.”
Undang-undang seperti UU AI Uni Eropa dan GDPR terutama dengan perlindungan privasi yang kuat, jika diberlakukan di tempat lain, akan mengurangi guncangan bagi pengguna yang tidak menaruh curiga. Itu akan menempatkan semua perusahaan dan penggunanya pada posisi yang sama dalam hal pelatihan model AI dan menghasilkan lebih sedikit kejutan yang tidak menyenangkan dan pelanggan yang marah.