Saat ini, sudah banyak pihak menggunakan AI untuk memilah informasi yang menyesatkan. Tapi, apakah sudah efektif?
Para ilmuwan data semakin kreatif dalam upaya menangkal bahaya konten palsu yang menyebar melalui media sosial dan situs berita. Model bahasa besar (LLM) yang digunakan pada chatbot seperti ChatGPT kini sedang diuji untuk mendeteksi berita palsu.
Harapannya, deteksi yang lebih baik dari AI dapat memperingatkan, dan pada akhirnya menangkal, bahaya dari deepfake, propaganda, teori konspirasi, dan misinformasi.
AI generasi berikutnya diharapkan mampu mendeteksi konten palsu dengan cara yang lebih personal dan melindungi pengguna dari konten tersebut. Agar AI yang berpusat pada pengguna ini berhasil, penelitian juga melihat ke arah ilmu perilaku dan ilmu saraf, seperti dilansir dari laman The Next Web (13/11).
Penelitian terbaru menunjukkan bahwa seringkali kita tidak sepenuhnya sadar saat melihat berita palsu. Dengan menggunakan biomarker seperti detak jantung, gerakan mata, dan aktivitas otak, ilmuwan dapat mengidentifikasi perbedaan halus saat kita berinteraksi dengan konten asli dan palsu.
Misalnya, saat manusia memindai wajah, mereka memperhatikan kedipan mata dan perubahan warna kulit. Ketika elemen-elemen ini tampak tidak alami, hal itu bisa mengindikasikan sebuah deepfake.
Personalisasi pemeriksa berita palsu AI dapat dikembangkan dari data pergerakan mata dan aktivitas otak manusia untuk memahami dampak konten palsu terhadap psikologi dan emosi seseorang. Dengan memahami reaksi spesifik pengguna, AI dapat mendeteksi dan memperingatkan konten yang berpotensi menimbulkan efek paling berbahaya pada individu tertentu.
Langkah selanjutnya dalam deteksi berita palsu adalah melindungi kita dari bahaya konten tersebut. Sistem AI dapat menawarkan langkah-langkah preventif seperti label peringatan atau tautan ke konten yang telah divalidasi oleh ahli. Teknologi ini bertujuan memberi pengguna perspektif alternatif saat membaca berita, membantu membatalkan pengaruh konten palsu.
Saat ini, beberapa teknologi tersebut sedang diuji coba. Peneliti di AS telah mempelajari bagaimana AI yang dipersonalisasi membantu pengguna memilih konten yang dianggap benar di media sosial. Studi lain menunjukkan konsep di mana kiriman berita tambahan yang muncul didesain untuk mendorong pengguna melihat perspektif yang berbeda.
Meskipun terdengar canggih, deteksi berita palsu masih menghadapi berbagai tantangan. Sama seperti detektor kebohongan, ada berbagai metode untuk mendeteksi kebohongan, mulai dari analisis linguistik hingga teknologi pengenalan ekspresi wajah.
Agar efektif, detektor berita palsu AI harus memiliki tingkat akurasi yang tinggi—misalnya, menghindari alarm palsu dengan memastikan berita asli tidak dianggap palsu.
Permasalahan lain yang muncul adalah adanya berita yang tidak sepenuhnya salah atau benar, melainkan hanya sebagian akurat. Dalam siklus berita yang cepat, informasi yang awalnya dianggap benar dapat kemudian terbukti salah, begitu pula sebaliknya. Oleh karena itu, pemeriksa berita palsu harus selalu bekerja keras untuk mengikuti perkembangan informasi terbaru.
Selain itu, studi pelacakan mata menunjukkan hasil yang beragam. Beberapa penelitian menunjukkan bahwa pengguna lebih memperhatikan konten palsu, sementara yang lain justru menunjukkan sebaliknya. Variasi ini mempersulit pelatihan AI untuk mendeteksi pola konsisten dalam perilaku manusia saat melihat konten palsu.
Sistem AI untuk deteksi berita palsu yang sudah ada menggunakan ilmu perilaku untuk memperingatkan pengguna. Tidak akan lama lagi, teknologi ini akan tersedia untuk melindungi profil pengguna secara spesifik di media sosial. Namun, pertanyaan yang tersisa adalah apakah kita benar-benar membutuhkan sistem ini dan apakah sistem ini benar-benar efektif.
Dalam skenario terburuk, kita mungkin hanya melihat berita palsu sebagai masalah daring yang seharusnya diselesaikan dengan AI. Namun, konten palsu dan misinformasi juga tersebar di dunia nyata. Kita sering menggunakan informasi tersebut untuk mengilustrasikan ide atau perspektif yang mungkin keliru.
Sementara itu, dalam skenario terbaik, ilmu data dan perilaku dapat membantu mengidentifikasi dan mengurangi dampak berita palsu pada masyarakat. Teknologi AI yang kompleks mungkin berguna, namun solusi yang lebih sederhana dan efektif seperti edukasi dan literasi media masih sangat diperlukan.