29 December 2025, 16:53

AI Jadi Senjata Baru Propaganda Ekstremis: ISIS hingga Neo-Nazi Pakai Kloning Suara, Publik Diminta Waspada

propaganda kelompok ekstremis lintas spektrum ideologi, dari jaringan pro–Islamic State (ISIS) hingga komunitas neo-Nazi.

Reporter: Ihsan Nurdin
Editor: Deden M Rojani
1,709
AI Jadi Senjata Baru Propaganda Ekstremis: ISIS hingga Neo-Nazi Pakai Kloning Suara, Publik Diminta Waspada
Ilustrasi. Kelompok teroris ISIS dan neo-Nazi kini memanfaatkan AI untuk memperkuat propaganda dan penyebaran ideologi, termasuk kloning suara dan konten multimedia. (Foto: REUTERS/FLORENCE LO)

Perspektif.co.id - Pemanfaatan kecerdasan buatan (AI) untuk membuat konten tiruan kini merambah arena propaganda kelompok ekstremis lintas spektrum ideologi, dari jaringan pro–Islamic State (ISIS) hingga komunitas neo-Nazi. Sejumlah peneliti dan organisasi pemantau ekstremisme memperingatkan, kemudahan akses teknologi seperti terjemahan berbasis AI, text-to-speech, dan kloning suara membuat produksi propaganda makin cepat, multibahasa, dan terasa “lebih meyakinkan” bagi audiens. 

Lucas Webber, analis intelijen ancaman senior di Tech Against Terrorism sekaligus peneliti di Soufan Center, menilai adopsi terjemahan berbasis AI oleh kelompok teroris dan ekstremis merupakan lompatan baru dalam strategi propaganda digital. “The adoption of AI-enabled translation by terrorists and extremists marks a significant evolution in digital propaganda strategies,” ujar Webber. 

Menurut Webber, metode lama mengandalkan penerjemah manusia atau terjemahan mesin sederhana yang kerap terbatas pada ketepatan bahasa dan nuansa gaya. Kini, alat generatif yang makin canggih memungkinkan keluaran terjemahan yang lebih mulus dan kontekstual—sehingga pesan ideologis bisa diproduksi ulang dalam banyak bahasa tanpa kehilangan “nada” emosionalnya. 

Di sisi lain, fenomena kloning suara dinilai sudah sangat menonjol di ekosistem ekstrem kanan. Laporan Global Network on Extremism and Technology (GNET) menyebut jejaring neo-Nazi memanfaatkan layanan kloning suara komersial—termasuk ElevenLabs—untuk membuat versi bahasa Inggris dari pidato Adolf Hitler yang kemudian beredar di berbagai platform media sosial. 

GNET juga menyoroti bagaimana konten semacam itu sering dikemas dengan gaya minimalis untuk menghindari moderasi otomatis, dan menyasar audiens muda dengan format yang terasa “populer” di platform.

Kekhawatiran para peneliti tidak berhenti pada konten pidato yang “direproduksi”. Dalam temuan yang dibahas The Guardian, salah satu contoh lain adalah perubahan materi bacaan ekstremis menjadi format audio (audiobook) dengan bantuan AI, yang dinilai dapat memperluas jangkauan konsumsi konten karena tidak lagi bergantung pada teks.

Joshua Fisher-Birch, analis terorisme di Counter Extremism Project, menekankan bahwa problemnya bukan sekadar format baru, melainkan sejarah dan pengaruh materi yang diubah menjadi audio tersebut di kalangan kelompok ekstremis. “Siege has a more notorious history,” kata Fisher-Birch, merujuk status teks itu di ekosistem ekstrem kanan daring.

Untuk jaringan pro-ISIS, Webber mengatakan sebagian kanal propaganda di ruang pesan terenkripsi disebut aktif memakai AI guna mengubah konten ideologis dari publikasi resmi menjadi format text-to-speech, sehingga propaganda berbasis teks bisa disulap menjadi narasi multimedia yang lebih mudah dikonsumsi dan dibagikan. 

Seiring harga komputasi yang makin terjangkau dan banyaknya aplikasi AI gratis, kekhawatiran lain yang muncul adalah “demokratisasi” alat produksi propaganda: kelompok kecil dengan sumber daya terbatas bisa meningkatkan kapasitas output konten. Associated Press melaporkan, sejumlah pakar keamanan nasional menilai kelompok militan dan ekstremis makin aktif bereksperimen dengan AI untuk propaganda, rekrutmen, hingga pembuatan konten palsu yang realistis. 

Di level pemantauan konten, Tech Against Terrorism—organisasi yang fokus pada pencegahan eksploitasi platform digital oleh pelaku teror—pernah menyatakan telah mengarsipkan lebih dari 5.000 konten buatan AI yang beredar di ruang-ruang ekstremis, meski itu hanya sebagian kecil dari keseluruhan materi yang beredar. 

Isu ini juga masuk radar regulator karena berkaitan dengan kemampuan model generatif memproduksi konten berbahaya. Reuters melaporkan, Google pernah menyampaikan kepada regulator eSafety Australia bahwa mereka menerima ratusan laporan pengguna terkait dugaan penyalahgunaan alat AI untuk membuat konten deepfake bertema terorisme dan ekstremisme kekerasan. 

Para pengamat menilai, pola ini membuat tantangan penegakan kebijakan platform semakin kompleks: konten bisa tampil tanpa simbol yang jelas, disajikan dalam banyak bahasa, dan diproduksi lebih cepat daripada siklus moderasi manual. Dalam situasi seperti ini, publik disebut perlu lebih skeptis terhadap konten audio/video “meyakinkan” yang muncul tiba-tiba—terutama yang memancing emosi kuat dan mengarahkan pada kebencian atau glorifikasi kekerasan—karena teknologi kloning suara dan generasi konten kini makin mudah diakses. 

Berita Terkait