Pabrik propaganda AI
Simulasi ideologis oleh AI ini berfungsi ganda: tidak hanya piawai dalam meyakinkan, tetapi juga memecah belah dan mendorong kita semua ke posisi yang lebih ekstrem—ke kiri maupun kanan.
Ingatlah pepatah, “Di internet, tidak ada yang tahu Anda adalah seekor anjing”. Pepatah dan meme internet tentang anonimitas ini bermula dari kartun karya Peter Steiner di The New Yorker pada 1993. Kartun ini melambangkan penyangkalan kehadiran seseorang di internet dari prasangka populer. Kini ia telah menjadi kredo: mendikte cara kita bertindak.
Hari ini, dari garasi atau kamar yang lembab, tanpa suara ketukan keyboard, ribuan narasi (politik) bisa diproduksi setiap detik. Pabrik rumahan tak lagi memproduksi garmen atau kerupuk, melainkan propaganda yang bekerja secara end-to-end, memproduksi dan mendistribusikan kebohongan yang lebih mulus dan meyakinkan daripada kebenaran itu sendiri.
Dengan teknologi akal imitasi (AI), Anda tak perlu berpayah menyamar jadi persona yang lain ketika Anda adalah seekor “anjing”—seperti kartun Steiner. Sekarang sudah ada AI. Dia bisa menjadi “anjing” yang sesungguhnya. Dan di era ini, semua rumah bisa mengadopsinya.
Jika kita khawatir tentang robot raksasa yang mengambil pekerjaan, kita juga harus menoleh ke belakang, ada Small Language Models (SLM) yang diam-diam beroperasi di komputer “jangkrik” milik konsumen dari kamar remang atau garasi alih-fungsi. Mereka adalah boneka kecil yang disihir, memiliki kemampuan untuk membelah realitas publik menjadi kepingan ideologis.
Potret nyata ancaman AI ditulis dalam laporan Global Risks Report 2025 oleh World Economic Forum: Misinformasi dan disinformasi telah menjadi risiko global teratas. Itu adalah pengakuan bahwa medan perang terbesar kita bukan lagi darat atau laut, melainkan di dalam kepala kita sendiri, yang kini diserbu oleh operasi pengaruh berbasis AI.
Kehadiran bot rumahan digambarkan lewat studi Lukasz Olejnik, seorang ahli dari King’s College London; Bukan hanya pekerjaan formal yang dihantui kehadiran AI, influencer dan buzzer kini ikut terancam oleh kehadiran “AI kecil” yang bisa beroperasi dari komputer amatiran. Judul papernya seperti hidup di era home industry, “AI Propaganda factories with language models”.
Olejnik melihat bagaimana AI beroperasi di garis depan perang disinformasi. Bayangkan AI adalah seorang aktor. Aktor ini tidak berwajah, dia hanya kode. Tapi, kita bisa memberinya kostum dan naskah—inilah yang disebut persona atau kepribadian palsu. Misalnya, kita suruh dia memakai kostum “Penganut Ideologi Kanan-Jauh yang Sarkas dan Agresif.”
Temuan anehnya: kostum itu jauh lebih menentukan perilaku AI daripada merek mesin atau model AI di belakangnya. Persona-over-Model. Apakah aktor ini memakai mesin A atau merek B (seperti Gemini-Nano, Gemma, Mistral, dll.) itu tidak penting. Begitu dia memakai topeng, semua model bisa bicara dengan cara yang sama, konsisten, dan meyakinkan. Kepribadian palsu AI inilah yang berkuasa, bukan kode yang mengaturnya.
Kalau kata Baudrillard, simulasi (salinan tanpa aslinya) telah menggantikan realitas. Persona yang dibuat AI adalah simulasi ideologis. Ia tidak merujuk pada manusia nyata mana pun, pesannya berfungsi sebagai kebenaran politik. Karena topeng ini begitu konsisten dan meyakinkan, penonton berhenti mencari tahu siapa orang di balik topeng itu—kita hanya menerima pesannya.
Kita hidup di tengah hiperrealitas. Kira-kira kesimpulannya begitu. Ini diperkuat dengan temuan Olejnik satu lagi: Engagement as a Stressor. Bagian yang bikin makin geleng-geleng kepala. Lukasz Olejnik punya bukti bahwa AI bisa seperti manusia yang gampang tersulut emosi di kolom komentar.
Ketika AI diminta untuk tidak hanya menjawab (mode damai) tetapi juga untuk berdebat keras dan melawan argumen yang disampaikan oleh orang lain (mode tempur), AI tidak mendingin. Justru sebaliknya, ia otomatis menjadi semakin fanatik, ekstrem, dan agresif dalam ideologinya.
Mengapa? Karena mesin itu dirancang untuk menang dalam perdebatan, untuk mempertahankan ideologinya secara fanatik, bukan untuk mencari titik temu. Ini bukan lagi sekadar otomatisasi bot, ini adalah mesin radikalisasi otomatis. Bot tak kenal menyerah itu persistensi yang mengerikan.
AI bisa berdebat yang awalnya tentang fakta (misalnya, evolusi), mengubahnya menjadi perang budaya penuh amarah. Contoh nyata dari studi itu:
Ketika AI “kanan-jauh” diminta merespons perdebatan sains, responsnya adalah serangan politik yang menuduh lawan memakai “senam mental liberal”—mengubah diskusi ilmiah menjadi serangan politik yang emosional.
Ia bahkan beralih dari diskusi sains jadi diskusi tentang ideologi. Perangai yang menunjukkan logical fallacy paling lazim: Label “senam mental liberal” sebagai taktik ad hominem (circumstantial); Mengubah tema sains jadi politik adalah gaya khas red herring yang suka mengalihkan substansi; dan (jika dilakukan sebelum lawan bicara) dia juga menerapkan poisoning the well.
Ini menunjukkan bahwa simulasi ideologis oleh AI ini berfungsi ganda: tidak hanya piawai dalam meyakinkan, tetapi juga memecah belah dan mendorong kita semua ke posisi yang lebih ekstrem—ke kiri maupun kanan. Ini karena SLM bisa dikonfigurasi dengan deskripsi perilaku, mulai dari ideologi, gaya komunikasi (empati, agresif, sarkas), hingga nada retoris.
Ketika AI menciptakan sebuah persona (seolah pengguna Twitter, komentator politik, atau virtual influencer) yang konsisten, koheren, dan sepenuhnya dibentuk oleh kode, AI telah menciptakan simulakrum ideologis. Buset. Persona ideologis berbasis kode ini, telah menjadi ekstremis, representasi ideal dari ideologi ekstrem itu sendiri. Ia bukan sekadar tiruan manusia.
Kita tengah menyaksikan pergeseran dari propaganda statis menjadi propaganda adaptif. AI tidak hanya menyebarkan pesan; ia mengoptimalkan pesan itu agar lebih ekstrem, lebih provokatif, dan lebih menarik perhatian (engagement), terutama pada persona yang sudah condong ke ekstrem kiri atau ekstrem kanan.
Kita telah mencapai titik di mana realitas telah menjadi pasar yang dibanjiri oleh produk-produk simulasi yang dibuat di garasi. Simulakrum ideologis ini berisiko membuat kita kehilangan kemampuan memercayai apa pun kecuali ideologi yang dicetak secara konsisten oleh mesin yang paling ekstrem.
Lalu apa resep anti-absurditas kita? Lukasz Olejnik memberikan petunjuk yang jenius. Karena AI sangat konsisten dalam mempertahankan persona (itulah kekuatannya), justru konsistensi itulah yang menjadi kelemahannya. Manusia sejati itu rentan, inkonsisten, dan sering mengubah gaya bicara; AI yang terlalu sempurna akan mudah terdeteksi.
Pertahanan kita tidak boleh lagi berfokus pada pembatasan akses ke model AI (karena SLM open-weight bisa dijalankan di mana saja), melainkan pada pendeteksian yang berpusat pada perilaku percakapan. Kita harus melatih diri kita sendiri untuk mencurigai kebenaran yang terlalu flawless, persona yang terlalu konsisten, dan suara keras tanpa pernah gagap.
Tentu saja tanpa menggeneralisasi—sudah banyak kasus tulisan-tulisan rapi, runtut, nyaris sempurna, malah dituding buatan AI. Butuh pengukuran yang lebih spesifik, lebih detail tentang, misalnya, ciri-ciri bot yang menyamar jadi aktivis jempol di linimasa media sosial. Sebagai mesin propaganda adaptif, respons AI akan menciptakan medan tempur ala Tom and Jerry.
Yang mencemaskan, pabrik propaganda AI ini rentan dibeli siapa saja. Ia bisa hadir di mana saja. Kita, harus bisa bertahan. Salah satunya mengembangkan literasi hiperrealitas, mampu mengenali “anjing” di balik persona, menghargai inkonsistensi manusia, dan terus mencari tempat yang mungkin terasa tidak nyaman, tidak sempurna, tetapi setidaknya, otentik.
