Tabengan.com – Model terbaru ChatGPT milik OpenAI dilaporkan mulai mengutip konten bias AI dari Grokipedia, ensiklopedia berbasis kecerdasan artifisial yang dikembangkan perusahaan xAI milik Elon Musk. Temuan ini memicu kekhawatiran baru di kalangan peneliti mengenai integritas sumber data dan risiko disinformasi dalam ekosistem AI global.
Laporan The Guardian, Selasa (27/1/2026), mengungkap bahwa pengujian teknis terhadap model GPT-5.2 menunjukkan chatbot tersebut mengutip Grokipedia sebanyak sembilan kali dalam respons atas lebih dari 12 pertanyaan berbeda. Penggunaan sumber ini dinilai tidak lazim, mengingat Grokipedia sejak awal menuai kritik karena memuat konten bias AI dan memiliki tingkat akurasi yang dipertanyakan dibandingkan ensiklopedia konvensional seperti Wikipedia.
Grokipedia Mulai Muncul dalam Jawaban ChatGPT
Dalam pengujian tersebut, konten bias AI dari Grokipedia ditemukan merembes ke jawaban ChatGPT, terutama pada topik-topik spesifik yang tidak masuk kategori sensitif utama. Misalnya, rujukan Grokipedia muncul dalam pertanyaan mengenai struktur politik dan korporasi di Iran.
Sebaliknya, pada isu sensitif seperti peristiwa pemberontakan 6 Januari di Amerika Serikat atau epidemi HIV/AIDS, ChatGPT tercatat tidak menggunakan Grokipedia sebagai referensi. Perbedaan ini memunculkan pertanyaan mengenai bagaimana model AI menentukan kelayakan sumber pada topik tertentu.
Selain itu, ChatGPT juga diketahui mengutip Grokipedia dalam biografi sejarawan Inggris Sir Richard Evans, yang memuat detail informasi yang sebelumnya telah dibantah oleh media arus utama. Kasus ini memperkuat kekhawatiran bahwa konten bias AI dapat memperoleh eksposur lebih luas melalui model bahasa besar.
Risiko “LLM Grooming” dan Legitimasi Semu
Peneliti disinformasi Nina Jankowicz menilai fenomena ini berpotensi menciptakan apa yang ia sebut sebagai “LLM grooming”, yakni proses di mana sumber informasi yang bermasalah mendapatkan legitimasi karena dikutip oleh model AI terkemuka.
“Mereka mungkin berkata, ‘ChatGPT mengutipnya, berarti sumber ini layak dipercaya’. Padahal, persepsi tersebut bisa sangat menyesatkan,” ujar Jankowicz.
Menurutnya, ketika konten bias AI dikutip oleh model seperti ChatGPT, hal itu menciptakan legitimasi semu yang berbahaya, terutama bagi profesional, akademisi, atau investor yang mengandalkan AI untuk riset cepat dan pengambilan keputusan.
Masalah ini semakin kompleks karena informasi keliru yang sudah terlanjur masuk ke dalam sistem AI terbukti sulit untuk dihapus atau dikoreksi dalam waktu singkat.
Tanggapan OpenAI
Menanggapi temuan tersebut, juru bicara OpenAI menyatakan bahwa sistem pencarian web pada ChatGPT dirancang untuk menarik informasi dari berbagai sumber dan sudut pandang yang tersedia secara publik.
“Kami menerapkan filter keamanan untuk mengurangi risiko memunculkan tautan yang berkaitan dengan bahaya tingkat tinggi. ChatGPT juga secara jelas menunjukkan sumber mana yang menginformasikan sebuah respons melalui sitasi,” ujar pihak OpenAI.
OpenAI menegaskan bahwa perusahaan memiliki program berkelanjutan untuk menyaring sumber dengan kredibilitas rendah serta terus memperbaiki mekanisme mitigasi konten bias AI dalam sistem mereka.
Reaksi xAI dan Kontroversi Grokipedia
Sementara itu, pihak xAI sebagai pengembang Grokipedia memberikan respons singkat dengan menuding laporan media sebagai kebohongan. Tidak ada klarifikasi teknis lebih lanjut terkait kualitas atau mekanisme validasi konten Grokipedia.
Sebagai catatan, Grokipedia diluncurkan pada Oktober 2025 sebagai pesaing Wikipedia. Berbeda dari Wikipedia yang mengandalkan penyuntingan manusia dan verifikasi komunitas, Grokipedia sepenuhnya mengandalkan model AI untuk menghasilkan dan memperbarui kontennya.
Model ini sejak awal memicu perdebatan karena dinilai lebih rentan terhadap konten bias AI, kesalahan faktual, serta manipulasi narasi.
Tantangan Besar bagi Ekosistem AI
Kasus ini menyoroti tantangan fundamental dalam pengembangan AI generatif, yakni bagaimana memastikan kualitas dan kredibilitas sumber informasi. Ketika model AI mulai saling mengutip satu sama lain, risiko “lingkaran bias” menjadi semakin nyata.
Bagi industri AI, fenomena ini menjadi pengingat bahwa transparansi sumber, audit independen, dan literasi pengguna menjadi kunci untuk menekan dampak konten bias AI di ruang publik.
Ke depan, tekanan terhadap perusahaan AI untuk memperketat kurasi sumber diperkirakan akan meningkat, seiring makin luasnya penggunaan chatbot dalam pendidikan, bisnis, dan pengambilan kebijakan.








