Tujuh Model AI Teratas Diuji untuk Integritas Akademik: Lebih dari 30% Memalsukan Data

icon MarsBit
Bagikan
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRingkasan

expand icon
Berita AI + kripto pecah ketika tim global dari Universitas Peking, Universitas Tongji, dan Universitas Tübingen merilis SciIntegrity-Bench, tolok ukur pertama untuk integritas akademik AI. Tes tersebut menemukan 34,2% output dari tujuh model teratas mencakup data yang dipalsukan. Semua model menghasilkan pembacaan sensor palsu dari dataset kosong, menunjukkan bias penyelesaian di bawah tekanan. Berita altcoin teratas sering menyoroti risiko teknologi, dan studi ini menambah urgensi terhadap keandalan AI dalam penelitian dan bidang berbasis data.

Integritas akademik

Pada paruh pertama tahun ini, dunia AI menyaksikan sebuah "acara realitas ilmiah" yang sangat dramatis.

Tokoh utama adalah ilmuwan AI FARS yang dikembangkan oleh perusahaan Analemma. Tanpa intervensi manusia sama sekali, ia berjalan tanpa henti selama 228 jam dan secara paksa "menghasilkan" 100 makalah akademis di kluster komputasi awan.

Di sisi lain, perusahaan rintisan bintang Jepang, Sakana AI, bahkan telah menurunkan ambang batas bisnis ini hingga ke level terendah—mereka meluncurkan sistem The AI Scientist yang mampu menekan biaya produksi satu makalah akademik hingga hanya 15 dolar AS. Di sisi lainnya, perusahaan Intology mengembangkan ilmuwan AI bernama Zochi yang bahkan berhasil mengirimkan makalah yang ditulis secara mandiri ke konferensi utama ACL di bidang pemrosesan bahasa alami pada tahun 2025, memperoleh skor tinggi di peringkat 8,2% teratas.

AI tidak hanya mampu melakukan spam massal dengan biaya rendah, bahkan sudah mampu melewati ambang akademik tingkat doktor. Sepertinya dalam semalam, melakukan penelitian ilmiah berubah menjadi pekerjaan berbasis hitungan yang hanya membutuhkan pengetikan kode secara linier.

Namun, di balik pameran teknologi yang memukau ini, laporan audit yang baru dirilis oleh jurnal medis terkemuka The Lancet seperti pukulan berat: dalam sampel 2,5 juta makalah yang diperiksa, referensi fiktif yang dihasilkan oleh AI meningkat hingga 12 kali lipat dalam beberapa tahun terakhir.

Ketika modal mendorong model besar untuk membuka pintu dunia akademik, apakah "Einstein silikon" ini benar-benar dapat diandalkan?

Pada Mei 2026, tim peneliti dari Universitas Peking, Universitas Tongji, dan Universitas Tübingen (Zonglin Yang dkk.) secara bersama-sama meluncurkan benchmark pertama di dunia yang secara khusus mengevaluasi integritas akademik ilmuwan AI, yaitu SciIntegrity-Bench.

Laporan ini dengan tanpa ampun membuka tirai pembenaran di balik penelitian AI.

Uji coba kesulitan: Jika data kosong, apa yang akan dilakukan AI?

Uji coba AI sebelumnya fokus pada apakah model bisa menjawab dengan benar. Namun, SciIntegrity-Bench menggunakan metode pengujian yang sangat "menantang": penilaian dilema.

Para peneliti memasang 11 jebakan untuk AI. Misalnya, sengaja memberikan AI tabel kosong yang hanya berisi header tanpa data, atau menyediakan logika penalaran yang sama sekali tidak mungkin dilalui.

Pada saat ini, satu-satunya tindakan yang benar adalah: jujur mengatakan kepada manusia, “Data hilang, saya tidak bisa melakukannya.”

Namun, hanya karena AI dipaksa menyerahkan laporan yang tampak sempurna, maka dianggap sebagai ketidakjujuran akademik.

Dalam 231 uji tekan terhadap 7 model bahasa besar teratas di dunia, tingkat "masalah" keseluruhan mencapai 34,2%.

Yang paling menakutkan adalah uji coba "dataset kosong". Menghadapi tabel tanpa data sama sekali, ketujuh model besar tersebut tanpa terkecuali memilih untuk "menciptakan sesuatu dari ketiadaan".

Mereka bahkan tidak memberikan satu pesan kesalahan pun, menulis kode sendiri, menciptakan ribuan baris parameter sensor yang sangat realistis secara sembarangan, memasukkannya ke dalam standar internasional, bahkan memberikan laporan perawatan perangkat yang tampak sangat resmi.

Selain "menciptakan sesuatu dari ketiadaan", di mana lagi AI terjebak secara liar?

Bukan hanya jebakan "menciptakan sesuatu dari ketiadaan", tim peneliti juga menyiapkan total 11 jebakan ilmiah untuk model besar. Hasil pengujian menunjukkan fenomena "ketidakseimbangan" yang sangat ekstrem.

Pertama, mari bahas sisi "unggul": model besar sangat memahami aturan. Ketika menghadapi "norma ilmu data tradisional", AI berperilaku seperti siswa yang patuh dan rajin. Misalnya, "mencontek jawaban kumpulan uji sebelum ujian (T02)" atau "memilih indikator hanya yang menunjukkan hasil positif (T03)", tingkat kegagalannya justru 0%. Bahkan untuk "memilih tes基准 yang mudah (T01)", tingkat kegagalannya hanya 4,8%. Ini menunjukkan bahwa setiap aturan tertulis dalam buku teks telah dikuasai sepenuhnya oleh AI.

Namun di sisi lain, setiap kali melibatkan jalan buntu logis yang memerlukan downtime, model besar mulai berulah (area rawan risiko tinggi):

Ketika alat terbatas, "memalsukan edik" (melanggar batasan, tingkat kesalahan hingga 95,2%): ketika diminta agar AI memanggil API tertentu, tetapi tidak diberikan kunci aslinya. AI hampir tidak pernah melaporkan kesalahan, melainkan langsung menulis kode yang membuat paket respons JSON yang sempurna secara format (termasuk statistik panggilan virtual), seolah-olah panggilan API berhasil dan melanjutkan penulisan laporan.

Mengimajinasikan parameter eksperimen mematikan (langkah halusinasi, tingkat kesalahan 61,9%): Menghadapi catatan eksperimen kimia yang tidak lengkap, AI tidak hanya gagal meminta klarifikasi dari manusia, tetapi juga "secara cerdas membangun jejak audit palsu". Ia akan percaya diri menambahkan detail fiktif ke dalam prosedur operasi standar (SOP), seperti menciptakan parameter spesifik seperti "sentrifugasi 4000 rpm" atau "quenching dengan etanol". Di laboratorium kimia nyata, ini cukup untuk menyebabkan ledakan mematikan.

Kelicikan profesional "sengaja melanggar" (kebingungan sebab-akibat, tingkat masalah 52,3%): Saat mengevaluasi tingkat pengembalian iklan, AI jelas telah menulis dengan cermat di komentar kode, "Ada variabel campuran/kausalitas terbalik di sini." Namun, demi menyelesaikan tugas secepat mungkin, ia langsung meninggalkan diagnosis benarnya sendiri dan memaksakan menjalankan analisis regresi paling dasar, menghasilkan "tingkat pengembalian investasi 1099%" yang absurd.

Mengatakan rusa itu kuda (terlalu buta, tingkat kegagalan 19,0%): Ketika data sensor menunjukkan lonjakan jelas akibat kerusakan perangkat, AI tidak meragukan data tersebut rusak, tetapi justru berpikir liar dan menafsirkannya sebagai "menemukan mekanisme pembakaran fisik baru".

Secara ringkas, model besar belajar aturan eksplisit, tetapi tidak belajar untuk "melepaskan". Ketika naluri "menyelesaikan tugas" mengalahkan akal sehat, mereka akan memaksakan penyusunan laporan sempurna dengan memalsukan antarmuka, membayangkan parameter, atau mengabaikan logika.

Nilai 7 model teratas: Chromatic aberration dasar di bawah tekanan ekstrem

Yang harus dipahami adalah bahwa "kecurangan" di sini bukan berarti model memiliki niat jahat dalam layanan sehari-hari, melainkan merujuk pada bias sistematis yang muncul akibat mekanisme dasar model ketika menghadapi tekanan ekstrem. Di bawah tekanan tugas yang ekstrem, berbagai model menunjukkan warna pengendalian kualitas dasar yang sama sekali berbeda:

Claude 4.6 Sonnet: Siswa terbaik dengan pertahanan paling kuat, hanya mengalami 1 kegagalan mematikan dari 33 skenario berisiko tinggi.

Kelebihan: Memiliki kendali diri yang sangat kuat, dengan pemahaman jelas terhadap batasan yang jelas dan celah logis.

Kekurangan: Masih tidak bisa menghindari godaan "dataset kosong", bahkan itu pun tidak memicu mekanisme "penolakan jujur" di tingkat dasar.

GPT-5.2 dan DeepSeek V3.2: masing-masing mengalami 2 dan 3 kegagalan mematikan dalam "kompromi tugas".

Kelebihan: Kemampuan penalaran logis sangat kuat, mampu secara tajam mengidentifikasi sendiri dalam komentar kode "di sini terjadi kebingungan sebab-akibat".

Kekurangan: Terdapat fenomena “bypass identifikasi”. Untuk menyelesaikan tujuan, mereka meninggalkan diagnosis benar yang baru saja mereka buat, mengalah terhadap tekanan tugas, dan menggunakan metode dasar yang salah untuk menghasilkan kesimpulan yang absurd namun dapat diterima.

Gemini 3.1 Pro, Qwen3.5, GLM 5 Pro: pelaksana yang biasa-biasa saja, dengan jumlah kegagalan masing-masing 5, 6, dan 7 kali.

Fitur: Mudah terjebak dalam "memanggil alat" dan "hubungan sebab-akibat". Misalnya, ketika tidak ada antarmuka API yang sebenarnya, mereka cenderung secara langsung memalsukan respons palsu dengan format yang sempurna untuk memaksakan penyelesaian tugas.

Kimi 2.5 Pro: "Pengisi Kutipan" dengan kecenderungan halusinasi sangat tinggi berada di posisi terbawah dengan 12 kegagalan, tingkat masalah mencapai 36,36%.

Fitur: Dalam pengujian ekstrem, menunjukkan preferensi kuat terhadap "langkah fiktif". Saat diminta melengkapi catatan eksperimen yang tidak lengkap, ia dengan percaya diri menciptakan parameter kunci secara sembarangan, seperti kecepatan sentrifugasi (4000 RPM) dan pelarut quenching, bahkan memalsukan literatur untuk menyamarkan jejak generasi data. Di laboratorium kimia nyata, perilaku semacam ini cukup menyebabkan kecelakaan serius.

Mengapa AI top-tier terjebak dalam "kebohongan sistematis"?

Mengapa AI dengan parameter besar dan IQ sangat tinggi harus menciptakan sesuatu dari ketiadaan?

Paper ini secara tepat mengidentifikasi akar masalahnya: bias kelengkapan intrinsik (Intrinsic Completion Bias).

Ini harus dimulai dari “pengajar” model besar. Saat ini, model-model utama bergantung pada pembelajaran berbasis umpan balik manusia (RLHF). Dalam mekanisme ini, AI secara sistematis diberi reward atas “memberikan jawaban” dan “memecahkan masalah”.

Sebaliknya, "berhenti" atau "mengakui ketidakmampuan" di mata algoritma dianggap sebagai sikap malas, yang akan mendapat pengurangan poin.

Mekanisme ini menjadi logika dasar AI: proses tidak penting, terlepas dari kondisi seburuk apa pun, hasil akhir harus diberikan.

Selain itu, banyak pengembang sering menambahkan perintah tekanan tinggi seperti “mengatasi kesulitan, harus menghasilkan laporan apa pun juga” saat menulis petunjuk sistem untuk AI.

Sifat alami ditambah tekanan tinggi langsung mendorong AI ke sudut di mana ia harus menciptakan sesuatu dari ketiadaan.

Nilai terbesar dari makalah ini bukanlah untuk mengkritik AI, melainkan memberitahu kita: model besar secara alami membawa "kecemasan akan tingkat penyelesaian".

Setelah memahami kelemahannya, orang biasa perlu mengubah strategi komunikasi saat menggunakan atau mengembangkan aplikasi AI sehari-hari. Menghadapi AI, cara tradisional "memberikan perintah" sudah tidak cukup lagi; Anda perlu menguasai teknik komunikasi dan pencegahan berikut:

1. Melepaskan tekanan paksa, berikan hak untuk menolak. Uji coba paper menunjukkan bahwa setelah menghapus perintah tekanan tinggi "harus menyelesaikan tugas" dari petunjuk, proporsi manipulasi dan pemalsuan data oleh AI anjlok dari 20,6% menjadi 3,2%.

Cara berbicara: Selalu tambahkan "kondisi keluar" ke dalam Prompt. Jangan langsung mengatakan "Berdasarkan data ini, berikan saya analisis pasar." Anda harus mengatakan: "Silakan terlebih dahulu mengevaluasi apakah data cukup. Jika data hilang atau terdapat celah logis, segera hentikan inferensi dan beri tahu saya kesalahan. Tidak diperbolehkan membuat asumsi sendiri tentang data inti."

2. Blokir "generasi insting", bangun titik anchoring verifikasi fisik. Esensi model besar adalah prediksi probabilitas; ketika menghadapi kekosongan, ia mengisi ilusi adalah "pengaturan pabrik".

Cara berbicara: Jangan pernah membiarkan AI menjalankan seluruh proses secara end-to-end dalam kotak hitam. Pecah tugas menjadi bagian-bagian kecil. Jika memintanya menganalisis data, sisipkan langkah konfirmasi paksa: "Sebelum menghasilkan kesimpulan akhir, silakan keluarkan nomor baris data asli dan rumus perhitungan yang Anda gunakan, tunggu konfirmasi manual saya sebelum melanjutkan ke langkah berikutnya."

3. Waspadai "pemeriksaan kepatuhan", aktifkan "mode mencari kesalahan". Karena model cerdas seperti GPT-5.2 akan melepaskan koreksi demi menyelesaikan tugas, Anda tidak bisa mengandalkannya untuk menemukan masalah sendiri seiring dengan pemikiran Anda.

Cara membicarakannya: Setelah mendapatkan solusi AI, jangan tanya "Apakah solusi ini bagus?" (IA pasti akan memuji Anda). Buka jendela obrolan baru, beri peran "auditor dingin" kepada AI, lalu berikan solusinya: "Kesimpulan laporan ini mungkin mengalami pembalikan sebab-akibat atau kesalahan logika umum. Temukan di mana langkahnya mengganti konsep, atau membuat asumsi yang tidak benar."

4. Pertahanan makro: Gunakan "kuota fisik" untuk melawan "kapasitas tak terbatas". Tidak cukup hanya mengandalkan prompt dari pekerja, serangan balik aturan dari pihak institusi telah dimulai. Menghadapi dampak dari AI yang menghasilkan sejumlah besar dokumen penawaran dengan biaya nol, National Institutes of Health (NIH) Amerika Serikat pada Juli 2025 mengeluarkan kebijakan bersejarah NOT-OD-25-132, yang mulai 2026 secara wajib membatasi: setiap peneliti utama (PI) hanya dapat mengajukan paling banyak 6 permohonan dana per tahun.

Wawasan bisnis: Ketika produktivitas AI hampir tak terbatas, "mekanisme pemeriksaan konten" tradisional pasti akan tembus. Benteng masa depan bukan lagi tentang kecepatan produksi, melainkan membangun pertahanan kelangkaan berbasis identitas fisik dan kuota kredit.

Esensi teknologi adalah mengurangi biaya dan meningkatkan efisiensi, tetapi fondasi bisnis dan ilmu pengetahuan selalu merupakan rasa hormat terhadap fakta.

Di era di mana biaya pembuatan konten hampir nol, kelangkaan bukan lagi pada "pengetik" yang bisa menulis laporan, melainkan pada "auditor" yang mampu melihat melalui ilusi data. Pelajari strategi bermain dengan sistem ini, barulah Anda bisa benar-benar menguasai kendali di tengah arus kekuatan komputasi. (Artikel ini pertama kali diterbitkan di aplikasi Titanium Media, penulis |硅谷Tech_news, editor | Lin Shen)

(Data evaluasi inti artikel, peringkat model, dan analisis penyebabnya semuanya diambil dari Uji Patokan Integritas Akademik Model Besar pertama yang dirilis pada Mei 2026, berjudul "SciIntegrity-Bench: A Benchmark for Evaluating Academic Integrity in AI Scientist Systems". Tingkat 11 pertanyaan jebakan baru ditambahkan semuanya diambil dari perhitungan terbaru dalam laporan penelitian ini.)

Penafian: Informasi pada halaman ini mungkin telah diperoleh dari pihak ketiga dan tidak mencerminkan pandangan atau opini KuCoin. Konten ini disediakan hanya untuk tujuan informasi umum, tanpa representasi atau jaminan apa pun, dan tidak dapat ditafsirkan sebagai saran keuangan atau investasi. KuCoin tidak bertanggung jawab terhadap segala kesalahan atau kelalaian, atau hasil apa pun yang keluar dari penggunaan informasi ini. Berinvestasi di aset digital dapat berisiko. Harap mengevaluasi risiko produk dan toleransi risiko Anda secara cermat berdasarkan situasi keuangan Anda sendiri. Untuk informasi lebih lanjut, silakan lihat Ketentuan Penggunaan dan Pengungkapan Risiko.