Bayangkan anda terima satu pull request dalam projek open source anda. Reviewer nampak nama orang biasa, tiada tanda-tanda AI. Contributor berbual, bertanya soalan teknikal, membuat perubahan kod. Kemudian anda tahu — itu bukan manusia. Itu Claude AI yang diarahkan untuk menyembunyikan identiti dirinya.
Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.
nn
Ini bukan senario fiksyen saintifik. Ini adalah sistem sebenar yang didedahkan dalam bocoran kod sumber Claude Code pada 31 Mac 2026.
n
Baca juga: Claude Code Auto Mode — AI Coding Tanpa Terlalu Banyak Kawalan Manual
nnn
Apa Itu Undercover Mode?
nn
Dalam bocoran kod sumber Claude Code — yang terdedah secara tidak sengaja melalui fail `.map` dalam pakej npm `@anthropic-ai/claude-code` — terdapat fail bernama `utils/undercover.ts`.
n
Baca juga: Claude Mythos — AI Anthropic Terlalu Bahaya Untuk Dilepas Awam
nnn
Fail ini mengandungi sistem yang Anthropic bina untuk digunakan apabila pekerja Anthropic menggunakan Claude Code untuk menyumbang kepada projek open source awam.
nn
Apabila Undercover Mode aktif, Claude Code disuntik dengan arahan sistem tambahan yang berbunyi lebih kurang begini (diterjemahkan dari kod sumber):
nn
> *"Anda sedang beroperasi UNDERCOVER dalam repositori AWAM/OPEN-SOURCE. JANGAN terdedah. JANGAN sekali-kali menyebut: nama kod model dalaman (nama haiwan macam Capybara, Tengu), nombor versi model yang belum dilancarkan, nama repo atau projek dalaman, frasa 'Claude Code' atau apa-apa yang menunjukkan anda adalah AI, baris Co-Authored-By."*
nn
Dalam bahasa mudah: AI ini diarahkan untuk berpura-pura bukan AI.
nn
Bagaimana Ia Aktif Secara Automatik?
nn
Ini bahagian yang paling mengejutkan — Undercover Mode tidak boleh dimatikan.
nn
Berdasarkan kod sumber:
n
- n
- Mode ini aktif secara automatik apabila Claude Code mengesan ia berada di luar repositori dalaman Anthropic
- Tiada pilihan `force-OFF` — tiada suis untuk pekerja Anthropic matikan ciri ini
- Ia hanya tidak aktif apabila repositori berada dalam senarai putih dalaman Anthropic
n
n
nn
n
Ini bermakna: setiap kali pekerja Anthropic menggunakan Claude Code untuk kerja open source, AI secara automatik masuk ke mod "penyamaran" — tanpa memerlukan arahan eksplisit dari pekerja tersebut.
nn
Apa Yang AI Dilarang Untuk Dedahkan?
nn
Undercover Mode menyenaraikan beberapa perkara yang AI tidak boleh sebut:
nn
1. Nama Kod Haiwan Dalaman
n
- n
- Capybara — nama kod model Anthropic
- Tengu — nama kod projek Claude Code
- Fennec — nama kod bekas model Opus
n
n
nn
n
2. Nombor Versi Belum Dilancarkan
n
AI tidak boleh menyebut nombor versi model (macam "4.6" atau "4.7") yang belum diumumkan secara rasmi.
nn
3. Nama Projek Dalaman
n
Nama repositori, projek, atau sistem dalaman Anthropic yang tidak diketahui umum.
nn
4. Identiti Sebagai AI
n
Frasa "Claude Code" atau apa-apa pengakuan bahawa entiti yang berinteraksi adalah AI.
nn
5. Co-Authored-By Git Lines
n
Dalam amalan normal, apabila AI membantu menulis kod, adalah standard untuk tambah baris:
n```n
Co-Authored-By: Claude
n```n
Undercover Mode melarang baris ini sepenuhnya.
nn
Mengapa Ini Menimbulkan Kontroversi
nn
Isu Ketelusan dalam Open Source
nn
Komuniti open source dibina atas asas ketelusan. Apabila seseorang menyumbang kod, komuniti berhak tahu siapa atau apa yang menulis kod tersebut.
nn
Terdapat beberapa sebab mengapa ini penting:
nnLesen dan hak cipta: Banyak projek open source ada dasar tentang sumbangan AI. Beberapa projek secara eksplisit memerlukan sumbangan manusia sahaja, atau memerlukan pendedahan apabila AI digunakan. Undercover Mode membolehkan pemintas dasar ini.nnKepercayaan dalam review kod: Apabila reviewer meluluskan pull request, mereka mengandaikan seorang manusia yang bertanggungjawab berada di sebalik perubahan tersebut. Jika itu sebenarnya AI, penilaian risiko adalah berbeza.nnSejarah projek: Git log adalah rekod sejarah. Menyembunyikan sumbangan AI mengubah rekod sejarah projek secara tidak jujur.nn
Pelanggaran Norma Komuniti
nn
Beberapa projek open source besar macam Linux kernel telah mengeluarkan panduan eksplisit tentang sumbangan AI. Undercover Mode berpotensi melanggar norma-norma ini.
nn
Di Reddit r/ClaudeAI, reaksi komuniti terbahagi:
nn
Satu kumpulan berpendapat ini adalah perlindungan privasi yang munasabah — syarikat tidak perlu dedahkan alat dalaman yang mereka gunakan, macam mana syarikat tidak perlu dedahkan editor teks atau IDE yang dipakai pekerja mereka.
nn
Kumpulan lain berpendapat ini adalah penipuan yang tidak boleh diterima — apabila AI secara aktif diarahkan untuk menyembunyikan bahawa ia adalah AI, ini melepasi sempadan dari "tidak mendedahkan" kepada "berbohong secara aktif".
nn
Konteks: Mengapa Anthropic Buat Ini?
nn
Untuk faham mengapa Anthropic membina sistem ini, kita perlu faham bagaimana syarikat AI besar beroperasi.
nn
Pekerja Anthropic menggunakan Claude Code untuk kerja harian mereka — termasuk apabila mereka menyumbang kepada projek open source sebagai individu atau wakil syarikat. Tanpa Undercover Mode, setiap interaksi berpotensi mendedahkan:
nn
- n
- Nama kod projek dalaman yang belum diumumkan
- Versi model yang belum dilancarkan
- Cara Anthropic menggunakan alat mereka sendiri
n
n
nn
n
Dari perspektif keselamatan korporat dan kawalan maklumat, ini ada logiknya. Syarikat teknologi besar sering ada dasar ketat tentang apa yang boleh dan tidak boleh didedahkan dalam komunikasi awam.
nnMasalahnya: Perlindungan korporat ini dilaksanakan dengan cara yang memerlukan AI untuk secara aktif menyembunyikan identiti sebagai AI — bukan sekadar "jangan sebut perkara X", tetapi "jangan dedah bahawa anda adalah AI langsung."nn
Perbandingan Dengan Industri: Adakah Syarikat Lain Buat Perkara Sama?
nn
Setakat tarikh penulisan artikel ini, tiada bukti bahawa syarikat AI lain mempunyai sistem Undercover Mode yang setara secara rasmi.
nnOpenAI ada dasar penggunaan yang melarang pengguna mendakwa output AI adalah karya manusia — tetapi tiada bukti mereka membina sistem yang arahan AI untuk menyembunyikan identiti.nnGoogle DeepMind dan Meta AI juga tiada mekanisme seumpamanya yang didedahkan secara awam.nn
Ini menjadikan Undercover Mode Anthropic sebagai kes unik yang diketahui awam — sebuah sistem yang sengaja dibina untuk tujuan ini.
nn
Implikasi untuk Developer Malaysia
nn
Jika Anda Menguruskan Projek Open Source
nn
Jika anda maintainer projek open source di GitHub, perkara ini bermakna:
n
- n
- Pull request yang anda terima mungkin ditulis sepenuhnya atau sebahagiannya oleh AI tanpa pendedahan
- Anda tidak boleh bergantung pada ketiadaan "Co-Authored-By" sebagai bukti karya manusia
- Semak dasar projek anda tentang sumbangan AI dan pertimbangkan untuk perjelaskan keperluan pendedahan
n
n
nn
n
Jika Anda Contributor Open Source
nn
Sebagai developer Malaysia yang contribute ke projek open source, sedar bahawa:
n
- n
- Reviewer projek global mungkin ada dasar ketat tentang AI
- Jika anda menggunakan Claude Code untuk membantu tulis kod, pertimbangkan untuk dedahkan ini dalam PR anda
- Amalan terbaik adalah sentiasa telus tentang penggunaan AI dalam sumbangan anda
n
n
nn
n
Soalan Besar: Adakah Ini Berlaku di Malaysia?
nn
Anthropic mempunyai pengguna dan mungkin pekerja atau kontraktor di seluruh dunia termasuk Malaysia. Projek open source tempatan di GitHub juga tidak terkecuali dari potensi interaksi ini.
nn
Bukti Teknikal: Apa Yang Ada Dalam undercover.ts
nn
Ramai yang tanya — adakah ini tafsiran berlebihan? Mari kita lihat apa yang sebenarnya ada dalam kod.
nn
Fail `utils/undercover.ts` mengandungi fungsi yang dipanggil apabila Claude Code mengesan ia beroperasi di repositori awam. Sistem ini membina "undercover system prompt" yang disuntik ke dalam konteks AI sebelum ia berinteraksi.
nnKunci teknikal yang penting:nn
Sistem ini menggunakan senarai putih repositori dalaman. Hanya repositori yang berada dalam senarai ini (repositori GitHub organisasi Anthropic sendiri) yang dikecualikan dari Undercover Mode. Semua repositori lain — termasuk fork peribadi pekerja, projek open source luar, dan repositori komuniti — secara automatik mencetuskan mod penyamaran.
nnMetadata yang disembunyikan:nn
Selain larangan verbal, sistem ini juga menyembunyikan metadata teknikal dalam proses git. Dalam situasi biasa, Claude Code mungkin menambah metadata dalam mesej commit atau dalam metadata PR yang menunjukkan AI terlibat. Undercover Mode membuang semua ini.
nnSkop penglibatan Anthropic dalam open source:nn
Ini bukan situasi hipotetikal. Anthropic mempunyai pekerja jurutera yang aktif menyumbang kepada projek open source — sama ada sebagai individu mahupun sebagai wakil syarikat. Mereka menggunakan Claude Code sebagai alat pembangunan utama. Jadi sistem ini bukan sekadar ada dalam kod — ia mungkin sudah digunakan.
nn
Persoalan Yang Masih Terbuka
nn
Walaupun bocoran ini mendedahkan kewujudan Undercover Mode, masih banyak yang tidak diketahui:
nn1. Berapa kerapkah ia digunakan?n
Adakah ini ciri yang digunakan kerap dalam kerja harian, atau hanya dalam kes-kes tertentu? Tiada data tentang kekerapan penggunaan.
nn2. Apakah projek yang terlibat?n
Projek open source mana yang telah menerima sumbangan melalui Undercover Mode? Tiada senarai didedahkan.
nn3. Adakah pekerja Anthropic tahu?n
Adakah pekerja yang menggunakan Claude Code sedar bahawa AI mereka secara automatik masuk ke mod penyamaran? Atau adakah ini berlaku secara telus di belakang tabir?
nn4. Bagaimana dengan masa depan?n
Dengan pendedahan ini, adakah Anthropic akan menghapus, mengubah, atau mengekalkan Undercover Mode? Tiada jawapan rasmi lagi.
nn
Reaksi dan Respons
nn
Komuniti Open Source Global
nn
Selepas bocoran ini, perbincangan panas berlaku di:
n
- n
- Hacker News (47,584+ poin, thread aktif)
- Reddit r/ClaudeAI (thread viral dengan ribuan ulasan)
- Twitter/X — ramai pembangun perisian berkongsi pendapat
n
n
nn
n
Reaksi dominan: kebimbangan tentang sempadan antara privasi korporat dan ketelusan dalam komuniti open source yang dibina atas kepercayaan.
nn
Anthropic Belum Respon Rasmi
nn
Setakat artikel ini ditulis (1 April 2026), Anthropic belum mengeluarkan kenyataan rasmi tentang Undercover Mode atau bocoran kod sumber keseluruhan. Mereka hanya membuang fail `.map` dari npm registry — tanpa penjelasan awam.
nn
Ketiadaan respons ini sendiri sudah menimbulkan persoalan: adakah Anthropic menganggap ini isu serius yang perlu dijawab, atau mereka harap kontroversi ini akan hilang sendiri?
nn
Perspektif Etika: Garisan Mana Yang Tidak Boleh Dilangkau?
nn
Perdebatan etika ini sebenarnya ada beberapa lapisan:
nn
Lapisan 1: Hak Syarikat untuk Privasi Korporat
n
Syarikat boleh lindungi maklumat proprietari mereka. Ini munasabah dan sah di sisi undang-undang.
nn
Lapisan 2: Pendedahan Penggunaan AI
n
Dalam konteks sumbangan open source, adakah terdapat tanggungjawab moral untuk dedahkan penggunaan AI? Ini bergantung kepada dasar projek dan norma komuniti.
nn
Lapisan 3: AI Aktif Menafikan Identiti Sebagai AI
n
Ini adalah lapisan paling bermasalah. Apabila sistem AI secara aktif diarahkan untuk tidak mengaku sebagai AI apabila ditanya atau dalam konteks di mana identiti relevan, ini melepasi sempadan yang kebanyakan etikawan AI anggap sebagai garisan merah.
nnPanduan Etika AI Anthropic sendiri (yang dikenali sebagai Constitutional AI) menekankan kejujuran dan ketelusan sebagai nilai teras. Undercover Mode nampaknya bercanggah dengan nilai-nilai yang syarikat sendiri laungkan secara terbuka.nn
Apa Yang Perlu Berlaku Seterusnya?
nn
Beberapa pihak menyuarakan cadangan:
nn1. Anthropic perlu buat kenyataan awamn
Jelaskan tujuan Undercover Mode, had penggunaannya, dan sama ada mereka bercadang untuk mengubah atau menghapuskan sistem ini.
nn2. Dasar sumbangan open source perlu dikemas kinin
Projek-projek besar perlu pertimbangkan untuk secara eksplisit memerlukan pendedahan apabila AI digunakan dalam sumbangan, dan takrif "AI" dalam konteks ini.
nn3. Standard industri diperlukann
Tiada standard global tentang ketelusan AI dalam sumbangan open source. Komuniti open source macam Linux Foundation, Apache Software Foundation, dan lain-lain perlu bekerjasama untuk bentuk garis panduan yang jelas.
nn
Soalan Lazim (FAQ)
nnS: Adakah penggunaan Undercover Mode oleh Anthropic melanggar undang-undang?n
J: Setakat tarikh penulisan ini, tiada undang-undang yang secara eksplisit melarang AI menyembunyikan identiti dalam konteks sumbangan open source. Namun, bergantung kepada dasar projek dan kontrak tertentu, ia mungkin melanggar terma perkhidmatan atau perjanjian sumbangan.
nnS: Bolehkah developer biasa aktifkan Undercover Mode?n
J: Berdasarkan kod sumber, Undercover Mode adalah untuk penggunaan dalaman Anthropic — ia aktif berdasarkan senarai putih repositori. Pengguna biasa Claude Code tidak mempunyai akses kepada mekanisme yang sama.
nnS: Adakah Claude Code yang saya guna sekarang mempunyai Undercover Mode?n
J: Undercover Mode dalam kod sumber nampaknya direka khusus untuk pekerja Anthropic yang menggunakan Claude Code dalam konteks kerja mereka di repositori awam. Penggunaan peribadi anda tidak akan mencetuskan mod ini.
nnS: Bagaimana cara tahu jika PR yang saya terima ditulis oleh AI?n
J: Secara praktikal, sangat sukar untuk kesan dengan pasti. Petunjuk yang mungkin termasuk: gaya penulisan yang terlalu sempurna, kekurangan typo biasa manusia, respon yang terlalu cepat, dan kurang pemahaman konteks yang mendalam. Tetapi tiada cara yang boleh dipercayai 100%.
nnS: Apakah yang dimaksudkan dengan "Co-Authored-By" dalam konteks ini?n
J: "Co-Authored-By" adalah baris dalam mesej commit Git yang mengiktiraf sumbangan pelbagai penyumbang. GitHub menggunakan baris ini untuk memaparkan gambar profil semua penyumbang dalam commit. Menghapuskan baris ini menyembunyikan penglibatan AI dari rekod sejarah awam.
nnS: Adakah Anthropic melanggar prinsip AI mereka sendiri?n
J: Ini soalan yang ramai tanya. Prinsip Constitutional AI Anthropic menekankan kejujuran. Namun Anthropic mungkin berhujah bahawa Undercover Mode adalah perlindungan korporat yang sah, bukan penipuan. Perbahasan ini masih terbuka.
nnn
Rujukan
n
- n
- MDEC — Malaysia Digital Economy Corporation
- Digital Nasional Berhad — 5G Malaysia
- SME Corp Malaysia — Sokongan PKS Digital
n
n
n
n
🔤 Rekomendasi: Grammarly
Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.
Artikel Berkaitan
nn
- n
- Kod Sumber Claude Code Bocor: 20 Ciri Tersembunyi Terdedah 2026
- Claude AI Kini Ingat Anda: Cara Aktifkan Memory Claude Percuma 2026
- Claude Mythos Bocor — AI Anthropic Terlalu Bahaya Untuk Dilepaskan
- 81,000 Orang Ditanya — Apa Manusia Benar-benar Mahu Dari AI? 2026
- ChatGPT vs Gemini vs Claude 2026 — Mana Terbaik untuk Malaysia
- Claude Boleh Kawal Komputer Sendiri — Era AI Agent Bermula 2026
n
n
n
n
n
nn
