nn
Drama terbesar dalam dunia AI tahun 2026 bukan tentang model baru atau teknologi canggih — tapi tentang pilihan moral yang membezakan syarikat AI daripada satu sama lain. Pada hujung Februari 2026, Anthropic membuat keputusan mengejutkan: menolak kontrak kerajaan AS bernilai lebih RM900 juta demi mempertahankan prinsip keselamatan AI mereka. OpenAI pula tidak lepaskan peluang emas ini.
n
n
Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.
n
📖 Baca juga: AI dalam Perolehan dan Kontrak Malaysia: e-Perolehan, MyProcurement dan Tender AI
nn
nnn
Inilah cerita penuh tentang pertembungan antara wang, kuasa tentera, dan masa depan AI yang selamat.
nn
Apa Yang Berlaku — Ringkasan Drama Pentagon
nn
Pada 27-28 Februari 2026, dua peristiwa besar berlaku dalam masa yang singkat:
nnPertama: Pentadbiran Trump haramkan Anthropic daripada semua agensi persekutuan AS dengan alasan "Supply-Chain Risk to National Security" — ancaman risiko rantaian bekalan kepada keselamatan negara. Ini bukan larangan biasa. Ini bermaksud semua kontrak Anthropic dengan kerajaan AS tergugat.nnKedua: Pete Hegseth, Setiausaha Pertahanan AS, mengancam akan batalkan kontrak RM900 juta yang dimiliki Anthropic kecuali syarikat itu sanggup buang semua AI safety guardrails — sistem perlindungan yang menghalang AI daripada digunakan untuk tujuan berbahaya.nn
Anthropic berkata tidak. Dan OpenAI terus melangkah masuk.
nn
Bagi ramai orang di luar industri AI, kisah ini mungkin kedengaran teknikal. Tapi implikasinya besar — bukan sahaja untuk Amerika Syarikat, malah untuk seluruh dunia termasuk Malaysia.
nn
Siapa Anthropic dan Mengapa Mereka Penting?
nn
Sebelum kita masuk lebih dalam, anda perlu faham siapa Anthropic.
nn
Anthropic diasaskan pada 2021 oleh Dario Amodei dan Daniela Amodei — dua beradik yang sebelum ini bekerja di OpenAI. Mereka keluar kerana tidak berpuas hati dengan pendekatan OpenAI terhadap keselamatan AI. Matlamat mereka satu: bina AI yang selamat.
nn
Model AI utama mereka ialah Claude — pesaing langsung kepada ChatGPT daripada OpenAI. Claude dikenali sebagai model AI yang lebih "berhati-hati" berbanding model lain. Anthropic menggunakan kaedah yang dipanggil Constitutional AI — AI yang diajar untuk menolak arahan berbahaya berdasarkan prinsip etika yang jelas.
nn
Kini, prinsip itulah yang menjadi punca perbalahan dengan Pentagon.
nn
Kalau anda ingin tahu lebih lanjut tentang perbandingan model AI terkini, baca artikel kami: Perang AI 2026: Claude vs GPT vs DeepSeek — Siapa Menang?
nn
Kenapa Pentagon Haramkan Anthropic?
nn
Alasan rasmi kerajaan AS ialah "Supply-Chain Risk to National Security." Tapi apa maksudnya dalam bahasa mudah?
nn
Pentadbiran Trump mendakwa bahawa Anthropic menjadi risiko kepada keselamatan negara kerana syarikat ini menerima pelaburan daripada pihak-pihak yang dianggap tidak selamat dari perspektif kerajaan AS. Salah satu punca ialah pelaburan daripada Google dan syarikat-syarikat lain yang mempunyai kaitan antarabangsa yang kompleks.
nn
Namun, ramai penganalisis industri percaya alasan sebenar adalah lebih mudah: Anthropic tidak mahu ikut cakap Pentagon.
nn
Kerajaan Trump sedang agresif mendorong penggunaan AI dalam operasi tentera. Mereka mahu AI yang boleh digunakan dalam situasi peperangan tanpa sekatan yang dianggap "menghalang operasi." Safety guardrails Anthropic — sistem yang menghalang AI daripada memberikan maklumat berbahaya atau membantu dalam tindakan yang melibatkan kemudaratan manusia — dilihat sebagai halangan.
nn
Dalam konteks tentera, guardrails ini bermakna:
nn
- n
- AI tidak akan membantu merancang serangan yang boleh membunuh orang awam
- AI tidak akan memberikan maklumat senjata yang melanggar undang-undang antarabangsa
- AI akan menolak arahan yang bertentangan dengan prinsip kemanusiaan
n
n
n
nn
Bagi Pentagon, ini terlalu banyak sekatan. Mereka mahu AI yang lebih "fleksibel."
nn
Tuntutan Pete Hegseth — Buang Safety Guardrails
nn
Pete Hegseth bukan calang-calang orang dalam pentadbiran Trump. Sebagai Setiausaha Pertahanan, dia mengawal bajet pertahanan AS yang paling besar di dunia.
nn
Tuntutan beliau kepada Anthropic sangat spesifik: buang AI safety guardrails yang ada pada Claude sebelum boleh teruskan kontrak dengan Pentagon.
nn
Apa itu safety guardrails dalam konteks ini?
nn
- n
- Sistem penolakan arahan berbahaya — Claude boleh menolak untuk membantu jika arahan itu boleh menyebabkan kemudaratan fizikal kepada manusia
- Penilaian konteks — Claude menilai sama ada permintaan berpotensi berbahaya sebelum memberi jawapan
- Transparansi had — Claude memberitahu pengguna bila ia tidak boleh membantu dan kenapa
- Perlindungan maklumat sensitif — Claude mengelak dari berkongsi maklumat yang boleh digunakan untuk membahayakan orang ramai
n
n
n
n
nn
Bagi Hegseth, ciri-ciri ini menjadikan AI "lemah" dan tidak berguna untuk operasi tentera yang memerlukan kelajuan dan ketepatan tanpa soal.
nn
Bagi Anthropic, ini adalah inti pati kewujudan mereka.
nn
Kenapa Anthropic Tolak — Prinsip Keselamatan AI
nn
Keputusan Anthropic untuk menolak tuntutan Pentagon bukan dibuat atas dasar emosi atau sekadar PR semata-mata. Ia adalah keputusan perniagaan dan etika yang sudah lama dipersiapkan.
nn
Dalam kenyataan rasmi mereka, Anthropic menegaskan bahawa:
nn
"Kami tidak akan menjejaskan prinsip keselamatan AI kami untuk sebarang kontrak, tidak kira nilai atau pihak yang terlibat. AI yang selamat bukan pilihan — ia adalah prasyarat."
nn
Ini bukan retorik kosong. Anthropic telah melabur ratusan juta dolar dalam penyelidikan keselamatan AI. Mereka percaya bahawa AI tanpa guardrails ibarat senjata nuklear tanpa kawalan — berkuasa, tapi terlalu berbahaya untuk digunakan sesuka hati.
nn
Anda boleh baca sendiri prinsip keselamatan Anthropic di laman rasmi mereka: https://www.anthropic.com/safety
nn
Apa Yang Hilang Jika Guardrails Dibuang?
nn
Bayangkan AI tentera tanpa had. Dalam senario peperangan:
nn
- n
- AI boleh membantu merancang serangan yang membunuh orang awam
- AI boleh memberikan maklumat teknikal untuk senjata kimia atau biologi
- AI boleh digunakan untuk kempen disinformasi berskala besar
- AI boleh menjadi alat pengawasan yang melanggar hak asasi manusia
n
n
n
n
nn
Anthropic percaya sekali guardrails ini dibuang untuk Pentagon, tiada jaminan teknologi yang sama tidak akan jatuh ke tangan yang lebih berbahaya — sama ada melalui penggodam, kecurian data, atau penyalahgunaan dalaman.
nn
Risiko ini terlalu besar untuk diabaikan, walaupun harga yang perlu dibayar ialah RM900 juta.
nn
OpenAI Rebut Peluang — Implikasi Besar
nn
Sementara Anthropic berpegang pada prinsip, OpenAI melangkah ke hadapan.
nn
OpenAI telah lama mempunyai program kerajaan yang lebih aktif. Portal rasmi mereka untuk perkhidmatan kerajaan — https://openai.com/government — menunjukkan komitmen mereka terhadap sektor awam dan pertahanan.
nn
Dalam masa yang singkat selepas Anthropic keluar, OpenAI memeterai perjanjian dengan Pentagon untuk menggantikan Anthropic sebagai penyedia AI utama kepada Jabatan Pertahanan AS.
nn
Ini bukan kejutan kepada ramai penganalisis. OpenAI di bawah kepimpinan Sam Altman telah menunjukkan kesediaan yang lebih besar untuk bekerja dengan kerajaan dan tentera. Pada 2024, mereka telah mengubah dasar penggunaan mereka untuk membenarkan penggunaan dalam konteks tentera tertentu — satu langkah yang mendapat kritikan daripada pakar keselamatan AI.
nn
Apa Yang Dibawa OpenAI ke Meja?
nn
Menurut laporan dari Reuters, perjanjian OpenAI dengan Pentagon merangkumi:
nn
- n
- Akses kepada model GPT-4 dan versi yang disesuaikan untuk kegunaan tentera
- Integrasi dengan sistem perisikan dan analitik pertahanan
- Pembangunan alat AI untuk pembuatan keputusan pantas dalam situasi kritikal
- Sokongan teknikal berterusan untuk operasi ketenteraan
n
n
n
n
nn
Yang paling penting: OpenAI bersetuju untuk menyesuaikan had-had tertentu dalam model mereka untuk keperluan tentera yang spesifik. Ini bermakna guardrails yang Anthropic enggan buang, OpenAI sanggup "laraskan."
nn
Perspektif Pakar — Debat AI untuk Tentera
nn
Komuniti AI global terpecah tentang isu ini.
nnPihak yang menyokong Anthropic:nn
Ramai penyelidik keselamatan AI percaya Anthropic telah membuat keputusan yang betul. Stuart Russell, profesor AI di UC Berkeley, pernah berkata bahawa "AI yang digunakan untuk peperangan tanpa kawalan etika adalah ancaman kepada tamadun manusia, bukan hanya kepada musuh."
nn
Max Tegmark dari Future of Life Institute berpendapat bahawa membenarkan AI tentera tanpa guardrails mewujudkan preseden berbahaya yang akan diikuti oleh negara-negara lain, termasuk kuasa besar yang mungkin tidak berkongsi nilai demokrasi AS.
nnPihak yang menyokong OpenAI:nn
Di pihak lain, ada argumen yang juga munasabah. General (Bersara) James Mattis pernah berhujah bahawa "AI yang terlalu terikat dengan sekatan etika mungkin tidak berguna dalam situasi peperangan yang sebenar, di mana nyawa bergantung kepada kelajuan keputusan."
nn
Pakar strategi pertahanan berpendapat bahawa jika tentera AS tidak gunakan AI terbaik yang ada, musuh mereka akan. China dan Rusia tidak mempunyai sekatan yang sama terhadap AI tentera mereka.
nn
Perdebatan ini tiada jawapan mudah. Tapi ia menyentuh soalan paling asas dalam era AI: Siapa yang kawal AI, dan untuk tujuan apa?
nn
Untuk memahami lebih lanjut tentang apa itu AI agent dan cara kerjanya, baca: Apa Itu AI Agent? Panduan Lengkap 2026
nn
Apa Maknanya untuk Pengguna Malaysia?
nn
Mungkin anda tertanya-tanya: kisah ini berlaku di Amerika Syarikat. Apa kaitannya dengan kita di Malaysia?
nn
Jawapannya: lebih banyak daripada yang anda sangka.
nn
1. Masa Depan Claude di Malaysia
nn
Ramai pengguna Malaysia sudah menggunakan Claude untuk kerja harian — menulis, analisis, coding, dan sebagainya. Keputusan Anthropic ini menunjukkan bahawa syarikat yang membangunkan Claude serius tentang keselamatan AI mereka.
nn
Ini bermakna apabila anda menggunakan Claude, anda menggunakan AI yang dibangunkan oleh syarikat yang sanggup korbankan RM900 juta demi prinsip keselamatan. Itu tahap komitmen yang luar biasa.
nn
Pelajari lebih lanjut tentang apa yang dijangka untuk Claude di Malaysia: Claude 3.7 Sonnet Malaysia: Bila Datang dan Apa Yang Dijangka?
nn
2. Soal Siapa Yang Kawal AI
nn
Kes Pentagon ini mendedahkan satu hakikat penting: syarikat AI mempunyai kuasa untuk mempengaruhi dasar keselamatan global.
nn
Untuk Malaysia, ini bermakna:
n
- n
- AI yang kita gunakan dalam perkhidmatan awam, pendidikan, dan perniagaan mempunyai nilai dan prinsip yang tertanam dalam kod mereka
- Pemilihan platform AI bukan sekadar soal fungsi — ia adalah soal nilai dan kepercayaan
- Kita perlu tahu siapa yang kawal AI yang kita gunakan dan apa prinsip yang mereka pegang
n
n
n
nn
3. Peluang Perniagaan dalam Ekosistem AI yang Selamat
nn
Bagi usahawan Malaysia, kes ini juga membuka peluang. Perniagaan yang membina produk menggunakan Claude dan Anthropic sedang bergantung kepada platform yang mempunyai rekod jelas dalam keselamatan AI.
nn
Ini boleh menjadi kelebihan kompetitif dalam pasaran yang semakin sedar tentang etika AI. Baca lebih lanjut: Cara Buat Duit dengan AI di Malaysia 2026
nn
4. Preseden untuk Regulasi AI di Asia Tenggara
nn
Malaysia sedang dalam proses membangunkan kerangka regulasi AI sendiri. Kes Anthropic vs Pentagon memberikan contoh konkrit tentang bagaimana syarikat AI boleh dan perlu berpegang pada prinsip walaupun di bawah tekanan komersial yang besar.
nn
Ini boleh menjadi panduan bagi MDEC, NACSA, dan badan regulasi lain dalam Malaysia untuk menetapkan standard yang sesuai.
nn
Perbandingan Pendekatan: Anthropic vs OpenAI
nn
| Aspek | Anthropic | OpenAI |
n
|-------|-----------|--------|
n
| Pendekatan Keselamatan | Safety-first, guardrails ketat | Fleksibel, boleh disesuaikan |
n
| Kontrak Tentera | Menolak | Menerima |
n
| Fokus Utama | Keselamatan jangka panjang | Pertumbuhan dan penggunaan meluas |
n
| Model Utama | Claude | ChatGPT / GPT-4o |
n
| Pemegang Saham Besar | Google, Amazon | Microsoft |
n
| Nilai Syarikat | ~$60 bilion | ~$300 bilion |
nn
Perbezaan ini bukan sekadar strategi perniagaan — ia mencerminkan visi yang berbeza tentang apa yang AI patut jadi.
nn
Apa Yang Akan Berlaku Seterusnya?
nn
Situasi ini masih berkembang. Beberapa kemungkinan yang perlu diperhatikan:
nnAnthropic: Mungkin akan kehilangan lebih banyak kontrak kerajaan AS dalam jangka pendek. Namun, ini boleh memperkukuhkan jenama mereka dalam kalangan pengguna korporat dan akademik yang mengutamakan keselamatan AI. Mereka juga mungkin mencari pasaran di luar AS — termasuk Eropah dan Asia Tenggara.nnOpenAI: Mendapat kontrak besar tapi menanggung risiko reputasi. Sekiranya terjadi insiden berkaitan penggunaan AI tentera mereka, kesannya kepada kepercayaan pengguna boleh menjadi sangat besar.nnTentera AS: Mendapat akses kepada AI yang lebih "fleksibel" tapi menanggung risiko etika dan undang-undang antarabangsa yang belum jelas.nnIndustri AI secara keseluruhan: Kes ini akan menjadi ujian penting — sama ada syarikat AI lain akan ikut jejak Anthropic dalam mempertahankan prinsip, atau akan ikut jejak OpenAI dalam mengutamakan pertumbuhan.nn
FAQ — Soalan Lazim
nnBerapa nilai sebenar kontrak yang ditolak Anthropic?n
Kontrak asal bernilai kira-kira $200 juta USD, yang bersamaan lebih RM900 juta pada kadar pertukaran semasa. Ini adalah nilai satu kontrak sahaja — potensi kontrak masa depan dengan kerajaan AS adalah jauh lebih besar.
nnAdakah Claude masih boleh digunakan di Malaysia?n
Ya, sepenuhnya. Keputusan Anthropic ini hanya mempengaruhi kontrak dengan kerajaan persekutuan AS. Pengguna biasa, perniagaan, dan institusi di seluruh dunia termasuk Malaysia boleh terus menggunakan Claude tanpa sebarang perubahan.
nnApakah "AI safety guardrails" sebenarnya?n
Guardrails adalah sistem kawalan terbina dalam model AI yang menghalang AI daripada membantu dalam aktiviti berbahaya — macam memberikan panduan untuk membuat senjata, membantu dalam penipuan, atau menghasilkan kandungan yang membahayakan kanak-kanak. Ia macam pagar keselamatan dalam sistem peralatan.
nnKenapa OpenAI tidak mempunyai masalah yang sama dengan Pentagon?n
OpenAI telah mengubah dasar penggunaan mereka sejak 2024 untuk membenarkan sesetengah penggunaan tentera. Mereka juga lebih bersedia untuk "menyesuaikan" model mereka bagi keperluan khusus — sesuatu yang Anthropic enggan lakukan kerana ia bertentangan dengan pendekatan keselamatan fundamental mereka.
nnAdakah ini bermakna ChatGPT lebih berbahaya daripada Claude?n
Tidak semestinya "berbahaya" — tapi ia bermakna OpenAI dan Anthropic mempunyai pendekatan berbeza terhadap had penggunaan AI. Untuk kebanyakan pengguna biasa, perbezaan ini tidak ketara. Perbezaan menjadi signifikan dalam konteks penggunaan tentera dan keselamatan negara.
nnBolehkah kerajaan Malaysia menggunakan Claude?n
Ya, keputusan AS tidak mempengaruhi kerajaan negara lain. Malaysia dan kerajaan-kerajaan Asia Tenggara lain boleh terus menggunakan Claude dan perkhidmatan Anthropic. Malah, dengan keputusan ini, Anthropic mungkin lebih aktif mencari kerjasama di luar AS.
nnApakah impak kepada harga saham Anthropic?n
Anthropic adalah syarikat swasta — mereka tidak tersenarai di bursa saham. Namun, penganalisis industri menjangkakan penilaian mereka mungkin terjejas dalam jangka pendek kerana kehilangan kontrak kerajaan AS yang besar.
nn
Kesimpulan — Drama Yang Belum Tamat
nn
Kisah Anthropic vs Pentagon bukan sekadar berita teknologi. Ia adalah cerminan daripada soalan paling besar yang dihadapi tamadun manusia dalam era AI: Untuk apa AI patut digunakan, dan siapa yang berhak menentukan hadnya?
nn
Anthropic telah membuat pilihan yang berani — memilih prinsip di atas wang. Ini mungkin merugikan mereka dalam jangka pendek. Tapi dalam jangka panjang, kepercayaan adalah aset yang paling berharga dalam industri AI.
nn
OpenAI pula memilih jalan yang berbeza — pertumbuhan di atas had. Ini memberi mereka kontrak besar hari ini. Sama ada keputusan ini bijak atau tidak, hanya masa yang akan tentukan.
nn
Yang pasti: pilihan yang dibuat syarikat AI hari ini akan membentuk dunia kita esok. Dan sebagai pengguna, kita perlu sedar tentang pilihan ini dan apa yang ia bermakna.
nn
Dunia AI sedang berubah dengan cepat. Teruskan baca CaraAI untuk berita dan analisis terkini tentang perkembangan AI yang memberi impak kepada kehidupan kita di Malaysia.
nnnn
🔤 Rekomendasi: Grammarly
n
Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.
n
n
n
n
Rujukan
n
n
Artikel Berkaitan
nn
