n
n
Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.
n
nnn
Pada 9 Mac 2026, dunia teknologi digegar dengan berita yang belum pernah berlaku sebelum ini — syarikat AI Anthropic memfailkan saman terhadap Jabatan Pertahanan Amerika Syarikat (DOD) di mahkamah persekutuan San Francisco. Ini bukan sekadar pertikaian perniagaan biasa. Ini adalah pertempuran terus di antara nilai etika AI dengan kuasa ketenteraan terbesar di dunia.
📖 Baca juga: Anthropic Saman Kerajaan AS — Kenapa Syarikat AI Menentang Pentagon?
n
📖 Baca juga: Anthropic Saman Pentagon: Syarikat AI Menentang Tentera AS
nn
📖 Baca juga: Pekerja OpenAI & Google Bela Anthropic: Industri AI Bersatu Lawan Pentagon
nnn[FACT-CHECKED] — Butiran kes ini disahkan melalui laporan TechCrunch bertarikh 9 Mac 2026 dan Reuters AI.nn
DOD telah melabel Anthropic — syarikat di sebalik model AI Claude — sebagai "supply chain risk". Label ini, yang lazimnya hanya digunakan untuk syarikat yang dikaitkan dengan musuh asing macam China atau Rusia, kini dikenakan kepada sebuah syarikat AI Amerika Syarikat yang diasaskan di San Francisco. Kesannya langsung: semua kontraktor Pentagon kini diwajibkan mengesahkan bahawa mereka tidak menggunakan mana-mana model Anthropic dalam operasi mereka.
nn
Soalannya mudah — kenapa Pentagon bertindak sedemikian, dan apa yang Anthropic buat sehingga ditarik ke mahkamah?
nnnn
Latar Belakang: Siapa Anthropic dan Apa Itu Claude?
nn
Anthropic diasaskan pada 2021 oleh Dario Amodei dan Daniela Amodei, bersama beberapa bekas pekerja OpenAI yang keluar atas kebimbangan keselamatan AI. Syarikat ini membina Claude — siri model bahasa besar (LLM) yang dibangunkan dengan falsafah "AI selamat dan boleh dipercayai" sebagai teras utama.
nn
Berbeza dengan pesaing macam OpenAI atau Google, Anthropic meletakkan keselamatan AI bukan sebagai ciri tambahan, tetapi sebagai identiti jenama. Mereka menerbitkan penyelidikan keselamatan AI secara terbuka, memperkenalkan kerangka "Constitutional AI" (AI Berperlembagaan) yang mengajar model untuk berkelakuan mengikut prinsip etika, dan secara konsisten menolak penggunaan yang dianggap berbahaya.
nn
Claude kini digunakan oleh berjuta-juta pengguna seluruh dunia — dari pelajar yang mahu bantu buat tugasan, profesional yang cari pembantu kerja, hingga syarikat Fortune 500 yang benamkan Claude ke dalam produk mereka.
nn
Untuk rekod, Claude 3.7 Sonnet — versi terbaru pada awal 2026 — adalah antara model paling berkuasa yang tersedia untuk umum, dengan keupayaan penaakulan lanjutan dan konteks panjang sehingga 200,000 token.
nn
Pentagon Mahu Apa Daripada AI?
nn
Untuk faham konflik ini, kita perlu faham apa yang Pentagon mahukan.
nn
Sejak beberapa tahun lalu, Jabatan Pertahanan AS telah agresif mencari cara untuk benamkan AI ke dalam operasi ketenteraan. Ini merangkumi:
nnnn
- n
- Sistem pengawasan automatik — AI yang boleh pantau percakapan, aktiviti media sosial, dan pergerakan individu dalam skala besar
- Senjata autonomi — dron dan sistem senjata yang boleh membuat keputusan untuk menyerang tanpa kawalan manusia secara langsung
- Analitik perisikan — model AI yang memproses data sulit untuk tentukan ancaman
n
n
nn
n
Setiausaha Pertahanan Pete Hegseth, dalam kenyataan awam selepas kes ini meletup, berhujah bahawa Pentagon memerlukan akses kepada "AI terbaik yang ada untuk sebarang tujuan yang sah." Bagi beliau, tidak ada "kawasan larangan" apabila melibatkan keselamatan negara.
nn
Di sinilah masalah bermula.
nn
Kenapa DOD Label Anthropic Sebagai "Supply Chain Risk"?
nn
Punca konflik ini bukan tentang teknologi — ia tentang syarat penggunaan.
nn
Anthropic menolak dua permintaan utama Pentagon:
nn
1. Surveillance Besar-Besaran Rakyat Amerika
nn
Anthropic enggan benarkan Claude digunakan untuk program pengawasan massa ke atas warganegara Amerika. Syarikat ini berhujah bahawa penggunaan sedemikian melanggar hak perlembagaan, dan mereka tidak sanggup jadi alat kepada kerajaan untuk memata-matai rakyat sendiri tanpa kawalan demokratik yang wajar.
nn
2. Senjata Autonomi Penuh Tanpa Kawalan Manusia
nn
Ini adalah isu yang lebih besar dari perspektif etika AI global. Anthropic menolak keras penggunaan Claude sebagai enjin keputusan dalam sistem senjata yang boleh bunuh tanpa kelulusan manusia (apa yang pakar kenali sebagai "lethal autonomous weapons systems" atau LAWS).
nn
Pendirian Anthropic: manusia mesti kekal dalam rantaian keputusan apabila nyawa manusia dipertaruhkan.
nn
Pentagon mentafsirkan penolakan ini bukan sebagai keputusan etika, tetapi sebagai risiko ke atas rantaian bekalan teknologi — dakwaan bahawa bergantung kepada vendor yang boleh enggan berikan akses penuh adalah satu kelemahan operasi yang berbahaya. Justeru, label "supply chain risk" diberikan.
nn
Ini adalah penggunaan label yang sangat tidak biasa. Sebelum ini, label tersebut digunakan terhadap syarikat macam Huawei (China) atau entiti yang disyaki mempunyai hubungan dengan kerajaan asing yang bermusuhan. Menggunakannya terhadap syarikat Amerika sendiri adalah preseden yang mengejutkan ramai penganalisis.
nn
Pendirian Anthropic: Perlembagaan Melindungi Ucapan Bebas Syarikat
nn
Dalam kenyataan rasmi yang disertakan bersama saman, Anthropic berkata:
nn
> *"The Constitution does not allow the government to wield its enormous power to punish a company for its protected speech."*
nn
Ini adalah dakwaan yang berani. Anthropic berhujah bahawa syarat penggunaan Claude — termasuk larangan penggunaan untuk tujuan berbahaya — adalah bentuk ucapan yang dilindungi oleh Pindaan Pertama Perlembagaan Amerika. Tindakan Pentagon melabel mereka sebagai "supply chain risk" semata-mata kerana polisi penggunaan ini adalah, menurut Anthropic, hukuman kerajaan terhadap ucapan yang sah.
nn
Jika mahkamah bersetuju, ini boleh jadi preseden penting bukan sahaja untuk Anthropic, tetapi untuk semua syarikat teknologi yang mahu kekalkan polisi etika penggunaan mereka tanpa takut dihukum kerajaan.
nnnn
Impak Segera: Apa Yang Berlaku Sekarang?
nn
Kontraktor Pentagon Kena Sijilkan Tidak Guna Claude
nn
Ini adalah impak paling langsung dan paling ketara. Setiap syarikat yang ada kontrak dengan Pentagon kini perlu menanda tangani sijil yang mengesahkan mereka tidak menggunakan mana-mana model Anthropic dalam kerja mereka.
nn
Bagi ratusan syarikat teknologi pertahanan yang mungkin sudah benamkan Claude ke dalam aliran kerja dalaman mereka — ini adalah masalah besar. Mereka terpaksa pilih: buat kerja untuk Pentagon, atau teruskan guna Claude.
nn
Exec OpenAI Letak Jawatan Sebagai Protes
nn
Dalam perkembangan yang menarik, kes Anthropic ini datang seiring dengan drama dalaman di OpenAI. Caitlin Kalinowski, Ketua Perkakasan OpenAI yang bertanggungjawab atas pembangunan cip AI syarikat itu, mengumumkan peletakan jawatannya sebagai bentuk protes terhadap perjanjian OpenAI-Pentagon.
nn
Ini menunjukkan bahawa isu etika penggunaan AI dalam konteks ketenteraan bukan sekadar masalah Anthropic — ia adalah ketegangan yang merebak di seluruh industri AI.
nn
Garis Masa: Bagaimana Ini Semua Bermula
nn| Tarikh | Peristiwa |n|--------|-----------|n| 2021 | Anthropic diasaskan, menerbitkan prinsip "AI selamat" sebagai teras operasi |n| 2023-2024 | Pentagon mula agresif cari vendor AI untuk kontrak pertahanan |n| Awal 2025 | OpenAI tandatangan perjanjian kerjasama dengan DOD — Anthropic enggan |n| 2025 (pertengahan) | DOD minta Anthropic benarkan penggunaan Claude untuk surveillance dan senjata autonomi |n| 2025 (akhir) | Anthropic tolak secara formal, rundingan gagal |n| Awal 2026 | DOD label Anthropic sebagai "supply chain risk", keluarkan arahan kepada kontraktor |n| 9 Mac 2026 | Anthropic fail saman di mahkamah persekutuan San Francisco |n| 9 Mac 2026 | Caitlin Kalinowski (OpenAI) letak jawatan sebagai protes |nn
Analisis: Pertempuran Etika AI Pertama Di Mahkamah
nn
Kes ini jauh lebih besar daripada sekadar pertikaian kontrak. Ia mungkin menjadi kes mahkamah yang mendefinisikan sempadan etika AI untuk dekad akan datang.
nn
Tiga Soalan Besar Yang Mahkamah Perlu Jawab
nnPertama: Adakah polisi penggunaan syarikat swasta dilindungi sebagai ucapan bebas? Ini bukan soal mudah. Mahkamah perlu tentukan sama ada syarat penggunaan adalah "ucapan" dalam konteks perlembagaan.nnKedua: Adakah kerajaan boleh menggunakan kuasa pelesenan dan kontrak untuk memaksa syarikat swasta ubah dasar etika mereka? Ini berkaitan dengan prinsip "unconstitutional conditions" dalam undang-undang perlembagaan AS.nnKetiga: Apa definisi "supply chain risk" yang sah? Adakah mempunyai polisi etika penggunaan yang ketat boleh dikira sebagai risiko keselamatan?nn
Implikasi Jika Anthropic Menang
nn
Jika mahkamah pihak kepada Anthropic, ini bermakna syarikat teknologi mempunyai hak untuk tetapkan syarat etika penggunaan produk mereka tanpa boleh dihukum kerajaan. Ini akan menguatkan kedudukan syarikat AI yang mahu kekalkan garis merah moral dalam era di mana tekanan untuk "buka semua akses" semakin kuat.
nn
Implikasi Jika Pentagon Menang
nn
Sebaliknya, kemenangan Pentagon bermakna kerajaan boleh menggunakan kuasa kontrak dan label keselamatan untuk memaksa syarikat ubah dasar etika mereka — atau hadapi pengasingan daripada pasaran kerajaan yang bernilai berbilion dolar. Ini akan menjadi preseden yang sangat berbahaya bagi autonomi syarikat teknologi.
nn
Implikasi Untuk Malaysia: Apa Yang Perlu Kita Fikirkan?
nn
Sebagai negara yang sedang aktif membangunkan ekosistem AI nasional, Malaysia tidak boleh abaikan perkembangan ini.
nn
Syarikat Malaysia Yang Guna Claude
nn
Ramai syarikat tempatan — dari startup fintech di Cyberjaya hingga firma konsultansi besar — sudah benamkan Claude ke dalam sistem mereka melalui API Anthropic. Jika kes ini berlarutan dan mempengaruhi ketersediaan Claude secara global, ada risiko gangguan perkhidmatan yang perlu diuruskan.
nn
Namun buat masa ini, kes ini hanya mempengaruhi kontraktor Pentagon — bukan pengguna awam atau perniagaan di luar AS. Syarikat Malaysia yang guna Claude untuk tujuan komersial biasa tidak terjejas secara langsung.
nn
Untuk Agensi Kerajaan Malaysia
nn
Ini adalah peringatan yang tepat pada masanya. Malaysia sedang membangunkan Dasar AI Nasional dan beberapa agensi kerajaan sedang menilai penggunaan AI dalam perkhidmatan awam.
nnPelajaran utama: Apabila memilih vendor AI untuk kegunaan kerajaan, Malaysia perlu:nn
1. Nilai polisi etika vendor — bukan sekadar keupayaan teknikal. Vendor yang mempunyai garis merah yang jelas tentang penggunaan berbahaya sebenarnya adalah kelebihan, bukan kelemahan.
nn
2. Elak ketergantungan tunggal — kes ini menunjukkan risiko bergantung sepenuhnya kepada satu vendor AI. Strategi kepelbagaian (multi-vendor) adalah lebih bijak.
nn
3. Bentuk dasar penggunaan AI awam yang jelas — Malaysia perlu ada jawapan yang jelas kepada soalan: apakah kegunaan AI yang kita benarkan dalam konteks keselamatan negara, dan di mana garis merahnya?
nn
Peluang Untuk Malaysia Jadi Pemimpin Etika AI ASEAN
nn
Ironinya, konflik AS ini membuka ruang untuk Malaysia. Dalam persaingan untuk tarik syarikat teknologi global masuk ke ASEAN, Malaysia boleh posisikan diri sebagai hab AI yang menghormati etika — tempat di mana syarikat boleh beroperasi dengan kepastian bahawa garis etika mereka akan dihormati, bukan dipaksa ubah.
nn
MDEC dan MOSTI boleh gunakan momentum ini untuk bangunkan kerangka etika AI Malaysia yang komprehensif, yang boleh jadi rujukan ASEAN.
nn
FAQ: Soalan Lazim Tentang Kes Anthropic vs Pentagon
nn
Soalan 1: Adakah Claude masih boleh digunakan di Malaysia?
nn
Ya, sepenuhnya. Kes ini hanya mempengaruhi kontraktor yang ada kontrak dengan Jabatan Pertahanan AS. Pengguna awam, perniagaan, dan agensi kerajaan di luar AS — termasuk Malaysia — tidak terjejas. Anda masih boleh guna Claude melalui claude.ai atau API Anthropic tanpa sebarang masalah.
nn
Soalan 2: Kenapa Anthropic tidak sekadar ikut kehendak Pentagon?
nn
Sebab itu akan bertentangan dengan identiti teras Anthropic sebagai syarikat AI yang dibangunkan atas prinsip keselamatan. Mengizinkan surveillance massa atau senjata bunuh autonomi akan menjadi pengkhianatan kepada mission yang membuatkan pelabur, pekerja, dan pelanggan pilih Anthropic berbanding pesaing. Dari perspektif perniagaan jangka panjang, mempertahankan nilai ini adalah lebih bernilai daripada kontrak Pentagon.
nn
Soalan 3: Apakah perbezaan antara "supply chain risk" biasa dan label yang Pentagon beri kepada Anthropic?
nn
Label "supply chain risk" biasanya digunakan untuk entiti yang disyaki mempunyai kaitan dengan kuasa asing bermusuhan, di mana risiko perisikan atau sabotaj wujud. Mengenakan label yang sama kepada syarikat Amerika yang sekadar mempunyai polisi etika penggunaan yang ketat adalah — menurut kebanyakan pakar undang-undang — perbandingan yang tidak setara dan berpotensi tidak sah dari segi perlembagaan.
nn
Soalan 4: Apa yang OpenAI buat berbeza daripada Anthropic dalam kes ini?
nn
OpenAI memilih untuk tandatangan perjanjian kerjasama dengan Pentagon, membenarkan penggunaan modelnya untuk tujuan ketenteraan dengan pengawasan yang lebih longgar. Ini mencetuskan protes dalaman, termasuk peletakan jawatan Caitlin Kalinowski, Ketua Perkakasan OpenAI. Ini menunjukkan perbezaan pendekatan yang ketara antara dua gergasi AI ini terhadap isu etika ketenteraan.
nn
Soalan 5: Berapa lama kes mahkamah ini akan ambil masa?
nn
Kes di mahkamah persekutuan AS biasanya mengambil masa satu hingga tiga tahun sebelum keputusan muktamad. Namun Anthropic mungkin memohon injunksi sementara untuk hentikan perlaksanaan arahan Pentagon sambil menunggu keputusan penuh. Kita mungkin akan lihat perkembangan awal dalam masa beberapa bulan.
nn
Kesimpulan: Era Baru Etika AI Telah Bermula
nn
Kes Anthropic lawan Pentagon bukan sekadar berita teknologi — ia adalah detik bersejarah dalam perjalanan manusia menentukan sempadan penggunaan AI.
nn
Untuk pertama kalinya dalam sejarah, sebuah syarikat AI secara terbuka menentang kuasa kerajaan di mahkamah atas isu nilai etika, bukan sekadar wang atau kontrak. Anthropic memilih untuk kekalkan integriti misi mereka walaupun tahu itu bermakna kehilangan pasaran kerajaan yang bernilai berbilion dolar dan menanggung label "ancaman keselamatan" yang boleh rosakkan reputasi mereka.
nn
Sama ada tindakan ini bijak dari sudut perniagaan atau tidak, ia menghantar mesej yang jelas kepada seluruh industri AI: ada syarikat yang sanggup bayar harga untuk pertahankan nilai mereka.
nn
Untuk Malaysia dan negara-negara lain yang sedang membina ekosistem AI masing-masing, ini adalah pelajaran penting. Teknologi AI yang paling berkuasa bukan semestinya yang terbaik — teknologi yang boleh dipercayai, yang ada batas etika yang jelas, dan yang tidak boleh dijadikan senjata terhadap rakyat sendiri, itulah yang lebih bernilai dalam jangka panjang.
nn
Mahkamah San Francisco kini memegang di tangannya keputusan yang akan bentuk masa depan AI global. Dunia sedang menonton.
nn
🔤 Rekomendasi: Grammarly
n
Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.
n
n
n
n
Rujukan
n
n
Artikel Berkaitan
n
- n
- Anthropic Tolak Kontrak Pentagon — OpenAI Rebut Peluang
- Ketua Robotik OpenAI Letak Jawatan Bantah Perjanjian Pentagon
- Cara Guna Claude AI: Pembantu AI Anthropic
- DeepSeek R1 vs GPT-4o vs Claude 3.7 Mac 2026
- 5 Model AI Baharu Keluar Dalam 1 Minggu — Siapa Menang Mac 2026?
- 10 AI Terbaik Malaysia 2026
n
n
n
n
n
nn
![Anthropic Saman Pentagon: Syarikat AI Lawan Larangan Kerajaan AS [2026]](https://caraai.my/wp-content/uploads/2026/03/caraai-featured-anthropic-saman-pentagon-ai-blacklist-2026.png)