nnBerita Besar Hari Ini (25 Februari 2026): Anthropic, syarikat di sebalik Claude AI, baru sahaja buang komitmen utama dalam dasar keselamatan AI mereka yang paling penting. Ini adalah berita terbesar dalam industri AI minggu ini — dan hampir tiada liputan dalam Bahasa Malaysia lagi.nn
Kalau anda pengguna Claude di Malaysia, artikel ini penting untuk anda baca.
n
n
Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.
n
nnn
---
nnnn
Apa Yang Berlaku Hari Ini?
nn
Majalah TIME menerbitkan laporan eksklusif pada 25 Februari 2026 yang mendedahkan bahawa Anthropic telah membuang komitmen teras dalam "Responsible Scaling Policy" (RSP) mereka — dasar keselamatan AI paling terkenal yang pernah digubal oleh mana-mana syarikat AI besar.
nn
Bloomberg turut melaporkan dengan tajuk yang sangat jelas: "Anthropic Loosens Safety Rules to Keep Pace in AI Race".
nn
Ini bukan sekadar perubahan teknikal dalaman. Ini adalah perubahan falsafah dan budaya dalam syarikat yang selama ini dikenali sebagai "syarikat AI yang paling selamat dan bertanggungjawab" di dunia.
nn
Untuk faham kenapa ini besar, kita perlu tahu dulu apa itu RSP.
nn
---
nn
Apa Itu "Responsible Scaling Policy" Anthropic?
nn
"Responsible Scaling Policy" (RSP) adalah dokumen yang diperkenalkan Anthropic pada 2023 sebagai janji awam kepada dunia — komitmen bahawa mereka tidak akan membangunkan model AI yang lebih berkuasa melainkan mereka boleh membuktikan model itu selamat terlebih dahulu.
nn
Bayangkan RSP macam ini: sebelum Anthropic boleh "lepaskan" model AI baru yang lebih hebat ke pasaran, mereka mesti lulus satu set ujian keselamatan yang ketat. Kalau gagal ujian, projek kena berhenti dulu.
nn
Ini adalah perkara yang membezakan Anthropic daripada syarikat AI lain. Pengasas Anthropic — Dario Amodei dan Daniela Amodei — meninggalkan OpenAI pada 2021 kerana bimbang tentang keselamatan AI. RSP adalah manifestasi fizikal dari kerisauan tersebut.
nn
Kenapa RSP Penting Untuk Pengguna Biasa?
nn
Sebagai pengguna Claude, RSP adalah jaminan bahawa:
nnnn
- n
- Model yang anda guna telah melalui ujian keselamatan yang ketat sebelum dibenarkan berinteraksi dengan awam
- Ada had jelas tentang apa yang Claude boleh dan tidak boleh lakukan — bukan sembarangan
- Anthropic berkomitmen untuk berhenti jika ada risiko — walaupun ia bermakna kerugian perniagaan
n
n
n
nn
RSP menjadi sebab ramai pengguna dan syarikat — termasuk di Malaysia — percaya kepada Claude lebih dari model AI lain.
nn
---
nn
Apa Yang Dibuang Dan Dilonggarkan?
nn
Berdasarkan laporan TIME dan Bloomberg, perubahan utama yang dibuat Anthropic adalah:
nn
1. Buang Komitmen "Pause" Automatik
nn
Sebelum ini, RSP mempunyai satu komitmen yang sangat spesifik: jika model baru Anthropic mencapai tahap keupayaan tertentu yang dianggap berbahaya, syarikat wajib berhenti dan tidak boleh teruskan pembangunan sehingga langkah keselamatan yang mencukupi ditemui.
nn
Ini dipanggil "ASL threshold" (Anthropic Safety Level). Komitmen ini kini dilonggarkan.
nn
2. Fleksibiliti Lebih Dalam Penilaian Risiko
nn
Daripada penilaian keselamatan yang tegar dan berstruktur, Anthropic kini memberi diri mereka ruang yang lebih luas untuk menilai "risiko yang boleh diterima" — bermakna keputusan boleh lebih bersifat subjektif dan bergantung pada situasi semasa.
nn
3. Penghapusan Bahasa Komitmen Tertentu
nn
TIME melaporkan bahawa bahasa spesifik yang menjanjikan tindakan tertentu jika ambang risiko dicapai telah dikeluarkan dari dokumen RSP terbaru mereka.
nn
---
nn
Kenapa Anthropic Buat Keputusan Ini?
nn
Jawapan pendek: tekanan persaingan yang semakin sengit.
nn
Perang AI Semakin Ganas
nn
Dalam 12 bulan terakhir, landskap AI berubah dramatik:
nnnn
- n
- OpenAI melancarkan GPT-4o dengan keupayaan agentic yang menggerunkan
- Google menolak Gemini 2.0 Ultra ke seluruh produk mereka
- xAI (Elon Musk) melancarkan Grok 3 dengan pelabur yang semakin ramai
- Model sumber terbuka macam DeepSeek menunjukkan bahawa negara lain — terutama China — tidak ikut peraturan keselamatan yang sama
n
n
n
n
nn
Dalam persekitaran ini, RSP yang ketat menjadi penghalang persaingan. Setiap kali Anthropic perlu berhenti untuk ujian keselamatan, pesaing mereka terus berlari ke hadapan.
nn
"Safety vs. Capability" — Dilema Klasik AI
nn
Anthropic menghadapi dilema yang kompleks:
nnKalau mereka kekal ketat dengan RSP: Model mereka mungkin ketinggalan dalam prestasi. Pengguna dan pelabur akan berpindah ke OpenAI atau Google. Anthropic mungkin kehilangan pendapatan yang diperlukan untuk terus membuat penyelidikan keselamatan. Ironinya, syarikat yang paling prihatin tentang keselamatan AI mungkin tidak lagi relevan untuk membentuk industri ini.nnKalau mereka longgarkan RSP: Mereka boleh bergerak lebih pantas. Tapi adakah ini kompromi prinsip asas mereka?nn
Anthropic rupanya memilih untuk longgarkan. Dan ini mengejutkan banyak pihak — termasuk beberapa penyelidik keselamatan AI yang pernah memuji RSP sebagai "standard emas" industri.
nn
Tekanan Pelabur
nn
Anthropic telah menerima pelaburan berbilion dolar dari Amazon dan Google. Pelabur-pelabur ini mengharapkan pulangan. Tekanan untuk grow lebih cepat dan menangkap lebih banyak pasaran adalah sangat nyata dalam boardroom Anthropic.
nn
---
nn
Apa Impaknya Kepada Pengguna Claude Di Malaysia?
nn
Untuk pengguna Claude biasa di Malaysia, impak langsung dalam jangka pendek adalah minima. Claude masih berfungsi macam biasa. Anda masih boleh guna Claude untuk kerja, belajar, dan kreativiti tanpa masalah.
nn
Tapi untuk gambaran lebih besar, ada beberapa perkara yang perlu anda tahu:
nn
1. Impak Jangka Pendek — Kemungkinan Positif
nn
Secara paradoks, melonggarkan RSP mungkin bermakna model Claude akan datang lebih hebat dan datang lebih cepat. Kalau Anthropic boleh bergerak lebih laju dalam pembangunan, kita mungkin nampak Claude 4 atau model seterusnya dengan keupayaan yang lebih mengejutkan — dan lebih awal dari yang dijangka.
nn
Untuk pengguna Malaysia yang bergantung kepada Claude untuk kerja dan bisnes, ini boleh jadi berita baik dari segi keupayaan.
nn
2. Impak Jangka Panjang — Tanda Tanya
nn
Persoalan yang lebih besar adalah: siapa yang kawal keselamatan AI sekarang?
nn
Kalau syarikat yang paling komited kepada keselamatan pun terpaksa longgarkan standard mereka, ia memberi isyarat bahawa tekanan pasaran mengatasi prinsip keselamatan. Ini adalah preseden yang membimbangkan untuk industri secara keseluruhan.
nn
3. Kepercayaan Dan Reputasi
nn
Bagi banyak syarikat dan organisasi di Malaysia yang memilih Claude khususnya kerana reputasi keselamatannya, berita ini mungkin memaksa mereka untuk semak semula keputusan tersebut. Peguam, doktor, dan profesional yang guna Claude untuk kerja sensitif mungkin mahu bertanya semula: "Seberapa selamat sebenarnya?"
nn
---
nn
Pandangan Pakar — Adakah Ini Berbahaya?
nn
Reaksi dari komuniti keselamatan AI adalah bercampur-campur.
nn
Yang Kritikal
nn
Beberapa penyelidik keselamatan AI berpendapat ini adalah "petanda buruk" — bukti bahawa persaingan komersial akhirnya akan menang dalam setiap syarikat AI, tidak kira betapa kuatnya komitmen awal mereka.
nn
Stuart Russell, profesor AI di UC Berkeley yang menulis buku "Human Compatible," pernah berkata bahawa "race dynamics" dalam AI adalah antara ancaman paling serius — dan berita ini macam mengesahkan kebimbangannya.
nn
Yang Memahami
nn
Ada juga pihak yang memahami keputusan Anthropic. Mereka berpendapat RSP yang terlalu ketat sebenarnya tidak praktikal dalam persekitaran persaingan semasa, dan yang penting adalah Anthropic kekal dalam permainan untuk mempengaruhi arah industri dari dalam — berbanding hilang relevansi dan digantikan oleh syarikat yang langsung tidak peduli tentang keselamatan.
nn
Perspektif Tengah
nn
Kemungkinan besar kebenaran berada di tengah-tengah. Keputusan Anthropic mencerminkan realiti bahawa tidak ada syarikat tunggal yang boleh menanggung beban keselamatan AI secara bersendirian. Ini memerlukan kerjasama industri, regulasi kerajaan, dan standard antarabangsa — bukan hanya janji satu syarikat.
nn
Perbincangan tentang keselamatan AI dan apa maksudnya adalah lebih kritikal sekarang dari sebelumnya.
nn
---
nn
Apa Yang Pengguna Patut Buat Sekarang?
nn
Kalau anda pengguna Claude — atau sedang fikirkan untuk mulakan guna Claude — berikut panduan praktikal:
nn
1. Jangan Panik, Tapi Jangan Naif Juga
nn
Claude masih salah satu AI yang paling selamat dan paling berguna di pasaran. Perubahan RSP tidak bermakna Claude tiba-tiba jadi "bahaya." Ia masih ada guardrail yang banyak dan etika terbina dalam model.
nn
Tapi ini adalah peringatan bahawa anda tidak boleh sepenuhnya bergantung kepada syarikat AI untuk jaga kepentingan anda. Anda perlu bijak tentang apa yang anda kongsikan dan bagaimana anda guna AI.
nn
2. Amalkan "AI Hygiene" Yang Baik
nn
Tanpa mengira syarikat AI mana yang anda guna, amalan terbaik ini masih relevan:
nn
- n
- Jangan masukkan maklumat peribadi sensitif macam nombor IC, nombor akaun bank, atau kata laluan ke dalam mana-mana AI
- Semak semula output AI sebelum guna — jangan terus percaya bulat-bulat
- Simpan backup untuk kerja penting — jangan bergantung 100% kepada platform AI
- Baca terma perkhidmatan — terutama tentang bagaimana data anda digunakan
n
n
n
n
nn
Untuk panduan lebih lengkap, baca artikel kami tentang cara guna AI dengan selamat.
nn
3. Diversifikasi Alat AI Anda
nn
Ini adalah masa yang baik untuk tidak letak semua telur dalam satu bakul. Pertimbangkan untuk kenal pasti beberapa alat AI berbeza untuk keperluan berbeza, supaya anda tidak terlalu bergantung pada satu platform sahaja.
nn
Artikel kami tentang perbandingan ChatGPT vs Claude boleh bantu anda faham kelebihan dan kekurangan setiap platform.
nn
4. Ikuti Perkembangan
nn
Industri AI berubah dengan sangat pantas sekarang. Langgani sumber berita AI yang anda percayai — termasuk CaraAI.my — untuk kekal maklum tentang perubahan dasar, keupayaan baru, dan risiko yang muncul.
nn
---
nn
Kesimpulan — Pandangan Editorial CaraAI
nn
Berita ini membawa perasaan yang kompleks.
nn
Di satu pihak, Anthropic adalah antara syarikat yang paling kami hormati dalam industri AI. Mereka telah lakukan lebih banyak kajian awam tentang keselamatan AI dari mana-mana syarikat lain. Pengasas mereka meninggalkan gaji besar di OpenAI kerana prinsip keselamatan. RSP bukan sekadar marketing — ia adalah ekspresi nilai teras mereka.
nn
Di pihak lain, keputusan ini menunjukkan bahawa tekanan persaingan boleh mengalahkan prinsip — walaupun dalam syarikat yang paling komited sekalipun. Dan kalau Anthropic boleh tergoyah, apa harapan kita untuk syarikat-syarikat lain yang tidak pernah pun berkomitmen sekuat ini?
nn
Ini adalah cermin untuk seluruh industri AI, dan juga untuk masyarakat secara keseluruhan. Kita tidak boleh lagi serahkan soal keselamatan AI sepenuhnya kepada budi bicara syarikat persendirian. Kita perlukan regulasi yang lebih jelas, standard antarabangsa yang dikuatkuasakan, dan kesedaran awam yang lebih tinggi — termasuk di Malaysia.
nn
Dalam pada itu, sebagai pengguna Claude di Malaysia, artikel ini bukan cadangan untuk berhenti guna Claude. Ia adalah peringatan untuk guna dengan bijak, berfikir secara kritis, dan sentiasa tanya soalan yang betul tentang teknologi yang anda percayai.
nn
Untuk mulakan atau teruskan perjalanan anda dengan Claude secara selamat dan berkesan, baca panduan kami tentang cara guna Claude AI dan memahami AI untuk bisnes kecil di Malaysia.
nn
---
nn
🔤 Rekomendasi: Grammarly
n
Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.
n
n
n
n
Artikel Berkaitan
n
- n
- Cara Guna ChatGPT — Panduan Lengkap Malaysia
- Cara Guna Claude AI di Malaysia
- Cara Guna Google Gemini — Panduan Terkini
- Cara Guna ChatGPT Malaysia 2026 — Panduan Lengkap
- Cara Guna Gemini AI Malaysia 2026 — Panduan Lengkap
n
n
n
n
n
n
Rujukan
n
- n
- Kementerian Sumber Manusia Malaysia
- HRDF — Pembangunan Tenaga Kerja Malaysia
- SME Corp Malaysia — Pengurusan Modal Insan
n
n
n
n
Artikel Berkaitan
nn
- n
- Claude Opus 4.6 & Sonnet 4.6 — Model AI Terbaru Anthropic di Malaysia
- Cara Guna Claude AI Percuma di Malaysia
- AI Ethics di Malaysia — Apa Yang Anda Perlu Tahu
- ChatGPT vs Claude — Perbandingan Lengkap untuk Pengguna Malaysia
- Cara Guna Claude Anthropic — Panduan Lengkap
- Keselamatan AI — Apa Itu dan Kenapa Penting?
- Cara Guna AI Dengan Selamat — 10 Amalan Terbaik
- AI untuk Bisnes Kecil Malaysia — Panduan Praktikal 2026
n
n
n
n
n
n
n
n
![GLM-5 AI China: Pesaing ChatGPT Dari Zhipu Yang Wajib Anda Cuba [2026]](https://caraai.my/wp-content/uploads/2026/02/img_1326.jpg)