Anthropic Longgarkan Dasar Keselamatan AI — Apa Ini Bermakna untuk Pengguna Claude?

⚠️ Pendedahan Afiliasi: Artikel ini mungkin mengandungi pautan afiliasi. Kami mungkin mendapat komisyen kecil jika anda membeli melalui pautan kami, tanpa kos tambahan kepada anda. Ini membantu kami terus menyediakan kandungan percuma berkualiti.
Anthropic Longgarkan Dasar Keselamatan AI — Apa Ini Bermakna untuk Pengguna Claude?

nn

Selama ini, kalau anda tanya sesiapa dalam industri AI — "siapa syarikat yang paling serius tentang keselamatan AI?" — jawapan hampir semua orang adalah sama: Anthropic.

n

n

Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.

n

nnn

Bukan OpenAI. Bukan Google. Bukan Meta.

n

📖 Baca juga: Anthropic Longgar Dasar Keselamatan AI — Impak kepada Pengguna Claude

nnn

Anthropic. Syarikat yang diasaskan oleh bekas pekerja OpenAI yang bimbang dengan arah perkembangan AI terlalu pantas. Syarikat yang menjadikan keselamatan sebagai teras identiti mereka, bukan sekadar slogan pemasaran. Syarikat yang melahirkan Claude — AI yang bukan sahaja bijak, tapi direka dengan garis panduan etika yang ketat.

nn

Tapi pada 24-25 Februari 2026, dua laporan besar mengubah pandangan ramai orang.

nn

TIME melaporkan secara eksklusif: "Anthropic Drops Flagship Safety Pledge."

nn

Bloomberg menyusul: "Anthropic Adds Caveat to AI Safety Policy in Race Against Rivals."

nn

Dua tajuk. Satu mesej yang sama: Anthropic — yang selama ini jadi simbol kehati-hatian dalam dunia AI — telah longgarkan dasar keselamatan mereka sendiri. Dan ia bukan kerana mereka rasa AI dah selamat. Ia kerana mereka rasa tertinggal dalam perlumbaan.

nn

Bagi pengguna Claude di Malaysia, ini adalah berita yang patut anda faham sepenuhnya.

nn

---

nnnn

Apa Itu Responsible Scaling Policy (RSP)?

nn

Untuk faham apa yang baru berubah, kita perlu faham dulu apa itu Responsible Scaling Policy, atau singkatannya RSP.

nn

RSP adalah dokumen dasar yang Anthropic perkenalkan pada Oktober 2023 — kira-kira setahun selepas ChatGPT mengubah dunia. Dalam erti kata mudah, RSP adalah "janji bertulis" Anthropic kepada dunia: Kami tidak akan latih atau lepaskan model AI yang terlalu berkuasa kecuali kami boleh buktikan ia selamat.

nn

Lebih spesifik, RSP menetapkan apa yang dipanggil AI Safety Levels (ASLs) — satu sistem tahap keselamatan yang menentukan betapa berbahayanya sesebuah model AI.

nn

    n

  • ASL-1: Tidak berbahaya — macam AI dalam permainan video lama.
  • n

  • ASL-2: Boleh membantu orang jahat, tapi tidak lebih berbahaya daripada Google.
  • n

  • ASL-3: Berpotensi membantu dalam senjata biologi, kimia, atau serangan siber serius.
  • n

  • ASL-4: Tahap yang boleh menjadi ancaman kepada keselamatan global.
  • n

nn

Janji teras RSP asal: Jika Anthropic mengesan model mereka telah mencapai tahap tertentu (ASL-3 ke atas), mereka wajib berhenti melatih model tersebut sehingga langkah-langkah mitigasi risiko yang mencukupi telah dibangun dan disahkan.

nn

Dengan kata lain: Keselamatan dahulu, kelajuan kemudian.

nn

Ini adalah janji yang sangat besar dalam industri yang bergerak dengan kelajuan luar biasa. Dan inilah yang baru sahaja Anthropic batalkan.

nn

---

nnnn

Apa Yang Anthropic Tukar?

nn

Inilah bahagian yang penting untuk anda faham.

nn

Anthropic tidak membuang keseluruhan RSP. Dokumen itu masih wujud. Model-model mereka masih melalui proses penilaian keselamatan. Itu semua masih ada.

nn

Yang dibuang adalah janji teras: kewajipan untuk berhenti melatih model jika langkah mitigasi belum siap.

nn

Versi RSP yang baru menambah satu "caveat" — atau pengecualian — yang secara dasarnya berkata: Kalau kita berhenti tapi syarikat AI lain tidak berhenti, dunia mungkin lebih bahaya kerana syarikat yang kurang berhati-hati akan terus maju dan menetapkan piawaian industri.

nn

Dalam bahasa lebih mudah: Kalau kami berhenti, orang lain yang lebih tidak bertanggungjawab akan ambil alih. Jadi lebih baik kami terus maju.

nn

Ini adalah argumen yang, secara logiknya, masuk akal. Tapi ia juga adalah argumen yang boleh digunakan untuk justify hampir apa sahaja dalam perlumbaan persaingan.

nn

Berikut adalah petikan terus dari RSP baru Anthropic, dilaporkan oleh TIME:

nn

> "If one AI developer paused development to implement safety measures while others moved forward training and deploying AI systems without strong mitigations, that could result in a world that is less safe. The developers with the weakest protections would set the pace, and responsible developers would lose their ability to do safety research."

nn

Secara rasmi, Anthropic berhujah bahawa perubahan ini adalah lebih realistik dalam menghadapi landskap persaingan semasa — bukan bermakna mereka tidak peduli tentang keselamatan.

nn

Tapi bagi ramai pengkritik dan pengkaji AI, ini adalah red flag yang besar.

nn

---

nn

Kenapa Anthropic Buat Keputusan Ini?

nn

Tekanan Persaingan: OpenAI, Google, Meta

nn

Untuk benar-benar faham kenapa Anthropic buat keputusan ini, kita perlu tengok gambaran besar industri AI pada awal 2026.

nn

OpenAI tidak pernah ada komitmen yang sekuat RSP Anthropic. Mereka bergerak pantas, melancarkan GPT-5 dan sistem agentic yang semakin canggih. Mereka dikritik banyak kali atas keputusan keselamatan, tapi mereka tetap maju.

nn

Google DeepMind pula telah melancarkan Gemini 2.0 dan sistem yang bersepadu dengan hampir semua produk Google — dari Gmail hinggalah ke Android di telefon bimbit anda. Kelajuan mereka tidak pernah perlahan.

nn

Meta telah open-source model Llama mereka, membenarkan sesiapa sahaja — termasuk pengguna biasa dan aktor jahat — untuk menggunakan dan mengubahsuai model AI berkuasa tinggi tanpa sebarang sekatan.

nn

Di tengah-tengah persaingan yang sengit ini, Anthropic merasakan tekanan yang luar biasa. Mereka mempunyai model Claude yang diiktiraf sebagai salah satu yang terbaik di pasaran — bahkan ramai yang mengatakan Claude 3.5 Sonnet dan Claude Sonnet 4.6 adalah model AI terpopular untuk kerja profesional. Tapi dari segi kelajuan pelancaran dan liputan produk, mereka ketinggalan.

nn

Dengan RSP lama yang mewajibkan mereka berhenti jika keselamatan belum terjamin, Anthropic berhadapan dengan risiko besar: menjadi lebih selamat, tapi relevan? Atau bergabung dalam perlumbaan, tapi mengorbankan janji teras mereka?

nn

Keputusan mereka sudah jelas.

nn

---

nn

Apa Ini Bermakna untuk Pengguna Claude di Malaysia?

nn

Ini adalah soalan yang paling ramai pengguna Malaysia ingin tahu: Adakah Claude sekarang lebih berbahaya untuk saya guna?

nn

Jawapan jujur CaraAI: Tidak secara langsung — tapi gambaran besarnya patut buat anda fikir.

nn

Pertama, kita perlu faham apa yang perubahan ini bukan. Ia bukan bermakna Claude tiba-tiba akan membantu anda buat benda berbahaya. Ia bukan bermakna Anthropic membuang semua garis panduan keselamatan mereka. Sistem ASL masih ada. Penilaian risiko masih berlaku.

nn

Tapi apa yang berubah adalah komitmen bertulis — bahawa Anthropic sanggup melambatkan atau menghentikan pembangunan demi keselamatan, tidak kira apa yang syarikat lain buat.

nn

Bagi anda sebagai pengguna Malaysia yang menggunakan Claude untuk kerja harian — menulis laporan, analisis data, coding, strategi pemasaran — penggunaan biasa anda tidak akan terjejas secara langsung dalam jangka masa terdekat. Claude masih Claude. Masih bijak. Masih helpful. Masih ada garis panduan etika dalam respons-respons dia.

nn

Tapi gambaran besarnya lebih kompleks.

nn

Satu: Precedent berbahaya telah ditetapkan. Apabila syarikat AI yang paling "committed" kepada keselamatan mula melonggarkan polisi mereka atas alasan persaingan, ini memberi isyarat kepada seluruh industri bahawa komitmen keselamatan adalah fleksibel apabila tekanan perniagaan meningkat. Syarikat lain yang ada polisi keselamatan yang lebih longgar akan menggunakan ini sebagai justifikasi.

nn

Dua: Kita sudah pun menggunakan AI yang janji-janjinya boleh berubah. Ramai professional Malaysia menggunakan Claude kerana mereka percaya Anthropic lebih berhati-hati daripada saingan. Sekarang, kepercayaan itu perlu dikaji semula. Bukan dibuang — tapi dikaji semula.

nn

Tiga: Regulasi AI di Malaysia masih sangat awal. Malaysia sedang dalam proses membina rangka kerja AI nasional, dan berita macam ini menunjukkan betapa cepatnya industri bergerak melampaui apa yang regulasi dapat kawal. Jika syarikat AI sendiri longgarkan polisi dalaman mereka, kita sebagai pengguna dan kerajaan perlu lebih proaktif dalam meminta akauntabiliti.

nn

Untuk pengguna Claude yang ingin tahu lebih lanjut tentang bagaimana membandingkan model-model AI ini, anda boleh rujuk perbandingan mendalam ChatGPT vs Gemini vs Claude yang telah kami terbitkan.

nn

---

nnnn

Pandangan CaraAI — Ini Kebimbangan atau Overreaction?

nn

Kami nak bersikap jujur di sini.

nn

Sebahagian daripada reaksi awam terhadap berita ini adalah lebih dramatik daripada yang sepatutnya. Anthropic tidak serta-merta membuang semua langkah keselamatan mereka. Mereka masih melakukan penilaian risiko. Mereka masih mempunyai pasukan keselamatan AI yang antara terbaik di dunia. Dan argumen mereka tentang "jika kami berhenti tapi orang lain tidak, dunia menjadi lebih bahaya" — ada logik di sebaliknya.

nn

Tapi pada masa yang sama, ini bukan berita kecil yang boleh kita abaikan.

nn

Bayangkan sebuah syarikat keselamatan makanan yang terkenal dengan standard tinggi mereka. Mereka ada polisi dalaman: "Kita tidak akan keluarkan produk sehingga semua ujian keselamatan selesai." Kemudian, atas sebab persaingan dengan syarikat lain yang tak ada polisi seketat itu, mereka ubah polisi menjadi: "Kita akan usahakan ujian keselamatan, tapi kita tidak akan berhenti pengeluaran jika pasaran menuntut kita maju."

nn

Adakah ini bermakna makanan mereka terus merta bahaya? Tidak semestinya. Tapi adakah anda akan rasa lebih tenang? Agak susah juga, kan?

nn

Itulah perasaan yang ramai orang rasa tentang perubahan Anthropic ini.

nn

Apa yang lebih membimbangkan CaraAI ialah alasan yang diberi: tekanan persaingan. Bukan kerana sains keselamatan mereka telah berkembang. Bukan kerana mereka dah jumpa cara yang lebih baik untuk memastikan keselamatan sambil bergerak pantas. Tapi kerana mereka takut tertinggal dalam perlumbaan.

nn

Perlumbaan AI pada 2026 semakin sengit. Dan apabila syarikat terbaik pun mula buat konsesi atas nama persaingan, kita patut ambil serius tentang ke mana arah industri ini.

nn

---

nn

Kesimpulan

nn

Anthropic adalah syarikat yang kami hormati — dan Claude masih merupakan salah satu model AI terbaik yang tersedia untuk pengguna Malaysia. Berita tentang perubahan RSP ini tidak bermakna anda perlu berhenti menggunakan Claude esok.

nn

Tapi ia bermakna kita semua — pengguna, pengusaha, dan pemerintah — perlu lebih matang dalam cara kita berfikir tentang kepercayaan kepada syarikat teknologi AI.

nn

Tiga perkara yang patut anda ingat dari artikel ini:

nn

    n

  1. Anthropic telah longgarkan janji teras RSP mereka — bukan membuang semua keselamatan, tapi janji untuk berhenti jika keselamatan belum terjamin kini ada pengecualian atas alasan persaingan.
  2. n

nn

    n

  1. Ini adalah corak industri — apabila syarikat paling "safety-conscious" pun buat konsesi, ini menunjukkan betapa kuatnya tekanan persaingan dalam perlumbaan AI global.
  2. n

nn

    n

  1. Anda masih boleh guna Claude — tapi dengan mata lebih terbuka. Fahami bahawa syarikat AI, macam mana-mana syarikat lain, membuat keputusan berdasarkan tekanan perniagaan juga.
  2. n

nn

Perlumbaan AI bukan akan perlahan. Dan berita macam ini mengingatkan kita bahawa dalam perlumbaan yang sengit, kadang-kadang komitmen yang paling kukuh pun boleh berganjak.

nn

---

n

Baca juga: Anthropic Tuduh DeepSeek Curi Data Claude — Apa Yang Berlaku?

nn

n

🔤 Rekomendasi: Grammarly

n

Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.

n

→ Cuba Grammarly Percuma

n

n


n

Artikel Berkaitan

n

n

Rujukan

n

n

Artikel Berkaitan

nn

Facebook X / Twitter