Jensen Huang baru sahaja memperkenalkan "Hukum Scaling ke-4" di GTC 2026 — Agentic Scaling. Fahami 4 fasa besar yang membawa AI dari model bahasa mudah kepada ejen AI yang boleh bekerja secara autonomi macam pekerja manusia.
Pada Mac 2026, semasa ucaptama GTC 2026 di San Jose, Jensen Huang berdiri di hadapan ribuan hadirin dan mengumumkan sesuatu yang ramai pengkaji AI sudah nantikan: era keempat dalam evolusi AI telah bermula.
Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.
Beliau menyebutnya Agentic Scaling — hukum scaling AI yang keempat.
Baca juga: GPT-5.4 Boleh Guna Komputer Lebih Baik dari Manusia — Ini Maknanya
Tapi untuk faham kenapa ini besar, kita perlu mulakan dari awal. Apa itu "scaling law"? Dan kenapa ada empat daripadanya?
Apa Itu "Scaling Law" dalam AI?
Baca juga: GPT-5.4 Dilancarkan — Model AI Terbaru OpenAI untuk Kerja Profesional
"Scaling law" dalam AI bermaksud: kalau anda besarkan sesuatu dengan cara tertentu, prestasi AI akan meningkat secara boleh diramal.
Ini bukan sekadar teori — ini adalah penemuan empirikal. Para penyelidik mendapati bahawa dengan meningkatkan saiz model, data latihan, atau kuasa pengiraan mengikut corak tertentu, prestasi AI meningkat dengan konsisten dan boleh dijangka.
Penemuan ini mengubah cara industri AI beroperasi. Daripada cuba "reka" kepintaran, mereka hanya perlu scale — besarkan — dan prestasi akan datang sendiri.
Tapi scaling bukanlah satu dimensi sahaja. Sejak 2018 hingga 2026, terdapat empat fasa berbeza dalam bagaimana AI di-scale — dan setiap satu membuka kemampuan baharu yang mustahil sebelumnya.
Hukum Scaling #1: Pre-Training Scaling (2018–2022)
"Besarkan Model, Besarkan Data"
Fasa pertama adalah yang paling mudah difahami: semakin besar model dan semakin banyak data latihan, semakin pintar AI.
Ini bermula dengan penemuan penting oleh OpenAI pada 2018-2020, yang menunjukkan bahawa model bahasa mengikuti "power law" — graf prestasi berbanding saiz model mengikut corak matematik yang boleh diramal.
Apa yang di-scale:
- Bilangan parameter model (dari jutaan u2192 bilion u2192 trilion)
- Data latihan (dari gigabait u2192 terabait u2192 petabait teks internet)
- Kuasa pengiraan (dari GPU tunggal u2192 kluster GPU besar)
Contoh milestone:
- GPT-2 (2019): 1.5 bilion parameter
- GPT-3 (2020): 175 bilion parameter — lompatan besar, AI boleh tulis teks panjang
- PaLM (2022): 540 bilion parameter
- GPT-4 (2023): dijangka ~1 trilion parameter (tidak disahkan rasmi)
Hadnya: Setelah titik tertentu, menambah lebih banyak parameter dan data memberikan pulangan semakin berkurangan. Kos meningkat secara eksponen tetapi peningkatan prestasi mula melambat.
Industri memerlukan cara baharu untuk terus improve.
Hukum Scaling #2: Post-Training Scaling (2022–2023)
"Latih Model untuk Jadi Lebih Baik Selepas Training Asal"
Fasa kedua bermula apabila para penyelidik sedar: cara anda "polish" model selepas pre-training boleh mengubah prestasi secara dramatik, tanpa perlu besarkan model itu sendiri.
Teknik utama:
RLHF — Reinforcement Learning from Human Feedback
Ini adalah rahsia di sebalik ChatGPT.
Prosesnya:
1. Model menghasilkan beberapa jawapan untuk soalan yang sama
2. Manusia memberi penilaian — jawapan mana yang lebih baik
3. Model belajar dari penilaian manusia ini
4. Ulang ribuan kali
Hasilnya: model yang sama tiba-tiba jauh lebih membantu, lebih selamat, dan lebih tepat — bukan kerana ia lebih besar, tetapi kerana ia telah "diselaraskan" dengan keinginan manusia.
DPO dan Teknik Alignment Lain
Selepas RLHF, muncul pelbagai teknik post-training lain:
- DPO (Direct Preference Optimization) — lebih cekap dari RLHF
- Constitutional AI (Anthropic) — ajar model prinsip etika
- Instruction Tuning — latih model ikut arahan dengan lebih baik
Impaknya:
- ChatGPT (Nov 2022) — RLHF + GPT-3.5 mengubah dunia
- Claude, Gemini, dan semua model utama kini guna post-training
- Model yang "aligned" jauh lebih berguna berbanding model mentah (raw)
Hadnya: Post-training memperbaiki kelakuan model, tetapi tidak mengajar model cara "berfikir lebih dalam" untuk masalah kompleks.
Hukum Scaling #3: Test-Time Compute Scaling (2024–2025)
"Bagi Model Lebih Masa untuk Berfikir"
Fasa ketiga adalah yang paling menarik secara intuitif — dan yang paling ramai orang salah faham.
Idea asas: Daripada latih model yang lebih besar, bagi model yang sama lebih masa dan sumber pengiraan semasa ia menjawab soalan. Biarkan ia "berfikir" lebih lama.
Ini macam perbezaan antara:
- Jawapan pantas: Soal seseorang matematik dan mereka jawab dalam 5 saat
- Jawapan teliti: Soal soalan yang sama dan mereka ambil 5 minit untuk kira semula, semak kerja, dan sahkan jawapan
Model AI yang sama boleh memberikan jawapan jauh lebih baik jika ia diberi masa untuk "chain-of-thought reasoning" — berfikir langkah demi langkah.
Teknik utama:
- Chain-of-Thought (CoT) — minta model tunjukkan cara kira
- Tree-of-Thought — terokai pelbagai laluan penyelesaian
- Self-Consistency — hasilkan beberapa jawapan, pilih yang paling konsisten
- MCTS (Monte Carlo Tree Search) — cari penyelesaian terbaik dalam ruang kemungkinan
Contoh milestone:
- OpenAI o1 (Sept 2024) — "thinks before answering", lompatan besar dalam matematik dan sains
- DeepSeek R1 (Jan 2025) — tunjukkan test-time scaling boleh capai prestasi setaraf GPT-4 dengan kos lebih rendah
- Claude 3.7 Sonnet — "Extended Thinking" mode untuk masalah kompleks
Impaknya:
| Tugas | Model Standard | Model Test-Time Scaling |
|-------|---------------|------------------------|
| Matematik olimpiad | ~20% betul | ~70%+ betul |
| Pengkodan kompleks | Sederhana | Cemerlang |
| Penaakulan multi-langkah | Kerap tersilap | Jauh lebih tepat |
Hadnya: Test-time scaling sangat efektif untuk tugas tunggal, tetapi model masih beroperasi dalam satu "sesi" — tidak boleh belajar daripada pengalaman, tidak boleh mengambil tindakan dalam dunia nyata, dan tidak boleh bekerjasama dengan model AI lain.
Hukum Scaling #4: Agentic Scaling (2025–kini)
"Ejen AI yang Berkomunikasi dan Bekerjasama"
Di sinilah kita berada sekarang — dan inilah yang Jensen Huang umum secara rasmi di GTC 2026.
Idea teras: Daripada satu model AI yang duduk dan menjawab soalan, kita kini mempunyai rangkaian ejen AI yang berkomunikasi antara satu sama lain, membahagikan tugas, dan bekerjasama untuk menyelesaikan matlamat yang jauh lebih kompleks.
Dalam kata-kata Jensen Huang sendiri di GTC 2026:
> *"AI systems communicate not just with users but with each other."*
Ini bukan sekadar satu model — ini adalah ekosistem model yang bekerja bersama.
Apa Yang Berbeza Dalam Agentic Scaling?
| Dimensi | Model Tradisional | Ejen AI (Agentic) |
|---------|------------------|-------------------|
| Cara beroperasi | Satu soal u2192 satu jawab | Matlamat jangka panjang, berbilang langkah |
| Memori | Tidak ada (setiap sesi bermula semula) | Memori berterusan merentasi sesi |
| Tindakan | Hanya teks | Boleh buka browser, tulis kod, hantar emel |
| Komunikasi | Hanya dengan manusia | Dengan manusia DAN ejen AI lain |
| Autonomi | Rendah | Tinggi — boleh buat keputusan sendiri |
Cara Agentic Scaling Berfungsi
Bayangkan sebuah syarikat dengan pekerja:
- CEO — terima arahan dari pengurusan atasan, bahagikan tugas
- Penganalisis — kumpul data, buat laporan
- Jurutera — tulis dan uji kod
- Pengurus QA — semak kerja orang lain
Agentic AI berfungsi dengan cara yang sama — tetapi semua "pekerja" adalah model AI yang berkomunikasi melalui protokol digital.
Contoh nyata:
1. Manusia berikan matlamat: "Bina aplikasi web untuk pengurusan inventori"
2. CEO-agent bahagikan tugas kepada sub-ejen
3. Researcher-agent kumpul keperluan dan kajian pasaran
4. Coder-agent tulis kod bahagian demi bahagian
5. QA-agent uji dan cari bug
6. Publisher-agent deploy aplikasi siap
Tanpa manusia terlibat dalam setiap langkah — hanya pada permulaan dan pengesahan akhir.
OpenClaw Sebagai "OS untuk Ejen AI"
Jensen Huang secara khusus menyebut OpenClaw di GTC 2026 sebagai contoh "operating system untuk AI peribadi" — infrastruktur yang membolehkan ejen AI pelbagai berkomunikasi dan bekerjasama.
Wall Street Journal melaporkan: *"Nvidia Software Aims to Bring OpenClaw to the Enterprise"* — menunjukkan bahawa model agentic bukan lagi eksperimen makmal, ia sedang menuju penggunaan korporat skala besar.
Perbandingan Keempat-Empat Hukum Scaling
| Hukum | Cara Scale | Era | Contoh |
|-------|-----------|-----|--------|
| #1 Pre-Training | Besarkan model + data | 2018–2022 | GPT-3 u2192 GPT-4 |
| #2 Post-Training | Align dengan maklum balas manusia | 2022–2023 | ChatGPT, Claude |
| #3 Test-Time | Bagi masa berfikir lebih | 2024–2025 | o1, DeepSeek R1 |
| #4 Agentic | Ejen berkomunikasi sesama sendiri | 2025–kini | Multi-agent systems |
Setiap hukum tidak menggantikan yang sebelumnya — semuanya digunakan serentak dalam sistem AI terkini.
Kenapa Ini Penting Untuk Malaysia?
1. Implikasi Untuk Pekerja
Agentic scaling bermakna AI boleh menjalankan tugas yang memerlukan berbilang langkah — penyelidikan, penulisan, pengkodan, pengurusan projek — secara autonomi. Ini memberi impak kepada hampir semua industri.
Syarikat Malaysia yang lebih awal mengadopsi teknologi agentic AI akan mempunyai kelebihan daya saing yang ketara.
2. Peluang Untuk Pemaju Malaysia
Agentic AI memerlukan infrastruktur baharu: orchestration systems, tool integrations, memory systems, monitoring dashboards. Ini adalah ruang di mana pemaju Malaysia boleh bina produk dan perkhidmatan.
3. NVIDIA GTC Computing Center di Malaysia
NVIDIA baru-baru ini mengumumkan GPU Computing Center pertama di Malaysia — yang akan menjadi infrastruktur asas untuk agentic AI enterprise di rantau ini. Syarikat Malaysia yang ingin deploy sistem multi-agent akan mempunyai akses kepada infrastruktur kelas dunia tanpa perlu keluar negara.
4. Implikasi Pendidikan
Universiti dan institusi latihan Malaysia perlu mula mengajar konsep agentic AI — bukan sekadar cara guna ChatGPT, tetapi cara reka bentuk dan urus sistem multi-agent.
Soalan Lazim (FAQ)
Adakah Agentic AI berbahaya?
Macam mana-mana teknologi berkuasa, ia bergantung pada cara penggunaan. Sistem agentic yang direka dengan baik mempunyai "human-in-the-loop" — manusia tetap mengawasi dan membuat keputusan akhir. Bahaya muncul apabila sistem diberi autonomi penuh tanpa pengawasan yang mencukupi.
Adakah saya perlu beli GPU baru untuk gunakan ejen AI?
Tidak — kebanyakan sistem agentic AI tersedia melalui API cloud (OpenAI, Anthropic, Google). Anda hanya perlu sambungan internet dan akses ke API berkenaan.
Bila Agentic AI akan jadi mainstream di Malaysia?
Tanda-tanda sudah ada — syarikat fintech, e-dagang, dan perkhidmatan profesional Malaysia sudah mula eksperimen. Dijangka dalam 2-3 tahun, penggunaan sistem multi-agent akan menjadi perkara biasa dalam syarikat bersaiz sederhana ke atas.
Apa beza ejen AI dengan chatbot biasa?
Chatbot hanya boleh berbual — ia tidak boleh mengambil tindakan, tidak ada memori jangka panjang, dan tidak boleh bekerjasama dengan sistem lain. Ejen AI boleh buka aplikasi, tulis fail, hantar emel, buat pembelian, dan berkomunikasi dengan ejen AI lain untuk menyelesaikan matlamat kompleks.
Adakah GPT-4o atau Claude 3.7 sudah "agentic"?
Mereka adalah model asas yang boleh digunakan dalam sistem agentic, tetapi model itu sendiri bukan "agentic" secara semula jadi. Sistem agentic dibina di atas model ini dengan menambah memori, alat (tools), dan kemampuan untuk berkomunikasi dengan ejen lain.
Kesimpulan
Empat hukum scaling AI merakam perjalanan luar biasa dalam masa lapan tahun — dari model bahasa yang boleh menulis teks, kepada sistem ejen yang boleh menjalankan kerja macam pasukan manusia.
Pengumuman Jensen Huang di GTC 2026 tentang Agentic Scaling bukan sekadar berita teknikal — ia adalah pengisytiharan bahawa fasa baharu AI telah bermula secara rasmi.
Bagi Malaysia, ini bermakna satu perkara: masa untuk bersedia adalah sekarang. Bukan menunggu teknologi ini "matang" — ia sudah matang. Yang diperlukan sekarang adalah kemahiran, infrastruktur, dan strategi untuk memanfaatkannya.
Rujukan
- MDEC — Malaysia Digital Economy Corporation
- Digital Nasional Berhad — 5G Malaysia
- SME Corp Malaysia — Sokongan PKS Digital
🔤 Rekomendasi: Grammarly
Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.
Artikel Berkaitan
- NVIDIA GTC 2026: Chip Baru Vera Rubin — 5x Laju, Kos AI Turun 10x
- NVIDIA GTC 2026 Recap — Semua yang Jensen Huang Dedahkan
- NVIDIA DLSS 5 — AI Jana Grafik Photoreal Masa Sebenar
- Peta Jalan NVIDIA 2026-2028: Rubin, Rubin Ultra, Feynman
- Malaysia Ada GPU Computing Center NVIDIA Pertama — Apa Maknanya?
- Agentic AI: Era AI yang Boleh Bertindak Sendiri
