Baca juga: Nvidia Nemotron 3 Super: Model AI Open-Source 120B Terbaik 2026
n
n
Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.
n
nnnnn
Baca juga: Wan 2.6 xe2x80x94 Model AI Video Open Source Terbaik 2026
nn
categories: [Model AI Baru, AI Open Source]
nnn
featured_image_prompt: "Futuristic Nvidia GPU chip with glowing green circuits, AI model architecture diagram floating above it, dark background with green neon accents, tech aesthetic, 'Nemotron 3 Super' text overlay"
nnNvidia baru sahaja melancarkan senjata baru dalam perang AI global xe2x80x94 dan kali ini, ia percuma untuk semua orang. Nemotron 3 Super adalah model AI terbaru Nvidia dengan 120 bilion parameter, seni bina hibrid yang revolusioner, dan konteks 1 juta token. Yang paling menarik: ia open-source sepenuhnya, bermakna sesiapa boleh muat turun dan jana sendiri.nn
Dilancarkan pada 10xe2x80x9311 Mac 2026, tepat sebelum Nvidia GTC 2026 (16 Mac), Nemotron 3 Super telah menjadi topik hangat dalam komuniti pembangun AI global. Untuk pengguna dan pembangun Malaysia, ini adalah peluang besar yang wajar difahami. Baca juga: Nvidia GTC 2026: Jensen Huang Janji Chip Kejutkan Dunia — Preview.
nn
Apa Itu Nvidia Nemotron 3 Super?
nn
Gambaran Ringkas
nnNemotron 3 Super adalah model bahasa besar (Large Language Model / LLM) terbaru dalam siri Nemotron Nvidia. Berbeza dengan model AI komersial macam GPT-4o atau Claude yang hanya boleh diakses melalui API berbayar, Nemotron 3 Super adalah sepenuhnya open-weight xe2x80x94 bermakna berat model boleh dimuat turun, dijalankan secara tempatan, dan diubahsuai sesuka hati.nn| Spesifikasi | Nilai |n|-------------|-------|n| Jumlah Parameter | 120 bilion (120B) |n| Parameter Aktif | ~12 bilion (MoE) |n| Context Window | 1 juta token |n| Seni Bina | Hybrid Mamba-Transformer MoE |n| Lesen | Open-source (boleh guna komersial) |n| Tarikh Lancar | Mac 10xe2x80x9311, 2026 |n| Sumber | developer.nvidia.com |nn
Apa Itu "120B tapi 12B Aktif"?
nn
Ini adalah konsep penting yang ramai keliru xe2x80x94 Mixture of Experts (MoE).
nn
Bayangkan sebuah syarikat dengan 120 pekerja pakar dalam bidang berbeza. Apabila anda tanya soalan tentang undang-undang, hanya 10xe2x80x9312 peguam yang bekerja, bukan semua 120 orang. MoE berfungsi macam ini xe2x80x94 model ada 120B parameter total, tapi hanya mengaktifkan ~12B parameter yang relevan untuk setiap tugasan.
nnHasilnya: Kualiti model 120B, tapi kos pengiraan hanya setara model 12B. Lebih pantas, lebih murah untuk jana, tapi sama bijak.nn
Seni Bina Hybrid Mamba-Transformer xe2x80x94 Apa Yang Baru?
nn
Nemotron 3 Super menggunakan seni bina Hybrid Mamba-Transformer MoE xe2x80x94 gabungan dua pendekatan berbeza yang sebelum ini jarang digabungkan.
nn
Transformer (Seni Bina Lama)
n
Kebanyakan model AI besar guna Transformer sepenuhnya xe2x80x94 termasuk GPT-4, Claude, dan Gemini. Transformer sangat bagus untuk memahami konteks dan hubungan antara perkataan, tapi makin lambat apabila teks makin panjang.
nn
Mamba (Seni Bina Baru)
nMamba adalah State Space Model (SSM) xe2x80x94 seni bina berbeza yang lebih cekap untuk urutan panjang. Mamba boleh memproses teks panjang dengan kos pengiraan linear (bukan kuadratik macam Transformer). Maknanya xe2x80x94 ia tidak perlahan walaupun dokumen sangat panjang.nn
Gabungan Keduanya = Kebaikan Dua Dunia
n
Nemotron 3 Super menggabungkan Mamba untuk pemprosesan urutan panjang yang cekap dengan Transformer untuk pemahaman konteks yang dalam. Hasilnya adalah model yang:
n
- n
- Boleh proses 1 juta token tanpa menjadi sangat perlahan
- Tetap cerdas dan nuanced dalam jawapan
- Lebih cekap dari segi memori dan GPU
n
n
nn
nLatentMoE xe2x80x94 teknik baru Nvidia xe2x80x94 turut digunakan untuk mengoptimumkan pengagihan parameter aktif, menjadikan Nemotron 3 Super lebih efisien daripada model MoE sebelumnya.nn
Kenapa 1 Juta Token Context Itu Besar?
nn
Context window adalah "memori kerja" model AI xe2x80x94 berapa banyak teks yang boleh ia "ingat" dan proses serentak.
nn
Perbandingan Context Window (Mac 2026)
nn| Model | Context Window | Kos |n|-------|---------------|-----|n| Nemotron 3 Super | 1 juta token | Percuma (open-source) |n| Gemini 2.5 Pro | 1 juta token | Berbayar (API) |n| GPT-4o | 128K token | Berbayar (API) |n| Claude 3.7 Sonnet | 200K token | Berbayar (API) |n| Llama 3.3 70B | 128K token | Percuma (open-source) |nn
Nemotron 3 Super adalah antara satu-satunya model open-source dengan 1 juta token context xe2x80x94 setanding Gemini 2.5 Pro tapi percuma sepenuhnya.
nn
Apa Yang Boleh Anda Buat Dengan 1 Juta Token?
nn
- n
- ud83dudcda Baca dan analisis buku penuh (novel 400 muka surat u2248 150K token)
- ud83dudccb Proses 6xe2x80x937 buku serentak dalam satu pertanyaan
- ud83dudcbc Analisis keseluruhan codebase projek besar dalam satu konteks
- ud83dudcc4 Semak kontrak undang-undang panjang tanpa perlu potong-potong
- ud83cudfac Transkripsi dan analisis video panjang (dengan multimodal support)
n
n
n
n
nn
n
Prestasi: Sebaik Mana Nemotron 3 Super?
nn
Mengikut Artificial Analysis xe2x80x94 platform bebas yang menguji dan membandingkan model AI xe2x80x94 Nemotron 3 Super diletakkan sebagai "pemimpin baru dalam kecerdasan terbuka dan efisien" (new leader in open, efficient intelligence).
nn
Kekuatan Utama (Berdasarkan Benchmark Awam)
nn
1. Penaakulan agentic xe2x80x94 Nemotron 3 Super direka khusus untuk tugasan agentic AI, di mana model perlu merancang, mengambil tindakan berbilang langkah, dan menyelesaikan masalah kompleks secara autonomi
nn
2. Kecekapan inferens xe2x80x94 Walaupun ada 120B parameter, kos jana jawapan setara model 12B kerana MoE. Ini bermakna boleh dijalankan dengan GPU yang lebih mampu milik
nn
3. Konteks panjang xe2x80x94 Berbanding Llama 3.3 70B (128K token), Nemotron 3 Super menawarkan konteks 7xe2x80x938u00d7 lebih panjang
nn
4. Enterprise deployment xe2x80x94 Nvidia mereka bentuk Nemotron 3 Super khusus untuk penggunaan perusahaan dalam persekitaran peribadi (on-premise), di mana data tidak boleh keluar ke cloud pihak ketiga
nn
*Nota: Benchmark rasmi penuh belum tersedia setakat tarikh penulisan. Angka di atas berdasarkan laporan awal dari Artificial Analysis dan kenyataan Nvidia.*
nn
Kenapa Ini Penting Untuk Malaysia?
nn
1. Privasi Data xe2x80x94 Tiada Data Keluar ke Cloud Asing
nn
Ini isu besar untuk syarikat Malaysia, terutama sektor perbankan, kesihatan, dan kerajaan. Apabila guna ChatGPT atau Claude API, data anda diproses di pelayan asing (biasanya AS).
nn
Dengan Nemotron 3 Super yang boleh dijalankan secara on-premise (dalam pelayan syarikat sendiri), data sensitif tidak perlu keluar dari persekitaran Malaysia. Ini sejajar dengan keperluan pematuhan data tempatan (PDPA Malaysia, BNM guidelines untuk institusi kewangan).
nn
2. Tiada Kos API Bulanan
nn
Model komersial macam GPT-4o atau Claude mengenakan caj per-token. Untuk syarikat Malaysia yang memproses banyak dokumen, kos ini boleh mencecah ribuan ringgit sebulan.
nn
Dengan Nemotron 3 Super:
n
- n
- Muat turun sekali, jana tanpa had
- Kos hanya pada GPU/pelayan sendiri
- Tiada yuran langganan atau API
n
n
nn
n
3. Peluang Untuk Pembangun Malaysia
nn
Pembangun dan syarikat AI Malaysia kini boleh:
n
- n
- Bina produk AI berasaskan Nemotron 3 Super tanpa bayar royalti
- Fine-tune model untuk Bahasa Melayu, dialek, atau domain tempatan
- Sediakan perkhidmatan AI kepada pelanggan tanpa bergantung pada API asing
n
n
nn
n
4. GTC Malaysia Connection
nn
Nvidia telah mengumumkan pelaburan besar dalam infrastruktur AI Malaysia xe2x80x94 data center, kerjasama dengan MDEC, dan latihan AI. Nemotron 3 Super boleh menjadi asas kepada banyak inisiatif AI Malaysia yang dirancang.
nn
Cara Akses dan Guna Nemotron 3 Super
nn
Pilihan 1: Muat Turun Terus (Untuk Pembangun)
nn
Model tersedia di Hugging Face dan Nvidia NGC (GPU Cloud):
nn```bashnn
pip install transformers torch
nn
from transformers import AutoModelForCausalLM, AutoTokenizer
nn
model = AutoModelForCausalLM.from_pretrained(
n
"nvidia/Nemotron-3-Super-120B",
n
torch_dtype="auto",
n
device_map="auto"
n
)
n
tokenizer = AutoTokenizer.from_pretrained("nvidia/Nemotron-3-Super-120B")
n```nnKeperluan perkakasan minimum:n
- n
- GPU: 2u00d7 NVIDIA A100 80GB atau setaraf
- RAM: 128GB sistem
- Storan: 240GB (model + cache)
n
n
nn
n
Pilihan 2: Nvidia NIM (Inference Microservice)
nn
Untuk enterprise yang mahu deployment lebih mudah, Nvidia menyediakan NIM (Nvidia Inference Microservice) xe2x80x94 pakej Docker yang memudahkan deployment model:
nn```bashn
docker pull nvcr.io/nim/nvidia/nemotron-3-super:latest
n
docker run --gpus all -p 8000:8000 nvcr.io/nim/nvidia/nemotron-3-super:latest
n```nn
Pilihan 3: API Berbayar (Masa Depan)
nn
Nvidia dijangka menyediakan akses API melalui Nvidia AI Cloud untuk syarikat yang tidak mahu uruskan infrastruktur sendiri. Harga belum diumumkan setakat tarikh penulisan.
nn
Pilihan 4: Tunggu Integrasi Platform
nn
Dalam beberapa minggu, Nemotron 3 Super dijangka tersedia melalui platform macam:
n
- n
- Amazon Bedrock (AWS)
- Azure AI
- Google Vertex AI
- Replicate (untuk pengguna individu)
n
n
n
nn
n
Nemotron 3 Super vs Model Lain: Siapa Yang Terjejas?
nn
Pelancaran ini memberi tekanan kepada beberapa pemain:
nn
Meta Llama
n
Llama 3.3 70B adalah pesaing terdekat dari segi open-source. Tapi Nemotron 3 Super mengungguli dalam:
n
- n
- Context window (1M vs 128K)
- Parameter total (120B vs 70B)
- Seni bina lebih moden (MoE hybrid vs dense)
n
n
nn
n
Mistral AI
n
Mistral Mixtral (juga MoE open-source) kini menghadapi cabaran serius dari Nemotron 3 Super yang datang dari syarikat lebih besar dengan ekosistem GPU Nvidia.
nn
Model Komersial (GPT-4o, Claude)
n
Untuk tugasan yang tidak memerlukan "kemewahan" model terbesar, Nemotron 3 Super boleh jadi pengganti yang lebih murah dan lebih privasi xe2x80x94 terutama untuk syarikat besar.
nn
Soalan Lazim (FAQ)
nn
Bolehkah saya guna Nemotron 3 Super secara percuma?
nYa, untuk kegunaan penyelidikan dan komersial berdasarkan lesen Nvidia. Semak lesen penuh di laman Nvidia sebelum deployment komersial berskala besar.nn
Berapa GPU yang diperlukan?
n
Minimum 2u00d7 A100 80GB untuk inferens penuh. Untuk fine-tuning, lebih banyak GPU diperlukan. Pengguna dengan GPU pengguna (RTX 4090) boleh cuba versi kuantisasi (GGUF) yang lebih kecil apabila tersedia.
nn
Adakah ia boleh guna Bahasa Melayu?
n
Kemungkinan besar ya xe2x80x94 model 120B biasanya dilatih dengan data berbilang bahasa termasuk Bahasa Melayu dan Indonesia. Namun prestasi BM mungkin kurang berbanding model yang fine-tune khusus untuk BM. Ujian lanjut diperlukan.
nn
Bilakah ia tersedia di platform cloud Malaysia?
n
Dijangka dalam masa 1xe2x80x933 bulan, model ini akan tersedia melalui AWS, Azure, dan Google Cloud yang semuanya beroperasi di Malaysia.
nn
Adakah ini lebih baik dari DeepSeek R1?
n
Bergantung kepada tugasan. DeepSeek R1 unggul dalam penaakulan matematik. Nemotron 3 Super unggul dalam konteks panjang dan agentic AI. Kedua-duanya adalah model open-source kelas pertama.
nn
Kesimpulan
nn
Nemotron 3 Super adalah isyarat jelas bahawa Nvidia bukan sekadar pembuat GPU xe2x80x94 mereka kini pemain aktif dalam model AI itu sendiri. Dengan menggabungkan seni bina MoE hibrid Mamba-Transformer, 1 juta token context, dan lesen open-source, Nvidia telah mencipta model yang menggugat status quo.
nn
Untuk ekosistem AI Malaysia, ini adalah berita baik:
n
- n
- ud83dudd13 Akses percuma kepada model berkelas enterprise
- ud83dudd12 Privasi data dengan deployment on-premise
- ud83dudca1 Peluang inovasi untuk pembangun tempatan
- ud83dudcb0 Penjimatan kos berbanding API komersial
n
n
n
nn
n
Pantau perkembangan ini xe2x80x94 terutama semasa Nvidia GTC 2026 pada 16 Mac, di mana lebih banyak detail tentang Nemotron dan ekosistem AI Nvidia akan didedahkan.
nnn
Rujukan
n
- n
- MDEC xe2x80x94 Malaysia Digital Economy Corporation
- Digital Nasional Berhad xe2x80x94 5G Malaysia
- SME Corp Malaysia xe2x80x94 Sokongan PKS Digital
n
n
n
n
🔤 Rekomendasi: Grammarly
n
Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.
n
n
n
n
Artikel Berkaitan
n
- n
- MCP vs A2A: Protokol AI Agent 2026 xe2x80x94 Panduan untuk Malaysia
- Agentic AI: Apa Itu dan Cara Kerja di Malaysia
- DeepSeek R1: Model AI China Yang Gegar Dunia
- AI Terbaik Malaysia 2026: Panduan Lengkap
- Cara Guna Claude AI: Pembantu AI Anthropic
- Trump Halang Claude AI Dalam Kerajaan AS
n
n
n
n
n
nn
n
*Artikel ini ditulis pada Mac 2026. Maklumat spesifikasi berdasarkan developer.nvidia.com, Artificial Analysis, dan laporan awal pelancaran. Benchmark penuh belum tersedia setakat tarikh penulisan xe2x80x94 semak semula untuk kemas kini.*
