Nvidia Nemotron 3 Super: Model AI Open-Source 120B Terbaik 2026

⚠️ Pendedahan Afiliasi: Artikel ini mungkin mengandungi pautan afiliasi. Kami mungkin mendapat komisyen kecil jika anda membeli melalui pautan kami, tanpa kos tambahan kepada anda. Ini membantu kami terus menyediakan kandungan percuma berkualiti.

Semasa semua orang menunggu pengumuman besar dari Nvidia GTC 2026 pada 16 Mac, Nvidia sudah pun buat langkah mengejutkan: pada 11 Mac 2026, mereka melancarkan Nemotron 3 Super — model AI open-source paling berkuasa yang pernah dikeluarkan oleh syarikat cip nombor satu dunia itu. Baca juga: Nvidia Nemotron 3 Super: Model AI Open-Source 120B Percuma 2026.

n

n

Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.

n

nnn

Dan bukan calang-calang. Ini adalah model dengan 120 bilion parameter, 1 juta token context window — terbesar dalam kalangan model AI open-weight di dunia — dan rekabentuk seni bina yang sama sekali baru. Yang lebih menarik? Anda boleh muat turun dan jalankan sendiri.

n

📖 Baca juga: AI Untuk Penulis & Pengarang Malaysia: 8 Alat Jana Kandungan Kreatif [2026]

nn

Baca juga: Wan 2.6 — Model AI Video Open Source Terbaik 2026

nn

Apa Itu Nvidia Nemotron 3 Super?

nnNemotron 3 Super adalah model bahasa besar (LLM) open-source yang dilancarkan Nvidia sebagai sebahagian daripada keluarga Nemotron 3. Ia direka khas untuk kerja agentic AI — AI yang boleh bertindak secara autonomi untuk menyelesaikan tugasan kompleks.nn

Yang membezakan Nemotron 3 Super daripada model lain:

n

Baca juga: Meta Llama 4 Dilancarkan: Model AI Percuma Yang Lagi Bagus Dari GPT-4o?

nnn

1. Saiz yang besar tapi cekap — 120B parameter tapi hanya 12B aktif pada satu masa (terima kasih kepada seni bina MoE)

n

2. Context window 1 juta token — terbesar dalam kalangan model open-weight

n

3. Seni bina hibrid baharu — gabungan Mamba dan Transformer yang belum pernah dilihat sebelumnya dalam model open-source skala ini

n

4. Fully open — bukan sekadar berat model, tapi juga dataset dan resipi latihan

nn

Seni Bina Hybrid Mamba-Transformer MoE: Apa Yang Menjadikannya Istimewa?

nn

Nemotron 3 Super menggunakan seni bina yang dinamakan Hybrid Mamba-Transformer MoE (Mixture of Experts). Ini adalah gabungan tiga teknologi:

nn

1. Mixture of Experts (MoE)

nn

Model MoE bekerja macam sebuah syarikat dengan pelbagai jabatan pakar. Apabila anda tanya soalan matematik, hanya "jabatan matematik" (subset parameter) diaktifkan. Apabila soalan tentang bahasa, "jabatan bahasa" yang aktif.

nnKesan praktikal:n

    n

  • Model mempunyai 120B parameter secara keseluruhan
  • n

  • Tapi hanya 12B parameter aktif untuk setiap query
  • n

  • Ini bermakna kelajuan inference macam model 12B, tapi kualiti macam model 120B
  • nn

n

Perbandingan mudah: Ibaratnya anda ada 10 pakar dalam bilik, tapi hanya 1-2 pakar yang relevan bercakap untuk setiap soalan — bukan semua 10 bercakap sekaligus.

nn

2. Mamba SSM (State Space Model)

nnMamba adalah alternatif baharu kepada mekanisme Attention dalam Transformer tradisional. Masalah Attention biasa: pengiraan meningkat secara kuadratik dengan panjang konteks — bermakna context window 1 juta token akan menjadi sangat perlahan dan mahal.nn

Mamba selesaikan ini dengan pendekatan berbeza yang:

nn

    n

  • Lebih cekap dari segi pengiraan untuk teks panjang
  • n

  • Penggunaan memori lebih rendah
  • n

  • Kelajuan inference lebih tinggi
  • nn

n

3. Transformer (untuk Kualiti)

nn

Walaupun Mamba cekap, Transformer masih lebih baik untuk tugas yang perlukan "perhatian" kepada bahagian spesifik teks. Nemotron 3 Super gabungkan kedua-dua — menggunakan Mamba untuk bahagian yang perlu kecekapan, dan Transformer untuk bahagian yang perlu kualiti tinggi.

nnHasilnya: Nemotron 3 Super mampu hasilkan throughput (kelajuan pemprosesan) 5x lebih tinggi berbanding model transformer standard yang bersaiz setara.nn

Kelebihan Utama Nemotron 3 Super

nn

1. Context Window 1 Juta Token — Terbesar Dalam Open-Weight Models

nn

Ini adalah pencapaian bersejarah. Sehingga Mac 2026, model open-weight (yang boleh anda muat turun dan jalankan sendiri) tiada yang mencapai 1 juta token context window secara praktikal.

nnApa maksudnya 1 juta token?nn| Dokumen | Token (anggaran) | Muat dalam 1M? |n|---------|-----------------|----------------|n| Novel tebal (500 halaman) | ~350,000 token | u2705 Ya |n| Kod sumber projek besar (500 fail) | ~500,000 token | u2705 Ya |n| 3 novel sekaligus | ~1,050,000 token | u26a0ufe0f Had |n| Laporan syarikat 10 tahun | ~800,000 token | u2705 Ya |n| Seluruh Wikipedia Bahasa Melayu | ~2,000,000+ | u274c Terlalu besar |nn

Untuk kerja sebenar macam analisis pangkalan kod besar, penyelidikan dokumen perniagaan yang panjang, atau projek penulisan skala besar — 1 juta token sudah lebih dari cukup.

nn

2. Ranked #1 Open Model (Artificial Analysis)

nn

Menurut analisis bebas dari Artificial Analysis — platform yang menilai model AI berdasarkan prestasi sebenar, bukan sekadar benchmark laporan diri — Nemotron 3 Super menduduki tempat pertama dalam kalangan model open-weight.

nn

Ini bermakna apabila dibandingkan dengan model open-source lain macam Llama 3.3, DeepSeek R1, Qwen, dan lain-lain — Nemotron 3 Super mengungguli semuanya dalam penilaian bebas.

nn

3. Fully Open: Berat + Dataset + Resipi

nn

Kebanyakan model "open-source" sebenarnya hanya open berat model (model weights) sahaja — anda tidak tahu bagaimana ia dilatih, data apa digunakan, atau cara replikasi latihan.

nn

Nemotron 3 Super berbeza. Nvidia mengeluarkan:

n

    n

  • Model weights — fail model yang boleh anda muat turun
  • n

  • Training datasets — data yang digunakan untuk latih model
  • n

  • Training recipes — arahan dan konfigurasi latihan penuh
  • nn

n

Ini bermakna penyelidik, institusi akademik, atau syarikat boleh mereplikasi, fine-tune, atau membina di atas Nemotron 3 Super dengan pemahaman penuh tentang cara ia dibina.

nn

4. Direka untuk Agentic AI

nn

Tidak macam model umum, Nemotron 3 Super dioptimumkan khusus untuk agentic reasoning — kemampuan AI untuk merancang, berfikir dalam langkah berbilang, dan melaksanakan tugasan kompleks secara autonomi.

nn

Ini sangat relevan untuk era AI agent yang sedang berkembang pesat — di mana AI tidak sekadar menjawab soalan, tapi bertindak sebagai ejen yang menyelesaikan projek dari awal hingga akhir.

nn

Perbandingan Nemotron 3 Super vs Model Open-Source Lain

nn| Model | Parameter | Aktif | Context | Open Weights | Open Data |n|-------|-----------|-------|---------|--------------|-----------|n| Nemotron 3 Super | 120B | 12B | 1M | u2705 | u2705 |n| Llama 3.3 70B | 70B | 70B | 128K | u2705 | u274c |n| DeepSeek R1 | 671B | 37B | 128K | u2705 | u274c |n| Qwen 2.5 72B | 72B | 72B | 128K | u2705 | u274c |n| Mistral Large | 123B | ~12B | 128K | u274c | u274c |n| Falcon 180B | 180B | 180B | 4K | u2705 | u274c |nn

Nemotron 3 Super mengungguli dalam tiga aspek sekaligus: context window, keterbukaan data, dan kecekapan inference melalui MoE.

nn

Cara Akses dan Guna Nemotron 3 Super

nn

Muat Turun Terus (Self-Hosted)

nn

Bagi yang mahu jalankan sendiri:

nn```bashnn

pip install huggingface_hub

nn

python3 -c "

n

from huggingface_hub import snapshot_download

n

snapshot_download(repo_id='nvidia/Nemotron-3-Super-120B')

n

"

n```nnKeperluan perkakasan untuk jalankan sendiri:n

    n

  • Minimum: 4x NVIDIA H100 (80GB) atau setara
  • n

  • Disyorkan: 8x NVIDIA H100 untuk inferens pantas
  • n

  • VRAM minimum: ~240GB+ total
  • nn

n

Untuk kebanyakan pengguna Malaysia, menjalankan model ini secara tempatan tidak praktikal dari segi kos perkakasan. Tapi ada alternatif.

nn

Melalui API (Lebih Praktikal)

nn

Nvidia Build (build.nvidia.com) menyediakan akses API kepada Nemotron 3 Super:

nn```pythonn

from openai import OpenAI

nn

client = OpenAI(

n

base_url="https://integrate.api.nvidia.com/v1",

n

api_key="YOUR_NVIDIA_API_KEY"

n

)

nn

response = client.chat.completions.create(

n

model="nvidia/nemotron-3-super-120b",

n

messages=[

n

{"role": "user", "content": "Analisis teks panjang ini..."}

n

],

n

max_tokens=4096

n

)

n```nn

Cara dapatkan API key: Pergi ke build.nvidia.com u2192 daftar akaun u2192 dapatkan kredit percuma permulaan.

nn

Melalui Cloud Partners

nn

Beberapa platform cloud sudah menyediakan akses Nemotron 3 Super:

n

    n

  • Amazon Web Services (AWS) — melalui AWS Bedrock
  • n

  • Google Cloud — melalui Vertex AI
  • n

  • Microsoft Azure — melalui Azure AI Studio
  • nn

n

Ini adalah cara paling mudah untuk pengguna Malaysia yang tidak mahu urus infrastruktur sendiri.

nn

Kenapa GTC 2026 Menjadikan Ini Lebih Penting

nn

Pelancaran Nemotron 3 Super pada 11 Mac 2026 — tepat 5 hari sebelum Nvidia GTC 2026 (16-19 Mac) — bukan kebetulan.

nn

Ini adalah strategi Nvidia yang bijak: melancarkan model open-source sebelum GTC untuk:

n

1. Bina momentum — komuniti AI mula uji dan bincang model sebelum event

n

2. Tunjukkan komitmen kepada open-source sebelum pengumuman enterprise

n

3. Tarik perhatian pembangun yang akan hadir GTC secara maya dan fizikal

nn

Di GTC 2026, Jensen Huang dijangka akan bercakap lebih lanjut tentang ekosistem Nemotron dan platform AI Nvidia secara keseluruhan. Nemotron 3 Ultra (model lebih besar lagi) juga sudah diisyaratkan akan datang tidak lama selepas ini.

nn

Apa Maknanya Untuk Malaysia?

nn

Peluang untuk Penyelidik dan Akademia Malaysia

nn

Universiti-universiti Malaysia yang ada kluster GPU (macam UTM, UM, UPM) boleh:

n

    n

  • Fine-tune Nemotron 3 Super untuk konteks Bahasa Malaysia
  • n

  • Bangunkan model AI yang faham budaya dan bahasa tempatan
  • n

  • Lakukan penyelidikan agentic AI menggunakan model kelas dunia
  • nn

n

Peluang untuk Startup AI Malaysia

nn

Dengan akses API yang berpatutan, startup AI Malaysia boleh:

n

    n

  • Bina produk AI yang memanfaatkan context window 1 juta token
  • n

  • Buat analisis dokumen yang sangat panjang — kontrak perniagaan, laporan perubatan, arkib undang-undang
  • n

  • Bangunkan AI agent untuk automasi proses perniagaan tempatan
  • nn

n

Konteks AI Nation 2030

nn

Malaysia AI Nation 2030 mengimpikan Malaysia sebagai hab AI Asia Tenggara. Model open-source berkualiti tinggi macam Nemotron 3 Super memudahkan:

n

    n

  • Penyelidik tempatan bangun model Bahasa Melayu berkualiti tinggi
  • n

  • Syarikat Malaysia bersaing dalam bidang AI tanpa perlu bergantung sepenuhnya pada model proprietari
  • n

  • Pembangunan talenta AI tempatan melalui akses kepada model dan data sebenar
  • nn

n

Soalan Lazim: Nvidia Nemotron 3 Super

nnQ: Apakah perbezaan antara Nemotron 3 Super dan Nemotron 3 Ultra?n

A: Super adalah model yang sudah dilancarkan (Mar 11, 2026). Ultra adalah model lebih besar yang masih dalam pembangunan dan dijangka datang tidak lama selepas ini. Ultra kemungkinan akan mempunyai lebih banyak parameter dan keupayaan yang lebih tinggi.

nnQ: Boleh orang biasa jalankan Nemotron 3 Super?n

A: Untuk jalankan sendiri secara tempatan — tidak, ia memerlukan GPU enterprise yang sangat mahal. Tapi anda boleh akses melalui API (build.nvidia.com) dengan kos yang berpatutan, atau tunggu platform cloud menyediakannya dengan UI yang mudah.

nnQ: Adakah ini lebih baik daripada ChatGPT atau Claude?n

A: Berbeza kategori. Nemotron 3 Super adalah open-weight model yang boleh anda jalankan sendiri atau akses via API. ChatGPT dan Claude adalah perkhidmatan komersial proprietari. Untuk sesetengah tugasan (terutama yang memerlukan context panjang atau customization), Nemotron 3 Super mungkin lebih baik. Untuk kemudahan penggunaan umum, ChatGPT dan Claude masih lebih mesra pengguna.

nnQ: Apakah "open weights" bermaksud percuma sepenuhnya?n

A: Open weights bermaksud anda boleh muat turun dan guna berat model secara percuma. Tapi anda masih perlu bayar untuk pengkomputeran (GPU/cloud) untuk menjalankannya. Juga semak lesen — kebanyakan model open-weight ada sekatan penggunaan komersial.

nnQ: Bila Nemotron 3 Ultra akan keluar?n

A: Tiada tarikh rasmi diumumkan. Berdasarkan tweet Bryan Catanzaro (VP Deep Learning Research, Nvidia), Ultra sedang dalam pembangunan. Pengumuman lebih lanjut dijangka di GTC 2026 (16-19 Mac 2026).

nnQ: Bagaimana dengan sokongan Bahasa Melayu?n

A: Macam kebanyakan LLM besar, Nemotron 3 Super dilatih terutamanya dengan data Bahasa Inggeris. Sokongan Bahasa Melayu ada tapi mungkin tidak sebaik model yang dilatih khusus untuk BM. Fine-tuning dengan data Bahasa Melayu diperlukan untuk kegunaan tempatan yang optimum.

nn

Kesimpulan

nn

Nemotron 3 Super adalah pengumuman besar yang datang pada masa yang tepat — tepat sebelum GTC 2026 dan dalam tempoh di mana persaingan antara model AI open-source semakin sengit.

nn

Tiga perkara yang menjadikan Nemotron 3 Super penting:

nn

1. Context window 1 juta token — tiada model open-weight lain yang setanding

n

2. Fully open (berat + data + resipi) — bukan sekadar model, tapi ekosistem pengetahuan

n

3. Seni bina hibrid MoE+Mamba yang memberikan kecekapan 5x lebih tinggi

nn

Bagi Malaysia, ini adalah peluang untuk komuniti AI tempatan — sama ada penyelidik, pembangun, atau startup — untuk akses dan manfaatkan model kelas dunia yang tersedia secara terbuka.

nn

Dan ingat: Nvidia Ultra masih dalam perjalanan. Era Nemotron baru sahaja bermula.

nnn

Rujukan

n

n

n

🔤 Rekomendasi: Grammarly

n

Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.

n

→ Cuba Grammarly Percuma

n

n


n

Artikel Berkaitan

n

Facebook X / Twitter