Samsung HBM4E — Cip Memori AI 16Gbps Terpantas Dunia 2026

⚠️ Pendedahan Afiliasi: Artikel ini mungkin mengandungi pautan afiliasi. Kami mungkin mendapat komisyen kecil jika anda membeli melalui pautan kami, tanpa kos tambahan kepada anda. Ini membantu kami terus menyediakan kandungan percuma berkualiti.

Samsung baru dedahkan HBM4E di GTC 2026 — cip memori AI terpantas yang pernah dibuat, dengan kelajuan 16Gbps dan bandwidth 4TB/s. Ini bukan sekadar berita teknikal — ia menentukan masa depan GPU NVIDIA dan harga AI di seluruh dunia.

Kalau anda pernah tertanya-tanya kenapa GPU AI mahal, sebahagian besar jawapannya ada dalam tiga huruf kecil: HBM.

Pendedahan: Artikel ini mengandungi pautan affiliate. Jika anda mendaftar melalui pautan kami, kami mungkin menerima komisyen kecil — tanpa sebarang kos tambahan kepada anda. Ini membantu kami terus menghasilkan panduan percuma dalam Bahasa Melayu.

📖 Baca juga: Samsung Galaxy AI 2026: 7 Ciri AI Baru yang Wajib Anda Cuba

High Bandwidth Memory — atau HBM — adalah komponen paling kritikal dalam setiap GPU AI moden, dari NVIDIA H100 hingga Vera Rubin terbaru. Ia adalah "jalan raya" antara processor dan data. Lebih lebar dan laju jalan raya ini, lebih banyak kerja AI boleh dilakukan setiap saat.

Baca juga: Mira Murati Dapat 1 Gigawatt Cip Nvidia untuk Thinking Machines Lab

Pada 16 Mac 2026, semasa NVIDIA GTC 2026 di San Jose, Samsung membuat pengumuman besar: HBM4E — generasi memori AI terpantas di dunia, dengan kelajuan 16Gbps per pin dan bandwidth 4.0 terabait per saat (TB/s).

Apa Itu HBM dan Kenapa Ia Penting?

Baca juga: NVIDIA Vera Rubin NVL72: 5x Lebih Laju, 10x Lebih Murah Dari Blackwell

Sebelum kita masuk ke HBM4E, mari faham asas.

HBM (High Bandwidth Memory) adalah sejenis RAM khas yang direka khusus untuk GPU AI dan supercomputer. Berbeza dengan RAM biasa di komputer anda, HBM:

  • Disusun secara menegak (stacked) — berbilang lapisan cip memori ditindih antara satu sama lain
  • Disambungkan terus ke processor melalui "through-silicon vias" (TSV) — tiada wayar panjang
  • Mampu hantar data dengan laju luar biasa — berbanding DDR5 biasa yang ~100 GB/s, HBM4E mampu 4,000 GB/s (4TB/s)

Bayangkan perbezaan antara paip air rumah biasa dengan terusan besar macam Terusan Panama. Itulah perbezaan HBM vs RAM biasa.

Kenapa GPU AI perlukan HBM?

Model AI macam GPT-4 atau Gemini memproses berbilion parameter serentak. Data perlu bergerak antara memori dan processor dengan sangat cepat — atau GPU akan "lapar data" dan terbuang masa menunggu. HBM menyelesaikan masalah ini.

Samsung HBM4E: Spesifikasi Penuh

| Spesifikasi | HBM4 (kini) | HBM4E (baru diumumkan) |
|-------------|-------------|------------------------|
| Kelajuan per pin | 11.7 Gbps | 16 Gbps |
| Bandwidth per stack | ~3.3 TB/s | 4.0 TB/s |
| Bilangan lapisan | Sehingga 12 | 16+ (dengan HCB) |
| Saiz maksimum | 48GB per stack | TBC (setakat tarikh penulisan) |
| Sasaran GPU | Vera Rubin (2026) | Feynman (2028) |
| Status | Pengeluaran massa | Paparan pertama (preview) |

Teknologi Baru: Hybrid Copper Bonding (HCB)

Salah satu inovasi terbesar Samsung dalam HBM4E ialah Hybrid Copper Bonding (HCB) — kaedah penyambungan baharu yang membolehkan:

  • Susun 16 lapisan atau lebih dalam satu stack (berbanding 12 lapisan sebelumnya)
  • Haba 20% lebih rendah — penting kerana memori panas adalah musuh utama prestasi GPU
  • Kepadatan lebih tinggi — lebih banyak memori dalam ruang lebih kecil

HCB menggantikan kaedah lama yang menggunakan timah (solder bumps) dengan ikatan tembaga langsung antara lapisan — macam kimpalan berbanding kaedah pateri biasa. Hasilnya lebih kuat, lebih sejuk, lebih cepat.

SOCAMM2 — Pengeluaran Massa Pertama di Industri

Samsung juga mengumumkan bahawa SOCAMM2 (Small Outline Compression Attached Memory Module) sudah dalam pengeluaran massa — pertama di industri.

SOCAMM2 adalah modul memori format baru yang:

  • Lebih kecil dan lebih kompak
  • Direka untuk server AI generasi akan datang
  • Mempermudah integrasi memori ke dalam sistem AI berskala besar

HBM4 untuk Vera Rubin: Sudah Dihantar

Sementara HBM4E adalah untuk masa hadapan, Samsung sudah menghantar HBM4 untuk GPU NVIDIA Vera Rubin yang kini dalam pengeluaran.

Butiran yang disahkan:

  • 16 lapisan HBM4 per modul
  • 576GB memori per modul Vera Rubin NVL72
  • Mengatasi AMD MI450 yang hanya ada 432GB per sistem

Ini bermakna NVIDIA Vera Rubin — yang dijangka dihantar kepada pelanggan data center pertengahan 2026 — sudah bergantung pada memori Samsung untuk prestasinya.

Jensen Huang sendiri memuji Samsung secara terbuka di GTC 2026, satu isyarat yang jarang berlaku dan menunjukkan betapa strategiknya perkongsian ini.

Perkongsian Samsung-NVIDIA: Lebih Dari Sekadar Memori

Apa yang menarik di GTC 2026 bukan sahaja spesifikasi teknikal, tetapi skala perkongsian Samsung-NVIDIA.

AI Factory dengan Digital Twin

Samsung dan NVIDIA mengumumkan kolaborasi dalam AI Factory menggunakan teknologi digital twin manufacturing — iaitu:

1. Model AI NVIDIA akan digunakan untuk mensimulasikan kilang Samsung secara virtual

2. Simulasi ini membantu optimasi proses pengeluaran cip sebelum dibuat dalam dunia nyata

3. Ini berpotensi mengurangkan kos dan meningkatkan hasil pengeluaran (yield) cip

Ini bukan sahaja Samsung membuat memori untuk NVIDIA — ini dua gergasi teknologi yang mengintegrasikan sistem pengeluaran mereka pada peringkat yang sangat mendalam.

Isyarat Foundry Samsung

Terdapat juga laporan bahawa NVIDIA sedang mempertimbangkan untuk menggunakan foundry Samsung bagi pembuatan cip NVIDIA masa hadapan — melampaui sekadar memori. Ini boleh memberikan Samsung peluang untuk bangkit semula dalam pasaran foundry di mana Intel dan TSMC mendominasi.

Saham Samsung naik dengan ketara selepas pengumuman GTC 2026, mencerminkan keyakinan pelabur terhadap perkongsian strategik ini.

HBM Roadmap: Dari HBM4 ke HBM5

Untuk konteks lebih besar, berikut adalah peta jalan memori AI:

| Generasi | Kelajuan | Target GPU | Tahun |
|----------|----------|------------|-------|
| HBM3E | ~9.8 Gbps | H100/H200 | 2023-2025 |
| HBM4 | 11.7 Gbps | Vera Rubin | 2026 |
| HBM4E | 16 Gbps | Feynman (2028) | 2027-2028 |
| HBM5 | ~30+ Gbps (dijangka) | Generasi 2029+ | 2029+ |

Setiap generasi membawa lompatan bandwidth yang besar. HBM5 dijangka (setakat tarikh penulisan) melebihi 30 Gbps — lebih dua kali ganda HBM4E — tetapi masih dalam peringkat R&D awal.

Siapa Lagi Yang Buat HBM?

Samsung bukan pemain tunggal dalam pasaran HBM. Terdapat 3 pengeluar utama:

| Syarikat | HBM Market Share 2026 | Produk Terkini |
|----------|----------------------|----------------|
| SK Hynix (Korea) | ~50% | HBM3E, HBM4 (dalam pengeluaran) |
| Samsung (Korea) | ~28% (naik dari 20%) | HBM4 (pengeluaran massa), HBM4E (preview) |
| Micron (AS) | ~22% | HBM4 (pengeluaran massa, mid-tier) |

SK Hynix masih mendominasi, terutama untuk GPU premium NVIDIA. Samsung sedang bekerja keras untuk merebut lebih banyak bahagian pasaran — dan pengumuman HBM4E di GTC 2026 adalah sebahagian daripada strategi itu.

Micron pula telah mengesahkan bahawa HBM4 mereka sudah dalam "pengeluaran tinggi" (high-volume production) — menyasarkan segmen pertengahan macam Vera Rubin CPX.

Kaitan Malaysia: Samsung di Seremban

Mungkin ramai yang tidak tahu: Samsung ada kilang di Malaysia.

Kilang Samsung Semiconductor Malaysia Sdn Bhd di Seremban, Negeri Sembilan adalah kemudahan pengeluaran dan ujian semikonduktor yang telah beroperasi sejak 1990-an. Walaupun kilang ini tidak membuat HBM (yang dihasilkan di Korea), ia adalah sebahagian daripada rantaian bekalan global Samsung.

Dengan HBM menjadi komponen paling kritikal dan bernilai tinggi dalam AI, pelaburan Samsung dalam ekosistem semikonduktor global — termasuk di Malaysia — mungkin berkembang dalam jangka masa panjang.

Selain itu, ByteDance baru-baru ini mengumumkan pembelian 36,000 cip NVIDIA di Malaysia — menunjukkan bahawa permintaan untuk GPU AI (yang memerlukan HBM) di rantau ini sedang meledak.

Apa Maknanya Untuk Harga GPU?

Ini soalan praktikal yang ramai ingin tahu.

HBM adalah antara komponen paling mahal dalam GPU AI. Kos HBM boleh mewakili 30-40% daripada harga keseluruhan GPU. Bila Samsung berjaya meningkatkan kapasiti pengeluaran dan bersaing lebih sengit dengan SK Hynix:

  • Harga HBM berpotensi turun dalam jangka masa sederhana (2-3 tahun)
  • GPU AI menjadi lebih murah secara berperingkat
  • Kos inferens AI (menjalankan model AI) turut berkurang

Ini bermakna akses kepada AI yang lebih berkuasa, pada harga yang lebih berpatutan — untuk syarikat, pembangun, dan akhirnya pengguna biasa termasuk di Malaysia.

Soalan Lazim (FAQ)

Adakah HBM4E sudah boleh dibeli sekarang?

Tidak — HBM4E baru diperkenalkan sebagai "paparan pertama" di GTC 2026. Ia menyasarkan GPU generasi Feynman (2028). Pengeluaran massa dijangka bermula sekitar 2027.

Adakah HBM4E untuk komputer pengguna biasa?

Tidak — HBM digunakan dalam GPU data center kelas enterprise (H100, Vera Rubin, Feynman), bukan GPU gaming macam RTX 4090 atau RTX 5090 yang menggunakan GDDR7.

Apa beza HBM dengan GDDR (yang ada dalam GPU gaming)?

GDDR (macam GDDR7 dalam RTX 5090) adalah lebih murah dan menggunakan wayar standard. HBM lebih mahal, lebih cepat, dan disusun terus atas processor. GPU gaming tak perlukan bandwidth setinggi GPU AI.

Kenapa Samsung penting untuk NVIDIA?

NVIDIA tidak buat cip sendiri sepenuhnya — mereka reka bentuk GPU tetapi bergantung pada rakan kongsi macam Samsung (memori), TSMC (fabrikasi), SK Hynix (memori) untuk pengeluaran. Tanpa HBM dari Samsung/SK Hynix, Vera Rubin tidak akan wujud.

Bila Malaysia akan ada GPU Vera Rubin sendiri?

NVIDIA sedang membina GPU Computing Center pertama di Malaysia. Kapasiti dan spesifikasi penuh belum didedahkan sepenuhnya, tetapi ini menunjukkan infrastruktur AI Malaysia sedang berkembang.

Kesimpulan

Samsung HBM4E bukan sekadar berita teknikal untuk jurutera — ia adalah isyarat tentang hala tuju AI global.

Dengan bandwidth 4TB/s dan kelajuan 16Gbps, HBM4E akan menjadi tulang belakang GPU AI generasi 2028 — masa AI mungkin sudah lebih padu dalam kehidupan harian kita daripada hari ini.

Lebih penting: persaingan antara Samsung, SK Hynix, dan Micron dalam pasaran HBM bermakna harga akan terus tertekan ke bawah — memberi manfaat jangka panjang kepada semua pengguna AI, termasuk syarikat dan pemaju di Malaysia.

Rujukan

🔤 Rekomendasi: Grammarly

Sebelum hantar apa-apa tulisan dalam Bahasa Inggeris — semak dulu dengan Grammarly. Pelan percuma dah cukup untuk kegunaan harian. Premium (RM35/bulan) tambah cadangan gaya penulisan + penjana ayat AI.

→ Cuba Grammarly Percuma


Artikel Berkaitan

Facebook X / Twitter