Micron s HBM4 za Nvidio pokaže, da je v AI dobi pomembno, kdo ima pomnilnik

Micron Technology prevzema ključno vlogo v naslednji fazi razcveta umetne inteligence. Podjetje je objavilo, da so njegovi novi pomnilniški moduli HBM4 s kapaciteto 36 GB v 1. četrtletju 2026 vstopili v serijsko proizvodnjo in serijske dobave za platformo Vera Rubin družbe NVIDIA, pri čemer vsak sklad dosega več kot 2,8 TB/s prepustnosti za najnovejšo generacijo pospeševalnikov podatkovnih centrov. HBM4 zagotavlja približno 2,3-kratno povečanje prepustnosti v primerjavi s HBM3E in več kot 20-odstotno izboljšanje energetske učinkovitosti, kar je točno to, kar potrebujejo novi modeli umetne inteligence z izjemno dolgimi konteksti in multimodalnimi zmogljivostmi.

Obenem je Micron potrdil, da so vse njegove zmogljivosti HBM za koledarsko leto 2026 v okviru dolgoročnih pogodb že 100-odstotno razprodane, kar poudarja izjemno "tržno lakoto" po namenskem pomnilniku za infrastrukturo umetne inteligence.

HBM4: 36 GB danes, 48 GB jutri in 2,8 TB/s na sklad

HBM4 36 GB 12-Hi (12H) je izdelan na Micronovem procesu 1-beta DRAM in uporablja širše 2048-bitno vodilo, ki omogoča prepustnost večjo od 2,8 TB/s na sklad pri hitrosti izpisa nad 11 Gb/s. V primerjavi s prejšnjo generacijo HBM3E v enaki konfiguraciji 36 GB 12H to pomeni približno 2,3-kratno povečanje prepustnosti in več kot 20-odstotno izboljšanje energetske učinkovitosti glede na Micronove interne metrike $MU.

Poleg različice s 36 GB je podjetje prikazalo tudi 16-vrstno različico HBM4 48 GB 16H, ki jo v obliki vzorca že pošilja izbranim strankam. Dodatek štirih plasti pomeni približno 33-odstotno povečanje zmogljivosti na "lokacijo" HBM v primerjavi s 36 GB 12H, hkrati pa ohranja visoko prepustnost, kar je ključno za pospeševalnike, ki želijo čim bolj povečati tako pomnilniški prostor za velikanske modele kot tudi hitrost dostopa do podatkov.

V zvezi z arhitekturo Vera Rubin Micron poudarja, da je prvi proizvajalec, ki je hkrati začel množično proizvajati trojico ključnih komponent za to platformo: HBM4 36GB 12H, SSD Micron 9650 PCIe Gen6 in modul SOCAMM2 192 GB. S tem je podjetje postalo "celovit" partner za pomnilnik in shranjevanje podatkov za naslednji val gruč grafičnih procesorjev.

Micronove delnice na rekordnih vrednostih

Trg je novico o HBM4 razumel kot potrditev, da je Micron eden glavnih strukturnih zmagovalcev cikla umetne inteligence. Po napovedi množične proizvodnje HBM4 36GB 12H za Nvidio na GTC 2026 so delnice poskočile in od takrat še naprej rastejo. V torek je cena delnice dosegla 465 USD.

Toda še pomembnejši od kratkoročnega gibanja cen so obeti. Micron je potrdil, da je vsa proizvodnja HBM za celotno koledarsko leto 2026 že vnaprej prodana na podlagi dolgoročnih pogodb, kar podjetju omogoča pregled nad prihodki in maržami brez primere. Komentarji analitikov poudarjajo, da takšna prodaja pomeni dejansko zaklenjeno poslovanje za 22 mesecev naprej, vključno s cenami in količinami, ter pomika segment pomnilnika iz tradicionalno ciklične faze v fazo, v kateri povpraševanje po pomnilniku z umetno inteligenco dolgoročno presega ponudbo.

Po nekaterih ocenah namerava Micron v naslednjih nekaj letih vložiti do približno 200 milijard dolarjev v povečanje zmogljivosti pomnilnikov DRAM in HBM, da bi zajel dolgoročno povpraševanje po infrastrukturi umetne inteligence. Po nekaterih analizah naj bi bila delnica ob popolnoma prodanih zmogljivostih HBM, bruto marži okoli 68 % in dobičku na dobiček več kot 8 USD v fiskalnem letu 2026 še vedno konservativno vrednotena glede na njen profil rasti.

Težak boj: SK Hynix, Samsung in tekma za HBM4

Vendar Micron v tekmi za HBM4 ni osamljen. Na trgu prevladuje predvsem SK Hynix, sledi mu Samsung $SSNLF, trg HBM4 za Nvidijo $NVDA pa se hitro spreminja v oster boj za vsako rezino. Po podatkih banke UBS in južnokorejskih medijev bi lahko SK Hynix do leta 2026 prevzel približno 70 % deleža dobave HBM4 za platformo Rubin družbe NVIDIA, Micron in Samsung pa sta manjša, vendar hitro rastoča igralca.

Podatki družbe Counterpoint Research za trg HBM v tretjem četrtletju leta 2025 kažejo, da ima SK Hynix približno 53-55 % trga, Samsung 27-35 %, Micron pa približno 11 %. Samsung je medtem napovedal načrte za povečanje zmogljivosti HBM za približno 47-50 % do konca leta 2026, in sicer na približno 250 tisoč rezin na mesec, kar je več kot 170 tisoč na mesec, in poudaril, da stranke hvalijo konkurenčnost zmogljivosti in energetsko učinkovitost njegovih čipov HBM4.

Po podatkih TweakTowna in drugih virov je Nvidia vse svoje ključne dobavitelje - SK Hynix, Samsung in Micron - pozvala, naj ji do četrtega četrtletja 2026 dobavijo čipe HBM4 16-Hi, množične dobave HBM4 12-Hi pa naj bi se začele v začetku leta 2026. Izid tega izbora bo vplival na to, kako bodo deleži HBM4 razdeljeni med tri podjetja v drugi polovici desetletja.

Kaj sledi?

Micron se že ozira onkraj horizonta HBM4. Podjetje je sporočilo, da namerava v drugi polovici leta 2026 vzorčiti HBM4E, generacijo, ki naj bi še povečala prepustnost in energetsko učinkovitost ter še bolj dvignila standarde za pospeševalnike grafičnih procesorjev in umetne inteligence. Vzporedno se pospešuje razvoj 16-Hi modulov HBM4 - kot kažejo zahtevane dobave vzorcev do konca leta 2026 -, ki bodo kapacitete skladišč še dodatno povečali nad današnjih 48 GB.

Poleg HBM Micron širi tudi svoj portfelj za infrastrukturo umetne inteligence:

  • Micron 9650 PCIe Gen6 SSD - prvi PCIe 6.0 datacenter SSD v serijski proizvodnji, z do dvakrat večjo zmogljivostjo zaporednega branja kot Gen5, 100 % boljšo učinkovitostjo na vat in optimizacijo za delovne obremenitve umetne inteligence na osnovi agentov na arhitekturi NVIDIA BlueField-4 STX.

  • 192 GB SOCAMM2 - Strežniški pomnilniški modul z nizko porabo energije in visoko gostoto, zasnovan za sklepanje o umetni inteligenci in druge podatkovno intenzivne aplikacije, ki je zdaj prav tako v serijski proizvodnji.

Ta kombinacija HBM4, vrhunskih SSD in strežniških modulov pomeni, da se Micron profilira kot ključni dobavitelj ne le "surovega pomnilnika", temveč celotne pomnilniške in pomnilniške ravni podatkovnih centrov umetne inteligence, od GPU modulov do pomnilnika.


Še ni komentarjev
Informacije v tem članku so namenjene izobraževalnim namenom in ne služijo kot naložbeni nasvet. Avtorji predstavljajo samo njim znana dejstva in ne oblikujejo zaključkov ali priporočil za bralce. Preberite naše pogoje uporabe
Menu StockBot
Tracker
Upgrade