Nvidia zet met Rubin-architectuur de volgende stap naar agentic AI
Tijdens CES 2026 in Las Vegas heeft Nvidia zijn visie op de toekomst van kunstmatige intelligentie verder aangescherpt. Met de introductie van het Rubin AI-platform positioneert het bedrijf zich nadrukkelijk als leverancier van infrastructuur voor zogenoemde agentic AI: autonome systemen die niet alleen antwoorden genereren, maar zelfstandig kunnen redeneren, plannen en handelen. De nieuwe hardware moet later dit jaar beschikbaar komen voor cloud- en enterprise-omgevingen.
AI als autonoom systeem, niet langer als tool
De Consumer Electronics Show stond dit jaar meer dan ooit in het teken van AI, maar Nvidia gebruikte het podium om een duidelijke koerswijziging te benadrukken. In de keynote schetste CEO Jensen Huang een toekomst waarin AI-systemen zich gedragen als digitale agenten: software die doelen kan interpreteren, stappen kan plannen en acties kan uitvoeren zonder voortdurende menselijke input. Volgens Nvidia vraagt die evolutie om een fundamenteel andere hardwarebasis dan de huidige generatieve AI-oplossingen.
Die basis moet worden gelegd door de nieuwe Rubin-architectuur, genoemd naar astronoom Vera Rubin. Nvidia ziet Rubin als de opvolger van Blackwell en als een platform dat specifiek is ontworpen voor grootschalige, redeneerintensieve workloads.
Rubin als volledig rack-scale platform
In tegenstelling tot eerdere generaties draait Rubin niet om één enkele chip, maar om een compleet rack-scale systeem. Het platform bestaat uit zes nauw op elkaar afgestemde componenten: een Vera-CPU, een Rubin-GPU, NVLink 6-interconnects, ConnectX-9 SuperNICs, BlueField-4 DPUs en Spectrum-6 Ethernet-switches. Deze combinatie is volgens Nvidia vanaf de ontwerptafel geoptimaliseerd om als één geheel te functioneren.
Dat geïntegreerde ontwerp is essentieel voor agentic AI. Zulke systemen moeten grote hoeveelheden data razendsnel kunnen verwerken, context vasthouden over langere tijd en meerdere modellen gelijktijdig laten samenwerken. Rubin is daarom niet alleen krachtiger, maar vooral efficiënter in hoe rekenkracht, geheugen en netwerkbandbreedte worden ingezet.
Prestatieboost voor training en inferentie
Nvidia claimt dat Rubin tot vijf keer hogere inferentieprestaties levert dan Blackwell, terwijl het trainen van modellen tot 3,5 keer sneller zou verlopen. Dat verschil is cruciaal voor toepassingen waarbij AI niet alleen antwoorden geeft, maar voortdurend nieuwe beslissingen neemt op basis van veranderende omstandigheden.
Snellere inferentie betekent lagere latency, wat vooral belangrijk is voor realtime scenario’s zoals autonome robots, industriële automatisering en intelligente bedrijfsprocessen. Tegelijkertijd zorgt efficiëntere training ervoor dat organisaties complexere modellen kunnen ontwikkelen zonder dat de kosten exponentieel stijgen.
Gericht op cloud en enterprise
Hoewel Rubin oogt als supercomputer-technologie, benadrukt Nvidia dat het platform nadrukkelijk is bedoeld voor brede inzet. Grote cloudproviders zullen Rubin-systemen aanbieden aan zakelijke klanten, terwijl enterprises ze ook on-premises in datacenters kunnen inzetten. Nvidia verwacht dat de eerste grootschalige deployments in de tweede helft van 2026 plaatsvinden.
Het platform is daarbij ontworpen om langere contexten en zwaardere reasoning-taken te ondersteunen. Dat maakt het geschikt voor toepassingen variërend van geautomatiseerde besluitvorming in bedrijven tot autonome voertuigen en geavanceerde robots die zelfstandig in complexe omgevingen opereren.
Meer dan brute rekenkracht
Naast pure prestaties introduceert Nvidia met Rubin ook nieuwe architectuurelementen. Zo is er sprake van een speciale context-memorylaag die AI-systemen helpt om informatie over langere tijd vast te houden. Daarnaast ondersteunt het platform rack-scale confidential computing, wat belangrijk is voor organisaties die gevoelige data verwerken. Verbeterde interconnectiviteit tussen alle componenten moet ervoor zorgen dat grote AI-clusters stabiel en schaalbaar blijven draaien.
Waarom Rubin belangrijk is voor agentic AI
Agentic AI verschilt fundamenteel van traditionele generatieve AI. Waar huidige modellen vooral reageren op prompts, zijn agent-systemen gericht op autonomie: ze analyseren situaties, formuleren plannen en voeren acties uit. Dat vraagt om hardware die continu kan redeneren, meerdere processen parallel kan afhandelen en betrouwbaar blijft onder zware belasting.
Met Rubin probeert Nvidia precies die infrastructuur te leveren. De combinatie van krachtige GPU’s, gespecialiseerde CPU’s, snelle netwerken en geïntegreerde beveiliging vormt volgens het bedrijf de technische basis voor een nieuwe generatie AI-toepassingen.
Conclusie
Met de aankondiging van het Rubin AI-platform op CES 2026 laat Nvidia zien dat het verder kijkt dan klassieke AI-versnelling. De focus verschuift naar autonome, agent-achtige systemen die daadwerkelijk taken uitvoeren in de echte wereld. Als de beloofde prestaties en schaalbaarheid worden waargemaakt, kan Rubin uitgroeien tot een nieuwe standaard voor AI-infrastructuur in cloud- en enterprise-omgevingen later dit jaar.

