På Computex 2025-messen i Taipei, Taiwan, har Nvidia avslørt et arsenal av nye verktøy i jakten på å gi humanoide roboter en «hjerne» og evnen til å navigere og agere i den virkelige, uforutsigbare verden.
Sentralt står oppdateringer til deres Isaac-plattform, som skal akselerere utviklingen av roboters intelligens fra «skyen til roboten»**. Som Nvidias grunnlegger og toppleder, Jensen Huang, påpeker, står vi potensielt overfor den neste industrielle revolusjonen drevet av «Fysisk KI og robotikk», og Nvidia ønsker å være selskapet som leverer de nødvendige byggesteinene til den utviklingen. Akkurat som de allerede er når det gjelder datakraft til kunstig intelligens i datasentre og datamaskiner.
En viktig del av denne strategien er Nvidia Isaac GR00T N1.5, som er den nyeste versjonen av Nvidias åpne, generelle grunnmodell for hvordan humanoide roboter kan resonnere og handle.
Modellen er ikke bare en oppskrift bestående av betingelser. GR00T N1.5 er spesielt trent til å gjøre roboten i stand til å tilpasse seg nye omgivelser og arbeidsområder. Et markant fremskritt er modellens evne til å gjenkjenne objekter ut fra menneskelige instruksjoner. Det betyr at robotene blir bedre til vanlige oppgaver som å sortere eller plassere gjenstander.
GR00T N1.5 forventes å bli frigitt som åpen kildekode innen 9. juni. En rekke bedrifter, blant annet AeiRobot, Foxlink, Lightwheel og NEURA Robotics, bruker allerede tidligere GR00T-modeller.
Roboten drømmer om bevegelse
Men hvordan lærer en robot å navigere i en verden den ikke har møtt før? Tradisjonelt krever det enorme mengder data samlet inn fra den virkelige verden, noe som er både kostbart og tidkrevende. Nvidia har funnet en snarvei, nemlig å la roboten drømme om å bevege seg. Isaac GR00T-Dreams er ennå på forsøksstadiet – en drøm, om man vil. Men målet er å generere store mengder syntetiske bevegelsesdata – «drømmevideoer» – av roboten i aksjon.
Først finjusteres avanserte videogenereringsmodeller som Nvidias Cosmos på eksisterende videoer av den spesifikke roboten. Deretter kan programvaren, ut fra bare ett enkelt bilde, generere videoer av roboten som utfører nye oppgaver i helt nye omgivelser. Disse «drømmevideoene» brukes så til å skape action tokens, som fungerer som handlingsinstruksjoner for roboten.
Jim Fan, direktør for KI hos Nvidia, forklarer at denne metoden gjør det mulig å generere et uendelig antall drømmevideoer, noe som bryter den fysiske begrensningen ved datainnsamling på ekte roboter.
Det ser ut til å være realiteter i drømmene. Roboter som er trent med syntetiske data kan lære å utføre nye handlinger, selv om de ikke eksplisitt er trent i akkurat den handlingen, fordi de lærer å «forstå» fysikken bak.
Så hvis du akkurat nå tenker at den dagen jobben din blir overtatt av en chatbot, kan du alltid få jobb som pizzabaker eller Wolt-bud, skal du ikke være altfor sikker i sadelen. Robotene drømmer om å lære begge deler.
I tillegg til GR00T-Dreams og GR00T N1.5 ble det lansert flere andre simulerings- og datagenereringsverktøy for å redusere behovet for dyr og tidkrevende datainnsamling og testing i virkeligheten. Disse simuleringsverktøyene er allerede i bruk hos robotutviklere som Agility Robotics, Boston Dynamics, Fourier, Mentee Robotics, NEURA Robotics og XPENG Robotics, samt Foxconn og Foxlink.
Isaac GR00T N1.5 er gratis og åpen kildekode, men Nvidia trenger ikke å frykte for inntektene. Den enorme datakraften som kreves for trening, datagenerering og simulering, krever maskinvare – fra Nvidia. Systemprodusenter over hele verden bygger nå Nvidia RTX PRO 6000-arbeidsstasjoner og servere. Og større oppgaver kan håndteres med Nvidia Blackwell-systemer som GB200 NVL72.
Kilder: VentureBeat, Nvidia