Nyhet

AI-assistent med projektor fra selskapet Humane

Stemmegjenkjenning, gester, kamera og høyttaler, men ingen skjerm. Er dette fremtidens mobile enheter?

Tech-startup-selskapet Humane holdt nylig en TED talk hvor de demonstrerte en interessant AI-assistent. Denne enheten er selvstendig og ikke avhengig av en mobiltelefon, og man kan kommunisere med den ved hjelp av gester- eller stemmekommandoer. Om den trenger å vise noe, projiserer den bildet på en valgfri overflate.

En av grunnleggerne, Imran Chaudhri, forklarer at enheten får plass i brystlomma.

You don’t need a smartphone or any other device to pair with it. It interacts with the world the way you interact with the world, hearing what you hear, seeing what you see, while being privacy first, and safe, and completely fading into the background of your life.

I demonstrasjonen ba Chaudhri om en oppsummering av et møte han hadde deltatt på, og enheten ga ham en rekke faktapunkter. Han mottok et anrop og fikk projisert informasjonen om samtalen i hånden før han svarte. Men det mest imponerende var nok da han holdt opp en godteribit og spurte AI-en «kan jeg spise denne?» og den advarte ham om at den inneholdt et stoff han var allergisk mot.

Selskapet er på ingen måte nybegynnere i bransjen. Det ble grunnlagt i 2018 av Imran Chaudhri og Bethany Bonggiorno, som begge har bakgrunn fra Apple innen maskinvare og design. I mars måned alene samlet de inn hundre millioner dollar i finansiering for å fullføre produktutviklingen.

Imran Chaudhri og Bethany Bongiorno (Foto: Humane)

Humane forteller også at de har inngått et samarbeid med LG Electronics for å utvikle neste generasjons produkter. I tillegg til Volvo Cars Tech Fund for et potensielt fremtidig samarbeid om produkter for bilindustrien.

Det sies at fulle videoen vil bli publisert på TED Talks innen kort tid.

Les videre
Exit mobile version