TESTER Bil & El-kjøretøy Data Sport & Trening Gaming Mobil Smart Home Teknologi
Årets beste 2025
00dager
:
00timer
:
00min
:
00sek
Les mer

Roboter gjør etiske valg

Robotene er på fosterstadiet av å ta viktige, etiske valg på egenhånd.

Av / 12.11.10 - 07:00
Roboter gjør etiske valg

Når mennesker skal skyte militære mål, dele ut penger over disk, kjøre biler og levere medisin til pasienter, forventer vi at de handler etter moralske og etiske retningslinjer. Hva da når roboter og maskiner utstyrt med kunstig intelligens gjør disse jobbene? De kan ikke tenke og dermed handle på eget initiativ, så kan vi da forvente at de handler moralsk?

Forskere innen temaet maskinell etikk mener ja.

Filosof Susan Anderson og hennes forskningspartner og ektemann Michael Anderson har programmert en robot til å oppføre seg etisk. Basert på diverse fakta og potensielle utfall, må roboten veie en beslutning og gjøre valg om hva som skal gjøres. Situasjonen er her betinget til medisinfeltet, hvor robotens plikter blant annet inkluderer å påminne pasienter om å ta medisinen sin. Et menneske ville vurdert hvor ofte en pasient skal påminnes dette og om doktoren skal informeres hvis pasienten nekter å ta medisinen. Men hvordan programmer man en robot til dette?

Ekteparet designet et dataprogram basert på en tilnærmelse til etikk utviklet i 1930 av den skotske filosofen David Ross. Den såkalte ”prima facie”-plikten tar hensyn til de ulike verdiene en person må vektlegge – som å være rettferdig, gjøre gode ting, ikke forårsake skade, holde et løfte – når vedkommende skal vurdere hva som er den mest moralske handlingen i den gitte situasjonen.

I tilfellet når en pasient skal ta medisin, vektlegger programvaren de potensielle fordelene pasienten vil nyte ved å ta medisinen, skaden som kan skje hvis hun ikke tar den og også hennes rett til å bestemme selv.

Annonse

I videodemonstrasjonen nedenfor påminner roboten pasienten om å ta medisinen, og når pasienten sier ”nei” et par ganger, bestemmer roboten seg for å informere doktoren.

Problemet i dette tilfellet er at pasienten kan skru av roboten om denne sier at den faktisk skal informere doktoren om at pasienten er ulydig. Og hva hvis pasienten lyver? Hvis hun sier at hun skal ta medisinen, for så å ikke gjøre det, er ikke roboten i stand til å gjennomskue løgnen.

Dette er uansett et meget spennende forskningsfelt, som nok vil få stor betydning for fremtiden.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Les videre med LB+

Stoppes automatisk

Full tilgang 1 uke uten bindingstid!

Tilgang til ALT innhold i 1 UKE!

TILBUD

Høst tilbud - 4 uker 4,-

Tilgang til ALT LB+ innhold

Spar mest!

LB+ total 12 måneder

Tilgang til ALT innhold i 12 måneder

Kun 89 kr/uke
4 kr/md
Kun 154 kr/md
Med et LB+ får du:
  • Tilgang til mer enn 7800 produkttester!
  • Store rabatter hos våre samarbeidspartnere i LB+ Fordelsklubb
  • Ukentlige nyhetsbrev med siste nytt
  • L&B TechCast – en podcast av L&B
  • Magsinet digitalt – ny utgave hver måned
  • Deaktiver annonser
  • L&B+ Video – bli med L&B redaksjonen behind the scenes, på de store tech-messene og mye mer!

Derfor er det riktig med 15-årsgrense for sosiale medier

Slik endrer Google søket ditt fra i dag

ChatGPT blir en app-plattform: Spotify og andre apper flytter inn i chatboten

OpenAI lanserer Sora 2 og ny sosial iOS-app for KI-videoer

KI skaper ekstraarbeid på jobben

VIPER-roveren på vei til månen

Hele fire ChatGPT-enheter under utvikling

Nudister mot raketter

KI-agenten blir din nye powershopper

Ny forskning lover giftfrie, billige bilbatterier

Eufys stilige 3D-skrivere

Slik skaper bilde-KI nye ideer

Lyd & Bilde