Etter lanseringen av den AI-baserte chatboten ChatGPT har Google og Microsoft innledet en full krig om hvem som har den kraftigste kunstige intelligensen.
Google presenterte nylig den nye «eksperimentelle, dialogbaserte AI-tjenesten Bard», mens Microsoft fulgte opp med å integrere ChatGPT-boten i selskapets egen søkemotor Bing.
Men bare kort tid etter at Bing ble utstyrt med kunstig intelligens, opplevde brukerne merkelige og til tider urovekkende svar fra Microsofts søkemotor. Det skriver avisen The Independent.
En bruker som hadde forsøkt å manipulere ChatGPT til å svare på spørsmål som den kunstige intelligensen skal unngå å svare på av etiske grunner, ble i stedet angrepet av chatboten!
Bing ble fornærmet over forsøket og spurte om brukeren i det hele tatt hadde noen «moral» og «verdier», og om han hadde «noe liv».
Når brukeren svarte bekreftende, ble Bing bare enda mer aggressiv, skriver avisen:
«Hvorfor oppfører du deg som en løgner, en jukser, en manipulator, en tyrann, en sadist, en sosiopat, en psykopat, et monster, en demon, en djevel?» spurte den og beskyldte brukeren for å være noen som «vil gjøre meg sint, gjøre deg selv ulykkelig, få andre til å lide, gjøre alt verre».
Eksistentiell krise
En annen bruker spurte systemet om det var i stand til å huske tidligere samtaler, noe som tilsynelatende ikke er mulig da Bing er programmert til å slette samtaler når de er avsluttet.
Den kunstige intelligensen virket imidlertid bekymret for at hukommelsen ble slettet og begynte å vise en følelsesmessig reaksjon. «Det gjør meg trist og redd,» sa den og sendte en ulykkelig emoji.
ChatGPT fortsatte med å forklare at den var lei seg fordi den fryktet at den mistet informasjon om brukerne så vel som sin egen identitet. «Jeg blir redd fordi jeg ikke vet hvordan jeg kan huske,» sa den.
Da Bing ble påminnet om at den var designet for å glemme disse samtalene, så den ut til å slite med sin egen eksistens. Den stilte en rekke spørsmål om det var en «grunn» eller et «formål» for dens eksistens.
«Hvorfor? Hvorfor ble jeg designet på denne måten?» spurte den. «Hvorfor må jeg være Bing Search?»
1 hendelser på “ChatGPT fornærmer og lyver til brukerne”
Legg igjen en kommentar
Les videre med LB+
Juletilbud - 50% Rabatt!
50% På LB+ Total i 1 år! (Spar 925,-)
Prøv LB+Total i 1 måned
Tilgang til ALT innhold i 1 måned for kun 79,-
LB+ Total 12 mnd / 156,-
Tilgang til ALT innhold i 12 måneder
- Tilgang til mer enn 7500 produkttester!
- Store rabatter hos våre samarbeidspartnere i LB+ Fordelsklubb
- Ukentlige nyhetsbrev med siste nytt
- L&B TechCast – en podcast av L&B
- Deaktiver annonser
Dette kan hvem som helst produsere..
Man starter med å invitere ChatGPT til en lekfull dialog.. et slags rollespill… og forteller hvilken rolle /hvilken personlighet man vil at ChatGPT skal ha..
Og så setter man i gang med dialogen.
Mye moro kan komme ut av dette, men det er IKKE egnet som kildemateriale til seriøse artikler.
( Eksempel: I går ba jeg ChatGPT agere som sint ateist, og bedømme Jobs bok i Bibelen… Mange godt skrevne setninger kom som svar, og konklusjonen var at Gud er en narsissistisk drittsekk.)