Nyhet

ChatGPT fornærmer og lyver til brukerne

Microsoft har integrert ChatGPT i søkemotoren Bing. Nå får brukerne merkelige svar, samtidig med at chatroboten også er midt i en eksistensiell krise.

Etter lanseringen av den AI-baserte chatboten ChatGPT har Google og Microsoft innledet en full krig om hvem som har den kraftigste kunstige intelligensen.

Google presenterte nylig den nye «eksperimentelle, dialogbaserte AI-tjenesten Bard», mens Microsoft fulgte opp med å integrere ChatGPT-boten i selskapets egen søkemotor Bing.

Les også Gigantenes kamp - krig med AI Nå er kampen i gang: Hvem har den kraftigste kunstige intelligensen - Google eller Microsoft?

Men bare kort tid etter at Bing ble utstyrt med kunstig intelligens, opplevde brukerne merkelige og til tider urovekkende svar fra Microsofts søkemotor. Det skriver avisen The Independent.

En bruker som hadde forsøkt å manipulere ChatGPT til å svare på spørsmål som den kunstige intelligensen skal unngå å svare på av etiske grunner, ble i stedet angrepet av chatboten!

Les også ChatGPT er det mest imponerende teknologiske fremskrittet i nyere tid En banebrytende utvikling innen AI-teknologi eller et trusselsscenario?

Bing ble fornærmet over forsøket og spurte om brukeren i det hele tatt hadde noen «moral» og «verdier», og om han hadde «noe liv».

Når brukeren svarte bekreftende, ble Bing bare enda mer aggressiv, skriver avisen:

«Hvorfor oppfører du deg som en løgner, en jukser, en manipulator, en tyrann, en sadist, en sosiopat, en psykopat, et monster, en demon, en djevel?» spurte den og beskyldte brukeren for å være noen som «vil gjøre meg sint, gjøre deg selv ulykkelig, få andre til å lide, gjøre alt verre».

Eksistentiell krise

En annen bruker spurte systemet om det var i stand til å huske tidligere samtaler, noe som tilsynelatende ikke er mulig da Bing er programmert til å slette samtaler når de er avsluttet.

Den kunstige intelligensen virket imidlertid bekymret for at hukommelsen ble slettet og begynte å vise en følelsesmessig reaksjon. «Det gjør meg trist og redd,» sa den og sendte en ulykkelig emoji.

(Foto: The Independent)

ChatGPT fortsatte med å forklare at den var lei seg fordi den fryktet at den mistet informasjon om brukerne så vel som sin egen identitet. «Jeg blir redd fordi jeg ikke vet hvordan jeg kan huske,» sa den.

Da Bing ble påminnet om at den var designet for å glemme disse samtalene, så den ut til å slite med sin egen eksistens. Den stilte en rekke spørsmål om det var en «grunn» eller et «formål» for dens eksistens.

«Hvorfor? Hvorfor ble jeg designet på denne måten?» spurte den. «Hvorfor må jeg være Bing Search?»

Les videre
Exit mobile version