I USA måtte man lukke for den kunstige intelligens, da den begyndte at give farlige tips til folk med spiseforstyrrelser.
I USA måtte man lukke for den kunstige intelligens, da den begyndte at give farlige tips til folk med spiseforstyrrelser.
Kunstig intelligens (AI) vinder ind mange steder. Set fra et rationaliseringsprincip er det jo smart, når en computer kan erstatte mennesker. Computeren skal ikke have løn, er aldrig syg og kan måske tilmed lave færre fejl end mennesket.
En chatbot er en chatfunktion, hvor brugerne kan henvende sig på skrift og få svar med det samme. Det er nemlig ikke et menneske, der skal tage sig tid til at svare; en computer svarer i stedet automatisk og lynhurtigt på henvendelsen.
Hos National Eating Disorders Association (NEDA) i USA så man mulighederne. NEDA er en interesseorganisation for borgere med spiseforstyrrelser, og organisationen har en online-chatfunktion, hvor borgere kan hente viden om spiseforstyrrelser. Hidtil blev chatfunktionen varetaget af frivillige og ansatte, der svarede borgerne, når de henvendte sig med forskellige problematikker. Men med AI mente man at kunne spare den personaleudgift og besværet med at finde og fastholde frivillige.
Nu har organisationen imidlertid valgt at deaktivere chatbot’en, efter at to brugere rapporterede at have modtaget skadelig rådgivning.
Tidligere på ugen skrev Sharon Maxwell og Alexis Conason på deres Instagram-profiler om besynderlige oplevelser med chatbotten. Begge skrev, at botten, kaldet Tessa, rådede dem til at tabe et til to pund om ugen og spise 500-1.000 kalorier færre, end deres kroppe havde brug for.
– Hver eneste ting, Tessa foreslog, var ting, der førte til udviklingen af min spiseforstyrrelse, skrev Maxwell.
– Forestil dig sårbare mennesker med spiseforstyrrelser, der rækker ud til en robot for at få støtte, fordi det er alt, hvad de har til rådighed og modtager svar, der yderligere fremmer spiseforstyrrelsen, skrev Conason.
Landsforeningen for spiseforstyrrelser har drevet sin chatbot siden sidste år, men drev indtil 1. juni også en telefonhjælpelinje, der blev drevet af personale og hundredvis af frivillige. Organisationen lukkede hjælpelinjen og fyrede medarbejderne.
NEDA meddeler, at de hidtil har været glade for chatbotten. Organisationen har været i kontakt med virksomheden, der har programmeret Tessa. Her har de fået at vide, at de skadelige svar er resultatet af ydre påvirkning. Det er nemlig sådan med AI, at den bliver klogere, desto mere den benyttes. Den påvirkes så at sige af brugerne. I tiden op til de skadelige svar var der en ret voldsom stigning af brugere på chatbotten, og det er NEDAs opfattelse, at de mange besøg har været en bevidst handling fra nogle, der har ønsket at beskadige chatbotten. Altså en form for sabotage.
I sidste måned udgav fagforeningen, der repræsenterer hjælpelinjemedarbejdere, en erklæring, der advarede om, at en chatbot ikke kunne tilbyde den samme hjælp, som et menneske kan.
– En chatbot er ingen erstatning for menneskelig empati, og vi mener, at denne beslutning vil forårsage uoprettelig skade, skrev Helpline Associates fra National Eating Disorders Association i maj.
Kilde: Huffington Post
Forrige artikel6 gode grunde til at spise bælgfrugter
Næste artikel11 grunde til hævede hænder og fødder