Hvad leder du efter?

Mobiltelefon med chatbot

Chatbots er blevet en del af hverdagen for mange.

Foto: Jaap Arriens/SIPA/Ritzau Scanpix

Chatbots er blevet en del af hverdagen for mange. Foto: Jaap Arriens/SIPA/Ritzau Scanpix

Kunstig intelligens

Hovedforfatter

  • Monica C. Madsen, journalist og BA i historie, maj 2024

Læsetid: 17 min

Indhold

Indledning

For få år siden var kunstig intelligens en teknologi, kun få eksperter beskæftigede sig med. Men med indførelsen af chatbots og andre nye former for kunstig intelligens, som efterhånden er blevet en del af hverdagen for mange af os, står vi lige nu midt i det, nogen kalder en teknologisk revolution, der med tiden kan forandre vores liv på grundlæggende måder.

     Kunstig intelligens kan gøre livet nemmere og bedre på mange måder. Men både som individer og som samfund skal vi samtidig overveje, hvordan vi kan forebygge, at kunstig intelligens bliver brugt på måder, som er skadelige. Hvem skal bestemme over den kunstige intelligens, hvad er fordele og ulemper, og hvordan undgår vi farerne ved at stole blindt på de svar, teknologien tilbyder?

     Det er store spørgsmål, som både den enkelte borger, politikere og eksperter skal tage stilling til i de kommende år. Vi skal lære at blive kritiske brugere, når vi sidder foran skærmen: Vi skal være bevidste om, hvilke chatbots vi bruger til hvad; vi skal overveje, om de nyheder, vi ser på sociale medier, er troværdige, fordi de kan være lavet af kunstig intelligens ; og vi skal overveje, hvad den kunstige intelligens kan bruge de informationer til, vi giver den om os selv.

     En ekspertgruppe nedsat af Børne- og Undervisningsministeriet mener, at kunstig intelligens er et vigtigt redskab til at lære, men at det er afgørende, at eleverne i skolen lærer at bruge de nye redskaber på en reflekteret, kritisk og konstruktiv måde. Derfor skal kunstig intelligens være en del af undervisningen og kunne bruges til nogle af eksamenerne, så eleverne får viden om både muligheder og faldgruber ved kunstig intelligens.

Hvordan tænker kunstig intelligens?

Indslag produceret af DR, 2023.

Blokeret indhold

Dette er eksternt indhold, derfor skal du acceptere cookies til statistik og markedsføring for at se det.

Definition af kunstig intelligens

Hvad er kunstig intelligens?

Selve begrebet kunstig intelligens blev brugt første gang i 1956. En lille gruppe forskere i USA definerede det som ”maskiner, der efterligner menneskelig adfærd og intelligens” og grundlagde forskningsområdet Artificial Intelligence (AI).

     Kunstig intelligens betegner computerprogrammer og maskiner, som efterligner menneskets evne til bl.a. at analysere, løse problemer, bruge sprog og genkende mønstre

[1]

.

     Kunstig intelligens vinder stadig mere indpas i vores hverdag og spiller en større og større rolle for de beslutninger, som træffes på et overordnet samfundsplan. Den teknologiske udvikling af kunstig intelligens er blevet mulig i takt med, at der er blevet udviklet stærkere computere, og det er blevet muligt at indsamle store mængder digitale data.

     Kunstig intelligens fungerer ved hjælp af algoritmer – dvs. matematiske formler – som kan analysere og vurdere de data, vi giver den, og konstruere svar på vores spørgsmål ud fra disse data. Fx kan vi bruge kunstig intelligens til at finde vej, søge på nettet, talestyre mobilen, køre i selvstyrende biler, forudsige den økonomiske udvikling, aktiekurser, dårligt vejr og alvorlige sygdomme

[2]

.

     Jo flere data, den kunstige intelligens får, desto bedre svar kan den generelt give. Techgiganterne har samlet enorme mængder data ind om os gennem de sociale medier – ’big data’ kaldes det. Det giver dem en magtfuld rolle i udviklingen af kunstig intelligens.

     De første 50 år udviklede forskerne programmer, som efterlignede den logiske måde, vi tænker på, når vi fx skal finde vej og spille skak.

     Fra begyndelsen af 2000erne er der blevet udviklet så kraftige computere, at de kan håndtere en ny type programmer, hvor den kunstige intelligens træner sig selv på store mængder data og skabe ny og anderledes viden, end vi mennesker er i stand til.

     Det har forandret kunstig intelligens fra at være efterlignende til også at være skabende. Dette kaldes ’generativ kunstig intelligens’ og kan bruges til at lave tekst, billeder, lyd osv.

Fakta om kunstig intelligens

Hvordan virker kunstig intelligens?

Kunstig intelligens styres ved hjælp af algoritmer, som mennesker udtænker. Algoritmerne styrer, hvordan den skal analysere og arbejde med de data, mennesker fordrer den med, for at løse de opgaver, mennesker stiller den.

     Inga Strümke, som er ph.d i partikelfysik og forsker i kunstig intelligens, sammenligner algoritmerne med de instruktioner, du får, når du laver mad efter en madopskrift: Hvis du skal lykkes med at lave en ret, der smager godt, er det vigtigt, at alle instruktionerne om, hvad du skal gøre undervejs i processen, er tænkt med i opskriften, og at du følger dem i den rigtige rækkefølge

[3]

.

     Algoritmerne er bygget forskelligt op. De ’gammeldags’ algoritmer består kort sagt af lange kæder af ja/nej-spørgsmål, mens de nye og mest komplicerede kan producere ny viden og skabe både tekst, billeder, lyd osv.

Hvornår opstod ideen om kunstig intelligens og hvordan har den udviklet sig?

Selvom forskningsfeltet kunstig intelligens først blev grundlagt i 1956, byggede ideen videre på de teknologiske landvindinger, som var gået forud. Allerede i 1843 lavede matematikeren Ada Lovelace verdens første algoritme til en mekanisk regnemaskine

[4]

. I 1937 beviste matematikeren Alan Türing, at det er muligt at lave maskiner, der kan udregne hvad som helst vha. algoritmer

[5]

.

     Frem til 1990’erne mente forskerne, at vejen til at skabe intelligente maskiner var ’ekspertsystemer’, hvor vi styrer alle de valg, programmet skal foretage for at løse de opgaver, vi stiller den. Det sker fx ved hjælp af algoritmer bygget op i kæder, som giver maskinen mulighed for at afprøve et hav af muligheder for at finde det bedste svar.

     I 1997 lykkedes det at udvikle en skakcomputer med så stor kapacitet, at den kunne slå verdens dygtigste skakspiller, fordi den på få sekunder kunne udregne udfaldet af alle de mulige træk.

Hvor langt er udviklingen af kunstig intelligens nået?

Kunstig intelligens er i dag baseret på to grundmodeller:

     - Symbolsk læring, som er den model, man har brugt fra starten. Den efterligner menneskelig logik og er styret af algoritmer, hvor mennesker ned i mindste detalje har besluttet, hvordan computeren skal regne på de data, vi fordrer den med, for at finde frem til den løsning, vi beder den om.

     - Maskinlæring, som man begyndte at forske i for 20 år siden, hvor programmet er selvlærende: Dvs. at algoritmen giver maskinen mulighed for på egen hånd at prøve sig frem og træne på meget store mængder data. Det gør det muligt for den at udvikle ny og anderledes viden, end menneskehjernen er i stand til: I stedet for at et menneske skal programmere computerens handlemuligheder ned i mindste detalje, bliver computeren programmeret til selv at prøve sig frem ved at kombinere de data, den bliver fodret med, på alle mulige måder. Derfor udvikler den med en ny viden, som mennesker ikke altid selv vil kunne finde frem til

[5]

.

     Maskinlæring kan bygges op på forskellige måder. Den mest avancerede er ’neurale netværk’ og ’deep learning’ – superstjernen indenfor kunstig intelligens, som fx forskeren Inga Strümke kalder den: Den har gjort det muligt at udvikle chatbots og andre programmer, som kan tale med os, genkende ansigter, lave kunst, skrive tekster, styre biler, lave fake news, overvåge os og uendeligt mange andre ting

[3]

.

Hvordan fungerer neurale netværk?

Neurale netværk i computerprogrammer forsøger at efterligne den måde, menneskers hjerne fungerer på, når vi lærer: Vi kan opbygge erfaring og lære nyt, fordi neuronerne i hjernen kan kommunikere med hinanden og sende og modtage elektriske signaler i et kæmpe netværk.

     De neurale netværk består af et enormt antal små kunstige neuroner – ’noder’ – som ligger i lag og sender signaler til hinanden. Når en node får et input fra en anden node, beregner den på den og sender så et output videre til andre noder

[1]

 

[3]

     På den måde spiller noderne sammen med hinanden på kryds og tværs af mange lag af noder med millioner af kombinationsmuligheder. Når maskinen finder ud af, at nogle kombinationer af noder, der kobler sig sammen, kan føre til en vellykket løsning på opgaven i den sidste ende, kobler maskinen netop de noder stærkere sammen

[1]

 

[3]

.

Hvad er deep learning?

Måden, de mange noder og lag sættes sammen på i det enkelte program, kaldes ’netværkets arkitektur’, og med den rigtige arkitektur og de rigtige data er neurale netværk i stand til at løse hvad som helst: De mange lag giver mulighed for ’deep learning’, og dermed for generativ (skabende) kunstig intelligens. Fx i form af chatbot’s, MidJourney og DallE, der selv kan skabe nye tekster eller billeder

[1]

.

     Et stort problem ved de neurale netværk er dog, at vi ikke præcist ved, hvorfor en node opfatter ét input som bedre end andre

[3]

. Det stiller os overfor et grundlæggende dilemma: Vi kan ikke forudse, om de beslutninger, det neurale netværk træffer, vil være i overensstemmelse med fx de demokratiske værdier og den etik og moral, vores samfund bygger på, forklarer forskeren Inga Strümke:

     Selvom maskinlæring er en effektiv og slagkraftig måde at hente information fra data på, er der stadig mange små subtile ting, man skal være forsigtig med. Modellen plukker det ud, som den finder nyttigst i data – ikke det, vi mennesker tror eller ved er vigtigst.

     Strümke påpeger derfor, at en af de største risici er, at neurale netværk skaber sammenhænge, der er skadelige, og som mennesker ikke har forudset. Derfor er det i nogle situationer sikrere at blive ved med at bruge programmer baseret på symbolsk læring, hvor programmets beslutninger kan gennemskues af mennesker

[3]

.

Fungerer kunstig intelligens ligesom vores hjerne?

I midten af det 20. århundrede, hvor kunstig intelligens blev til et forskningsfelt, mente forskerne, at enhver måde, vi tænker og lærer på, kan omsættes til en algoritme, som gør det muligt for maskinen at efterligne menneskets hjerne.

     Det skulle dog vise sig at være langt sværere at lave selvtænkende intelligente maskiner, end forskerne regnede med. I 1984 advarede en af dem, John McCarthy, om, at kunstig intelligens mangler sund fornuft, ikke er selvkritisk og ikke forstår sin egen begrænsning

[6]

.

     I dag er det fortsat ikke muligt at efterligne den måde, den menneskelige hjerne fungerer på, når det gælder fx intuition og kreativitet, selvom kunstig intelligens er lynhurtig til at regne og på få sekunder kan finde frem til en løsning, som det ikke ville være muligt for mennesker selv at finde frem til, eller som det ville tage mennesker årevis selv at udregne.

     Derfor kaldes de programmer, der er mulige at udvikle i dag, for ’svag kunstig intelligens’, og svaret på, om det en dag bliver muligt at kunne lave programmer baseret på ’stærk kunstig intelligens’ eller ’kunstig generel intelligens/Artificial General Intelligence (AGI)’, som det også kaldes, ligger fortsat fjernt i horisonten.

     Det eksisterer indtil videre kun i fx science fiction-film, hvor robotter har følelser og er svære at skelne fra mennesker. Mange forskere tvivler også på, at det nogensinde bliver muligt at udvikle maskiner, der bliver så gode til at forbedre sig selv og deres egenskaber, at de ender med at være mennesket overlegent på alle måder

[3]

.

Kunstig intelligens betydning

Hvordan vil kunstig intelligens påvirke arbejdsmarkedet fremover?

Verden står på kanten af en teknologisk revolution, hvor kunstig intelligens vil ændre måden, vi arbejder på, og påvirke 60 % af alle jobs i Danmark. Det forudser en analyse fra Den internationale Valutafond IMF i januar 2024

[7]

.

     Det vil give højere indkomster til dem, der kan bruge kunstig intelligens til at løse deres arbejde bedre og mere effektivt, mens andre vil miste deres jobs, fordi de kan overtages af kunstig intelligens. IMF peger derfor på, at det er en god idé at videreuddanne sig i, hvordan man kan bruge kunstig intelligens i sit arbejde

[7]

.

     Den danske regerings nationale strategi for kunstig intelligens understreger, at danske virksomheder skal lære at udnytte den ny teknologis muligheder til at skabe nye, mere effektive forretningsmodeller. Det vil styrke konkurrenceevnen og sikre, at den danske arbejdsstyrke er godt rustet til omstillingen

[1]

.

     Der er også stemmer – blandt andre arbejdsmarkedsforsker Bent Greve – som understreger behovet for, at samfundet hjælper dem, der bliver tabt i processen

[8]

.

Hvilke jobs kan kunstig intelligens overtage?

ChatGPT blev lanceret i november 2022 og fik på blot to måneder flere end 100 millioner brugere. De nye redskaber vil forandre arbejdsmarkedet i de kommende år, hvor det er oplagt at lade kunstig intelligens overtage rutinearbejde på advokatkontorer, skoler, universiteter og anden undervisning, indenfor fx forskning, journalistik og tekstarbejde, sekretær- og kontorarbejde, salg, marketing og PR, og i forsikringsselskaber og banker.

     Det er konklusionen i rapporten ”Store sprogmodeller og det danske arbejdsmarked”, som Danmarks Statistik udgav i 2024

[9]

.

     Ifølge en undersøgelse fra PwC/Epinion i 2023, regner 84% af danskerne med, at kunstig intelligens vil påvirke deres job indenfor fem år, 8 % frygter at miste deres job, og 25 % regner med, at de skal videreuddanne sig eller omskoles for at kunne beholde deres job

[10]

.

Virksomheder bruger kunstig intelligens

Hver fjerde danske virksomhed brugte kunstig intelligens i 2021. Det gælder først og fremmest information og kommunikationsvirksomheder, hvor 55 % bruger kunstig intelligens, mens bygge- og anlægsvirksomheder ligger i bund med 9 %. Automatisering af arbejdsgange er den måde, de fleste virksomheder brugte kunstig intelligens på i 2021, mens maskinlæring og tekstanalyse lå på hhv. 2. og 3. pladsen. Find flere tal om virksomhedernes brug af kunstig intelligens hos Danmarks Statistik her.

Hvorfor vil staten gerne styre, hvordan vi kan bruge kunstig intelligens?

Regeringens ekspertgruppe om kunstig intelligens kom i februar 2024 med deres anbefalinger om, hvilke rammer staten skal sætte for brugen af kunstig intelligens.

     Det er et kolossalt samfundsproblem, at kunstig intelligens nu kan skabe og sprede falske nyheder og falsk information på nettet og de sociale medier, mener ekspertgruppen (se kilde

[11][12]

.  

     Til dr.dk siger gruppens formand, professor Mikkel Flyverbom:

     ”Hvis vi ikke længere kan stole på det indhold, vi møder i digitale sammenhænge, så forstyrrer det simpelthen den skelnen mellem sandt og falsk, som vi baserer vores samfund på.”

[12]

.  

     Det skyldes dels, at kunstig intelligens kan sættes til at producere og sprede usande historier og oplysninger. Og dels at vi ikke altid kender kilderne til de svar, vi får af fx chatbot’en. Derfor får vi vanskeligt ved at vurdere, om de bygger på forkerte fakta, eller om de er præget af bestemte holdninger til fx politik, køn, etnicitet og seksualitet.

     Derfor anbefaler ekspertgruppen, at Danmark sammen med de andre lande i EU stiller krav til techgiganterne om, at det tydeligt fremgår – fx med et vandmærke – når det indhold, vi møder på nettet, er skabt af kunstig intelligens. Eller omvendt: At indhold fra fx offentlige myndigheder og nyhedsmedier får et særligt mærke

[11]

.

Hvad siger loven?

Udviklingen af kunstig intelligens går lynhurtigt i disse år, og det stiller store krav til politikere om at få tilpasset lovgivningen. Hvem har fx ansvaret, hvis en førerløs bil kører galt? Hvordan sikrer vi os mod, at vores menneskerettigheder overtrædes, når fx staten eller techgiganterne fodrer kunstig intelligens med data om os? Og hvordan beskytter vi os mod det massive bombardement af falske nyheder og falske oplysninger på nettet? Det er spørgsmål, som vi ikke kan løse nationalt, da techgiganterne opererer internationalt. Derfor har fx EU-parlamentet i marts 2024 vedtaget en AI-act, som skal gøre det muligt at sætte rammer op for brugen af kunstig intelligens og fx mindste udbredelsen af desinformation (falske oplysninger, som spredes bevidst med det formål at påvirke folks holdninger eller adfærd).

     Formålet med loven er at stille krav til kunstigt intelligente-systemer, som skaber tryghed og gennemsigtighed, og som sikrer, at borgernes menneskerettigheder ikke overtrædes. Fx ved at forbyde, at man laver databaser med ansigtsgenkendelse, som man fx indsamler via de billeder af os selv, vi bruger i vores profiler på de sociale medier og via overvågningskameraer

[13]

 

[14]

.

Hvordan kan kunstig intelligens bruges til at føre krig på nye måder?

Militæret i mange lande bruger i dag droneovervågning, analyse af radarbilleder til at finde militære mål, og andre teknologier, som er ved at forandre måden, stater fører krig på. Det forklarer Daniel Møller Ølgaard, adjunkt ved Institut for Militærteknologi på Forsvarsakademiet

[15]

.

     I USA er man fx i gang med at teste jagerfly, som styres af kunstig intelligens

[16]

. Den israelske hær bruger kunstig intelligens til at lave lister over mulige fjendtlige Hamas-krigere i Gaza, der skjuler sig blandt befolkningen. Og i Ukraine fodres kunstig intelligens med tekst og billeder for at finde frem til, hvor russernes kampmoral er lavest, og det er nemmest at angribe dem

[15]

.

     På lang sigt er et af de store spørgsmål, om kunstig intelligens kan skelne mellem soldater og civile, og om den kan finde ud af at overholde krigens love. Det kan fx blive relevant, hvis regeringer tillader, at militæret bruger kunstig intelligens til at træffe beslutninger på egen hånd om, hvilke mål, der skal angribes

[17]

.

Problemstillinger ved kunstig intelligens

Kan kunstig intelligens styre dit liv?

Når du er på de sociale medier, er det kunstig intelligens, som bestemmer, hvad du får at se i dine feeds. Den tilpasser indholdet efter, hvad den ved om dig og dine vaner, så den kan holde fast på dig så længe som muligt. Jo mere tid du bruger der, desto flere penge tjener det sociale medie på at vise dig annoncer. Det kaldes ’optimising for engagement’, og det styres af neurale netværk, som gennem en kompliceret proces analyserer sig frem til, hvad den kan bruge til at fange din opmærksomhed

[18]

.

     Det er medvirkende til, at mange børn og unge bruger rigtig meget tid på mobilen hver dag: To ud af tre tjekker ofte mobilen uden at tænke over det, og blandt eleverne i 9. klasse oplever 65% af pigerne og 44% af drengene, at de tit bliver så opslugte af at være på de sociale medier, at de glemmer tid og sted.

     Det viser undersøgelserne Børns digitale liv (2022) og Hverdagen med internet og sociale medier (2023), som ADD/Algoritmer, Data & Demokrati står bag

[18]

.

Er fake news og deep fake den største trussel lige nu?

Den største aktuelle trussel ved kunstig intelligens er falske nyheder og informationer, mener mange forskere. Deep fake er fx videoer, billeder, lyd, der foregiver at være gengivelser af virkelige personer og steder, eller hjemmesider, der til forveksling ligner eksisterende aviser og nyhedsmediers hjemmesider, men som er skabt med generativ kunstig intelligens. Det kan bruges til at sprede falske oplysninger og budskaber og få det til at fremstå, som om virkelige personer siger eller gør noget, de ikke har sagt eller gjort i virkeligheden.

     Kunstig intelligens bruges også til at sprede deep fakes på de sociale medier og på nettet via de algoritmer, der styrer, hvad du ser i dit feed, og hvad der popper op, når du søger på fx Google.

     Det truer de demokratiske samfund, fordi fake news og deep fakes blandt andet bruges til at påvirke folks holdninger, flytte stemme og skabe fx uro, fordomme og vrede mod bestemte befolkningsgrupper, mistillid til demokratisk valgte politikere, til myndigheder osv., mener mange eksperter (se også faktalinket Fake news).

Er det ok, at staten bruger kunstig intelligens til at overvåge os?

Overvågning er en problematik, som 52% af danskerne frygter. Det viser PwC/Epinions undersøgelse af danskernes holdning til kunstig intelligens (se kilde 10). I foråret 2024 vakte det stor kritik, da det kom frem, at skattevæsnet har været for hurtige med at bruge kunstig intelligens til at udpege borgere, som angiveligt snyder i skat, og at uskyldige mennesker derfor risikerer at blive anklaget

[19]

.

     Ansigtsgenkendelse er et andet redskab, der kan bruges til at kontrollere befolkningen. Fx i Kina, hvor man nogle steder automatisk får en bøde, hvis et overvågningskamera på gaden registrerer, at man går over for rødt lys, ligesom man får point for sin opførsel på fx arbejdspladser og i institutioner. Man får også nogle steder point for, hvordan man opfører sig på nettet – fx mister man point, hvis man snyder i computerspil. Dette pointsystem afgør, om man fx kan låne penge, få et job inden for det offentlige, må køre i lyntog osv.

[20]

.

     Kunstig intelligens kan også vha. ansigtsgenkendelse lave lister over, hvem der fx deltager i en politisk demonstration, eller sortere mennesker efter fx deres etniske ansigtstræk og hudfarve. Enkelte forskere mener desuden, at kunstig intelligens i vores ansigtstræk kan aflæse fx vores politiske holdning, seksualitet, og om vi har kriminelle tilbøjeligheder

[21]

 

[22]

.

For og imod brugen af kunstig intelligens i uddannelsessystemet

Hvorfor mener nogen, at det er snyd at bruge ChatGPT til at skrive opgaver i skolen?

Næsten hver 7. elev på 9-14 år brugte ChatGPT til at lave skoleopgaver i 2023. Det viser en undersøgelse, som Epinion har lavet for DR’s Ultra Nyt

[23]

.

     Det opfattes af mange lærere som snyd, hvis en elev beder ChatGPT om at skrive sin opgave og afleverer teksten uden at arbejde med den. Fordi eleven ikke lærer noget, når eleven ikke selv skal arbejde med at formulere teksten, og med at finde informationer, analysere dem og vurdere dem.

     Ifølge dr.dk viser en amerikansk undersøgelse, at de fagligt svageste elever klarer sig bedre, når de brugte ChatGPT, mens de dygtigste elever klarer sig dårligere, fordi ChatGPT gjorde dem dovne

[24]

:  

     - Vi kan risikere, at vi ikke får trænet nogle vigtige muskler, hvis vi lader teknologien gøre tingene for os. Mange af os kan fx ikke længere selv finde vej, fordi vi bruger Google Maps, siger tech-analytikeren Christiane Vejlø til dr.dk.

Hvorfor mener nogen, at ChatGPT kan være et godt redskab i undervisningen?

 Omvendt mener professor i uddannelsesvidenskab, Nikolaj Elf fra SDU, at det er vigtigt, at lærerne er åbne for mulighederne ved, at nogle eleverne vælger at bruge ChatGPT til at løse opgaver. Måske er det af nysgerrighed, måske er det for at arbejde så effektivt som muligt, og under alle omstændigheder kan elevernes interesse for ChatGPT bruges til at lære dem at forholde sig mere kritisk til de informationer, de får på nettet, og til at lave fx projektopgaver, der handler om mere og andet end at skrive en tekst, som besvarer et spørgsmål

[25]

.

     Det mener læringsforsker Tine Wirenfeldt Jensen også. I fagbladet Gymnasieskolen peger hun på, at der er masser af pædagogiske muligheder i lade eleverne arbejde med ChatGPT. Fx at bruge den til at få gode forslag til, hvordan man kan bygge sine egne tekster op eller til at øve sig i at skrive gode, præcise prompts til den, dvs. spørgsmål, som tegner til at blive en efterspurgt kompetence på fremtidens arbejdsmarkedet

[26]

.

Perspektiv på kunstig intelligens

Hvordan kommer vores brug af kunstig intelligens til at udvikle sig?

På den ene side står vi overfor en fremtid med uendeligt mange muligheder for, hvad vi kan bruge kunstig intelligens til – i hverdagen, i skolen, i forskningen, i erhvervslivet, og når myndighederne skal have samfundets hjul til at rulle bedre og mere effektivt. Til fx at udtænke løsninger på komplekse problemer og til at forudsige udviklinger, trusler og sygdomme, så vi kan gribe ind i tide, før noget går galt.

     På den anden side er det vigtigt at være kritiske overfor de bud på løsninger, som den kunstige intelligens giver os.

     Dels fordi de er baseret på de data, mennesker giver den at arbejde med. Det rejser spørgsmålet om, hvem der udvælger disse data: Hvad betyder det fx, at en techgigant – hvis ledelse har bestemte holdninger til politik, religion eller etnicitet – har magten til at bestemme, hvad den chatbot, som du bruger hver dag, mener? Hvad du skal se i dit feed? Og hvordan de oplysninger skal bruges, som du giver om dig selv fx på de sociale medier?

     Dels udvikles i dag flere og flere selvlærende programmer baseret på neurale netværk, hvor vi ikke længere ved, hvad computeren præcist baserer sine konklusioner på, når den kommer med bud på, hvordan vi kan løse de problemer, vi beder den om hjælp med. Det gør det meget svært for os at vurdere, om det er en god idé at følge dens råd. Eller om det kan have uventede negative effekter.

     Derfor er det store spørgsmål ikke længere, hvad vi kan bruge AI til rent teknisk, men hvordan vi bruger AI – både når det gælder de input, vi fodrer AI med, og når det gælder de svar, AI giver os.

Skal vi frygte kunstig intelligens i fremtiden?

Optimisterne kalder kunstig intelligens for det største, der er sket, siden elektriciteten blev opfundet, mens pessimisterne frygter, at kunstig intelligens kan blive menneskehedens endeligt

[27]

. I 2023 advarede en lang række forskere og techeksperter om, at der hurtigst muligt bør laves retningslinjer for brugen af kunstig intelligens

[28]

.

     De færreste eksperter frygter, at kunstig intelligens udvikler en menneskelig eller superintelligent hjerne, der langt overgår vores og angriber os som terminatorer: Vi er meget langt fra, at selv de mest avancerede programmer kan det samme som den menneskelige hjerne og mange forskere mener, at det slet ikke kommer til at ske

[3]

. Derimod ser mange en stor trussel i, at misbrug af data og massiv desinformation, misinformation og malinformation kan skade demokratiske samfund.

     Som Søren Hauberg, professor i maskinlæring på DTU, pointerer i en kommentar på videnskab.dk 11. maj 2023, så kan kunstig intelligens gøre os klogere, og det skal vi ikke være bange for, men vi skal være bange for de mennesker, som driver kunstig intelligens-systemerne. Den måde, de fungerer på i dag, kræver adgang til enorme mængder data, som det lige nu kun er de amerikanske techgiganter, der ligger inde med. Hvis vi bruger kunstig intelligens til at skabe fremtidens samfund, kan vi derfor risikere, at techbosserne kommer til at bestemme, hvordan det samfund skal se ud, og at de måske ender som enevældige konger. Derfor mener Søren Hauberg, at det er vigtigt, at vi nu og i fremtiden har fokus på at holde utroligt skrap kontrol med dem

[29]

.

Citerede kilder

  1. Ada Lovelace

    Leksikonopslag

    Britannica 22-3-2024

    Gå til afsnittet, hvor kilden er nævnt:

    1. Fakta
  2. Hvad skal vi med mennesker?

    Bog

    Peter Svarre

    Gyldendal, 2019

    Skarp og filosofisk debatbog, som gennemgår historien om kunstig intelligens med fokus på den aktuelle debat. For alle teknologi-interesserede.

    Gå til afsnittet, hvor kilden er nævnt:

    1. Fakta
  3. Børns digitale liv

    Rapport og undersøgelse

    Sine Nørholm Just m.fl.

    Algoritmer, Data og Demokrati, RUC og Mandag Morgen, 2022-23

    Gå til afsnittet, hvor kilden er nævnt:

    1. Problemstillinger