AI - Artificial Intelligence
Af Jan Mølgaard

Offentliggjort: 15. februar 2017

I forbindelse med fremlæggelsen af trekløverregeringens regeringsprogram blev der sat fokus også på en række teknologiske begreber, som alle blev koblet ind i en forståelsesramme med den overskrift, at regeringen ønsker at ”gøre Danmark rigere”.

I programmet kan man læse følgende: ”Den internationale åbning af markeder, globaliseringen og den stadigt hastigere teknologiske og digitale udvikling giver Danmark og resten af verden nye muligheder for øget velstand. De muligheder skal vi gribe og udnytte samtidig med, at vi holder fast i de grundpiller, som vores velfungerende samfund bygger på. Vi skal fortsat være et land, hvor der ikke er store skel mellem mennesker.”

Og lidt længere nede i teksten - men i samme hovedafsnit - står der: ”Robotteknologi, kunstig intelligens [1] og digitalisering kan give os fordele, men stiller også nye krav til medarbejderne – om større fleksibilitet, nye kompetencer og livslang uddannelse. ”

Faktisk er dette med teknologien så fremtrædende, at regeringen har besluttet sig for at oprette et såkaldt disruptionråd: ”Regeringen vil oprette et partnerskab, hvor arbejdsmarkedets parter, virksomheder, eksperter og relevante ministrer skal drøfte og analysere fremtidens arbejdsmarked. Partnerskabet skal drøfte, hvordan vi sammen skal sikre et stærkt Danmark, hvor vi får grebet mulighederne i den teknologiske udvikling bedst muligt, og hvor alle kommer med i udviklingen og får del i den velstandsudvikling, som globalisering og ny teknologi giver os mulighed for. Partnerskabet skal samtidig drøfte, hvordan vi kan fastholde og udbygge et arbejdsmarked, som både er kendetegnet ved dynamik og ordentlige forhold, og hvor der ikke sker social dumping.”

Disruption er der for så vidt intet nyt i - ikke andet end begrebet. Det dækker over det fænomen, at nogen produktionsvirksomheder ikke er i stand til eller ønsker at følge den teknologiske udvikling og den forældelse, som udspringer af den og derfor ender med at stå med en produktportefølje, som markedet ikke længere efterspørger. Som man kort efter fremlæggelsen af regeringsprogrammet kunne læse på DR’s hjemmeside: ” Direkte oversat fra engelsk betyder disruption forstyrrelse eller afbrydelse. Men disruption er også et modeord, som enhver konsulent, iværksætter og nu også politiker bruger i flæng. Oftest i den betydning, som professor Clayton M. Christensen fra Harvard University har opfundet: En virksomhed, der gennem innovation af nye produkter og services undergraver eller nedbryder en eksisterende branches typiske forretningsmodeller. Disruption har altså rod i den eksisterende orden, men i munden på politikere og iværksættere bliver disruption derfor ofte ophøjet til noget nærmest revolutionært og samfundsomstyrtende.”

Sådan har kapitalismen altid udviklet sig. Og begrebet er egentlig blot en smart betegnelse for noget, der er blevet demonstreret gang på gang igennem kapitalismens historie. At sætte fokus på disruption betyder med andre ord ikke andet end at sætte øget fokus på konkurrenceevnen og i den sammenhæng også på den løbende teknologiske forældelse.

Hvad angår robotteknologien, så er det heller ikke noget nyt. I en bestræbelse på at reducere de samlede udgifter til køb af arbejdskraft har kapitalen altid drømt om at kunne erstatte den levende arbejdskraft med maskiner, der - i modsætning til arbejdskraften - ikke stillede krav, ikke havde brug for pauser eller restituering, ikke holdt pauser, ikke blev nedslidt (andet end i teknisk forstand) og ikke blev syge eller havde brug for ny uddannelse. Robotteknologi er i øvrigt blevet brugt igennem hele kapitalismens historie - fra vævemaskiner med hulkortstyring og frem til i dag. Det nye er ikke teknologien eller det teknologiske paradigme - det nye er, at denne teknologi med den eksplosive udvikling af computerne nu i stigende grad bliver en teknisk og organisatorisk mulighed, som også ud fra en økonomisk betragtning er attraktiv. Processorprisen er faldet, prisen på hukommelsesmodulerne er faldet, og ydeevnen på teknologien er vokset. Flere og flere relativt enkle og ofte gentagne processer kan nu udføres af digitalt styrede maskiner - teknologien har udviklet sig til at kunne gøre brug af mønstergenkendelse - genkendelse af grafiske strukturer - og selve programmeringsteknikken er blevet så kraftfuld, at en lang række processer nu helt kan undvære indblandingen af manuelt arbejde. Man skal kunne styre robotterne, kontrollere robotkapaciteten og efterbehandle de store mængder af data, som processerne afkaster.

Altså igen intet nyt under solen. Drømmen har været der hele tiden. Hvad man har manglet, har været en implementering af teknikken og en økonomi, der var / er attraktiv set i forhold til proceskravet.

Heller ikke det tredje begreb i opregningen fra regeringsgrundlaget - kunstig intelligens eller AI - er noget nyt. Og heller ikke her betyder introduktionen af begrebet på den politiske scene reelt andet, end at man her sætter fokus på endnu en våd drøm hentet i direktionslokalerne.

Man talte allerede om kunstig intelligens for mange år siden. Faktisk har computerfolk talt om det som en mulighed (og måske som en trussel) i over 50 år.

I Wikipedia kan man læse følgende: ”I 1950 forslog Alan Turing [2] en måde hvorpå man kunne fastslå om en maskine virkelig var intelligent. I Turings test skulle en person, via en computer, skrive med både et andet menneske og en kunstig intelligens. Hvis testpersonen ikke kunne gætte hvem af de to der var programmet, ville det være intelligent.

For at et program skal klare testen bliver det nødt til at have følgende evner:

  • Kundskab til naturlige sprog. Det skal kunne grammatik, tegnsætning osv.
  • Hukommelse. Det skal være i stand til at huske de vigtige detaljer det får at vide.
  • Fornuft. Det skal kunne svare på spørgsmål og drage konklusioner.
  • Lære. Det skal kunne tilpasse sig til nye situationer.

Standard Turing testen undgår direkte kontakt mellem programmet og brugeren. Derfor har moderne dataloger skabt den ultimative Turing test, eller Total Turing Test som den kaldes. Testen er udvidet med et kamera og muligheden for brugeren at sende objekter til programmet. For at bestå total turing testen skal programmet bruge:

  • Syn. Det skal være i stand til at fortolke de billeder det ser af brugeren.
  • Bevægelse. Det skal kunne håndtere de objekter det modtager fra brugeren, samt fortolke hvad de er.”

Det bemærkelsesværdige ved denne definition er, at den kun opererer med en afgørende genkendelsesfaktor. Hvis et menneske, der kommunikerer med både et program og et andet menneske, ikke er i stand til at afgøre, hvad der er hvad, så er programmet udtryk for kunstig intelligens. Uanset om det faktisk er tilfældet eller ej. Det vil sige, at et program, som er i stand til at narre det menneske, der kommunikeres med, så er det intelligent.

Logisk set holder denne definition ikke stik. Det eneste, man kan konkludere ud fra en test af den karakter, er at et program, der er konstrueret snedigt nok til at narre et menneske, er intelligent. Hvilket ikke er det samme, som at det er det.

For at det giver mening at sige, at et program er intelligent, må det kræves, at programmet alene og uden menneskelig indblanding er i stand til at foretage de samme operationer, som den menneskelige intelligens er. Og her er lang vej endnu.

Én ting, som alle computereksperter dog er enige om, er at en computer, der i princippet kunne være i stand til at huse kunstig intelligens, dels skal være ekstremt kraftfuld, dels skal være i stand til - principielt set - at kunne fungere på samme måde som den menneskelige hjerne. I hjernen er der skønnet 85 billioner hjerneceller, og samtlige celler kan - igen i princippet - forbinde sig med og udveksle signaler med samtlige andre celler. Hjernen er opdelt i en række specialiserede områder, der hver for sig - igen i princippet - tager sig af bestemte opgaver. I den Store Danske kan man se nogle forsimplede snit af den menneskelige hjerne, der i grove træk viser, hvilke centre som tager sig af hvilke opgaver:

[3]

I et vist omfang er hjernens fysiologi beskrevet. Men det at få beskrevet fysiologien er ikke det samme som at man - dækkende - kan beskrive og forklare et fænomen som bevidstheden - eller for den sags skyld et fænomen som intelligensen. Hvordan man bevæger sig fra hjernesubstans, centre, nervebaner og hjerneceller til hukommelse, erfaring, deduktion, sansning … ja, bevidsthed … er endnu ikke forklaret. Og som følge heraf er fænomenet intelligens heller ikke forklaret. Faktisk er der skoler indenfor forskningen, der påstår, at det aldrig nogensinde vil være muligt at forklare disse ting til bunds - alene af den årsag, at bevidstheden selv er involveret i forklaringen.

Den enkle (men også meget komplicerede) påstand må logisk set være, at man ikke - så længe man ikke kan give en fuldt dækkende forklaring på hjernefunktionerne og begrebet intelligens - heller ikke vil være i stand til at efterligne intelligensen via tekniske midler. Ligesom den enkle (men også meget komplicerede) påstand logisk set må være, at så længe bevidstheden ikke er forklaret, så kan man heller ikke efterligne intelligensen via tekniske midler.

Jamen, siger nogen så, har man ikke i de senere år dels været i stand til at konstruere processorer, der i deres arkitektur er meget tæt på at efterligne hjernens struktur? Og har man ikke rent faktisk været i stand til at konstruere systemer, der er det, man kalder selvlærende?

Jo, hvis man skal tro videnskabsjournalisterne, så har man eksperimentelt konstrueret den slags processorer. I en udsendelse fra det lidt poppet navngivne, men dybt seriøse TV-magasin So Ein Ding (du kan se udsendelsen ved at klikke her) så har IBM lavet sådan én. Udgangspunktet var en skematisk model af den menneskelige hjerne. Denne model blev brugt til at køre en hjernesimulation på en meget stor, meget kraftfuld og meget moderne computer på IBM’s udviklingslaboratorium i Almida (for dem der interesserer sig for den slags: 96 racks i Blue Gene/Q Sequoia med 1,5 million processorer og 1,5 petabyte memory). Ikke desto mindre var den simulering, som blev lavet 1500 gange langsommere end det, man forsøgte at simulere. Ifølge den ekspert, som blev interviewet i programmet, ville en proces, der var i stand til at simulere processerne i realtime kræve hvad der svarer til 10 Gigawatt. I forlængelse heraf har man så i laboratoriet fremstillet en chip med 1.000.000 neuroner og 256.000.000 synapser - og denne chip bruger ikke mere energi end et høreapparat. Denne arkitektur er så kombineret i et elektronisk neuralt netværk. De enkelte chips kan herefter sættes sammen i det nødvendige antal til, at man når den samme kapacitet som en menneskelig hjerne. I en kasse på omkring 20x20x20 centimeter. Med et forsvindende lille strømforbrug og uden de kølingsmæssige problemer som den ordinære supercomputer her. Så man har - eller er ved at have - principielt set brugbar teknologi til at simulere hjernens aktivitet. Hvad man derimod ikke har, er evnerne og den nødvendige viden til at programmere denne computerkraft. Og hvad man heller ikke har, er den nødvendige viden til ikke blot at simulere en enkelt proces i hjernen, men den samlede funktion af den. I den forstand eksisterer kunstig intelligens ikke.

Hvad så med de såkaldte selvlærende systemer? Eksisterer de?

Google har lavet en maskine (Google Alpha Go [4]) og et program, der kan slå enhver mester i det japanske spil Go. Det er bevist, at denne kombination virker. Systemet er ikke alene i stand til at håndtere de store mængder af data, der knytter sig til det at spillet Go. Det har i praksis vist, at det er i stand til at formulere nye regler og nye strategier - altså generere (i en vis forstand) ny viden, der ikke er rummet i den datamængde, som man har fodret systemet med.

Og Google’s system er ikke det eneste eksempel.

IBM har konstrueret programmer, der er blevet brugt til at slå stormestre i skak.

Og Facebook og andre arbejder seriøst med at integrere AI-principper i en række løsninger - navnlig omkring billedgenkendelse.

Det findes også danske eksempler - Simens og Vestas har begge lavet og implementeret AI-baserede systemer, der overvåger deres vindmøller, registrerer enorme mængder af data omkring driften, og nu er i stand til langt mere præcist og langt tidligere at udpege de vindmøller, som forventeligt får tekniske problemer.

Men - og det er det centrale - ingen af disse systemer er i egentlig forstand intelligente. De kan - ligesom de selvlærende systemer, man har lavet tidligere - indenfor et enkelt afgrænset område, der i princippet er regelbåret, registrere, behandle og analysere enorme mængder af data, og de kan indenfor deres egne snævre områder levere anbefalinger, diagnoser eller vurderinger, som det kan lade sig gøre at handle ud fra.

Når regeringen - eller de teknologiske eksperter - tale om AI, så er det med andre ord meget snævre områder, de taler om. Og det er intelligens-lignende systemadfærd de refererer til. Hardwarebaserede og softwarebaserede systemer, der reelt kan fungere som menneskelig intelligens, findes ikke. Og det er indtil videre et meget stort spørgsmål, om de nogensinde vil kunne laves.

Hvorfor så overhovedet beskæftige sig med den slags?

Ligesom man kan teoretisere omkring menneskelig intelligens med det mål at definere, forklare og beskrive fænomenet, så kan man også gå den modsatte vej. Ud fra tekniske løsninger kan man definere den menneskelige intelligens. Hvis man antager eller postulerer, at selvlærende systemer ER intelligente, så betyder det - hvis man springer mellemregningerne over - også, at de løsninger, som systemerne leverer, er udtryk for intelligens. Eller sagt på en anden måde: Løsningerne er kloge. Og ikke alene er de kloge - de er de eneste rigtige.

På flere og flere områder laver man løsninger af denne karakter. Et lille udpluk af overskrifter fra den seneste tid:

Politiets nye it-system skal forudse forbrydelser - nyhed på DR’s hjemmeside. [5]

Robotter og AI kan indtage den offentlige sektor i Storbritannien - nyhed på newz.dk [6]

Kunstig intelligens skal fjerne chikanerende kommentarer og falske nyheder på internettet - nyhed på IDA-Universe [7]

Forsikringsfolk erstattes af kunstig intelligens - nyhed fra Forsikringsforbundet [8]

Tal med en robot: De skal klare forsikring og pensionsopsparing - nyhed fra Fyens.dk [9]

Kunstig intelligens kan regne ud hvad du fejler - nyhed i Information [10]

Og de er fundet på under et kvarter med Google.

Meget regelbundne områder dækkes ind af selvlærende systemer - systemerne læres op af de medarbejdere, der tidligere arbejdede på området - og derefter træffes rutinemæssige beslutninger af systemerne og ikke af mennesker. Kun de beslutninger, som ikke kan træffes entydigt af systemet, henvises til menneskelig behandling. Og jo flere afgørelser, som systemerne får data om, jo flere beslutninger kan de selv håndtere. Uden menneskelig indblanding.

I nyheden ovenfor er der tale om et japansk forsikringsselskab, men der er også danske selskaber, som er begyndt at anvende teknologien. Ligesom den også i stigende grad bruges som diagnostisk værktøj indenfor det medicinske område, til marketingstøtte, til vurderingsopgaver i det offentlige - f. eks. på skatteområdet eller på andre regeltunge områder - til militærstrategiske vurderinger - til kundesupport. Og så videre.

Problemet ved samtlige systemer er tredobbelt:

For det første: De selvlærende systemer lægger ud med at blive fodret med en lang række af regler, der siger noget om, at hvis et antal af betingelser er opfyldt, så er konklusionen sådan og sådan. Over tid er systemerne opbygget således, at de supplerer disse regelsæt med nye regler, hvor præmisserne er andre (eller hvor der er en bestemt afvigelse i dem), og hvor tilbagemeldingerne så bliver anderledes. Når en GO-robot pludselig leverer et forslag til et træk i spillet, som ikke er ét, den på forhånd er blevet forsynet med - og når dette træk - denne kombination af betingelser og den slutning, som kan trækkes ud af dem - ikke længere er en kendt regel, så opstår det problem, at robottens adfærd (uanset hvor succesfuld anbefalingen er) ikke længere kan beskrives ud fra et kendt sæt af regler. I panegyrikken beskrives dette som intelligent adfærd. Men reelt betyder denne adfærd, at systemet har unddraget sig programmørens kontrol - og at den nye regel fremover indgår i systemadfærden, uanset om den så faktisk er ønskelig eller ej.

For det andet: De selvlærende systemer vil få en tendens til - fordi de er hurtige til at systematisere enorme mængder af data og til at bruge disse data i en eller anden specifik adfærd (er effektive) - at indstifte tilsyneladende rationalitet uden menneskelig indsigt. De menneskelige brugere af systemerne er ikke i stand til at korrigere fejlagtige systemanbefalinger, når systemerne først er sat i drift. Af den simple årsag at mængden af data, som danner grundlaget for de maskinelt producerede regler, er så stor, at den menneskelige hjerne ikke kan overskue den. Den eneste vej uden om dette problem er ”learning by failing”. Hvis maskinelle regler fører til utilsigtede beslutninger (hvis for eksempel et diagnosesystem leverer fejlagtige diagnoser, der fører til en uhensigtsmæssig behandling), så kan man forsøge at korrigere ved at oprette nye regler eller undtagelser fra regler. Men ikke før det viser sig, at diagnosen har været forkert.

For det tredje: Alle systemerne baserer sig i sidste ende på data hentet andre steder fra. En stor del af disse data kan selv være produceret af andre systemer. Men hvis dataregistreringen er fejlbehæftet - eller hvis registreringen af data baserer sig på fejlagtige antagelser, så kan større eller mindre dele af datagrundlaget være enten fejlbehæftet eller direkte misvisende. Når for eksempel Facebook i omfattende omfang registrerer brugeradfærd (hvilke nyheder kan man godt lide, hvilke personer relaterer man sig mest til, hvilke annoncer responderer man på, hvilke billeder ser man eller offentliggør og så videre) så er anvendelsen af disse data bundet op til bestemte fortolkningsmønstre. Betyder det, at man liker et opslag faktisk, at man kan lide det - eller blot at man har bemærket det? Betyder det, at man responderer på en annonce for eksempel, at man muligvis er interesseret i at købe den vare, annoncen promoverer? Betyder det, at man offentliggør et billede, at billedets indhold faktisk betyder noget for en - og givet fald, hvad betyder det så? Skal man bruge brugerens adfærdsdata til at målrette annoncering, så er man nødt til at antage, at bestemte former for brugeradfærd signalerer bestemte værdier. Man skal med andre ord indbygge helt bestemte overordnede forklaringsmodeller i systemerne. Gør brugeren sådan og sådan, så er det udtryk for det og det. Men den initiale datatolkning kan være forkert - fordi de grundlæggende modeller er det. Også selvom de handlinger, som systemerne udløser rent faktisk godt - blandt andet fordi datamængderne er så enormt store, som tilfældet er - kan se ud, som om de er korrekte - eller i det mindste korrekte i et acceptabelt omfang.

Vi kommer med andre ord til at stå med en stadigt voksende mængde af beslutningsstyrende systemer, der ikke kan kontrolleres eller korrigeres, medmindre de laver graverende fejl, som betjener sig af regler, der unddrager sig menneskelig kontrol - og systemer der kan tænkes at begrave selv graverende fejlfortolkninger i enorme mængder af data. Eller formuleret lidt anderledes: Systemer der i ordets egentligste forstand bliver selvkørende. Den eneste måde at kontrollere disse systemer på, er at lave nye systemer, som kontrollerer systemerne.

I en af Informations artikler om kunstig intelligens (alle tekster i tillægget kan ses ved at klikke her) citeres den tysk-amerikanske datalog Joseph Weizenbaum for at have sagt, at ”at computere aldrig må tage afgørende beslutninger, der vedrører mennesker, idet de mangler vigtige menneskelige kvaliteter som reel empati og visdom. (…) computeren (er en) konservativ kraft, der kan ende med at hindre sociale fremskridt. Den vil kunne effektivisere ethvert system til en grad, der vil forhindre nytænkning af måderne hvorpå, vi bygger vores systemer.”

Det er den humanistiske, socialkritiske vinkel - den traditionelt fagforeningsorienterede er den, der siger, at robotter og AI kommer til at koste menneskelig arbejdspladser og indstifte en ulige konkurrence mellem maskiner og mennesker på arbejdspladsen.  Den tredje kritiske vinkel er den, der siger, at vi - med introduktionen af selvlærende systemer på en række områder - reelt opgiver den menneskelig kontrol og understøtter en logik, der er maskinel og selvstændiggjort - en virkelighed hvor markedslogikken kan underlægge sig al menneskelig adfærd og styre den uden undtagelser.

Tim Harford - teknologiskribent og økonom - siger i et interview i Information med reference til Air France-flyet - en Airbus 330 - som styrtede ned på vej fra Rio de Janeiro i Brasilien til Paris følgende: ”Piloterne havde vænnet sig til at flyve med autopilot, så da systemet satte ud, var de ikke forberedte. Hvis vi beder computere om at gøre alting for os, så glemmer vi selv, hvordan man gør. Det er ikke nødvendigvis et problem, for autopiloten har gjort flyvningen meget mere sikker, men det skaber en helt ny slags problem.” [11]

Det er en korrekt observation i relation til selve ulykken. Men det er også en korrekt observation i det bredere, sociale perspektiv.

Tim Harford opsummerer problemet i form af tre elementer:

”For det første (bliver) intelligente systemer så nemme at håndtere, at de kan skjule svagheder hos de menneskelige operatører. Det er et problem, hvis maskinen fejler. Her bliver det andet element (…) tydeligt: Automatiseringen udhuler vores færdigheder, fordi vi overlader vores arbejde til maskinen, og dermed ikke opretholder vores egen træning. Og det leder til det tredje element i paradokset. Et hvilket som helst system vil på et eller andet tidspunkt fejle, og jo bedre det er, jo mere usædvanlige er de situationer, hvor det sætter ud, og så meget desto værre er vi forberedte.”

Og man kunne supplere med, at jo flere processer, der bliver overdraget til systemer og maskiner der fremstår som ufejlbarlige - til trods for at de ikke er det - jo flere beslutninger, som overlades til teknologi - jo mindre bliver det menneskelige råderum. Og i det perspektiv minder hele tankesættet omkring Artificial Intelligence om det tankesæt, som - med mindre og mindre succes - omgiver det kapitalistiske marked. I lang tid var det et credo at sige, at blot man overlod prioriteringer til det frie marked - og jo flere menneskelige livsområder, man lod markedet underlægge sig - jo mere rationelt ville virkeligheden gebærde sig.

Og se engang hvordan det er gået.

 

[6] Se nyheden ved at klikke her - Intro: ”Ifølge tænketanken Reform kan Storbritannien i 2030 spare op til fire milliarder pund om året, ved at udskifte 90 procent af regeringsadministrationen, samt titusindvis af ansatte ved National Health Service, med hjemmesider og chat-bots. Maskiner kan diagnosticere og foretage rutine undersøgelser bedre og hurtigere end hvad mennesker er i stand til.”

[7] Se nyheden ved at klikke her - Intro: ”Chikanerende kommentarer og falske nyheder er et stort problem på internettet. Nu skal kunstig intelligens være med til at afhjælpe problemet. Men kan man lære en computer at skelne mellem disse?”

[8] Se nyheden ved at klikke her - Intro: ”Det japanske forsikringsselskab Fokoku Mutual Life Insurance erstatter nu 34 medarbejdere med kunstig intelligens fra IBM.”

[9] Se nyheden ved at klikke her - Intro: ”Inden for et par år vil robotter overtage mere end 50 procent af det arbejde i Pension Danmark, som menneskehænder udfører i dag. Ved hjælp af kunstig intelligens skal de blandt andet agere kundesupport over telefonen.”

[10] Se nyheden ved at klikke her - Intro: ”I et start-up på Nørrebro gør de det, alle taler om: bruger kunstig intelligens til at skabe smartere løsninger. Deres teknologi kan – potentielt – redde flere liv på 112.”