Det fælles og tilbagevendende syn på de seneste gennembrud inden for forskning i kunstig intelligens er, at sindige og intelligente maskiner bare er i horisonten. Maskiner forstår mundtlige kommandoer, skiller billeder, kører biler og spiller spil bedre end vi gør. Hvor meget længere kan det være, før de går blandt os?
Den nye rapport fra Det Hvide Hus om kunstig intelligens indtager et passende skeptisk syn på drømmen. Det siger, at de næste 20 år sandsynligvis ikke vil se maskiner "udviser bredt anvendelig intelligens, der kan sammenlignes med eller overstiger menneskers," selvom det fortsætter med at sige, at i de kommende år vil "maskiner nå og overskride menneskelig ydeevne på mere og flere opgaver. " Men dens antagelser om, hvordan disse kapaciteter vil udvikle sig, gik glip af nogle vigtige punkter.
Som AI-forsker skal jeg indrømme, at det var rart at få mit eget felt fremhævet på det højeste niveau af amerikansk regering, men rapporten fokuserede næsten udelukkende på det, jeg kalder "den kedelige slags AI." Det afskedigede i en halv sætning min gren af AI-forskning, hvordan evolution kan hjælpe med at udvikle stadig forbedrede AI-systemer, og hvordan beregningsmodeller kan hjælpe os med at forstå, hvordan vores menneskelige intelligens udviklede sig.
Rapporten fokuserer på, hvad der måske kan kaldes mainstream AI-værktøjer: maskinlæring og dyb læring. Dette er den slags teknologier, der har været i stand til at spille "Jeopardy!" Nå, og slå menneskelige Go-mestre på det mest komplicerede spil, der nogensinde er opfundet. Disse nuværende intelligente systemer er i stand til at håndtere enorme mængder data og foretage komplekse beregninger meget hurtigt. Men de mangler et element, der vil være nøglen til at bygge de velfungerende maskiner, vi forestiller os at have i fremtiden.
Vi er nødt til at gøre mere end at lære maskiner at lære. Vi er nødt til at overvinde grænserne, der definerer de fire forskellige typer kunstig intelligens, de barrierer, der adskiller maskiner fra os - og os fra dem.
Type I AI: Reaktive maskiner
De mest basale typer AI-systemer er rent reaktive og har hverken evnen til at danne erindringer eller bruge tidligere erfaringer til at informere aktuelle beslutninger. Deep Blue, IBMs skakspilende supercomputer, der slog den internationale stormester Garry Kasparov i slutningen af 1990'erne, er det perfekte eksempel på denne maskintype.
Deep Blue kan identificere brikkerne på et skakbræt og vide, hvordan hver bevæger sig. Det kan fremsætte forudsigelser om, hvad bevægelser der kan være næste for det og dets modstander. Og det kan vælge de mest optimale træk blandt mulighederne.
Men det har ikke noget begreb om fortiden eller nogen hukommelse om, hvad der er sket før. Bortset fra en sjældent anvendt skakspecifik regel mod gentagelse af det samme træk tre gange, ignorerer Deep Blue alt inden det nuværende øjeblik. Alt det gør er at se på brikkerne på skakbrættet, som det står lige nu, og vælge mellem mulige næste træk.
Denne type intelligens indebærer, at computeren opfatter verden direkte og handler på det, den ser. Den er ikke afhængig af et internt verdensbegreb. I en seminalopgave argumenterede AI-forsker Rodney Brooks for, at vi kun skulle bygge maskiner som dette. Hans hovedårsag var, at folk ikke er særlig gode til at programmere nøjagtige simulerede verdener, som computere kan bruge, hvad der i AI-stipendium kaldes en "repræsentation" af verden.
De nuværende intelligente maskiner, vi undrer os over, har hverken noget sådant verdensbegreb eller har en meget begrænset og specialiseret enhed til dens særlige opgaver. Innovationen i Deep Blue's design var ikke at udvide udvalget af mulige film, computeren overvejede. Snarere fandt udviklerne en måde at indsnævre det syn på, at stoppe med at forfølge nogle potentielle fremtidige træk, baseret på hvordan det vurderede deres resultat. Uden denne evne ville Deep Blue have været nødvendigt at være en endnu mere magtfuld computer for faktisk at slå Kasparov.
Tilsvarende kan Googles AlphaGo, der har slået de bedste menneskelige Go-eksperter, heller ikke evaluere alle potentielle fremtidige træk. Dets analysemetode er mere sofistikeret end Deep Blue, ved hjælp af et neuralt netværk til at evaluere spiludviklingen.
Disse metoder forbedrer AI-systemers evne til at spille specifikke spil bedre, men de kan ikke let ændres eller anvendes i andre situationer. Disse edb-fantasier har ikke noget begreb om den bredere verden - hvilket betyder, at de ikke kan fungere ud over de specifikke opgaver, de er tildelt og let narres.
De kan ikke interaktivt deltage i verden, som vi forestiller os AI-systemer en dag måske. I stedet vil disse maskiner opføre sig nøjagtigt på samme måde, hver gang de støder på den samme situation. Dette kan være meget godt for at sikre, at et AI-system er pålideligt: Du ønsker, at din autonome bil skal være en pålidelig driver. Men det er dårligt, hvis vi ønsker, at maskiner virkelig skal engagere sig i og reagere på verden. Disse enkleste AI-systemer vil aldrig kede sig, være interesserede eller triste.
Type II AI: Begrænset hukommelse
Denne type II-klasse indeholder maskiner, der kan se på fortiden. Selvkørende biler gør noget af dette allerede. For eksempel observerer de andre bils hastighed og retning. Det kan ikke gøres på et øjeblik, men kræver snarere at identificere specifikke objekter og overvåge dem over tid.
Disse observationer føjes til de selvkørende biler 'forprogrammerede repræsentationer af verden, som også inkluderer banemarkeringer, trafiklys og andre vigtige elementer, som kurver i vejen. De er inkluderet, når bilen beslutter, hvornår der skal skiftes baner, for at undgå at afskære en anden chauffør eller blive ramt af en bil i nærheden.
Men disse enkle oplysninger om fortiden er kun kortvarige. De gemmes ikke som en del af bilens bibliotek med erfaringer, den kan lære af, den måde menneskelige chauffører samler erfaringer over år bag rattet.
Så hvordan kan vi bygge AI-systemer, der bygger fulde repræsentationer, husker deres oplevelser og lærer, hvordan man håndterer nye situationer? Brooks havde ret i, at det er meget vanskeligt at gøre dette. Min egen undersøgelse af metoder, der er inspireret af Darwinian evolution, kan begynde at kompensere for menneskelige mangler ved at lade maskinerne bygge deres egne repræsentationer.
Type III AI: Sindets teori
Vi stopper måske her og kalder dette punkt det vigtige skel mellem de maskiner, vi har, og de maskiner, vi vil bygge i fremtiden. Det er dog bedre at være mere specifik at diskutere, hvilke typer repræsentationer maskiner skal udformes, og hvad de har brug for at handle om.
Maskiner i den næste, mere avancerede klasse danner ikke kun repræsentationer om verden, men også om andre agenter eller enheder i verden. I psykologi kaldes dette "teori om sindet" - forståelsen af, at mennesker, skabninger og genstande i verden kan have tanker og følelser, der påvirker deres egen opførsel.
Dette er afgørende for, hvordan vi mennesker dannede samfund, fordi de tillod os at have sociale interaktioner. Uden at forstå hinandens motiver og intentioner, og uden at tage hensyn til, hvad en anden ved hverken om mig eller miljøet, er det i bedste fald vanskeligt at arbejde sammen, i værste fald umuligt.
Hvis AI-systemer virkelig nogensinde vil gå blandt os, bliver de nødt til at forstå, at hver enkelt af os har tanker og følelser og forventninger til, hvordan vi bliver behandlet. Og de bliver nødt til at tilpasse deres opførsel i overensstemmelse hermed.
Type IV AI: Selvbevidsthed
Det sidste trin i AI-udvikling er at opbygge systemer, der kan danne repræsentationer om sig selv. I sidste ende er vi AI-forskere nødt til ikke kun at forstå bevidstheden, men bygge maskiner, der har den.
Dette er på en måde en udvidelse af "sindets teori" besiddet af type III kunstige intelligenser. Bevidsthed kaldes også "selvbevidsthed" af en grund. ("Jeg vil have det emne" er en meget anden udsagn fra "Jeg ved, at jeg vil have den genstand.") Bevidste væsener er opmærksomme på sig selv, kender deres interne tilstande og er i stand til at forudsige andres følelser. Vi antager, at nogen, der hinker bag os i trafikken, er vred eller utålmodig, for det er sådan, vi føler det, når vi hulker til andre. Uden en sindsteori kunne vi ikke foretage den slags konklusioner.
Selvom vi sandsynligvis langt fra skaber maskiner, der er selvbevidste, bør vi fokusere vores bestræbelser på at forstå hukommelse, læring og evnen til at basere beslutninger på tidligere erfaringer. Dette er et vigtigt skridt for at forstå menneskets intelligens på egen hånd. Og det er vigtigt, hvis vi ønsker at designe eller udvikle maskiner, der er mere end usædvanlige ved at klassificere, hvad de ser foran dem.
Arend Hintze, lektor i integrativ biologi & datalogi og teknik, Michigan State University