Fra reaktive roboter til sentient-maskiner: De fire typer AI

Pin
Send
Share
Send

Det vanlige og tilbakevendende synet på de siste gjennombruddene innen kunstig intelligensforskning er at pasienter og intelligente maskiner bare er i horisonten. Maskiner forstår muntlige kommandoer, skiller bilder, kjører biler og spiller spill bedre enn vi gjør. Hvor mye lenger kan det være før de vandrer blant oss?

Den nye rapporten fra Det hvite hus om kunstig intelligens tar et passende skeptisk syn på den drømmen. Den sier at de neste 20 årene sannsynligvis ikke vil se maskiner "utviser bredt anvendelig intelligens som kan sammenlignes med eller overskrider menneskers," selv om det fortsetter å si at i de kommende årene vil "maskiner nå og overskride menneskelig ytelse på mer og flere oppgaver. " Men antagelsene om hvordan disse evnene vil utvikle seg savnet noen viktige punkter.

Som AI-forsker skal jeg innrømme at det var hyggelig å få mitt eget felt uthevet på det høyeste nivået av amerikansk regjering, men rapporten fokuserte nesten utelukkende på det jeg kaller "den kjedelige typen AI." Det avskjediget i en halv setning min gren av AI-forskning, om hvordan evolusjon kan bidra til å utvikle stadig forbedrede AI-systemer, og hvordan beregningsmodeller kan hjelpe oss å forstå hvordan vår menneskelige intelligens utviklet seg.

Rapporten fokuserer på det som kan kalles mainstream AI-verktøy: maskinlæring og dyp læring. Dette er den slags teknologier som har kunnet spille "Jeopardy!" Vel, og slå menneskelige Go-mestere på det mest kompliserte spillet noensinne er oppfunnet. Disse nåværende intelligente systemene er i stand til å håndtere enorme datamengder og gjøre komplekse beregninger veldig raskt. Men de mangler et element som vil være nøkkelen til å bygge de følsomme maskinene vi ser på å ha i fremtiden.

Vi trenger å gjøre mer enn å lære maskiner å lære. Vi må overvinne grensene som definerer de fire forskjellige typene kunstig intelligens, hindringene som skiller maskiner fra oss - og oss fra dem.

Type I AI: Reaktive maskiner

De mest grunnleggende typene av AI-systemer er rent reaktive, og har ikke evnen til å danne minner eller til å bruke tidligere erfaringer for å informere nåværende beslutninger. Deep Blue, IBMs sjakkspillende superdatamaskin, som slo den internasjonale stormesteren Garry Kasparov på slutten av 1990-tallet, er det perfekte eksempelet på denne typen maskiner.

Deep Blue kan identifisere brikkene på et sjakkbrett og vite hvordan hver beveger seg. Den kan komme med spådommer om hvilke trekk som kan være neste gang for den og motstanderen. Og den kan velge de mest optimale trekkene fra mulighetene.

Men det har ikke noe begrep fra fortiden, og heller ikke noe minne om hva som har skjedd før. Bortsett fra en sjelden brukt sjakkspesifikk regel mot å gjenta det samme trekket tre ganger, ignorerer Deep Blue alt før i øyeblikket. Alt det gjør er å se på brikkene på sjakkbrettet slik det står akkurat nå, og velge mellom mulige neste trekk.

Denne typen intelligens innebærer at datamaskinen oppfatter verden direkte og handler etter hva den ser. Den er ikke avhengig av et internt verdensbegrep. I en seminarrapport hevdet AI-forsker Rodney Brooks at vi bare skulle bygge maskiner som dette. Hans viktigste grunn var at folk ikke er veldig flinke til å programmere nøyaktige simulerte verdener for datamaskiner å bruke, det som i AI-stipend kalles en "representasjon" av verden.

De nåværende intelligente maskinene vi undrer oss over har verken noe slikt verdensbegrep, eller har et veldig begrenset og spesialisert seg for sine spesielle oppgaver. Innovasjonen i Deep Blue design var ikke for å utvide utvalget av mulige filmer datamaskinen vurderte. Snarere fant utviklerne en måte å begrense synet på, å slutte å forfølge noen potensielle fremtidige trekk, basert på hvordan det vurderte resultatet. Uten denne evnen ville Deep Blue trengt å være en enda kraftigere datamaskin for å faktisk slå Kasparov.

Tilsvarende kan ikke Googles AlphaGo, som har slått de beste menneskelige Go-eksperter, evaluere alle potensielle fremtidige trekk heller. Analysemetoden er mer sofistikert enn Deep Blue og bruker et nevralt nettverk for å evaluere spillutviklingen.

Disse metodene forbedrer AI-systemers mulighet til å spille spesifikke spill bedre, men de kan ikke lett endres eller brukes i andre situasjoner. Disse datastyrte fantasiene har ingen begrep om den store verden - noe som betyr at de ikke kan fungere utover de spesifikke oppgavene de er tildelt og blir lurt.

De kan ikke delta interaktivt i verden, slik vi forestiller oss AI-systemer en dag. I stedet vil disse maskinene oppføre seg nøyaktig på samme måte hver gang de møter den samme situasjonen. Dette kan være veldig bra for å sikre at et AI-system er pålitelig: Du vil at din autonome bil skal være en pålitelig sjåfør. Men det er ille hvis vi ønsker at maskiner virkelig skal engasjere seg i og svare på verden. Disse enkleste AI-systemene vil aldri kjede seg, være interessert eller triste.

Type II AI: Begrenset minne

Denne type II-klassen inneholder maskiner som kan se på fortiden. Selvkjørende biler gjør noe av dette allerede. For eksempel observerer de andre bilenes hastighet og retning. Det kan ikke gjøres på et øyeblikk, men krever heller å identifisere bestemte objekter og overvåke dem over tid.

Disse observasjonene er lagt til de selvkjørende bilenes forhåndsprogrammerte representasjoner av verden, som også inkluderer banemarkeringer, trafikklys og andre viktige elementer, som kurver i veien. De er inkludert når bilen bestemmer seg for når du skal bytte kjørefelt, for å unngå å kutte av en annen sjåfør eller bli truffet av en bil i nærheten.

Men disse enkle opplysningene om fortiden er bare forbigående. De er ikke lagret som en del av bilens bibliotek med erfaringer den kan lære av, slik menneskelige sjåfører samler erfaringer over år bak rattet.

Så hvordan kan vi bygge AI-systemer som bygger fulle representasjoner, husker opplevelsene og lærer hvordan vi håndterer nye situasjoner? Brooks hadde rett i at det er veldig vanskelig å gjøre dette. Min egen forskning på metoder inspirert av darwinsk evolusjon kan begynne å gjøre opp for menneskelige mangler ved å la maskinene bygge sine egne representasjoner.

Type III AI: Theory of mind

Vi stopper kanskje her, og kaller dette punktet det viktige skillet mellom maskinene vi har og maskinene vi skal bygge i fremtiden. Det er imidlertid bedre å være mer spesifikk for å diskutere hvilke typer representasjoner maskiner trenger å danne, og hva de trenger å handle om.

Maskiner i den neste, mer avanserte klassen danner ikke bare representasjoner om verden, men også om andre agenter eller enheter i verden. I psykologi kalles dette "teori om sinnet" - forståelsen av at mennesker, skapninger og gjenstander i verden kan ha tanker og følelser som påvirker deres egen atferd.

Dette er avgjørende for hvordan vi mennesker dannet samfunn, fordi de tillot oss å ha sosiale interaksjoner. Uten å forstå hverandres motiver og intensjoner, og uten å ta hensyn til hva noen andre vet om meg eller miljøet, er det i beste fall vanskelig, i verste fall umulig å jobbe sammen.

Hvis AI-systemer virkelig noen gang skal vandre blant oss, må de være i stand til å forstå at hver enkelt av oss har tanker og følelser og forventninger til hvordan vi blir behandlet. Og de må tilpasse oppførselen deres deretter.

Type IV AI: Selvbevissthet

Det siste trinnet i AI-utvikling er å bygge systemer som kan danne representasjoner om seg selv. Til syvende og sist må vi AI-forskere ikke bare forstå bevisstheten, men bygge maskiner som har den.

Dette er på en måte en utvidelse av "sinnsteorien" besatt av kunstige intelligenser av type III. Bevissthet kalles også "selvbevissthet" av en grunn. ("Jeg vil ha den gjenstanden" er en veldig annen uttalelse fra "Jeg vet at jeg vil ha den gjenstanden.") Bevisste vesener er klar over seg selv, vet om deres indre tilstander og er i stand til å forutsi følelser av andre. Vi antar at noen som hekter seg bak oss i trafikken er sinte eller utålmodige, for det er slik vi føler det når vi hulker til andre. Uten en teori om tankene, kunne vi ikke gjøre slike slags slutninger.

Selv om vi sannsynligvis er langt fra å lage maskiner som er selvbevisste, bør vi fokusere innsatsen mot å forstå hukommelse, læring og evnen til å basere beslutninger på tidligere erfaringer. Dette er et viktig skritt for å forstå menneskelig intelligens på egen hånd. Og det er avgjørende om vi ønsker å designe eller utvikle maskiner som er mer enn eksepsjonelle når det gjelder å klassifisere det de ser foran dem.

Arend Hintze, adjunkt i integrativ biologi og informatikk, Michigan State University

Pin
Send
Share
Send