Articles

20 År etter Deep Blue: Hvordan AI Har Avansert siden Erobre Sjakk

Tjue år Siden IBMS Deep Blue computer stunned verden ved å bli den første maskinen til å slå en regjerende verdens sjakkmester i en seks-spill kamp. Superdatamaskinens suksess mot en utrolig Garry Kasparov utløste kontrovers over hvordan en maskin hadde klart å utmanøvrere en stormester, og oppfordret beskyldninger-Av Kasparov og andre-om at selskapet hadde lurt seg til seier. Virkeligheten av det som skjedde i månedene og årene som førte til den skjebnesvangre kampen I Mai 1997, var imidlertid faktisk mer evolusjonær enn revolusjonerende – En Steinete Balboa – lignende oppgang fylt med intellektuelle sparringskamper, omhyggelig fremgang og et nederlag I Philadelphia som til slutt satte scenen for en triumferende rematch.Dataforskere hadde i flere tiår sett sjakk som en målestokk for kunstig intelligens. Sjakk-spiller kalkulatorer dukket opp på slutten av 1970—tallet, men det ville være et tiår før Et Team Av Carnegie Mellon University hovedfagsstudenter bygget Den første datamaskinen—Kalt Deep Thought-å slå en stormester i en vanlig turnering spillet. Denne suksessen ble kortvarig – Senere samme år, 1989, Slo Kasparov Dype Tanker i de to spillene. IBM var imponert nok med Cmu-teamets teknologi for å bringe sine forskere ombord for å utvikle En tidlig versjon Av Deep Blue-Deep Thought etterfølger. Deep Blue-laget tapte Igjen Til Kasparov i 1996 i En Turnering I Philadelphia, men klarte å vinne ett spill ut av seks mot verdensmester.den tilsynelatende lille seieren «var veldig viktig for oss å vise at vi var på rett spor,» sier Deep Blue AI-ekspert Murray Campbell, nå en fremtredende forskningspersonell i AI Foundations-gruppen i IBM Tj Watson Research Centers Kognitive Databehandlingsorganisasjon. «Ved vår siste kamp i 1997 hadde vi gjort nok forbedringer av systemet basert på vår erfaring at vi kunne vinne.»Scientific American snakket med Campbell om datavitenskapernes lange besettelse med sjakk, hvordan IBM var i stand til å slå bordene på den regjerende sjakkmesteren og utfordringene som ligger foran AI.

Hvordan ble Du først involvert i Deep Blue-prosjektet?jeg var en del av en gruppe studenter ved Carnegie Mellon University SOM IBM nærmet seg. Jeg hadde hatt en lang interesse for datamaskinen sjakk og hadde selv skrevet et sjakkprogram som en lavere. På C. M. U. Jeg jobbet med kunstig intelligens mer generelt og ikke akkurat på å bygge en høyytelses sjakkcomputer som kunne spille mot en verdensmester. Men som et sideprosjekt utviklet en rekke av oss maskinen Som ble Kjent Som Deep Thought, som ble det første programmet for å beseire en stormester, en profesjonell spiller i en turnering.IBM la merke til suksessene som vi hadde bygget denne maskinen på et shoestring-budsjett, og trodde det ville være interessant å få EN gruppe av OSS til Å bli MED I IBM Research for å utvikle neste generasjon Av denne maskinen, Kalt Deep Blue. De ønsket å vite om det var noe spesielt med de aller beste sjakkspillerne i verden som var hinsides hva datamaskiner var i stand til i overskuelig fremtid. Vår følelse var at det var innen få år å bli gjort, selv om andre forskere trodde det var fortsatt tiår unna.

hva er det med sjakk som gjør et spesielt interessant problem for en datavitenskapsmann?
Hundrevis av millioner av mennesker rundt om i verden spiller sjakk. Det er kjent som et spill som krever strategi—fremsyn, logikk-alle slags kvaliteter som utgjør menneskelig intelligens. Så det er fornuftig å bruke sjakk som målestokk for utvikling av kunstig intelligens.når vi ser på et spill som sjakk, sier vi: «vel, ja, selvfølgelig gjør datamaskiner det bra fordi det er et veldefinert spill-reglene—bevegelsene, målene.»Og det er et begrenset problem der du vet all informasjonen. Likevel, til tross for alle disse forenklingene, kan du si at sjakk er et enormt komplekst spill, og derfor tok det oss som et felt 50 års utvikling for endelig å slå verdensmesteren.

Hva var din rolle spesielt på Deep Blue-laget?
JEG var AI-ekspert. AI var ganske annerledes i 1989 og tidlig i 1990. Den dominerende delen i disse dager var det vi nå kalte god gammeldags AI, eller symbolsk AI, som var basert mindre på maskinlæring. Sikkert maskinlæring var et seriøst felt i disse dager, men ingenting som det er i dag, hvor vi har massive datasett og store datamaskiner og svært avanserte algoritmer for å kjerne gjennom dataene og komme opp med modeller som kan gjøre noen fantastiske ting. Da JEG startet MED IBM, maskinlæring metoder for spill-spiller programmer var ganske primitive og ikke i stand til å hjelpe oss mye i å bygge Deep Blue. Vi jobbet med algoritmer for effektivt søk og evaluering av mulige fortsettelser, som Vi visste At Deep Blue ville trenge for å konkurrere.

Hva var de viktigste begrensningene PÅ AI da?maskinvaren støttet egentlig ikke å bygge de store nettverkene som har vist seg å være nyttige i dag for å lage store datamodeller. Og selve dataene var ikke nødvendigvis der i den grad vi trengte det på det tidspunktet. Hver gang du går tilbake og ser på de mest populære datasystemene fra 20 eller 25 år siden, er du sjokkert over hvordan du kan få noe gjort på et system som det. Men selvfølgelig gjorde vi det-vi visste ikke hva vi gikk glipp av, antar jeg, fordi vi aldri hadde opplevd det.

Når det gjelder data, tror jeg ikke at noen hadde en klar ide da da at det var en stor fordel. Det ville ikke ha betalt for å bygge et veldig stort datasett fordi prosessorkraften delvis ikke ville vært nok til å bruke den uansett. Så, vi gjorde gjøre med mye mindre datasett.

hvor nyttig var din egen sjakkkompetanse i Å bygge Deep Blue?
Ikke så nyttig som du kanskje tror. Jeg var i stand til, i de tidlige stadiene, å identifisere problemer med systemet og foreslå tilnærminger som jeg følte ville være i stand til å løse ett problem uten å skape en rekke andre problemer. Det var nok bra nok til å få oss til et visst punkt. Til slutt, men hvis du skal spille konkurranser, er det en rekke virkelig spillspesifikke kunnskaper du må ha. Da vi kom nærmere det punktet hvor vi faktisk skulle spille mot en verdensmester, tok vi inn grand masters-Spesielt Joel Benjamin-for å hjelpe oss.

Hvordan hjalp grand masters med Å heve Deep Blue sitt spill?
Det var to deler til hvordan de hjalp. En, spesielt, var å hjelpe til med åpningen biblioteket, som alle sjakkprogram bruker for å spare tid og sørge for at det blir i fornuftige posisjoner. Mennesker har studert sjakkåpninger i århundrer og utviklet sin egen favoritt . Grand masters hjalp oss med å velge en haug med dem til Å programmere Inn I Deep Blue.

De var også, du kan si, sparringspartnere For Deep Blue. De ville spille mot datamaskinen og prøve å finne svakheter i systemet. Og så ville vi sitte med dem og med resten Av Deep Blue-laget og prøve å artikulere hva den svakheten faktisk var, og om det var en måte å løse det på. Noen ganger, gitt begrensningene vi hadde-vi programmerte en del av datamaskinens instruksjoner direkte på et stykke maskinvare kalt en sjakk-akseleratorbrikke i stedet for å skrive programvare-var det noen problemer vi ikke lett kunne fikse. Men ofte var det noen måte vi kunne forbedre sin evne til å håndtere et problem vi hadde identifisert.

Hvordan Bestemte Deep Blue hvilke trekk som skulle gjøres?Deep Blue er en hybrid. Den hadde supercomputerprosessorer kombinert med disse sjakkakseleratorbrikkene. Vi hadde programvare som kjørte på superdatamaskinen for å utføre en del av en sjakkberegning og deretter overlevere de mer komplekse delene av et trekk til akseleratoren, som da ville beregne . Superdatamaskinen ville ta disse verdiene og til slutt bestemme hvilken rute å ta.Hvordan gikk Deep Blue videre fra 1996 til 1997 for å slå Kasparov?
vi gjorde et par ting. Vi mer eller mindre doblet hastigheten på systemet ved å skape en ny generasjon maskinvare. Og så økte vi sjakkkunnskapen til systemet ved å legge til funksjoner i sjakkbrikken som gjorde det mulig å gjenkjenne forskjellige posisjoner og gjøre det mer oppmerksom på sjakkkonsepter. Disse sjetongene kan da søke gjennom et tre av muligheter for å finne ut det beste trekket i en posisjon. En del av forbedringen mellom ’96 og’ 97 er at vi oppdaget flere mønstre i en sjakkposisjon og kunne sette verdier på dem og derfor evaluere sjakkposisjoner mer nøyaktig. 1997-versjonen av Deep Blue søkte mellom 100 millioner og 200 millioner stillinger per sekund, avhengig av type posisjon. Systemet kunne søke til en dybde på mellom seks og åtte par trekk – en hvit—en svart – til maksimalt 20 eller enda flere par i noen situasjoner. Likevel, mens Vi var sikre på at 1997 Deep Blue var mye bedre enn 1996-versjonen, var det mest sannsynlige utfallet av kampen uavgjort. Selv går inn i det siste spillet i kampen, jeg ventet uavgjort, og en sannsynlig omkamp.

HVORFOR innvilget IKKE IBM Kasparovs anmodning om omkamp etter konkurransen i 1997?vi følte at vi hadde oppnådd målet vårt, for å demonstrere at en datamaskin kunne beseire verdensmesteren i sjakk i en kamp, og at det var på tide å gå videre til andre viktige forskningsområder.

Hvordan HAR AI endret seg over de to tiårene siden den kampen?
selvfølgelig har maskiner forbedret seg i prosesshastighet og minne og så videre. Folk begynte også å samle—akkurat som en del av sin virksomhet-mye mer data som ga næring til dagens maskinlæringsalgoritmer. Til slutt begynte vi å innse at kombinere alle disse tingene kunne gi noen bemerkelsesverdige resultater. IBM Watson-systemet som spilte Jeopardy! brukte et maskinlæringsbasert system som tok mye data som eksisterte i verden-ting Som Wikipedia og så videre – og brukte dataene til å lære å svare på spørsmål om den virkelige verden. Siden da har vi flyttet på å lære å gjøre visse typer perseptuelle oppgaver som talegjenkjenning og maskin visjon. Det har ført Til At Watson utfører flere forretningsrelaterte oppgaver som å analysere radiologibilder og dele denne informasjonen med leger.

Hvordan har din Erfaring med Deep Blue help påvirket DITT ARBEID med AI fremover?en ting spesielt vi lærte er at det er mer enn en måte å se på et komplekst problem. For eksempel, i sjakk er det den menneskelige måten, som er veldig mønstergjenkjennings-basert og intuisjonsbasert, og så er det maskinveien, som er veldig søkeintensiv og ser gjennom millioner eller milliarder av muligheter. Ofte er disse tilnærmingene komplementære. Det er definitivt sant i sjakk, men også i mange virkelige problemer – at datamaskiner og mennesker sammen er bedre enn en alene. Vi vil ikke at datamaskiner for eksempel skal overta diagnose og behandling av pasienter alene fordi det er mange immaterielle eiendeler i å diagnostisere en pasient som er vanskelig å fange opp i dataene. Men når det gjelder å gi anbefalinger om alternativer å vurdere-kanskje de som er fra svært nyere tekniske papirer eller kliniske studier som kanskje legen ikke er klar over—et system som det kan være svært verdifullt.En viktig del av det vi gjør akkurat nå, tar svært avanserte kunstige nevrale nettverksbaserte systemer som pleier å være veldig svart boks–de er ikke spesielt gode til å forklare hvorfor de anbefaler det de anbefaler—og gir dem muligheten til å forklare seg selv. Hvordan kan du virkelig stole på en anbefaling som kommer ut av systemet hvis det ikke kan forklare det? Disse black box nevrale nettverkssystemene er enormt komplekse, med millioner av parametere i dem. En del av å overvinne det kan være i tråd med å trene et system ved å gi det eksempler på gode forklaringer. Dette er spesielt tydelig i helsevesenet når en datamaskin gjør en diagnose eller anbefaler en behandling. Hvis det er en rimelig forklaring, kan vi sannsynligvis mer hensiktsmessig gi den vekten den fortjener for å hjelpe en lege til å ta en endelig beslutning.