Articles

20 Years after Deep Blue: How AI Has Advanced Since Conquering Chess

twintig jaar geleden verbaasde IBM ‘ s Deep Blue computer de wereld door de eerste machine te worden die een regerend wereldkampioen schaken versloeg in een zes-game match. Het succes van de supercomputer tegen een ongelovige Garry Kasparov leidde tot controverse over hoe een machine erin was geslaagd om een grootmeester te slim af te zijn, en leidde tot beschuldigingen—door Kasparov en anderen—dat het bedrijf zijn weg naar de overwinning had bedrogen. De werkelijkheid van wat zich afspeelde in de maanden en jaren voorafgaand aan die noodlottige wedstrijd in mei 1997, was echter meer evolutionair dan revolutionair—een rotsachtige Balboa–achtige opkomst gevuld met intellectuele sparringwedstrijden, zorgvuldige vooruitgang en een nederlaag in Philadelphia die uiteindelijk het podium voor een triomfantelijke rematch.computerwetenschappers zagen Schaken al tientallen jaren als een meter voor kunstmatige intelligentie. Schaken-spelende rekenmachines ontstond in de late jaren 1970, maar het zou nog een decennium voordat een team van Carnegie Mellon University afgestudeerde studenten bouwde de eerste computer-genaamd Deep Thought-om een grootmeester te verslaan in een reguliere toernooi spel. Dit succes was van korte duur-later dat jaar, 1989, versloeg Kasparov Deep Thought handig in de twee wedstrijden. IBM was onder de indruk genoeg met de technologie van het C. M. U.—team om zijn onderzoekers aan boord te brengen om een vroege versie van de opvolger van Deep Blue-Deep Thought te ontwikkelen. Het Deep Blue team verloor opnieuw van Kasparov in 1996 op een toernooi in Philadelphia, maar wist één van de zes wedstrijden te winnen tegen de wereldkampioen.

die schijnbaar kleine overwinning ” was erg belangrijk voor ons om te laten zien dat we op de juiste weg waren,” zegt Deep Blue AI-expert Murray Campbell, nu een vooraanstaand onderzoeksmedewerker in de AI Foundations group binnen IBM T. J. Watson Research Center ‘ s Cognitive Computing organization. “Tegen de tijd van onze laatste wedstrijd in 1997, hadden we genoeg verbeteringen aan het systeem op basis van onze ervaring dat we in staat waren om te winnen.”Scientific American sprak met Campbell over de lange obsessie van computerwetenschappers met schaken, hoe IBM in staat was om de tafels te draaien op de regerende schaakkampioen en de uitdagingen die voor AI liggen.

hoe raakte u voor het eerst betrokken bij het Deep Blue project?ik maakte deel uit van een groep afgestudeerde studenten aan Carnegie Mellon University die IBM benaderde. Ik had een lange interesse in computerschaak en had zelfs een schaakprogramma geschreven als een undergraduate. Bij C. M. U. Ik werkte meer in het algemeen aan kunstmatige intelligentie en niet echt aan het bouwen van een krachtige schaakcomputer die tegen een wereldkampioen kon spelen. Maar als nevenproject ontwikkelden een aantal van ons de machine die bekend werd als Deep Thought, het eerste programma dat een grootmeester versloeg, een professionele level-speler in een toernooi.

IBM merkte de successen op die we hadden met het bouwen van deze machine op een klein budget en dacht dat het interessant zou zijn om een groep van ons mee te laten doen aan IBM Research om de volgende generatie van deze machine te ontwikkelen, genaamd Deep Blue. Ze wilden weten of er iets speciaals was aan de allerbeste schaakspelers in de wereld dat verder ging dan wat computers in staat waren voor de nabije toekomst. Ons gevoel was dat het binnen een paar jaar was gedaan, hoewel andere onderzoekers dachten dat het nog tientallen jaren weg was.

Wat is het met schaken dat een bijzonder interessant probleem maakt voor een computerwetenschapper? honderden miljoenen mensen over de hele wereld spelen schaak. Het staat bekend als een spel dat strategie, vooruitziende blik, logica vereist—allerlei kwaliteiten die deel uitmaken van menselijke intelligentie. Het is dus zinvol om Schaken te gebruiken als meetlat voor de ontwikkeling van kunstmatige intelligentie.

als we naar een spel als schaken kijken, zeggen we: “nou, ja, natuurlijk doen computers het goed omdat het een goed gedefinieerd spel is-de regels, De zetten, de doelen.”En het is een beperkt probleem waar je alle informatie kent. Toch, ondanks al die vereenvoudigingen zou je kunnen zeggen dat schaken een enorm complex spel is, en dat is waarom het ons, als veld, 50 jaar ontwikkeling kostte om eindelijk de wereldkampioen te verslaan.

Wat was uw specifieke rol in het Deep Blue team?ik was de AI-expert. AI was heel anders in 1989 en begin 1990. Het dominante deel in die dagen was wat we nu goede ouderwetse AI noemden, of symbolische AI, die minder gebaseerd was op machine learning. Machine learning was zeker een serieus gebied in die dagen, maar niet zoals het nu is, waar we enorme datasets en grote computers en zeer geavanceerde algoritmen hebben om door de gegevens te draaien en modellen te bedenken die verbazingwekkende dingen kunnen doen. Toen ik met IBM begon, waren machine learning-methoden voor spelprogramma ‘ s vrij primitief en konden ze ons niet veel helpen bij het bouwen van Deep Blue. We werkten aan algoritmen voor een efficiënte zoektocht en evaluatie van de mogelijke continuaties, die we wisten dat Deep Blue nodig zou hebben om te kunnen concurreren.

Wat waren destijds de belangrijkste beperkingen op AI?
De hardware bood niet echt ondersteuning voor het bouwen van de soorten grote netwerken die vandaag de dag nuttig zijn gebleken bij het maken van big data modellen. En de gegevens zelf waren er niet per se in die mate dat we ze op dat moment nodig hadden. Elke keer als je teruggaat en kijkt naar de meest populaire computersystemen van 20 of 25 jaar geleden ben je geschokt over hoe je iets gedaan kunt krijgen op een systeem als dat. Maar natuurlijk wisten we niet wat we misten, denk ik, omdat we het nooit hadden ervaren.

wat gegevens betreft, denk ik dat niemand toen een duidelijk idee had dat er een groot voordeel was. Het zou niet hebben betaald om een echt grote dataset te bouwen, omdat voor een deel de rekenkracht niet genoeg zou zijn geweest om het toch te gebruiken. We deden het dus met veel kleinere datasets.

hoe nuttig was uw eigen schaakexpertise bij het bouwen van Deep Blue?
Niet zo nuttig als je zou denken. Ik was in staat om, in de vroege stadia, problemen met het systeem te identificeren en voorstellen benaderingen die ik voelde in staat zou zijn om een probleem op te lossen zonder het creëren van een groot aantal andere problemen. Dat was waarschijnlijk goed genoeg om ons tot een bepaald punt te brengen. Maar uiteindelijk, als je wedstrijden gaat spelen, is er een groot aantal echt spelspecifieke kennis die je moet hebben. Toen we dichter bij het punt kwamen waar we eigenlijk tegen een wereldkampioen zouden spelen, namen we grootmeesters—Joel Benjamin in het bijzonder—mee om ons te helpen.

hoe hebben de grootmeesters Deep Blue ‘ s game helpen raisen?
er waren twee delen aan hoe ze hielpen. Een, in het bijzonder, was om te helpen met de opening bibliotheek, die elk schaakprogramma gebruikt om tijd te besparen en ervoor te zorgen dat het krijgt in redelijke posities. Mensen bestuderen al eeuwenlang schaakopeningen en hebben hun eigen favoriet ontwikkeld . De grootmeesters hielpen ons een aantal van hen te kiezen om in Deep Blue te programmeren.

ze waren ook sparringpartners voor Deep Blue. Ze zouden spelen tegen de computer en proberen zwakke plekken van het systeem te lokaliseren. Dan zaten we bij hen en de rest van het Deep Blue team en probeerden we duidelijk te maken wat die zwakte eigenlijk was en of er een manier was om het aan te pakken. Soms, gezien de beperkingen die we hadden—we programmeerden een deel van de instructies van de computer direct op een stuk hardware genaamd een schaakversneller chip in plaats van het schrijven van software—waren er een aantal problemen die we niet gemakkelijk konden oplossen. Maar vaak was er een manier om zijn vermogen te verbeteren om een probleem aan te pakken dat we hadden vastgesteld.

Hoe heeft Deep Blue besloten welke stappen te zetten?Deep Blue was een hybride. Het had supercomputerprocessors voor algemeen gebruik gecombineerd met deze chess accelerator chips. We hadden software die op de supercomputer liep om een deel van een schaakberekening uit te voeren en dan de meer complexe delen van een zet af te geven aan de versneller, die dan zou berekenen . De supercomputer zou die waarden nemen en uiteindelijk beslissen welke route te nemen.

Hoe ging Deep Blue vooruit van 1996 naar 1997 om Kasparov te verslaan?we hebben een paar dingen gedaan. We hebben de snelheid van het systeem min of meer verdubbeld door een nieuwe generatie hardware te creëren. En toen hebben we de schaakkennis van het systeem vergroot door functies toe te voegen aan de schaakchip die het mogelijk maakte om verschillende posities te herkennen en het bewuster te maken van schaakconcepten. Die chips kunnen dan zoeken door een boom van mogelijkheden om erachter te komen de beste zet in een positie. Een deel van de verbetering tussen ’96 en ’97 is dat we meer patronen in een schaakpositie detecteerden en er waarden op konden zetten en daarmee schaakposities nauwkeuriger konden evalueren. De 1997 versie van Deep Blue zocht tussen 100 miljoen en 200 miljoen posities per seconde, afhankelijk van het type positie. Het systeem kan zoeken tot een diepte van tussen de zes en acht paren van Zetten—een wit, een zwart-tot een maximum van 20 of zelfs meer paren in sommige situaties. Hoewel we ervan overtuigd waren dat de Deep Blue uit 1997 veel beter was dan de versie uit 1996, was de meest waarschijnlijke uitkomst van de wedstrijd volgens mij gelijkspel. Zelfs in de laatste wedstrijd van de wedstrijd, ik verwachtte een gelijkspel, en een waarschijnlijke rematch.

Waarom heeft IBM Kasparov ‘ s verzoek voor een rematch na de wedstrijd van 1997 niet ingewilligd?we vonden dat we ons doel hadden bereikt, om aan te tonen dat een computer de wereldkampioen schaken in een wedstrijd kon verslaan en dat het tijd was om door te gaan naar andere belangrijke onderzoeksgebieden.

Hoe is AI veranderd in de twee decennia sinds die wedstrijd?
natuurlijk zijn machines verbeterd in verwerkingssnelheid en geheugen enzovoort. Mensen begonnen ook—net als onderdeel van hun bedrijf—veel meer gegevens te verzamelen die de machine-learning algoritmen van de dag voerden. Uiteindelijk realiseerden we ons dat het combineren van al deze dingen opmerkelijke resultaten kon opleveren. Het IBM Watson-systeem dat Jeopardy speelde! gebruikte een machine-learning-gebaseerd systeem dat veel gegevens uit de wereld nam—dingen zoals Wikipedia en ga zo maar door—en gebruikte die gegevens om te leren hoe vragen over de echte wereld te beantwoorden. Sindsdien zijn we verder gegaan om te leren hoe je bepaalde soorten perceptuele taken kunt uitvoeren, zoals spraakherkenning en machine vision. Dat heeft geleid tot Watson het uitvoeren van meer zakelijke taken, zoals het analyseren van radiologie beelden en het delen van die informatie met artsen.

Hoe heeft uw ervaring met Deep Blue uw werk op AI in de toekomst beïnvloed?Eén ding in het bijzonder hebben we geleerd is dat er meer dan één manier is om naar een complex probleem te kijken. Bij Schaken is er bijvoorbeeld de menselijke manier, die zeer patroonherkenning en intuïtie is gebaseerd, en dan is er de machine manier, die zeer zoekintensief is en door miljoenen of miljarden mogelijkheden kijkt. Vaak zijn deze benaderingen complementair. Dat is zeker waar in schaken, maar ook in veel Real-world problemen-dat computers en mensen samen beter zijn dan een van beide alleen. We zouden bijvoorbeeld niet willen dat computers de diagnose en behandeling van patiënten zelf overnemen, omdat er veel ontastbare zaken zijn bij het diagnosticeren van een patiënt die moeilijk te vangen zijn in de gegevens. Maar in termen van het maken van aanbevelingen over opties te overwegen-misschien die zijn van zeer recente technische papers of klinische proeven die misschien de arts is zich niet bewust van-een systeem als dat kan zeer waardevol zijn.

een belangrijk deel van wat we nu doen is het nemen van zeer geavanceerde kunstmatige neurale netwerk–gebaseerde systemen die de neiging hebben om zeer black box—ze zijn niet bijzonder goed in het uitleggen waarom ze aanbevelen wat ze aanbevelen—en het geven van hen de mogelijkheid om zichzelf te verklaren. Hoe kun je echt vertrouwen op een aanbeveling die uit het systeem komt als het het niet kan verklaren? Deze Black box neurale netwerksystemen zijn enorm complex, met miljoenen parameters erin. Een deel van het overwinnen van dat kan in de richting van de opleiding van een systeem door het geven van voorbeelden van goede verklaringen. Dit is vooral duidelijk in de gezondheidszorg ruimte wanneer een computer maakt een diagnose of adviseert een behandeling. Als er een redelijke verklaring is, dan kunnen we het waarschijnlijk beter het gewicht geven dat het verdient om een arts te helpen een definitieve beslissing te nemen.