Book review: Erik J. Larson, (2021), The Myth of Artificial Intelligence – Why Computers Can’t Think the Way We Do. Cambridge, Mass.: Harvard University Press

Intresserad granskare: Sten Jönsson

Erik Larson är datavetenskapare som specialiserar sig på hur det naturliga språket processas och hur maskiner kan lära sig att efterlikna detta. Han har testat de tekniska begränsningarna för Artificiell Intelligens genom sitt arbete vid IC2, en teknikinkubator vid University of Texas at Austin.

På omslaget sägs att Erik Larson i den här boken hävdar att ”hype-n” kring artificiell intelligens är ”dålig vetenskap” och ”dålig för vetenskapen”. Detta är särskilt intressant för en sådan som granskaren själv, som upplevde och rycktes med av ”hype-n” kring den så kallade ”operationsanalysen” för 50 år sedan. Med den här metodiken kan vi lösa alla problem! Skicka oss bara mer pengar! Vi behöver större datorer!

Sue Halpern (2021) påpekar, med hänvisning till Crawford (2021), att det förhållandet att vi kallar dessa sammankopplade datorer för ”the cloud” är ett bra exempel på den ”strategiska minnesförlust som åtföljer historier om tekniska framsteg”. En studie från McMaster University visar att fortsätter det så här så kommer dataindustrin att svara för 14 % av världens växthusgas-utsläpp år 2040, ungefär hälften av hela transportsektorns utsläpp. Man borde bry sig. Erik Larsons bok kan ge några av perspektiven. (Hur mycket ström drar egentligen dessa stora datorhallar i Norrland?)

Människor styrs inte av naturlagar

Problemet med AI är att den bygger på historiska data (induktion), vilket är OK för processer som styrs av naturlagar – de är ju oförändrade över tiden – men när det gäller människor, som ju hittar på nya hyss hela tiden, blir det problematiskt. AI blir ett konserverande (tillbakablickande) inslag i vårt liv, eller, vad värre är , skapar ett behov hos alla app-ars konstruktörer att reglera världen så att den passar app-en. Zuboff (2019) ger en skrämmande bild av hur detta utvecklades från det att Google upptäckte att det blev en ”spike” i användningen av deras sökmotor ”Search” exakt 48 minuter in i TV-showen ”Who wants to be a millionaire” (i varje tidszon). Programledaren hade frågat efter TV-stjärnan Carol Bradys flicknamn och tittarna kastade sig över sin dator för att söka. Aha, man kunde stimulera folk att söka på sin dator och registrera deras sökmönster och därmed se vad de var intresserade av, vilket i sin tur gör det möjligt att sälja adresslistor till annonsörer som är ute efter måltavlor som kan påverkas av deras annonser.

Foto: Unsplash

Detta var i slutet av 90-talet, men egentligen startade det med en artikel av Alan Turing (1950), just det, han med Enigma och Imitation Game, om möjligheten att konstruera intelligenta maskiner. Den ”test” på maskiners intelligens han föreslog var att en människa inte skulle kunna urskilja att det var en maskin hon konverserade med. Detta var en svår test – ”no computer has ever passed it” (p.10).

Han (Turing), (Hodges, 2012), hade redan i sin avhandling 1938 hävdat att matematiken (han jobbade med Gödels teorem) består av två beståndsdelar – intution och ingenuity. Det senare är helt enkelt att smart tillämpa logikens regler på det problem man jobbar med, men den första delen – intuition – som han beskriver som att göra ”spontana bedömningar” (inte resultatet av långa resonemang) de kan vara fel men då är det ”ingenuity” som får avslöja det. Det är denna insats av ”mänsklig intuition” som Larson menar är orsaken till att maskiner (datorer) inte kan tänka som vi. Så har alla försök hittills (det kommer nya försök hela tiden, till exempel Eugene Goostmans (2014), att få en maskin att delta i en konversation utan att avslöjas misslyckats. Men Goostman lyckades (nästan) genom att vinna en tävling i att klara Turings test i London (2014), vilket ansågs vara ett genombrott. Ett ryskt team kasserade in priset på 100000 USD, men efterhandsanalys visade att det var ett bedrägeri. Eugene, som beskrevs som en 13-åring från Odessa kunde man bara kommunicera med via text. Tricket, som tydligen övertygade domarna, var att svara med undanglidningar och att byta ämne. Vi väntar fortfarande på en maskin som kan föra ett samtal. Problemet, säger Erik Larson, är att det krävs så mycket ”världskunskap” (även kallad ”common sense”) för att förstå vad som sägs (eller fatta ett skämt). Just det säger AI-entusiasterna, ge oss bara mera data (Big Data)och större datakraft så får vi den ”världskunskap” som krävs!

Turing såg mänskligt tänkande som en mekanisk process

Turing är viktig för AI, inte bara därför at han ”uppfann” testet på att en maskin är ”intelligent”, utan också därför att han gav oss arvet att betrakta intelligens som ”problem-solving”, vilket nödvändigtvis genererar snäva ”applikationer” som snarast utgör ett hinder för AIs vidare ambitioner. Turing avskydde att betrakta tänkande som något socialt eller situationsanpassat, och såg därför mänskligt tänkande som en mekanisk process. Därmed bidrog han till ett enormt flöde i media av referenser till olika uttryck för ”hjärna” om de tidiga datorerna. Fantastiska idéer följde om ”själv-modifierande” maskiner som skulle kunna uppnå ”superintelligens”. Det fanns en del dämpande röster, såsom John von Neuman som påpekade att en ”self-improving” eller self-reproducing” maskin nödvändigtvis måste ha den nya designen inlagd i ”föräldramaskinens” programvara. Idén om ”self-improvement” har slagit rot i tanken på evolution – Darwinism bland tekniker. Man talade om en symbios mellan mänsklig och maskin-intelligens. (Man kommer att tänka på Skinner (1971) och Pentland (2014)).

Erik Larsons expertområde är datorers hantering av det naturliga språket, som han arbetar med i en dedikerad ”incubator” vid University of Texas. Han startar sin redogörelse för AIs historia med den berömda konferensen i Dartmouth 1956, som i sin entusiastiska ”proceedings” sa att en fördjupad studie (2 månader, 10 personer) borde göras med utgångspunkt i antagandet att ”every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it”. Simons & Newells framgång med ”The General Problem Solver” ledde till ett första fokus på maskinöversättning, bland annat med användning av en metod för indelning i satsdelar (transformational grammar) utvecklad av Noam Chomsky (lingvist). Speech act theory (Austin, 1975) gav en del uppslag, men det gick trögt och snart slogs larm om den irriterande närvaron av (”filosofiska”) common sense eller ”world knowledge” i språket. Man hade kört fast vad gäller rimlig kvalitet på översättningar.

Så kom WWW (World Wide Web) som gav möjlighet att samla in stora datamängder konversation (”corpus”). Några exempel på sådana är Riksdagsprotokoll med all som sägs där, all e-mailtrafik inom Enron blev tillgänglig genom rättsfallet, grävande journalister och ”whistle blowers” (Snowden) kommer över stora mängder text. Nu kunde man höja ambitionsnivån till att skapa programvara som kunde föra konversation genom att ”träna” algoritmer på dessa ordmängder. Översättningar kunde så att säga tvättas i efterhand på det sättet att otympliga originalöversättningar, säg från franska till engelska, kunde justeras. De där otympligheterna gavs beteckningen ”noise” som alltså skulle reduceras. Exempel är användning av ”plats” för att välja rätt ord. Är man i naturen så betyder troligen ”bank” flodbank, men är man i stan är ”penninginrättning” en bättre betydelse.

När det gäller konversation använde Winograd tricket att stoppa in ”prompts” på det sätt psykiatriker gör för att få patienten att fortsätta prata (”Hur då?”, Upprepa det som patienten nyss sa, ”kan du ge ett exempel?”). På samma sätt kan man ”byta ämne”.

Fråga till datorn: ”Vilka böcker läser du?”

Datorn svarar: ”Oh böcker (plural!)! Jag läser så många böcker så jag kan inte komma ihåg alla” (Det var denna typ av ”bedrägeri” som Eugene Goostman, nämnd i ingressen, använde.)

(Tips för det fortsatta arbetet: Fundera på hur Paul Grice’ (1989) ”golden rule” för konversation kunde användas. Regeln säger ”gör ditt bidrag till konversationen (relaterat till och) så långt som situationen, här och nu, kräver – inte längre, inte kortare.

Illustration:

A: Hur går det för Kalle i hans nya jobb?

B: Oh, bra tror jag! Han trivs med sina kamrater och har inte blivit arresterad ännu.

Överflödsinformationen ”har inte blivit arresterad ännu” sätter igång en tolkningsprocess hos A. På samma sätt fungerar ett skämt (utlöser ryckningar i mellangärdet) genom att en överraskande ordvändning skjuts in i satsen.

Vidare med Larson:

Det kanske mest intressanta med Larsons genomgång av AIs historia – och skälet till att han anser att det är en myt att tro att maskiner kan tänka som människor – är hans utvidgning/återuppväckande av de olika typer av logik som förekommer i samhället och datorer.

Det är svårt att göra förutsägelser om framtiden, särskilt innovationer. Med referens till Alasdair MacIntire (2007) berättar han om samtalet under stenåldern om att förutse framtiden

Person A: Jag förutser att om 10 år kommer hjulet att vara uppfunnet!

Person B: Vad är det?

Person A beskriver hjulet med ekrar nav, axel och stannar upp, förskräckt – men nu kan ju ingen göra det för jag har ju gjort det nu!

MacIntire diskuterade möjligheten av radikal konceptuell innovation som är en av källorna till världens oförutsägbarhet. Polanyi (1962) diskuterade samma sak när han säger att artikulationer nödvändigtvis måste utelämna ”tacit” delar av intelligens – sådana delar av tänkandet som inte kan beskrivas med precision med hjälp av symboler. Larson genomför sitt resonemang kring hur vetenskapssynen och praktiska applikationer har svajat fram och tillbaka över 2000-talet genom att referera till Archilochos (grekisk poet c.a 700 f. Kr) som en gång skrev ”the fox knows many things, but the hedgehog knows one big thing.” Medan en ‘fox’ är opportunistisk och kan leva med motsägelser om det är praktiskt fördelaktigt för att lösa just detta problem, är igelkotten (hedgehog) inriktad på den generella kunskapen som leder dem till att reducera varje ett problem till en organisatorisk princip. Max Weber (2020) förordar ”hedgehog” när han talar till studenterna i München 1917 om forskning som ”kall”. Man måste specialisera sig till ett smalt område, jobba på, och vara medveten om att skulle man komma på något blir det snabbt förbisprunget. Så varför håller man på? Kanske på grund av hoppet att någon gång komma fram till sanningen – pudelns kärna.

Till en början av 2000-talet var AI-teknikerna ”foxes” – opportunister som prövade alla uppslag utan att bry sig om konsistens eller motstridigheter. ”Boom and Bust” i mängd påeldat av media. Det fanns kritiker som ansåg allt detta inte tillräckligt djupgående eller alltför ”empiriskt”. Men så kom ”neural networks” som övergripande idé tog ”hedgehogs” över taktpinnen. Man ”hamrade” på alla problem kunde angripas ”nerifrån och upp” (deep learning), såsom gaming, röstigenkänning. Detta svarar idag för den största av forskning och kommersiella satsningar. Myterna om vad AI kunde göra frodades igen, nu med kändisar som påhejare.

Sten Jönsson

Vi borde också diskutera hur långt vi vill gå i att låta maskinerna och app-arna ta över våra liv.

Sten Jönsson

Men under senare år, säg från 2015, hör man om begränsningarna igen. Det finns risker i att fortsätta tro att AI kan göra saker som det inte kan med dagens kunskap. Vi borde också diskutera hur långt vi vill gå i att låta maskinerna och app-arna ta över våra liv. Detta med att tänka i termer av att utvidga snäva AI-app-ar till nya områden… Hur är det man ”jobbar” med sådana utvidgningar? Larson tar upp ett exempel på hur de förenklingar som är inneboende i arbetet med applikationer kan leda tanken åt fel håll (Russell, 2019). Russell är en ledande läroboksförfattare inom AI och professor vid University of California. Han går in för att förenkla definitionen av ”intelligence” till att helt enkelt vara förmågan att uppnå sina mål. Detta leder honom till att vilja ersätta ”the Turing test” (att maskinens agerande skall uppvisa tecken på att mänsklig intelligens ligger bakom dess agerande) med just kriteriet om att ”uppnå sina mål” (och hålla det där med att sätta mål och att använda ”common sense” utanför – det är ju orationella aktiviteter). Men han resonerar sig fram till (à propos en kritiker som använde bilden av en superintelligent maskin med mål att maximera produktionen i en gem-fabrik, som fick för sig att göra gem av VDn) att några principer borde byggas in i framtidens superintelligenta datorer för att förebygga sådana katastrofer:

  1. Framtidens datorer bör inte tillmäta sitt eget välbefinnande något egenvärde.
  2. De behöver också genomsyras av ödmjukhet (altruism)
  3. Till sist bör datorerna förses med en förmåga att förutse mänskliga preferenser – löpande observera oss så att de kan undvika att skada oss (göra gem av oss) i sin strävan att nå sina uppsatta mål.

Det krävs inte mycket intelligens – enligt denna recensents uppfattning – att inse att idén om superintelligenta maskiner är absurd. Icke desto mindre krävs för lärande, såväl maskiner som människor, en förmåga att uppdatera sina kunskaper.

Lärande – att uppdatera sina kunskaper – att dra rimliga slutsatser.

Det som är fascinerande med Larson (2021) är hans utläggning om våra metoder att dra slutsatser i del II av boken.

Han börjar med att diskutera detta med att dra slutsatser – att förklara mysterier, lösa mordgåtor och kommer den vägen in på det förklarande ramverk för mänskligt resonerande som han utvecklade. Peirces fokus tycks ha varit på hur man uppdaterar sina kunskaper. När han sent i livet blev inbjuden till Harvard för att föreläsa om detta gav han serien rubriken ”Program for clear thinking”.

Peirce, son till en välkänd matematikprofessor vid Harvard, levde ett stökigt liv och lyckades bli ovän med de flesta inklusive sin familj (Brent, 1993). Han dog 1914 som utstött, vilket förklarar att blivit bortglömd. men har gjort framstående insatser inom matematik (Boolsk algebra) och logik (inom satslogik). Noam Chomsky, den kände lingvisten, anser att den filosof han känner mest samhörighet med är Peirce.

Starta med ”dra slutsats” (infer) som etymologiskt betyder ”bring about”. Oxford English Dictionary skriver att det är fråga om något vi gör kognitivt ”with our minds” och definierar det som att ”reach an opinion or decide that something is true on the basis of information that is available”. Alltså att använda de kunskaper vi redan har, plus det vi ser eller observerar för att uppdatera våra knskaper.

Våra slutsatser är ofta provisoriska – ceteris paribus; allt annat lika – och det beror på att vi använder de kunskaper vi har för att dra slutsatser om något nytt vi observerat. Det är denna användning av våra befintliga kunskaper som gör slutsatsdragandet så svårt. Denna fråga har blivit aktuell inom AI-forskningen under rubriken ”real-time inference” – det går ju inte att använda ”statistisk inferens” när datorn skall navigera den självkörande bilen på en trafikerad gata. Inom vetenskap händer det att doktorander får rådet att tillämpa ”Occam’s razor” (välja den enklaste förklaringen).

Här är då verktygen:

Deduktion anger regler för slutsatsdragning som gör att vi aldrig kan ha fel (givet utgångsfakta). Den mest besvärande kritiken är nog att deduktion aldrig tillför något som inte redan fanns i premisserna. Dessutom är deduktion inte särskilt användbar för att avgöra vad som är relevanta observationer/antaganden. Men deduktion är förstås väldigt användbar mot den som framför överdrivna eller felaktiga slutsatser, dvs för att eliminera fel inom vetenskapen, vilket ju enligt Popper (1963) är vetenskapens uppgift.

Induktion är att hämta kunskap från erfarenhet. Dess allmänna form handlar om att dra slutsatser från enskilda observationer (obs. plural) till generellt giltiga hypoteser. På det sättet gör induktion förutsägelser (ceteris paribus) från historiska data och drar på det viset in tidsdimensionen. Historien används för att förutse framtiden. Dess styrka är att den fäster uppmärksamheten på världen kring oss (där vi hämtar data). Hume påpekade (1700-talet) att induktion kräver av oss att vi tro att händelser som vi inte har någon erfarenhet av kommer att likna dem som vi har erfarenhet av. Hans kritik rörde kausalitet. Induktion kräver inte kunskap om orsaker utan litar till korrelationer. Här ligger faran. En ny överraskande observation bedöms som irrelevant eftersom den inte passat in i korrelationsmönstret. Larson konstaterar att induktion fungerar bra i ”games”, men inte i ”life”. Problemet med att inte ha tillgång till kausalitetsstrukturer i ”verkligheten” kommer i dagen när man skall gå från ”tanke” till ”handling”. Det är ju då man skall ”göra” något som man behöver känna kausaliteten – annars tvingas man in i ”counter-factual thinking”. (Antag att jag skulle göra något annat istället).

Efter ett kapitel om ”machine learning”, som ju bara är ett slags ”automatisk” induktion, kommer Larson in på Peirces bidrag – ”abductive inference”.

I enlighet med sin vanliga stil presenterar Peirce med en bild (Larson,p. 158ff.): Han kom till New York med fartyg. Skyndade iväg till en konferens men upptäckte att han glömt sin dyra klocka (användes vid mätningar för Kustbevakningen) och skyndade tillbaka för att upptäcka att klockan och en rock stulits. Övertalade kaptenen att rada upp alla stewards. Talade med alla om ditten och datten. Insåg plötsligt vem som var den skyldige. Erbjöd denne 50 USD för att lämna tillbaka klockan, utan framgång. Vände sig till Pinkerton vars representant föreslog en beprövad metod att annonsera i tidningen riktad till pantlånare. Detta gav resultat och Peirce kunde köpa tillbaka klockan. Han fick också adressen till den som lånat på klockan, gjorde en räd där och upptäckte rocken. Peirce avslutar berättelsen med ”I suppose almost everybody has had similar experiences”

När vi försöker förstå partikulära fakta – som en klockstöld – är vi hänvisade till ”tricket” att hitta på en hypotes som kan förklara detta faktum. Induktion går från fakta till generalisering, medan abduktion går från ett faktum till en regel eller hypotes som förklarar detsamma. Därmed är abduktion nära knutet till händelser (events) och deras orsaker. Det är fråga om ett slags detektivarbete.

Vi bör notera att induktion kräver abduktion som ett första steg därför att vi behöver placera observationen ifråga inom en referensram för att kunna ”make sense” av den (notera filosofernas ”sense-data”), dvs och kunna samla in fler relevanta data.

Peirce uppfattade abduktionens (naturliga) källa som en reaktion på överraskningar:

  • Ett överraskande faktum, C, observeras
  • Men om A vore sant så skulle C följa av det
  • Därför finns det skäl att anta att A är sant

Det är i och för sig fråga om en svag form av slutsats, men, säger Larson, ”conjectural inference” är en egenskap hos intelligenta system. Peirce insisterar att det mest triviala uttalande (”Jag ser en azalea”) förutsätter abduktion

OK! Men skulle man då inte kunna lära datorer att genomföra ”abductive inference”? Kanske, eller troligen inte, säger Larson. Det där med implicit kunskap är jobbigt. Det blir ett livstidsprojekt för en logiker att förklara, t.ex. at ”en ”väg” är en stig med hård ytbeläggning avsedd för fordonstrafik”. Olika försök har gjorts, t.ex. ”scripts”, men att fylla en dators minne med alla dessa möjliga slutsatser av ett synintryck (Peirce talar om miljarder hypoteser som behöver gås igenom supersnabbt) är ett ”bottomless bucket”-problem. Inte heller Kahnemans (2011) lösning med att dela upp tänkandet i två delar  som interagerar (system 1 och 2, där 1 representerar ett slags igenkänning (fast) och 2 är kalkylerande/rationellt (slow)) löser inte problemet eftersom system 1 kommer att ”täppa till” (clog) system 2 omedelbart.

Slutsats enligt Larson (p. 189): AI saknar en fundamental teori – den om ”abductive inference”!

Resten av Larsons bok (p. 191 och framåt) drar ut implikationer och påvisar effekter av denna avsaknad av teori. Först visar han hur fallet med ”Eugene Goostman” omnämnd inledningsvis är ett bedrägeri, Så småningom kommer han in på EUs jätteprojekt ”Human Brain Project” som 2013 avsatte 1,3 miljarder USD för ”explorativ” neurovetenskapsforskning med mer an 150 institutioner inblandade, men där påtagligt ”mismanagement” snart kritiserades. Redan under 2014 skickade 500 forskare en vädjan till EU-kommissionen att göra nödvändiga förändringar av projektet. Det är uppenbarligen den religiösa tron på teorigenerering med hjälp av datakraft och ”Big Data” som oroar många. Larson orienterar sina slutkommentarer mot bristen på teoriutveckling (och teoretiker) kring ”abductive inference”, och dess  nuvarande ”icke-programmerbarhet”. Kanske vore det en idé att söka hur man hittar/skapar mening i det man observerar.

Läs boken och fundera själv!

Referenser:

Austin, John L., (1955/1975), How to do things with words. Cambridge, Mass.: Harvard University Press

Brent, Joseph, (1993), Charles Sanders Peirce: A Life. Bloomington: Indiana Universiy Press

Crawford, Kate, (2021), Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven: Yale University Press.

Dworkin, Ronald, (2011). Justice for hedgehogs. Cambridge, Mass.: Harvard University Press.

Grice, H Paul, (1989), Studies in the Way of Words. Cambridge, Mass.: Harvard University Press

Halpern, Sue, (2021), The Human cost of AI. New York Review of Books, Vol LXVIII, no 16, pp 29 – 31

Hodges, Andrew, (2012), Alan Turing – The Enigma. London: Vintage

Kahneman, Daniel, (2011), Thinking, Fast and Slow. New York: Farrar, Straus & Giroux.

MacIntire, Alasdair,(2007), After Virtue. Notre Dame: University of Notre Dame Press

Newell, Allen, Shaw, J. Cliff, Simon, Herbert A. (1959), Report on a general problem-solving program. Proceedings of the International Conference on Information Processing. Pp. 256 – 264. (också Report P-1584, (1959) Rand Corporation)

Newell Allen & Simon, Herbert A. (1972), Human Problem Solving. Englewood Cliffs: Prentice-Hall

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *