AI – hot, möjlighet eller fiktion?

Någonting har hänt. Och det har gått oerhört fort. För bara ett par år sedan var det få utanför den inre kretsen av hängivna futurister och sci-fi-nördar som var intresserade av frågor om Artificiell Intelligens. Men sedan World Economic Forum gav startskottet genom att sätta fokus på ämnet i januari 2016 så har AI över en natt blivit glödhett. Konferenserna, Almedalsdiskussionerna, radioprogrammen och artiklarna om AI avlöser nu varandra i strid ström och eventen med de hypade ”stjärnfilosoferna” blir snabbt utsålda.

Här följer referat av två event i Stockholm som vi nyligen bevistade, med personliga kommentarer.


Singulariteten är nära

Paneldebatt om AI i Kulturhuset 16 oktober 2017

Deltagare:
David Wood, författare, futurist, chef för tankesmedjan Transpolitica (UK)
Anders Sandberg, fil.dr, forskare på Future of Humanity Institute
Joanna Rose, vetenskapsjournalist på Forskning & Framtid och Filosofiska rummet
Hannes Sjöblad, moderator, ordförande för Människa+

David Wood, Anders Sandberg, Joanna Rose (foto: Inger Glimmero)

Fullsatt event, med till synes hög nördfaktor på publiken.

David Wood gav en historisk överblick och varnade för hur snabbt – och oförutsägbart – AI kan utvecklas. Han gjorde paralleller till utvecklingen av vätebomben och atombomben. Nick Boströms enkät redovisades, om när olika grupper av experter tror att AI system kommer nå upp till mänsklig intelligens (åsikterna gick verkligen isär, men i genomsnitt 50% sannolikhet runt 2040-50, 90% sannolikhet år 2075).

Olika experters antaganden om hur utvecklingskurvan kommer se ut

Anders Sandberg var tydligt entusiastisk till AI men menade att tekniken behöver regleras.

AI-kapprustningen mellan supermakterna USA, Ryssland och Kina togs upp, liksom risken för hackning, men ingen hade någon lösning på det dilemmat trots att det borde vara högsta prioritet [p g a motiven hos dem som ger programmeringsuppdraget, inte programvaran i sig]. Det enda nya förslaget var att programmera AI till att bli transparent så att den kan tala om för oss vad som hände om något går fel [kanske liknande som vi redan får en rapport som skickas till Apple eller Microsoft när datorn kraschar?].

Fler spekulationer om tidpunkt och kapacitet

Journalisten Joanna Rose, som skrivit denna eminenta sammanfattning om AI, ställde i paneldebatten flera intressanta och relevanta frågor, bl a om att tekniken gör oss dummare för att vi inte längre behöver anstränga oss för att memorera telefonnummer, adresser mm.

Kommentar: Detta ser jag som det verkliga hotet. GPS ersätter t ex lokalsinnet och tekniken tar alltmer över rollen som vår virtuella mamma, vilket oundvikligen måste leda till en infantilisering en masse.

Transhumanisterna verkar mer rädda för att AI ska bli smartare än vi, inte att vi ska bli dummare. Ingen av dem verkar ha tagit i beaktande de senaste årens upptäckter om den plastiska hjärnan. Här är det ”use it or lose it” som gäller, precis som för vilken muskel eller uppövad förmåga som helst. När vi utlokaliserar vårt kunnande till appar, moln, ”AI”, Big Mother eller eventuella framtida hjärnproteser, så innebär det kopplingar och förmågor som vi själva i samma utsträckning själva förlorar. Den dag tekniken fallerar så står vi där handfallna med krympt hjärna och kan ingenting längre.

Plus att vi redan nu blir så distraherade hela tiden att vår koncentrationsförmåga saboteras. Kanske även förmågan att fantisera, visualisera, reflektera, kontemplera och skapa annat än på datorn är på väg att atrofiera? Eller på sikt kanske t o m förmågan att läsa och skriva, vartefter böcker ersätts av talböcker, bildmem och youtubeklipp, som många yngre redan föredrar.

I övrigt var diskussionen ganska lam och ingen av storheterna imponerade. De kan uppenbarligen bara göra kvalificerade gissningar och blandar hela tiden ihop saker som faktiskt ter sig rimligt görbara och innebär verkliga möjligheter eller hot, med rena science fiction-fantasier såsom att överlista döden, teleportering och att kunna ladda upp sitt medvetande på internet. Utan att moderatorn eller någon annan avbryter och säger, ”…men hallå, vänta nu… har du inte bara kollat lite för mycket på Star Trek?” 

I denna video kan man se Anders Sandberg utveckla sina nördfantasier för att slippa dö (och här kan man som extra bonus läsa Olle Häggströms gränslösa beundran för stolligheterna). Detta är inte vetenskap utan tillstånd som normalt brukar hänvisas till psykiatrin. 


Medvetandets mysterium och tänkande maskiner

Pi-Symposium om AI på Cirkus i Stockholm 13 november 2017

Deltagare:
Daniel Dennett
, professor i filosofi, föreståndare för the Center for Cognitive Studies vid Tuft University
Nick Bostrom, professor i filosofi vid universitetet i Oxford, där han också leder The Future of Humanity Institute
Christer Sturmark, moderator, ordförande för Humanisterna och grundare av Fri Tanke
Gästframträdande av José González, f d molekylärbiolog, som sjöng och spelade akustisk gitarr.

Daniel Dennet, Nick Boström, Christer Sturmark (foto: Inger Glimmero)

Mycket välorganiserat event på Cirkus i Stockholm. Lokalen var helt fullsatt. Blandad publik i olika åldrar och överraskande många kvinnor, även om det nog var flest män.

Första delen handlade om vad medvetande är och inleddes med anförande av Daniel Dennet. Med fenomenal tvärsäkerhet upplystes vi om att medvetande som något separat från fysiska processer inte finns. Det finns intelligent design men ingen designer utan alla ändamålsenliga funktioner bara uppstår av sig själva som ett resultat av processer.

Medvetenhet är enligt Dennet bara ett system av kognition och kompetens, som varierar i grad mellan olika varelser. Han ansåg att den dualistiska uppdelningen mellan kropp och själ är en dålig idé och avfärdade bryskt den samtida filosofen John Searle för att han “helt enkelt har fel”. [Searle menar att mänskligt medvetande möjligen kan simuleras så att vi kan bli lurade i ett Turing-test men aldrig replikeras på riktigt såtillvida att det finns någon medvetenhet där som verkligen kan förstå vad den ser ut att ha lärt sig.]

Kommentar: Dennets anförande kändes som en enda lång högmässa för scientismen (där vetenskapen inte bara är en metod utan en världsåskådning) och han refererade också till dess “överstepräst” Dawkins. Några belägg för att sina teser gav han inte här utan utsagorna presenterades som självklara axiom, trots att ingen faktiskt vet vad medvetenhet är och hur det uppstår, än mindre kan bevisa det. Den totala bristen på ödmjukhet inför detta faktum signalerade inte vetenskaplig nyfikenhet.  

Nick Boströms anförande handlade om hans grundtes att superintelligens är “den sista uppfinning människan behöver göra”, eftersom AI sedan kommer lära sig själv och uppfinna/skapa allt som behövs. AI är enligt Boström appar som sammankopplas och styrs av en [artificiell] ”agent” som koordinerar aktiviteterna för att nå ett mål. Han tror på machine learning och deep neural network och att datorer/maskiner kan utvecklas av sig själva.

Den andra huvudfrågan Boström tog upp var, precis som tidigare David Wood och Anders Sandberg i paneldebatten på Kulturhuset, hur man kontrollerar denna AI.

I diskussionen mellan Dennet och Boström efter resp anförande tog moderatorn Christer Sturmark upp div teoretiska frågeställningar, bl a Derek Parfits tankeexperiment om att teleportera sig till Mars [såsom i t ex Star Trek]. Är den personen som anländer du eller är det en kopia? Och om det blir en kopia och den första versionen fortfarande finns kvar på jorden, bör man göra sig av med den ena – i så fall vilken? – eller bör båda ha samma mänskliga rättigheter? Dennet verkade hålla med Parfit om att personlig identitet inte spelar någon roll, eftersom separat medvetande frikopplat från kroppen och hjärnans processer ”inte finns”. Boström var mer fokuserad på etiska värderingar och på om kopian skulle lida.

Hela resonemanget kändes som ett irrelevant sidospår eftersom någon sådan kopia knappast lär kunna skapas. Men det visade ändå deras oerhört torftiga och reduktionistiska syn på medvetandet.

”Beam me to Mars, Scotty”

Både Dennet och Boström var övertygade om att det kommer vara teoretiskt möjligt att skapa “Deep AI” (alltså en maskin som är medveten på riktigt och kapabel att fatta självständiga beslut). Det kommer inte gå något “brandlarm” när så sker, menade Dennet, så vi kanske inte ens kommer märka det. Dennet var dock skeptisk till om vi kommer kunna åstadkomma detta inom någon nära framtid pga den mänskliga hjärnans komplexitet.

Boström var mer optimistisk. Dock var även han osäker på tidpunkten för när AI når mänsklig nivå och påpekade att vi haft två tidigare hype-vågor, först på 60-talet och sedan på 90-talet, vilka båda följdes av “AI-vinter” när förväntningarna inte uppfylldes. Nu ser vi den tredje vågen där deep learning tros kunna bli verklighet. Båda trodde att AI teoretiskt kommer kunna ha fri vilja, men förklarade inte hur ”den” ska kunna ha det när det inte är en verklig entitet utan bara ett koncept [jfr med ”marknaden”].

Boström menade att AI väldigt snabbt kan börja utvecklas långt bortom mänsklig nivå bara den får tillräcklig processorkapacitet. Dennet tvivlade på om det verkligen är möjligt att ens nå upp till mänsklig nivå på riktigt, däremot har vi undermänsklig intelligens redan nu [som utför olika nyttiga uppgifter]. Han var tveksam till om man alls bör satsa på att utveckla AI. Dennet tyckte vi borde utveckla bättre verktyg snarare än försöka emulera hjärnan. Han förutspådde också att övermänsklig intelligens kan ställa till med alla möjliga problem och skapa stora störningar. Boström var mer positiv och menade att även om Deep AI ligger längre fram så kommer vi ha nytta av det vi skapar på vägen dit, och nämnde Facebooks bildsorteringsprogram som exempel.

Dennet var emot att skapa antropomorfa robotar eftersom vi så lätt luras av det som liknar oss utan att de behöver vara vare sig medvetna eller särskilt smarta och nämnde exempel på detta. Han ansåg att detta är falsk marknadsföring och kom med det konstruktiva förslaget att samma regler borde gälla för robotar/AI som för läkemedel och andra konsumentprodukter där man är tvungen att lista ingredienser, utlovade funktioner och kända biverkningar.

Antropomorfa roboten Sophia (utan varudeklaration)

Man diskuterade också ”moralen” hos den medvetna AI som man antar är möjlig. Moderatorn frågade vad som händer om AI kommer fram till att det bästa för planeten är att inte ha några människor på den alls? Boström höll med om att en AI kanske inte alls motiveras av samma värderingar som vi och poängterade vikten av att förse den med de värderingar vi vill att den ska ha.

Kommentar: Detta förutsätter dock ett centralt medvetande som kan programmeras med sådana instruktioner en gång för alla. Ett sådant centralt medvetande finns dock inte utan det är bara kod – bestående av sammankopplade delar som programmeras av människor över hela världen, vilka i sin tur kan ha väldigt disparata motiv; vissa altruistiska, andra raka motsatsen.

Det faktum att den snabba utvecklingen ända från början finansierats och drivs på av ledande supermakters försvar, samt den superrika lilla elit som möts varje år på World Economic Forum, väcker inte direkt förhoppningar om altruistisk användning av den eftersträvade superintelligensen. ”Hotet från AI”, som denna elit nu både varnar för och samtidigt beskriver som oundviklig och full av möjligheter, är gissningsvis en avledningsmanöver för att ha en fiktiv ”HAL” eller ”VIKI” att skylla på, medan det i själva verket är de själva som i slutändan dikterar vad de ”sammankopplade apparna” ska göra. 

Andra relaterade frågor diskuterades, som t ex om robotar ska ha rättigheter såtillvida att man inte får skada dem. Boström tyckte etiska frågor var viktiga och återkom till dessa flera gånger i diskussionen, medan Dennet tycktes vifta bort dem som irrelevanta.

Men när moderatorn ställde den inom snart högaktuella frågan om det moraliska dilemmat med en självkörande bil som t ex tvingas välja mellan att köra över en familj på fem personer och att krascha in i en vägg med sina passagerare så tyckte Boström lite överraskande att detta bara var ett ingenjörsproblem: “Bygg bilar som inte kraschar.” Mer relevant att fokusera t ex på vad Facebook ska filtrera bort, ansåg han.

Förarlös bil

På den viktiga frågan om vad vi ska göra för att förhindra att vi tappar kontrollen över AI-kapprustningen [som Lars Bern varnat för i ett nyligt blogginlägg] så var Boströms recept mer kontroll. Medan Dennet tyckte vi skulle ta de problemen när de kommer och fokusera på de problem vi har nu.

Kommentar: Detta håller jag med om. Genom att rikta fokus mot fiktiva hot i framtiden flyttas uppmärksamheten från de problem vi har nu med övervakning, data till salu, neuro-invasiv marknadsföring, påtvingade filterbubblor, nätcensur, drönare (som kan användas både för terror, krig och övervakning, inkl av den egna befolkningen) och de snabba stegen mot IoT och ersättandet av demokrati, öppenhet, integritet och regionalt självstyre med en global centralstyrd teknokrati (för att möta de ”hot” man själv håller på att skapa).

Liksom Sandberg är Boström en uppenbar nörd; en mycket intelligent teknofil med troligen skyhög AQ (dvs påtagligt högre IQ och SQ än EQ) som kanske växt upp med Science Fiction och därför har svårt att skilja mellan fantasi och verklighet.

För en hardcorefuturist och transhumanist finns inga som helst gränser. Allt är möjligt och går att lösa med teknik: åldrande, sjukdom, död, rymdresor, kolonisation av andra planeter och “mind uploading” (som även Anders Sandberg, Keith Wiley m fl anser vara en reell möjlighet i framtiden). Tyvärr kan dessa ”stjärnfilosofer” fantisera fritt och kalla det ”vetenskap” utan att möta något större motstånd eller avkrävas fungerande resultat.

Kommentar: Inget ont om nördar, är rätt nördig själv, och de mest framstående har bidragit med fantastiska konstverk, musik och uppfinningar som vi har glädje av varje dag (inkl datorn som detta skrivs på.) Men man behöver självinsikt, inte bara om talanger utan även om de ofta påtagliga begränsningar som följer av att man fått alla äggen i en enda korg istället för lite utspritt som hos de flesta. Godtrogen naivitet ingår i bilden. Man vill hjälpa mänskligheten, och tror att alla andra också vill det. Man behöver därför lära sig inse när man blir utnyttjad av makthungriga sociopater som vet precis vilken knapp de ska trycka på för att få en att inte bara samarbeta utan göra det med passion och entusiasm.

Dessa naiva nördar haussas nu upp och ges forskningsanslag, publiceringar, utrymme i media och status, för att deras rön och spekulationer passar perfekt för att skrämma och förvirra både allmänhet och beslutsfattare angående vad som är möjligt och hur dessa möjligheter ska regleras.

Jag hoppas både Sandberg, Boström och andra teknikentusiaster läser detta och inser att de skulle kunna rädda mänskligheten på riktigt genom att sluta vara okritiska förespråkare för en teknik som garanterat kommer leda till en global diktatur om vi inte sätter ned foten i tid och riktar blicken mot vilka som ligger bakom, istället för mot en påhittad ”entitet” som inte existerar. Här ligger tyvärr inte bara den egna karriären i vågskålen utan hela mänsklighetens framtid.

Så snälla, välj rätt nu!  

Red pill or blue pill?

Inger Glimmero
sekreterare i Stiftelsen Pharos


Disclaimer: De åsikter som framförs i inlägg på bloggen står för den enskilda författaren och är inte nödvändigtvis representativa för Stiftelsen Pharos.

Comments 1

  • Universum i sig själv kan vara en sorts hjärna. Undrar hur ‘den’ ställer sig till uppkomsten av det vi kallar AI?
    Som en utmanare? Eller som : äntligen lite intelligent sällskap!

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *