Skip to main content

Dags att dela med sig! Under tiden på brainless och ambitionerna att skapa mer medvetna chatt-botar, har jag tagit mig igenom en mängd böcker om AI och närliggande forskning. Några har stuckit ut rejält och faktiskt haft något substantiellt att tillföra, medan de flesta tuggar om samma exempel, där DeepMinds go-seger toppar listan.

Det som istället fångat mitt intresse är böcker som öppnar nya horisonter och ifrågasätter gamla mönster – böcker som tar ett kliv ut i framtiden, och inte bara konstaterar vad som hänt i backspegeln.

Tre böcker har stuckit ut på lite olika sätt. Det spännande är inte framför allt AI i sig, utan hur forskning inom vissa områden kan påverka hur AI kan eller bör utvecklas. Sen har jag tagit med tre böcker till, om du som jag blir nyfiken på mer. De fyra var inte lika revolutionerande för mig, men är ändå spännande på sitt sätt och adderar till bilden jag får av att vi står på randen till att kunna bygga en medveten hjärna – eller som det populärt kallas: Generell Artificiell Intelligens. Nu krävs ”bara” att vi sätter samman legobitarna vi redan har.

A Thousand Brains: A New Theory of Intelligence

Författare

Jeff Hawkings

Utgiven

2021

På amazon

https://a.co/d/ezrBRMt

På Youtube

Mitt omdöme

Vad jag fick ut av den

Det här känns fullt möjligt att replikera i en maskin!

 

Den bok som gjort absolut starkast intryck är ”A thousand brains…”. Jeff Hawkings började sin karriär inom IT och grundade Palm, som var tidiga med handdatorer som PalmPilot innan han så småningom gled över på neurovetenskap.

Det är kanske därför som hans beskrivningar tilltalar en IT-person som mig. Boken beskriver hans forskning om hjärnan som 150 000 olika neurala nätverk med en mängd kopplingar mellan sig som skapar vår kunskap om omvärlden och formar de algoritmer vår hjärna använder för att utföra det vi vill få gjort. Det fascinerande är att det mesta av hur vår biologiska hjärna fungerar ser jag skulle kunna överföras till elektroniska motsvarigheter. Sen har vår biologiska hjärna fantastiska mängder kopplingar mellan neuroner i de olika neurala nätverken, vilket är en nivå vi inte ens är i närheten av var vi är med IT-forskningen.

Vad jag kan se har forskningen på det området inte ens startat. Vi har precis börjat skrapa på hur vi kan använda ”transfer learning” som är förmågan att använda neurala nät tränad på en mängd data – till exempel husdjur eller specifikt katter – för att känna igen något annat – till exempel tigrar. Vi människor har oerhört lätt att ta information vi lärt oss i ett sammanhang och överföra till ett annat. Digitala neurala nätverk kan inte det alls, vilket osökt leder mig in på nästa bok.

The alignment problem

Författare

Brian Christian

Utgiven

2020

På amazon

https://a.co/d/2hd12pS

På Youtube

 

Mitt omdöme

Vad jag fick ut av den

Ta ansvar för vad du tränar dina modeller på och hur de används!

 

Ett numera klassiskt exempel på hur träningsdata är det neurala nätverk som tränats på ett stort antal bilder, bland annat bilder av djur och människor och där det gick rejält fel. Det krävs miljoner bilder för att träna sådana nätverk och för att få detaljer rätt. Nätverket klassificerade en svart person som en gorilla, därför att det fanns för få svarta personer i träningsunderlaget, vilket är en katastrof på så många sätt.

Bildunderlaget skapade helt enkelt en inbyggd partiskhet (”bias”) mot att människor var vita och med största sannolikhet långt ifrån avsiktligt. När man delar in bildunderlagen i allt fler underkategorier blir vissa kategorier underrepresenterade. I det här fallet räckte det med två underkategorier; kön och hudfärg, för att underlaget skulle ge en skev träning. Att förstå vilka inbyggda värderingar som kommer med i ett träningsset blir avgörande för att fatta nätverket ska kunna fatta rätt ”beslut”, det vill säga göra eftersträvad klassificering. I all sin hemskhet illustrerar exemplet problemet tydligt, men det är lika förekommande i alla sammanhang där träningsdata inte är tillräckligt för att stötta den kategorisering som användarna kommer att fråga efter.

Det blir inte bättre av att det ”där ute” finns många osunda värderingar och när vi använder massiva mängder data för att träna våra modeller, som slinker med i de dataset som används för träning. Dessutom kan problemet generaliseras till större sammanhang. Vem har rätt att bestämma vad som är rätt eller fel? Det i sin tur leder till funderingar jag haft på cybersäkerhetsområdet: Vad händer när någon med anda värderingar använder AI som verktyg för att påverka oss? Scenarier som dessa tål verkligen att förstå i grunden för att undvika att upprepning.

Boken ger ett stort antal tänkvärda exempel och hjälper till att förstå hur man kan undvika att göra om andras misstag. Många exempel är kända om man hållit sig informerad om utvecklingen men det är ändå tänkvärt och i min värld en viktig fråga att hålla reda på. Det här är inte misstag man vill göra om... I stor utsträckning kommer vi inom överskådlig framtid att använda andras nätverk, och vi har ofta ingen aning om vilket data dessa nätverk är tränade på och vilka eventuella partiskheter som byggs in. I vardagen när vi till exempel använder ChatGPT för att generera text, upplever vi det som ”hallucinationer” i nätverken och motmedlet är att ändå ha människor inblandade i loopen innan beslut fattas.

EU:s ”AI Act” ger också individer rättigheter att förstå hur beslut är fattade, så det är inte bara för sin egen skull man behöver förstå hur nätverk fungerar: “AI systems shall be developed and used in a way that allows appropriate traceability and explainability while making humans aware that they communicate or interact with an AI system as well as duly informing users of the capabilities and limitations of that AI system and affected persons about their rights”. Problemet blir dessutom ännu mer intressant om vi börjar kombinera olika neurala nät och använda teknik som ”transfer learning”.

How emotions are made

Författare

Lisa Feldman Barrett

Utgiven

2017

På amazon

https://a.co/d/cX4InGS

På Youtube

 

Mitt omdöme

Vad jag fick ut av den

Att bygga en medveten maskin borde vara möjligt. Frågan är snarare vad den behöver vara medveten om.

Den här boken är inte primärt en AI-bok, men ger hela kartan för hur man kan bygga känslomässigt medveten AI. För mig öppnade den också vägen till hur man i princip skulle kunna bygga en medveten robot, vilket vi idag känns långt ifrån. Givet att boken har några år på nacken känns det nästan lite trist att vi inte kommit längre.

Två principer som beskrivs i den här boken är det som i min värld öppnar dörrarna. För det första (och det är inte den här boken först att ta upp – det är bred forskning) är vår bild av omvärlden en konstruktion inne i vårt huvud. Det är en av nödvändighet förenklad tolkning av omvärlden som skapar en bild av den som maximerar vår överlevnads- och förökningseffektivitet. Hjärnan använder helt enkelt minsta möjliga bandbredd för att skapa bästa möjliga resultat. Den modellen innehåller en prognos om vad som ska hända i vår omvärld, vilket låter oss fokusera våra sensorer – det vill säga våra sinnen – och den information de skickar till att hitta avvikelser från prognosen. Det är till exempel därför vårt neurala nätverk blir bättre på att fånga en boll om vi tränar det, det vill säga övar på att fånga bollen. För det andra visar det sig att de flesta känslor är en intränad översättning av signalerna från sensorerna inne i kroppen. Jag tänkte inte gå in på mer detaljer. Det är spännande läsning.

För mig innebär det att de känslor och den empati man eventuellt vill bygga in i en AI kommer att kunna tränas på samma sätt. För att ge ett trivialt exempel: Om batterinivån är låg, kan det helt enkelt mappas mot utkomsten ”hungrig”. Man kan ju fråga sig varför, men följande exempel vore ju inte alltför världsfrånvänt: När batterinivån är tillräckligt låg prioriteras resurser på att hitta och ta sig till en laddstation. Om då sensorer som hörsel stängs av, skulle den roboten – precis som en människa - uppfattas som grinig som här man är hungrig. En AI som “bor” I en dator, skulle kunna ha helt andra sensorer. Vilka som är relevanta blir helt beroende av situationen, men det är absolut möjligt att låta den replikera känslotillstånd som visar att den är med i en konversation, som att bli ledsen och agera annorlunda när den får skäll, eller att uppfatta nyanser i tal eller ansiktsuttryck hos den individ den talar med – allt beror på vilka sensorer som finns att tillgå och hur de används. Det finns till exempel inget hinder för att ett neuralt nätverk skulle kunna tränas på att känna igen stress eller andra känslomässiga tillstånd baserat på vad den kan läsa av om pupiller, hjärtrytm och så vidare. Med all säkerhet skulle den kunna vara betydligt bättre än de missuppfattningar vi människor har om vad ett leende eller rynkad panna betyder.

Om vi ska börja använda till exempel ett nätverk som identifierar känslor nätverk tillsammans med andra nätverk, börjar vi ta steget mot vad som beskrivs i ”Thousand brains…”. Och sätter vi samman LLM:er som ChatGPT med ett prognosticerande nätverk, och ett som kan tolka känslor, är vi på väg mot en medveten maskin. Snart är vi där…

Tre andra tips som är mer traditionella

AI Superpowers: China, Silicon Valley, and the New World Order

Författare

Kai-Fu Lee

Utgiven

2018

På amazon

https://a.co/d/6er2dJd

På Youtube

 

Mitt omdöme

Vad jag fick ut av den

Kina ligger onekligen bra till, har en oerhört långsiktig strategi och uthållighet. Hur politik och intern struktur eventuellt finns det också många intressanta böcker om.

 

Enligt Kai-Fu Lee kommer Kina vinna AI-racet. Kina har inga skrupler när det gäller att träna AI. EU:s ”AI Act” eller GDPR gäller inte där. Med över 100 000 döda i trafiken är man bara glad om man kan utveckla självkörande bilar. En död, som är en mindre katastrof för till exempel Tesla, är inget problem i Kina. Tänkvärt!

Prediction Machines

Författare

Ajay Agrawal, Joshua Gans, Avi Goldfarb

Utgiven

2018, uppdaterad utgåva 2022

På amazon

https://a.co/d/cqqWIee

På Youtube

 

Mitt omdöme

Vad jag fick ut av den

När maskiner gör förutsägelser, vad gör då människor som förblir värdefullt?

Att jag satte den här boken i kategorin "övrigt" och inte bland favoriterna är at den är lite smal runt ett ämne. Det gör den inte mindre intressant. Den bygger på ett ekonomiskt perspektiv på vad AI är och vad det inte är. Vi får inte glömma att AI är algoritmer eller specifikt algoritmer som gör förutsägelser. Med allt billigare sätt att leverera dessa algoritmer kommer vi påverkas – eller vi påverkas redan. Och det tål att reflektera över när datorer gör allt mer exakta förutsägelser, var ligger ansvaret för att agera på förutsägelserna och fatta besluten? Vi kan så klart automatisera det också. Det ger en intressant sammanställning och bakgrund till utmaningarna jag berört tidigare och en struktur för var man vill sätta sina egna begränsningar för sin AI-användning som fungerar, trots att boken inte är pur-färsk. En reflektion jag gör i sammanhanget är att om hjärnan också arbetar i första hand med förutsägelser, och kostnaden för att bygga ”förutsägelsemaskiner” drastiskt minskar, vad leder det till?

En i sammanhanget intressant reflektion (i alla fall enligt mig) är att när vi har förutsägelser av hög kvalitet, blir de beslut som är kvar att fatta allt mer beroende av sammanhanget. Att förstå större sammanhang är vi inte i närheten av med AI ännu, men insikterna om att framsteg i hjärnforskning, och framsteg i AI går hand i hand är fascinerande.

AI 2041

Författare

Kai-Fu Lee, Chen Quifan

Utgiven

2021

På amazon

https://a.co/d/hmdBAsk

På Youtube

 

Mitt omdöme

Vad jag fick ut av den

Trevlig novellsamling och ljudbok i bilen som illustrerar tekniken straxt bakom horisonten.

En lättillgänglig översikt av vad AI möjliggör. Det är ett trevligt försök att göra bilden av vad AI förmår mer påtaglig än maskininlärningsmodeller, underlig terminologi och begrepp som kanske skrämmer bort. Det intressanta är att 2041 närmar sig snabbare än vi tror på vissa områden. Boken ger intressanta perspektiv på hur flera teknikområden kan samarbeta för att skapa nya funktioner – något jag upplever vi ofta förbiser. Få nyheter, men en riktigt bra introduktion, om du just börjat intressera dig för hur AI kommer påverka oss i praktiken de närmaste åren.

Om brainless

Vilka är vi? Över 50 års erfarenhet av marknadsföring och digital transformation inom olika branscher. Eva-Mia Westergren, strategisk rådgivare inom marknadsföring och kommunikation inom Tech, varav de senaste sex åren som Microsofts marknadschef i Sverige. Michael Buczek,  lång karriär som strategikonsult på bland annat Accenture och chef för IT-strategiavdelningar inom Telekom och designer av kreativa tekniska lösningar på svåra IT-problem.

 

Michael Buczek
Post by Michael Buczek
februari 8, 2024

Comments