"Bilindustrin kommer att förändras mer de närmaste fem åren än den gjort under de senaste 50 åren."

Dan Ammann, vd, General Motors.

AI

Publicerat september 24th, 2018 | av Sakari Pitkänen

0

Om bilar vore datorer. Vilket de blir nu

”Om General Motors (GM) bilar skulle utvecklats lika snabbt som datorn skulle vi ha bilar som kostade motsvarande 200 kronor och gick 35 mil på en liter bensin.”

Det påstås Microsofts vd Bill Gates ha sagt vid den stora Comdexmässan 1996.  GM skulle ha svarat med ett pressmeddelande där det bland annat stod: ”Visst, och om våra bilar utvecklades som era datorer skulle det krävas omstart två gånger om dagenVid en särskild besvärlig manöver som enl vänstersväng, skulle de plötsligt stanna och det skulle i vissa fall leda till att du blev tvungen att installera om motorn. ”

Det är roligt, men det är inte sant. Grälet har aldrig ägt rum. Det är en digital vandringssägen.

Ett skäl till att vi ändå tror på den, är just det som Bill Gates påpekade i det fejkade citatet. IT-industrins tekniska utveckling har varit mycket snabbare än bilindustrins.

Men skillnaden håller på att förändras inför våra ögon. Bilen – vare sig den kommer i form av en personbil eller en som går yrkestrafik, kommer att utvecklas mer de närmaste fem åren än den gjort under industrins hela tidigare historia.

Det finns flera skäl till att detta.

I grunden innebär förändringen att bilar går från att vara hårdvara till att bli mjukvara.  Bilar blir som datorer.

Datorn utvecklas exponentiellt. Det innebär att varje utvecklingssteg är lika stort som alla tidigare. Det låter konstigt.  Datajätten Intels grundare Gordon E. Moore formulerade redan 1965 det som skulle bli känt som Moores lag. Lagen säger – förenklat – att datorernas beräkningskapacitet kommer att fördubblas vartannat år.

Våra hjärnor är inte vana att tänka exponentiellt, vi tänker linjärt, gradvis. Skillnaden mellan dessa tankesätt blir snabbt enorm.

Tänk dig en trappa. En vanligt steghöjd är 20 centimeter, om trappan har 10 steg kommer det översta vara 2 meter över trappans botten, och varje steg kommer att vara lika högt, den stiger linjärt.

Men om trappan istället stiger exponentiellt är det första steget 20 centimeter högt. Det andra 40. Redan på det tredje steget blir det svårt att gå, det är 80 centimeter högt, det fjärde 1,6 meter, det femte 3,2 meter, det sjätte 6,4 det sjunde 12,8 det åttonde 25,6, det nionde 51,2, det tionde nästan lika högt som Stockholms stadshus 106 meter höga torn.

Det är svårt att tänka sig en sån trappa, och exponentiell tillväxt är en svår sak att få in i huvudet

Det finns en gammal legend om schackspelets uppkomst. Legenden finns i olika versioner, men med samma matematiska sens moral.  Det är berättelsen om en härskare i ett avlägset land som möter mannen som uppfann schackspelet. Härskaren och schackets upphovsman spelar det nya spelet. Härskaren blir mycket förtjust i spelet och erbjuder sig att köpa det och ber upphovsmannen att själva sätta priset.

Denne säger då att han  vill ha ett riskorn på schackbrädets första ruta, och därefter dubblera antalet riskorn på varje följande ruta. På den andra rutan blev det alltså två korn, på den tredje fyra, den fjärde åtta och så vidare.

I början såg det ut att vara en bra affär för härskaren, men snart insåg alla att han blivit lockad in i en något han aldrig skulle kunna vinna. Långt innan alla rutor var fyllda krävdes det mer ris än det fanns i hela riket.

Futuristen, författaren och Googlechefen Ray Kurzweil brukar påpeka att tekniken nu står på schackbrädets 32:a ruta och därmed på den andra halvan av brädet. Här ger den exponentiella utvecklingen extrema hopp. I riskorn går det från drygt 2,1 miljarder på den 32:a rutan till 4,3 miljarder på nästa.

I datorvärlden har vi i dag mer datakraft i våra smarta mobiler än superdatorerna hade för 20 år sedan. Den häftigaste superdatorn från Cray, kostade 1985 närmare motsvarande 100 miljoner svenska kronor i mitten av 1980-talet. Dess datorkapacitet var mindre än en tredjedel av vad vi alla bär med oss i våra mobiltelefoner i dag.

Det finns tecken på att kraften i Moores lag är på väg att klinga av. Att fördubblingen inte sker lika snabbt. Men även så kan den exponentiella utvecklingen fortsätta.  GPU, grafikprocessorer, har visat sig formidabelt kapabla att utföra allt snabbare och komplexare AI-beräkningar. Faktum är att grafikprocessorn anses utgöra ett av de viktigaste skälen till att AI och maskininlärning tagit så stora utvecklingssteg under de senaste tio åren.

Att den exponentiella utvecklingen fortsätter oavsett om vi kallar den Moores lag eller något annat  är en faktor som gör att vi närmar oss dagen då autonoma fordon av alla slag kommer att bli verklighet. Det som tekniskt sett ännu inte är löst, kommer att bli det om 24, 48 eller 64 månader då teknologin kommer att ta jättekliv ruta för ruta på utvecklingens schackbräde.

Vi tänker oss att datorer gör vad de är programmerade att göra, men det är en sanning som snabbt håller på att bli obsolet.

Den nya sanningen är att datorer kan lära sig att göra komplicerade saker på egen hand. De flesta känner till att IBM:s dator Deep Blue vann mot världsmästaren i schack Garry Kasparov 1997 och dess efterföljare Watson vann mot de amerikanska stormästarna i Jeopardy 2011.

Watson kan ”tänka” själv, om man med tänka menar ta del av information och dra slutsatser som inte är styrda av regler och kommandon, vilket traditionella programmering är. Om frågan är ”Den är Sveriges huvudstad” är svaret = Vad är Stockholm = Sant. Alla andra svar = Falskt.

Men Watson kunde också svara på frågor i stil med: ”En dålig hantverkare skyller på dessa” .

Svar: ”Vad är verktyg”?

När man går igenom Jeopardyfrågorna i efterhand är det ganska lätt att se att det då handlade om att Watson var snabb på att söka information i stora mängder data och spotta fram ett svar. Det var kanske inte så mycket intelligens som rå datakraft.

Men utvecklingen tar stora steg.

Fem år senare gör Googleägda Deep Mind ett experiment. Man satte sitt system för maskininlärning Deep Q Network, DQN att spela Break-Out, ett av de allra tidigaste dataspelen från 1970-talet. Spelet går ut på att bryta ned en vägg av plattor. Spelaren kontrollerar ett slags rack som ska träffa bollen och skicka upp den mot väggen, där varje träff tar bort en platta.

Deep Minds forskare satte ett helt tomt system framför Ataris Break-out. Det fanns alltså ingen förprogrammerad kunskap om Break-Out alls. Tanken var att se om datorn kunde klura ut vad spelet gick ut på.

Det kunde den: Efter två timmar av studier lyckades DQN inte bara ”förstå” bollen och racketets roll utan till och med slå ned hela muren. Efter ytterligare en timme hade den räknat ut den snabbaste vägen att vinna, att styra bollen så att den tog bort alla plattor i en rad och därefter skicka in bollen i den tunnel som då skapas så att bollen river väggen bakifrån.

Datorn fick alltså inga instruktioner om vad den skulle göra, hur den skulle göra det, vilka regler som gällde eller ens att det var spel.

Det tog den två timmar att räkna ut allt detta och agera därefter och bli bättre än någon mänsklig spelare.

Den bakomliggande tekniken bygger på så kallade neurala nätverk och maskininlärning. Det förra är ett sätt att efterlikna hjärnans sätt att behandla information. Det senare – som kan, men inte måste, bygga på det förra – är mönsterigenkänning, där datorn efter att ha ”sett” data, kombinerar den och dra slutsatser baserade på vad den sett.  Det används till exempel vid bildigenkänning. Datorn ser en bild på något med fyra ben, en svans och ett ansikte. Nästa bild visar något som också har fyra ben, svans och ett ansikte. Katt? Nej, enligt bildtexten är det en ”hund”. Datorn fortsätter att ”titta” på miljoner bilder till dess att den hittat så många tecken på att den kan skilja på den ena fyrbenta varelsen från den andra. Eller, som i det här sammanhanget, lära sig all världens trafikskyltar. Ju mer data desto bättre resultat.

De flesta av oss använder redan den här tekniken idag. Google translate som översätter texter mellan världens alla språk är en tillämpning. En annan är Facebooks sätt att känna igen människor som är på bilder som användarna delat. Det finns många flera.

Tack vare tekniken kan enorma mängder data beräknas och skapa insikter som tidigare inte funnits eller tagit lång tid att förvärva. Den som till exempel skulle samla alla världens trafikskyltar i en bok, skulle förmodligen aldrig bli färdig, då många hunnit förändras långt innan alla var insamlade.

En annan viktig förändring som gör att de självkörande bilarna inte längre är science-fiction är molnteknologin.  De flesta av oss har kanske våra bilder från mobilkameran på Dropbox, Google Drive eller Microsofts OneDrive. Det är molnets som datalager.

Men den stora förändringen är när molnet även blir distributionssystem.

Den som haft dator i något mer än fem år minns kanske hur det brukade vara tidigare när operativsystemet skulle uppdateras. För tio år sedan fick man beställa en plastskiva CD och senare  CD-ROM med den nya uppdateringen, när den kom installerade man den från skivan, vilket kunde ta lång tid.

När plastskivorna blev obsoleta kunde man gå in på till exempel Microsofts servrar och ladda ned en uppdatering. En stor förbättring även om det tog lång tid på grund av att filerna var stora och bandbredden liten.

I dag behöver användaren inte göra någonting. Jag har Windows och det uppdateras i bakgrunden då och då. Microsoft ser alltså till att jag alltid har den senaste versionen med uppdateringar, buggfixar och säkerhetshål tilltäppta. Men det är inte bara mig Microsoft ser efter. De skickar automatiskt ut den nya informationen till alla de omkring två miljarder pc-datorer som kör Windows 10.

Det innebär att två tusen miljoner datorer samtidigt blir lite smartare, de får unisont del av samma nya information. Samma sak händer dagligen med apparna i våra smarta telefoner.

Det vi ser här är hur datorerna blir än mer potenta. Hur utvecklare använder den datakraften till att skapa nya insikter obegripligt snabbt och hur teknologin kan distribuera dessa nya insikter till miljarder enheter och användare över hela världen.

Tesla har i flera år skickat uppdateringar on-line av mjukvaran till deras bilar och de som kör Tesla har på sin sida laddat upp värdefull data om bilen och dess omgivning till Tesla. Alla Teslor blir smartare med en uppdatering samtidigt som alla Teslor gör Tesla som bolag smartare vilket i sin tur bildar underlag för en ny uppdatering som gör Teslorna ännu smartare i en evig kretsgång med data.

Det är här någonstans som den verkliga digitaliseringen sker. En halv steg mot digitalisering är tex. att en verkstadstekniker kopplar in sig på bilens egen data och diagnostisera och fixa eventuella fel.

Men full digitalisering är att varje fordon betraktas som en nod i ett nätverk. All data som kommer från alla noder analyseras och omvandlas till kunskaper som skickas ut till alla noder/fordon. Varje insikt från varje nod/fordon bidrar till att alla fordon blir bättre. Samtidigt. Men bättre fordon kommer fler köpare. Vilket i sin tur innebär fler noder som laddar upp mer data som skapar ny kunskap som… ja ni fattar.

Vi står på den 32:a rutan på schackbrädet och är imponerade över att Googles självkörande bilar kört mer än 1,3 miljoner mil sedan de första rullade ut från Mountain View i Silicon Valley 2009.

Med nästa steg på schackbrädet kommer datakraften som står, Google, Volvo och andra företag som är långt fram i utvecklingen av autonoma fordon, till förfogande ytterligare öka möjligheten att även vi som är födda under bilens guldålder på femtio- och sextiotalet kommer att se självkörande bilar i trafik.

Biltillverkarna – dagens och morgondagens – kommer att samla data om världens vägar i realtid. Trafikhinder, hur det ser ut under olika väderförhållanden, trafikmönster etc. Det handlar om enorma mängder data som hanteras i realtid. Olika former av artificiell intelligens ”översätter” data till kunskap för de autonoma fordonen.

Dessa får data för att navigera rätt, men sänder också tillbaka data. Om en bil till exempel upptäcker att en väg är avstängd på grund av ett överraskande vägarbete skickas den informationen tillbaka och kan omedelbart delas av alla anslutna fordon. Om ett fordon blir smartare kommer alla andra bli det samtidigt.

Och hur var det nu då? Om bilar skulle utvecklats lika snabbt som datorer?

Intel svarade på detta när Moores lag fyllde 50 år 2015.

Om bilarna skulle utvecklats lika snabbt som dator mellan 1965 och 2015 skulle de ha en topphastighet på 482 000 kilometer i timmen. Och klara 850 000 kilometer på en liter bensin och kosta motsvarande 32 öre.

Tags: , ,



Kommentera

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.

Back to Top ↑