Tesla Bygger en ai-superdator för att bli bäst

Sedan Tesla släppte sina bilar 2016 med 8 kameror och 12 sensorer så har man skickat data från varje bil till Tesla centralt. Anledningen har varit att använda kunskapen från alla bilars händelser och skapa ett artificiellt nätverk med denna kunskap och sedan lära sig hur bilarna skall agera om man kommer i en liknande situation.

IT-avdelningen som samlat ihop denna data byggde en motor som användes i NVIDIAS chip initialt. Programmet sattes ihop för att klara framtida självkörning. Så blev det dock inte. Tesla insåg att NVIDIA inte hängde med utvecklingen utan Tesla fick själv bygga ett chip med dubbla processorer som tog tillvara på den bas man byggt men som utvecklades för att ta nästa steg in i framtiden.

Tesla Hardware 3

Alla hårdvaror 2.0, 2.5 och den senaste 3.0 skickar video för att bygga upp kunskap hur självkörningen skall agera i olika situationer. Videoflödet lär motorn och bygger upp ett neuralt nätverk.

Fram till idag så har kunniga IT-tekniker plockat ihop denna data och skapat ny info inkluderat id-taggning (= identifiera olika typer av objekt och ge dessa en kod), beteenden och linjering.

Men nu håller Tesla på att bygga en superdator som skall klara av att sätta ihop detta själv på mycket snabbare tid. Superdator DOJO! Dojo betyder ”plats för vägen” på japanska och termen används ofta för en plats för att öva meditation eller kampsport.

Musk avslöjade att Teslas Dojo-superdator kommer att kunna köra exaFLOP, en kvintillion (10^18) flyttalsoperationer per sekund eller 1000 petaFLOPS.

Detta skulle göra Dojo till en riktigt banbrytande superdator med tanke på att det för närvarande är ett lopp för att bryta exaFLOP-barriären när det gäller superdatorer med företag som Intel och AMD, tillsammans med regeringar.

Förklaring av neuralt nät (Från Cleantechnica)

Så länge det har funnits fungerande datorer, med början med stora elektronrör och reläer, så stora som ett hus, har det funnits programmerare som försöker göra dem intelligenta, som en människa. De första versionerna av ”AI” (artificiell intelligens) var verkligen primitiva. (När du går ut, frågar: regnar det ute? När svaret är ”Ja”, få ett paraply. Annars får du inte ett paraply. Det var naturligtvis i ett AI-program i Storbritannien). Den bestod mestadels av långa listor av IF … THEN … ELSE … uttalanden.

När konsten att programmera avancerade fick vi regelbaserade program med stora tabeller med regler, sammansatta av svaren från ämneexperter som i flera dagar ifrågasattes om vad de visste och hur de kom till slutsatser. Dessa kallades ”kunskapsprogram” och vissa var till och med användbara.

Medan programmerare försökte skapa ett program som beter sig som en människa undersökte neurologer hur den mänskliga hjärnan fungerade. De fann att hjärnan består av celler (neuroner) som är anslutna av trådar (axoner och dendriter) till andra nervceller. Med hjälp av dessa trådar skickar neuronerna signaler på ett elektriskt eller kemiskt sätt till de andra cellerna. Dessa hjärnvävnader blev kända som biologiska nervnät.

Dessa biologiska nervnät blev modellen som används av de mest ambitiösa utvecklarna av datorbaserad artificiell intelligens. De försökte kopiera den mänskliga hjärnans funktion i programvara. Det var början på en decennielång resa av snubblar, vägspärrar, misslyckanden och långsamma men stadiga framsteg. ”Artificial Neural Net” (bara förkortat NN inom IT- och datavetenskap) blev det mest mångsidiga av artificiell intelligensprogram.

Det finns en mycket stor skillnad mellan dessa NN och de mer traditionellt programmerade kunskapsprogrammen. Traditionell programmering använder IF-THEN-ELSE-strukturer och regeltabeller. Programmeraren bestämmer vad reaktionen (output) kommer att vara på en given händelse (input).

Uppförandet av ett NN är inte programmerat. Precis som ett biologiskt NN utbildas det av erfarenhet. Ett NN-program utan utbildning är bra för ingenting. Den extraherar egenskaperna hos ”rätt” och ”fel” exempel från de tusentals eller miljontals prover som den matas under träning. Alla dessa egenskaper tilldelas en vikt för deras betydelse.

När en utbildad NN matas med en ny händelse bryter den ner i igenkännliga egenskaper, och baserat på vikten av dessa egenskaper bestämmer den hur den ska reagera på händelsen. Det är ofta nästan omöjligt att spåra varför en händelse resulterade i en specifik reaktion. Att förutse vad reaktionen kommer att bli på en händelse är ännu svårare.

Ett tomt NN, ett tomt skiffer, är inte AI. En utbildad NN kan bli AI. Där ett kunskapsprogram reagerar på ett förutsägbart sätt på en programmerad händelse, reagerar ett välutbildat NN på ett originellt sätt på en okänd händelse. Den reaktionen bör ligga inom parametrarna för vad vi anser vara en ”bra” reaktion. Detta skapar en helt ny uppsättning utmaningar för att testa ett utbildat NN. Har det blivit AI, och är det tillräckligt smart att delegera vissa uppgifter till det?

Så det behövs ofantliga mängder data för att lära Teslas bilar att köra själv. I skalan för sjävkörning så ligger Tesla idag på nivå 2 och vill lyfta sig till nivå 3. Men för att kunna köra i nivå 5 så krävs t.o.m. möjligheten att pedaler och ratt tas bort så det bara finns helautomatik kvar.

År 2014 definierade amerikanska SAE (Society of Automotive Engineers) sex klasser av självkörningsteknik som blivit allmänt språkbruk i branschen.

Nivåerna anger vilken grad av autonomi en självkörande bil har. På nivå 1 deltar fordonet i styrningen, på nivå 2 har den full kontroll, och på nivå 3 övervakar fordonet dessutom att styrningen faktiskt fungerar – så att föraren äntligen kan koppla av och surfa på nätet eller läsa en tidning,

På nivå 4 har fordonet till och med en fungerande plan B ifall det hamnar i en trafiksituation det inte kan hantera och föraren inte kan eller vill ta över.

Nivå 0 och 5 representerar extremfallen att föraren respektive bilen kan ta det fulla ansvaret i alla tänkbara trafiksituationer.

Med världens snabbaste superdator så kommer Tesla att klara av att bygga en service för att lära sin bilar köra av sig själv.

Enligt sweclockers så är världens just nu snabbaste dator i Kina

På konferensen HPC 2010 avslöjas att superdatorn Tianhe-1A kan komma upp i hela 2,507 petaflops, detta tack vare en kombination av 14 336 CPU:er och 7 168 Nvidia Tesla M2050.

Enligt Nvidia är det de Fermi-baserade beräkningskorten som drar det största lasset. Motsvarande superdator med endast traditionella processorer skulle behöva uppemot 50 000 CPU:er, dubbelt så mycket utrymme och dra uppemot 12 MW. Tianhe-1A förbrukar ”endast” en tredjedel; 4,04 MW.

Den nya superdatorn konstrueras av National University of Defense Technology i Kina och står på landets nationella superdatorcentrum i Tianjin. Systemet används till forskning och vetenskapliga beräkningar.

Tesla siktar på en 400 ggr snabbare dator än den just nu snabbaste existerande datorn åt Kinas försvarsmakt. Efter all denna kunskap så ser vi fram emot dessa framtida framräknade motormonster på E6:an!


[Gilla] och [Dela] så fler kan ta del av vår info!

TJT värvningsprogram

Köp ny bil via referral-kod:
https://www.tesla.com/sv_SE/referral/mikael58514

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com-logga

Du kommenterar med ditt WordPress.com-konto. Logga ut /  Ändra )

Google-foto

Du kommenterar med ditt Google-konto. Logga ut /  Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut /  Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut /  Ändra )

Ansluter till %s

%d bloggare gillar detta: