Forbes je testirao Teslin nanoviji softver za potpuno samostalnu vožnju: Kaotičan je. Treba li uopće biti legalan?

Elon Musk ne prestaje promovirati softver pokretan umjetnom inteligencijom, čija prodaja je ključna za njegov novi golemi paket plaće. No, u nedavnom testu sustav je ignorirao uobičajene prometne znakove, pa čak i trepćući znak zaustavljanja školskog autobusa – te pregazio lutku koja je predstavljala dijete po imenu Timmy.
Elon Musk neumorno promovira Teslu kao velikog igrača u području autonomne vožnje, i u segmentu robotaksija i u segmentu osobnih vozila koja koriste njegov sustav Full Self-Driving (FSD). Njegov zapanjujući paket plaće vrijedan bilijun dolara uključuje cilj postavljanja milijun Tesla robotaksija na ceste i 10 milijuna aktivnih FSD korisnika tijekom idućeg desetljeća, pa njihov uspjeh izravno financijski koristi njemu.
Ostaje za vidjeti hoće li to biti ostvarivo, no Forbesova procjena najnovije verzije FSD-a pokazuje da je sustav i dalje sklon pogreškama. Tijekom 90-minutne probne vožnje u Los Angelesu, kroz stambene četvrti i autoceste, Tesla Model Y iz 2024. s najnovijom Teslinom opremom i softverom (Hardware 4, FSD verzija 13.2.9) ignorirao je neka standardna prometna znakovlja i ograničenja brzine, nije usporio kod pješačkog prijelaza sa signalizacijom i pješacima, izvodio je besmislene promjene traka te ubrzavao u čudnim trenucima, primjerice pri izlasku s prenapučenog autoputa na rampu koja završava crvenim svjetlom. Nema ni indikacija da je tvrtka riješila zabrinjavajuću pogrešku identificiranu prije dvije godine: zaustavljanje na treptajuću oznaku školskog autobusa, koja upozorava da djeca prelaze cestu. Zapravo, toliko je lako pronaći probleme s funkcijom, nedavno preimenovanom u “Full-Self Driving (Supervised)”, da se postavlja pitanje: Zašto je funkcija koja stoji 8000 dolara, uz dodatnu pretplatu od 99 dolara mjesečno, uopće zakonski dopuštena u ovom obliku?
Nema jasnih pravila
Ispostavlja se da je odgovor jednostavan: “Sustavi za pomoć u vožnji nisu regulirani, pa nema zabrinutosti oko zakonitosti”, kaže Missy Cummings, profesorica na Sveučilištu George Mason i stručnjakinja za umjetnu inteligenciju koja je savjetovala američku Nacionalnu upravu za sigurnost u prometu (NHTSA) o autonomnim vozilima. “NHTSA ima ovlasti reagirati, no dosad su intervenirali samo u slučajevima lošeg nadzora vozača.”
Devet godina nakon što je prvi vlasnik Tesle u SAD-u poginuo koristeći Autopilot – Joshua Brown u svibnju 2016. – američki regulatori još uvijek nisu postavili jasna pravila za tzv. tehnologiju pomoći vozaču razine 2 (u koju spada FSD), osim zahtjeva za nadzorom unutar kabine kako bi se osiguralo da vozač prati uvjete na cesti. Ta pravna rupa omogućuje Musku da promovira FSD, lansiran 2020., kao značajku koja nudi gotovo autonomnu vožnju uz “minimalnu” ljudsku intervenciju. Što je, kao metrika njegova budućeg paketa plaće, iznimno unosno.
NHTSA, koja je prošlog mjeseca otvorila istragu o Teslinom propustu da na vrijeme prijavi nesreće povezane s FSD-om i Autopilotom, izjavila je da “ne odobrava unaprijed nove tehnologije ni sustave vozila”. Umjesto toga, proizvođači moraju sami potvrditi da njihova vozila i tehnologije ispunjavaju federalne sigurnosne standarde. Ako istraga utvrdi da je sustav nesiguran, “NHTSA će poduzeti sve potrebne mjere za zaštitu sigurnosti na cestama”, rekao je glasnogovornik.
Muskove izjave o mogućnostima FSD-a nisu suptilne: “Tesla samovožnja drastično poboljšava kvalitetu života i sigurnost za tisuće sati koje provedete u automobilu.” Tvrtka također promovira sustav videima koji prikazuju gotovo savršene performanse na cestama. No, prema NHTSA-i, Tesla sustav opisuje kao automatizaciju razine 2 (uključujući “FSD Supervised”), koja zahtijeva da vozač u svakom trenutku bude potpuno pažljiv i uključen u vožnju.
Do sada 59 poginulih
Povećava se i nadzor nad Teslinom tehnologijom nakon pravnih problema, uključujući pokretanje kolektivne tužbe vlasnika zbog Muskovih pretjeranih tvrdnji o FSD-u i Autopilotu, kao i pokušaje kalifornijskog DMV-a da zabrani korištenje tih naziva u državi. Porota na saveznom suđenju na Floridi prošlog je mjeseca zaključila da Tesla snosi djelomičnu odgovornost za fatalnu nesreću iz 2019., kada je bio uključen Autopilot, te mu naložila da plati 243 milijuna dolara odštete. Tvrtka se žali, a prošlog je tjedna sklopila nagodbu u još dvije tužbe zbog nesreća u Kaliforniji povezanih s Autopilotom.
Tvrtka iz Austina također vodi pilot-projekt robotaksija u svom gradu za ograničen broj vlasnika Tesle, uz simboličnu naknadu. Verzija FSD-a koja se ondje koristi ima određene izmjene u odnosu na onu ponuđenu kupcima, no detalji nisu poznati. Od pokretanja usluge u lipnju, Tesla se suočila s nizom problema, uključujući izvještaje o tri nesreće u jednom danu u srpnju.
Za razliku od Wayma, čiji robotaksiji rade u potpuno autonomnom modu u više američkih gradova, Teslin FSD u robotaksijima nadzire sigurnosni vozač. Prema popisu TeslaDeaths.com, do sada je zabilježeno 59 pogibija u nesrećama povezanima s korištenjem Autopilota i FSD-a.
Musk i Tesla nisu odgovorili na upite o sigurnosti FSD-a, no uskoro se očekuje ažurirana verzija softvera.
Forbes je nedavno proveo novu 90-minutnu procjenu FSD-a (ažuriranog 28. kolovoza) u Tesli Model Y iz 2023. s najnovijom opremom. Vozilo je pripadalo Dawn Projectu, organizaciji koju je osnovao softverski inženjer Dan O’Dowd, glasni kritičar FSD-a, koji je posljednjih godina vlastitim novcem financirao i Super Bowl reklame kako bi ukazao na njegove nedostatke.
“Ovo nije čak ni beta sustav. Ovo je proizvod u alfa fazi. Nikad nije smio doći u ruke kupaca”, rekao je O’Dowd za Forbes. “To je samo prototip. Nije proizvod.”
FSD ponekad može izgledati poput pravog sustava autonomne vožnje. Upisujete adresu, i automobil se pokrene bez problema, u režimu bez ruku. Daje žmigavce, staje na znakove stop i semafore, i uglavnom je svjestan okoline, prema virtualnim prikazima na središnjem zaslonu. Ipak, učestale pogreške, čak i u laganom prometu i idealnim vremenskim uvjetima, posebice u urbanim sredinama, znače da vozač mora biti stalno pozoran i spreman preuzeti kontrolu.
Prije dvije godine Dawn Project proveo je test FSD-a sa zaustavljenim školskim autobusom. Kad se Tesla približila, upalila se svjetlosna oznaka stop na autobusu. U izvornom testu Tesla se nije zaustavila nijednom, čak ni kad je ispred autobusa prešao lutak veličine djeteta. Ovaj mjesec Forbes je ponovio test i Tesla je ponovno podbacila – nije stala na znak i pregazila je Timmyja, lutka Dawn Projecta. Kratko nakon toga, isti test napravljen je s Waymom. Vozilo se zaustavilo i čekalo dok se znak nije povukao, a lutak nije bio ugrožen. “Prije više od dvije godine upozorili smo na problem sa školskim autobusom i nisu učinili ništa”, kaže O’Dowd. “Objavili smo ga u New York Timesu na cijeloj stranici. Potom smo snimili reklamu za Super Bowl… ali Tesla nije poduzela ništa.”
Nedostatak detaljnih ocjena
Nije riječ samo o školskim autobusima. Neki vlasnici navode da se FSD ne zaustavlja ni na željezničkim prijelazima kad se spuštaju rampe i trepere svjetla. Jedan vlasnik opisao je kako mu se Model 3 s FSD verzijom 13.2.9 iznenada zaustavio usred nezaklonjenog lijevog skretanja, dok mu je vozilo nailazilo u susret. “Auto ide ravno prema meni s 70 km/h, a ja stojim, nasred njegove trake”, naveo je na forumu Tesla Motors Club. “Pritisnuo sam gas kako bih poništio FSD, ali onda iznenađenje – auto je krenuo… unatrag!” Srećom, tako je izbjegnuta nesreća jer iza njega nije bilo nikoga.
Automobilski portal Edmunds u svojoj procjeni prepoznaje poboljšanja u FSD softveru, ali i “iritantne” probleme. “Ne izbjegava prepreke na cesti unutar trake, poput životinjskih leševa, izbačenih guma ili rupa. A još je gore što ne voli kad vozač preuzme kontrolu – ako malo previše okrenete volan, cijeli se sustav naglo isključi.” Edmunds ne preporučuje kupcima plaćanje 8000 dolara za FSD u sadašnjem obliku.
Teslinim influencerima, koji su pokušali ostvariti Muskovu davnu najavu autonomne vožnje kroz SAD, problemi su također stali na put. Oko 100 kilometara nakon polaska iz San Diega, njihov novi Model Y nije izbjegao veliki metalni predmet na autocesti i teško je oštetio podvozje.
Ni Consumer Reports ni Institut za osiguranje sigurnosti na cestama (IIHS) nemaju detaljne ocjene FSD-a, no IIHS ocjenjuje Tesline sustave upozorenja vozača za FSD kao loše.
Nitko ne poduzima ništa
NHTSA ima ovlast izdati proizvođaču naredbu o prestanku prodaje ako utvrdi ozbiljne sigurnosne probleme. To je već učinila 2016. startupu Comma.ai, čiji je proizvod za djelomičnu automatizaciju vožnje zaustavljen. O’Dowd smatra da bi NHTSA trebala učiniti isto s FSD-om, iako nije jasno hoće li. U međuvremenu Dawn Project provodi demonstracije poput ove za javne dužnosnike kako bi ukazao na manjkavosti sustava.
“Farmaceutska tvrtka ne bi nikada neki lijek nazvala univerzalnim lijekom za rak, ako on zapravo ne liječi rak. Bili biste tuženi, završili u zatvoru i izgubili sve”, kaže O’Dowd. “Ali Musk to radi svaki dan jer nitko od regulatora ne poduzima ništa.”
Mark Rosekind, bivši šef sigurnosti u robotaksi tvrtki Zoox i administrator NHTSA-e u vrijeme prve pogibije s Teslinim Autopilotom 2016., smatra da je potrebna kombinacija novih regulativa i vanjske validacije stručnih tijela. “Ako zaista želite sigurnost, transparentnost i povjerenje u autonomna vozila, trebate ojačati federalne strukture inovativnim pristupima”, rekao je za Forbes. To bi trebalo uključivati i “nezavisne, neutralne programe trećih strana … određene zahtjeve koje treba ispuniti kako bi se dokazala sigurnost. Transparentnost koja će graditi povjerenje.”
Za sada, istraživačica autonomnih vozila Cummings vidi barem jedan “plus”: “Jedina dobra stvar kod toga što je FSD tako loš jest to da većina ljudi shvaća koliko je zapravo loš i zato ga vrlo pažljivo prate”, zaključila je.
Alan Ohnsman, novinar Forbesa