En ny video fra USA viser en Tesla på Full Self-Driving (FSD) som styrer rett mot en båtrampe og videre mot en innsjø, før føreren griper inn og bremser. Klippet har gått viralt og har allerede skapt ny debatt om hvor langt Tesla egentlig har kommet med selvkjøring – og hvor mye ansvar som fortsatt ligger hos føreren.
Fra vanlig kjøretur til viralt klipp
Hendelsen fant sted i utkanten av Memphis i delstaten Tennessee. Bak rattet satt ingeniøren Daniel Milligan, som har bakgrunn fra blant annet SpaceX. Han satte en helt vanlig destinasjon i navigasjonen, aktiverte FSD i versjon 14.2.2.4 og lot bilen gjøre jobben. I videoen ser vi bilen svinge av veien, kjøre ned en båtrampe og fortsette rett mot vannet – uten å bremse – før Milligan selv slår av systemet og stopper bilen.
Senere gjentok han samme rute i dagslys. Da valgte FSD en annen vei og holdt seg unna båtrampen. Milligan spekulerer i at systemet rett og slett «så» bedre i dagslys og klarte å skille mellom innkjørselen videre og rampen ned i vannet. Episoden illustrerer likevel hvor sårbart systemet kan være når kartdata, lysforhold og kamerabilder ikke tolkes riktig – spesielt når bilen selv får lov til å styre.
Hva er egentlig Full Self-Driving (FSD)?
Teslas FSD markedsføres som et system som på sikt skal kunne håndtere det meste av kjøringen på egen hånd: bykjøring, motorvei, kryss og feltskift. I USA selges det som et tilleggsprodukt – enten som engangskjøp eller abonnement – og er nå omdøpt til «Full Self-Driving (Supervised)» for å understreke at føreren fortsatt har ansvaret.
På Teslas norske nettsider beskrives systemet som en samling avanserte førerassistenter som krever aktiv overvåkning. Bilen kan styre, akselerere og bremse, men forutsetter at sjåføren har hendene klare og når som helst kan overstyre. Likevel er det ikke til å komme unna at navn som «Autopilot» og «Full Self-Driving» lett kan gi inntrykk av at bilen klarer mer enn den faktisk gjør.
I den ferske lake-episoden ser vi nettopp denne spenningen i praksis: Teknologien håndterer en rekke situasjoner elegant, helt til den møter en «kantstilfelle» – en båtrampe som ligner en vanlig avkjørsel. For en menneskelig sjåfør er dette sjelden et problem. For et system som bygger på kamerabilder, kartdata og statistiske modeller, kan det derimot være nok til å ta et fatalt valg.
Regulatorene skjerper blikket mot Tesla
Hendelsen kommer på et ubeleilig tidspunkt for Tesla. I USA har trafikksikkerhetsmyndigheten NHTSA åpnet en omfattende undersøkelse av rundt 2,9 millioner Teslaer med FSD etter en rekke rapporter om trafikkbrudd og ulykker der systemet har vært aktivt. Blant annet undersøkes tilfeller der bilene skal ha kjørt på rødt lys eller havnet i møtegående kjørefelt.
I Europa er FSD ennå ikke godkjent for vanlig bruk. Den nederlandske bilmyndigheten RDW, som fungerer som teknisk godkjenningsorgan for store deler av EU/EØS, har varslet at de skal teste systemet grundig før det eventuelt kan få en begrenset tillatelse. Først deretter kan det bli aktuelt med bredere godkjenning, noe som også vil være avgjørende for om funksjonen noen gang blir tillatt i Norge.
Regulatorene står i et dilemma: På den ene siden kan avanserte førerassistentsystemer i teorien redusere ulykker på sikt. På den andre siden ser vi gang på gang at systemer som markedsføres som «selvkjørende», men fortsatt krever overvåkning, lett fører til overtiltro og sløvhet bak rattet. Lake-videoen fra Memphis er et svært synlig eksempel på akkurat det problemet.
Hvor går grensen mellom hjelp og risiko?
Teknisk sett gjorde FSD i Milligans bil det systemet er designet for: Det fulgte kartet og veimerkingen slik programvaren tolket dem. Problemet er at miljøet rundt – en båtrampe uten tydelig sperring – ikke ble forstått som en risiko. Systemet «visste» ikke at asfaltstripa sluttet i vann, og at den bare brukes til å sette ut båter.
For Tesla og andre aktører i selvkjøringskappløpet er slike hendelser ubehagelige påminnelser om at verden er mer kaotisk enn treningsdataene deres. Edge-casene – situasjonene som oppstår sjelden, men kan få store konsekvenser – er nettopp det som skiller en god førerassistent fra virkelig pålitelig autonom kjøring.
For sjåførene er spørsmålet enda mer jordnært: Når tør du å stole på at bilen «ser» det du ser? I lake-videoen begynner bilen å rulle rolig ned rampen, uten dramatikk, men på feil kurs. Det gir et ubehagelig bilde av hvordan en liten distraksjon kunne vært nok til at sjåføren reagerte for sent.
Hva betyr dette for norske elbilister?
Norske Tesla-eiere har i dag ikke tilgang til FSD i samme form som i USA. Bilen kan leveres med blant annet Autopilot og «Enhanced Autopilot», men full bykjøring med automatiske kryss og rundkjøringer er ikke aktivert. Likevel følger norske myndigheter utviklingen tett, både gjennom egne vurderinger og det som skjer i EU.
For elbilister i Norge er lærdommen enkel, men viktig: Selv de mest avanserte systemene er fortsatt førerassistenter, ikke sjåfør-erstatninger. Det innebærer at du må være minst like våken når du bruker dem som når du kjører helt manuelt – kanskje mer, fordi det er fristende å slippe oppmerksomheten når bilen «tar over».
Samtidig bør lake-episoden også være en vekker for produsentene. Når markedsføringen lover en nærmest magisk selvkjørende opplevelse, mens bruksanvisningen begraves i fotnoter om at du må være konstant klar til å overstyre, er det ikke rart at forventningene kolliderer med virkeligheten. De neste årene vil vise om Tesla og konkurrentene klarer å redusere gapet mellom lovnadene om full autonomi og det systemene faktisk leverer på veien.
Inntil videre er det én ting som i hvert fall er sikkert: Hvis bilen din «foreslår» en snarvei ned en båtrampe, er det fortsatt du – og ikke programvaren – som må si nei.