Elbil Radar logo
Hjem » Nyheter »

Tesla-krasj under direktesendt FSD-demonstrasjon setter ny fyr på selvkjøringsdebatten

Publisert:

En Tesla-eier i Kina har krasjet bilen sin i en frontkollisjon mens han direktesendte en demonstrasjon av Teslas «Full Self-Driving» (FSD) på det sosiale mediet Douyin. Hendelsen, som nå er omtalt internasjonalt, gir nytt driv til debatten om hvor trygge slike førerassistentsystemer egentlig er – og hvor mye vi kan stole på begrepet «selvkjørende» når føreren fortsatt har ansvaret.

Tesla-krasj under direktesendt FSD-demonstrasjon setter ny fyr på selvkjøringsdebatten
Tesla-krasj under direktesendt FSD-demonstrasjon setter ny fyr på selvkjøringsdebatten

Ifølge videoen og omtalen fra teknologinettstedet Electrek skjedde krasjen da en Model 3 med aktivert FSD la seg over i feil kjørefelt, der trafikken kom imot, og kolliderte front mot front med en møtende bil. Føreren satt samtidig og viste frem hvordan bilen «kjører selv» i en direktesending. Ingen skal ha blitt kritisk skadet, men bildene av de to ødelagte bilene har gått viralt i kinesiske og internasjonale sosiale medier.

Tesla lanserte tidligere i år FSD som et nivå 2-førerassistentsystem også i Kina. Systemet kan styre, akselerere og bremse på egen hånd, men krever at føreren til enhver tid følger med og er klar til å ta over. Kinesiske myndigheter mente imidlertid at navnet «Full Self-Driving» ga et misvisende inntrykk av teknologiens kapasitet, og tvang Tesla til å endre betegnelsen på det lokale markedet. Likevel har mange kinesiske eiere fortsatt å omtale systemet som «selvkjørende» og viser det frem i direktesendinger på Douyin for å demonstrere hvor mye bilen «klarer selv».

I dette tilfellet skal føreren først ha nøyd seg med å publisere bilder og korte klipp av situasjonen etter krasjen. Han skal også ha forsøkt å få direkte kompensasjon fra Tesla, noe som i praksis er lite sannsynlig ettersom Tesla offisielt legger ansvaret på føreren og beskriver FSD som et hjelpemiddel, ikke en erstatning for sjåføren. Først senere publiserte han hele videoen av hendelsen, der man tydelig ser at FSD er aktivt idet bilen legger seg over i feil kjørefelt, uten at føreren griper inn i tide.

Hendelsen illustrerer et grunnleggende problem med mange avanserte førerassistentsystemer: De er teknisk sett «bare» hjelpefunksjoner, men oppleves og markedsføres ofte som noe nær selvkjørende. Tesla har i flere år fått kritikk for navnene «Autopilot» og «Full Self-Driving», som for mange bilkjøpere kan gi inntrykk av at bilen kan kjøre uten menneskelig oppmerksomhet. Særlig i kombinasjon med lange, tilsynelatende feilfrie turer er det lett å bli overkonfidens – helt til systemet gjør en åpenbar feil, som å velge feil kjørefelt.

Det er ikke første gang Tesla og FSD havner i søkelyset etter ulykker. Amerikanske trafikksikkerhetsmyndigheter har de siste årene åpnet flere undersøkelser av biler med FSD aktivert etter alvorlige hendelser, blant annet der bilene skal ha kjørt mot rødt lys eller lagt seg i feil retning i forbindelse med filskift. I høst startet USAs trafikksikkerhetsmyndighet NHTSA en ny gransking av FSD etter en serie rapporterte hendelser der systemet ifølge myndighetene har «fremprovosert kjøreatferd som bryter med trafikkreglene».

Parallelt har California, Teslas hjemstat, skjerpet tonen overfor bilprodusenten. Delstatens motorvognmyndigheter har varslet at de vurderer å midlertidig suspendere Teslas salgsbevilling i 30 dager om selskapet ikke rydder opp i bruken av begreper som «Autopilot» og «Full Self-Driving» i markedsføringen. Myndighetene mener Tesla i årevis har oversolgt egenskapene til systemene sine og skapt et inntrykk av en grad av autonomi som i praksis ikke finnes. For å unngå sanksjoner må Tesla nå tydeligere forklare begrensningene ved teknologien.

Samtidig peker uavhengige eksperter på at produsentene ikke kan ta hele skylden alene. Når biler markedsføres med slagord om at systemene «gir deg tiden tilbake», slik Tesla selv har gjort, er det likevel til syvende og sist føreren som velger å ta blikket av veien for å chatte, filme eller livestreame. I den kinesiske krasjen var det nettopp kombinasjonen av overdrevet tillit til FSD og ønsket om å underholde seere på nettet som endte med å sende bilen rett inn i møtende trafikk.

For Norge og Europa er hendelsen en ny påminnelse om hvor krevende overgangen til mer automatisert kjøring blir. Reguleringene våre bygger på at det alltid skal være en ansvarlig fører, også når bilen har avanserte assistentsystemer. Likevel ser vi at språkbruken rundt «selvkjøring» er på vei inn også her, både i reklame og i hverdagsprat. Når en video fra en kinesisk motorvei viser hvor fort det kan gå galt når mennesket blir passasjer i egen bil, er det et varsku for alle som vurderer å «stole på bilen» mer enn på egen årvåkenhet.

Tesla-krasjen på Douyin blir derfor mer enn et isolert klipp i strømmen av bilvideoer. Den er et konkret eksempel på hvordan teknologi, markedsføring og menneskelig psykologi spiller sammen på måter som kan få svært reelle konsekvenser i trafikken. Uansett hvor avansert et system kalles, er én ting uendret: Det er fortsatt mennesket bak rattet som har ansvaret – og som må være klar til å gripe inn når systemet gjør en feil.

Sist oppdatert: 2025-12-24T14:50:59+01:00

Kommentarer

Du må være innlogget for å legge igjen en kommentar.