Elbil Radar logo
Hjem » Nyheter »

Cybertruck-ulykke i Houston setter FSD under nytt press

Publisert:

En Tesla-eier i Texas har saksøkt Tesla etter en ulykke der hennes Cybertruck, ifølge søksmålet, kjørte rett mot en betongbarriere mens Full Self-Driving var aktivert. Saken føyer seg inn i en lengre rekke av spørsmål rundt hvor godt Teslas førerassistansesystem håndterer kompliserte veisituasjoner – og hvor mye ansvar som i praksis fortsatt ligger hos sjåføren.

Det som er bekreftet

Det er bekreftet at det er reist søksmål i Harris County i Texas mot Tesla etter en ulykke i august 2025. Flere lokale medier i Houston har omtalt saken, og opplyser at saksøkeren krever erstatning på over én million dollar etter at hennes Cybertruck krasjet på en avkjøring ved Eastex Freeway i Houston. I søksmålet hevdes det at bilen var i en Tesla-modus omtalt som Full Self-Driving eller Autopilot da den ikke fulgte svingen på en Y-formet avkjøring, men fortsatte mot sperringen og traff en betongvegg. Opplysningene om selve ulykken og søksmålet er omtalt av Houston Chronicle.

Det er også bekreftet at Tesla per i dag markedsfører Full Self-Driving (Supervised) som et system som fortsatt krever aktiv førerovervåking, og at funksjonen ikke gjør bilen autonom. Dette fremgår tydelig av Teslas egne supportsider og produktsider for FSD. Tesla skriver blant annet at sjåføren må følge med på veien og være klar til å gripe inn umiddelbart.

Det som foreløpig er påstander i søksmålet

Sentrale deler av historien bygger fortsatt på saksøkerens fremstilling i retten, ikke på en uavhengig teknisk granskning. Det gjelder blant annet påstanden om at bilen «forsøkte å kjøre av broen», at systemet ikke bremset før svingen, og at eieren hadde for lite tid til å koble ut FSD og ta kontroll. Det gjelder også de medisinske detaljene som er omtalt i flere medieoppslag, blant annet skiveprolapser i korsrygg og nakke, håndleddsskade og nummenhet i høyre arm.

I tillegg retter søksmålet skarp kritikk mot Teslas teknologivalg. Der hevdes det at selskapet valgte bort lidar og andre sensorsystemer til fordel for et kamerabasert oppsett, og at dette skal ha gjort systemet mindre robust i krevende trafikksituasjoner. Dette er imidlertid saksøkerens juridiske argumentasjon, ikke et rettslig eller teknisk bevist faktum på nåværende tidspunkt.

Hvorfor denne saken får oppmerksomhet

Saken får ekstra oppmerksomhet fordi den treffer et ømt punkt i debatten om Tesla: avstanden mellom det juridiske språket i supportsidene og det mer offensive språket som lenge har omgitt Full Self-Driving i offentligheten. Tesla understreker i dag at FSD er overvåket førerassistanse. Samtidig har systemets navn og selskapets brede selvkjøringsambisjoner i mange år bidratt til at kritikere mener teknologien lett kan overvurderes av brukerne.

Det gjør også denne ulykken prinsipielt interessant. Hvis en bilfører opplever at systemet håndterer mange situasjoner godt, kan tilliten gradvis bli høyere enn det produsenten egentlig sier at den bør være. Nettopp dette er en del av bakteppet for den amerikanske debatten om Tesla: ikke bare om systemet teknisk sett gjør feil, men om hele produktutformingen og markedsføringen kan føre til feil bruk eller for sen reaksjon fra sjåføren.

Myndighetene gransker allerede FSD bredt

Uavhengig av denne konkrete ulykken er Teslas FSD allerede under føderal gransking i USA. Høsten 2025 åpnet NHTSA en undersøkelse av rundt 2,88 millioner Tesla-kjøretøy utstyrt med FSD, etter rapporter om trafikkforseelser og hendelser der bilene blant annet skal ha kjørt på rødt lys eller beveget seg inn i feil kjøreretning. I ODI-dokumentene fra NHTSA beskrives flere typer situasjoner der systemets kommandoer kan ha ført til at bilen opptrådte i strid med trafikkreglene.

Det betyr ikke at Houston-ulykken i seg selv beviser en systemfeil av samme type. Men den passer inn i et mønster amerikanske myndigheter allerede ser nærmere på: om FSD i enkelte situasjoner kan fatte feil beslutninger for sent, for aggressivt eller på en måte som gjør førerinngrep vanskeligere enn teorien tilsier.

Lidar-spørsmålet kommer tilbake igjen

Søksmålet løfter også frem en kjent teknologisk konflikt i bransjen. Tesla har i flere år valgt en strategi der kameraer og kunstig intelligens er ryggraden i systemet, mens selskaper som Waymo i større grad kombinerer kameraer med lidar og radar. Tilhengerne av Teslas linje mener kamerabasert forståelse i teorien kan bli både billigere og mer menneskeliknende. Kritikerne mener på sin side at redundans i sensorer gir en viktig sikkerhetsmargin, særlig i vanskelige lysforhold, uoversiktlige veikryss og kompliserte overganger mellom felt og avkjøringer.

Houston-saken avgjør ikke den debatten. Men den viser hvorfor den stadig vender tilbake: hver gang et Tesla-kjøretøy med FSD eller Autopilot havner i en alvorlig ulykke, blir spørsmålet reist på nytt om hvorvidt et rent kamerabasert system er robust nok i alle relevante trafikksituasjoner.

Hva dette betyr for norske lesere

For norske Tesla-eiere er dette først og fremst en påminnelse om noe Tesla selv allerede skriver svart på hvitt: Full Self-Driving er fortsatt et overvåket førerassistansesystem, ikke autonom kjøring. Det betyr at hendene og oppmerksomheten i praksis må være klare hele tiden – også når bilen over lengre strekninger virker trygg og kompetent.

Samtidig er saken relevant fordi Tesla fortsatt er et av merkene som i størst grad former folks forventninger til selvkjørende teknologi. Når slike ulykker ender i retten, handler det derfor ikke bare om ett sammenstøt i Texas, men også om hvilke grenser bilprodusenter bør ha for navn, markedsføring og brukergrensesnitt i systemer som fortsatt krever menneskelig kontroll.

Foreløpig er konklusjonen derfor ganske nøktern: Ja, det finnes et reelt søksmål etter en alvorlig Cybertruck-ulykke i Houston. Ja, søksmålet hevder at FSD ikke håndterte avkjøringen og at føreren ble skadet. Men utover det er flere av de mest dramatiske påstandene fortsatt nettopp påstander, som først må prøves mot tekniske data, motpartens svar og eventuelle myndighetsfunn før de kan behandles som etablerte fakta.

Sist oppdatert: 2026-03-16T09:38:28+01:00

Kommentarer

Du må være innlogget for å legge igjen en kommentar.