En mann i California ble arrestert for promillekjøring 25. mars etter at forbipasserende ringte politiet og meldte fra om en bil som kjørte seg selv gjennom trafikkerte gater – med en tilsynelatende bevisstløs fører bak rattet. Bilen var en Tesla, og Autopilot hadde tydeligvis tatt over. Hendelsen er langt fra unik, og den reiser spørsmål som er like relevante i Norge som i USA.
Hva som skjedde
Rundt klokken 11 om formiddagen fikk politiet i Vacaville, California, en melding fra en bekymret bilist som hadde oppdaget noe uvanlig: en bil som rullet frem i trafikken med en fører som hang slapt og ubevegelig i setet. Innringeren holdt seg på linja og ga sanntidsoppdateringer til politiet, som til slutt klarte å stoppe kjøretøyet ved krysset Elmira Road og Shasta Drive.
Politiet fryktet først en medisinsk nødsituasjon. Det var det ikke. Mannen bak rattet var påvirket av både alkohol og marihuana og ble pågrepet for promillekjøring. På passasjersetet lå en pizzaeske og en firepakning med miniflaske rødvin. Vacaville politidepartement delte informasjonen på sosiale medier og brukte hendelsen til å minne om gjeldende regler: California tillater bruk av avanserte førerassistanssystemer, men loven krever fortsatt at føreren er bevisst, årvåken og edru.
Autopilot er ikke en sjåfør
Teslas Autopilot og «Full Self-Driving (Supervised)» er nivå 2-systemer. De hjelper med hastighet og filholdelse, men krever at en våken, ansvarlig fører er til stede bak rattet til enhver tid. Teslas egne bruksanvisninger på norsk er eksplisitte: «Ingen av disse funksjonene gjør Model Y helt autonom, og erstatter ikke deg som sjåfør.»
Systemet er designet for å oppdage om føreren er oppvakt og aktiv. Men folk som aktivt forsøker å omgå denne overvåkingen – eller som rett og slett ikke er klar over begrensningene – finner likevel måter å lure det på. Resultatet ser vi i Vacaville.
Et mønster som gjentar seg
Dette er ikke en isolert hendelse. Tilsvarende saker har dukket opp jevnlig siden 2018. I 2021 stoppet en Tesla faktisk av seg selv etter at en full fører mistet bevisstheten – den gang ble det fremstilt som en positiv nyhet. Men poenget er det samme: systemet ble ikke brukt som tiltenkt, og utfallet var like mye flaks som teknologi.
Utfordringen handler om samspillet mellom teknologi og menneskelig atferd. Systemene kan bidra til økt sikkerhet når de brukes riktig. Problemet oppstår i gråsonene – der teknologien er god nok til å holde bilen i filen, men ikke god nok til å erstatte et bevisst menneske bak rattet.
Navngivningen skaper forvirring
En del av problemet er at systemene heter «Autopilot» og «Full Self-Driving». Det er navn som antyder mer autonomi enn systemene faktisk har. Elon Musk har ved flere anledninger forsterket denne oppfatningen: i desember 2025 svarte han bekreftende på spørsmål om FSD tillot skriving av meldinger bak rattet, og har kalt systemet «killer-appen» for situasjoner der man ellers ville styrt med knærne. Ingen av de aktuelle systemene er godkjent for slik bruk – verken i USA eller i Norge.
Hva gjelder i Norge
Norge har flere Tesla-biler per innbygger enn noe annet land. Det norske regelverket er på linje med EU/EØS: Autopilot og FSD er nivå 2-systemer, og juridisk ansvar hviler alltid på føreren. Promillegrensen på 0,2 promille gjelder fullt ut – uansett om det er Autopilot som styrer bilen i øyeblikket.
Hendelsen i Vacaville er absurd nok til å bli en vits på internett. Men den illustrerer noe reelt: hvordan slike systemer kommuniseres og forstås av brukerne, vil være avgjørende for tilliten til fremtidens bilteknologi. Det ansvaret hviler på både produsenter, myndigheter – og den enkelte fører.