Oprit cu patru secunde înainte de impact, sistemul Full Self-Driving (FSD) al Tesla a fost activat în timpul accidentului tragic cu Cybertruck-ul, în Houston. Deși compania americană susține că șoferița a dezactivat sistemul cu patru secunde înaintea coliziunii, analiza incidentului dezvăluie o imagine mult mai complexă. Aceasta ridică întrebări privind siguranța, responsabilitatea și modul în care tehnologia autonomă este percepută de public.
Aceasta nu e problema cu cine ținea volanul
Disputa nu se reduce la simpla observație că șoferița a purtat volan în ultimele momente. În schimb, focalizarea trebuie să fie pe întreaga succesiune a evenimentelor care au condus la impact. Sistemele de asistență, în mod ideal, ar trebui să prevină situațiile dificile, însă în practică, adesea, conducătorii auto se bazează prea mult pe ele, relaxându-se în timpul condusului. În cazul de față, dacă sistemul FSD nu a reacționat adecvat în curbă, problema surselează din faza anterioară impactului, nu din momentul în care șoferița a încercat să preia controlul.
Patru secunde pot părea mult pentru o reacție umană, dar într-un vehicul greu, la viteze mari, această perioadă poate fi insuficientă pentru a evita o tragedie. Criticii tehnologiei autonome argumentează că sistemele curente, deși avansate, nu sunt încă fiabile în situații complexe, iar o relaxare a vigilenței umane este periculoasă. La nivel cognitiv, mintea umană nu poate menține aceeași stare de alertă pentru perioade îndelungate, mai ales dacă sistemele de asistență dau impresia că totul decurge normal.
Un exemplu concret a fost oferit de Raffi Krikorian, fost director al programului de mașini autonome de la Uber, care a povestit cum și-a distrus propria Tesla ce beneficia de FSD. El a afirmat că oamenii nu pot supraveghea constant un sistem care, aproape tot timpul, pare să funcționeze bine. La fel ca și în cazul accidentului din Houston, această încredere progresivă devine o capcană.
Problema responsabilității și strategiile Tesla
Compania Tesla, de obicei, emite poziții care sprijină responsabilitatea șoferului, argumentând că sistemele FSD sunt doar asistență și că șoferii trebuie să fie în permanență atenți. Așa răspunde și în fața autorităților, însă percepția publică și utilizatorii în general vad diferența între promisiunea făcută și realitatea tehnologică.
Tesla îl vinde ca pe un sistem de conducere autonomă aproape complet, dar în fapt, FSD îndeplinește funcții de nivel 2, unde șoferul trebuie să fie mereu alert. În cazul de față, însă, dacă sistemul nu a reacționat corect în momentul critic, responsabilitatea cade asupra utilizatorului în ceea ce privește vigilența sa. Autoritățile au început să investigheze serios această tehnologie. Recent, NHTSA a ridicat o investigație care vizează peste 3,2 milioane de vehicule Tesla, pentru modul în care sistemele gestionează situațiile de dificultate și avertizează șoferii.
Pe lângă investigațiile din partea autorităților, situația legală a companiei devine tot mai dificilă. În august 2025, un juriu din Florida a obligat Tesla să plătească 243 de milioane de dolari într-un proces legat de un accident mortal cu Autopilot. În februarie 2026, un judecător federal a refuzat să anuleze acest verdict, ceea ce indică o creștere a presiunii juridice asupra companiei.
Afirmația lui Musk, conform căreia sistemul FSD fusese oprit cu patru secunde înainte de impact, poate fi tehnic corect, dar înțelesul public îi scade din credibilitate. În fapt, un astfel de detaliu mută discuția de la problema dacă sistemul a provocat situația deosebit de periculoasă, către cine era responsabil în ultimele clipe, ceea ce pare a fi o explicație mai convenabilă pentru Tesla.
Evenimentul recent, dat publicității de Fox News, arată că, în timpul accidentului, Cybertruck-ul operat în mod autonom aproape că a proiectat o femeie și copilul ei într-un parapet, iar aceasta suferise multiple răni. Potrivit relatărilor, incidentul continuă să alimenteze discuțiile despre limitele reale ale autonomei și riscurile asumate în numele progresului tehnologic. În acest moment, autoritățile americane analizează toate datele despre accidentele cu Tesla, în încercarea de a evalua dacă sistemele relevante sunt sigure pentru public.



