Spis treści
Wydarzenia z Barrington Hills w stanie Illinois brzmią jak scenariusz kiepskiej komedii, ale są śmiertelnie poważne. Kierowca Tesli został aresztowany po tym, jak jego samochód uderzył w policyjny radiowóz. Tłumaczenie? Zasnął za kierownicą, bo myślał, że Autopilot prowadzi za niego. Ten incydent po raz kolejny rozpala dyskusję na temat odpowiedzialności kierowców i zwodniczego marketingu systemów ADAS.
Do zdarzenia doszło w zeszłym tygodniu. W zaparkowanym radiowozie, w który uderzyła Tesla, znajdowało się dwóch funkcjonariuszy policji z South Barrington. Na szczęście, jak poinformowały lokalne władze, policjanci nie odnieśli poważnych obrażeń. Sądząc po zdjęciach uszkodzonego policyjnego pickupa, skończyło się na strachu i sporych stratach materialnych.
Kierowca Tesli został natychmiast aresztowany przez policję z Barrington Hills, która prowadzi dochodzenie. Postawiono mu szereg zarzutów. Jego linia obrony, polegająca na zrzuceniu winy na technologię, nie tylko nie zadziałała, ale stała się gwoździem do jego trumny.
Autopilot to nie szofer
Cały problem polega na fundamentalnym niezrozumieniu, czym jest system Tesli. Zarówno nazwa „Autopilot”, jak i marketingowa otoczka „Full Self-Driving” (Pełna Samodzielna Jazda), sugerują pełną autonomię. Rzeczywistość jest zupełnie inna.
Autopilot Tesli to system wspomagania kierowcy poziomu 2 (ADAS). Oznacza to, że jest to jedynie asystent, który wymaga od człowieka pełnej i nieprzerwanej uwagi. Kierowca musi trzymać ręce na kierownicy i być gotowy do natychmiastowego przejęcia kontroli. Samochód potrafi utrzymywać pas ruchu i dostosowywać prędkość, ale nie jest w stanie reagować na wszystkie scenariusze drogowe. Na pewno nie jest zaprojektowany do tego, by kierowca mógł w nim spać.
Jak oszukać system bezpieczeństwa?
Jeśli wierzyć słowom kierowcy, że faktycznie spał, oznacza to jedną z dwóch rzeczy. Albo świadomie zignorował całą serię głośnych ostrzeżeń wizualnych i dźwiękowych, którymi Tesla domaga się uwagi, zanim ostatecznie wyłączy Autopilota. Albo, co gorsze, aktywnie oszukiwał systemy bezpieczeństwa pojazdu.
Współczesne Tesle monitorują kierowcę na dwa sposoby: za pomocą kamery wewnętrznej śledzącej wzrok oraz przez czujniki momentu obrotowego w kierownicy. Istnieją jednak sposoby na obejście tych zabezpieczeń.
Jeśli kierowca zasłoni kamerę, system wraca do starszej metody, czyli sprawdzania, czy na kierownicy wyczuwalny jest lekki opór (symulujący trzymanie rąk). To zabezpieczenie można łatwo oszukać, na przykład zawieszając na kierownicy niewielki ciężarek lub butelkę z wodą. Internet jest pełen takich „porad”, z których korzystają nieodpowiedzialni kierowcy. Jeśli kierowca z Illinois spał, prawdopodobnie uciekł się do jednej z tych metod.


„Spałem” to przyznanie się do winy
Tłumaczenie się snem za kierownicą to nie jest okoliczność łagodząca. To jest otwarte przyznanie się do rażącego zaniedbania. Kierowca, który zasypia, prowadząc pojazd, jest traktowany jak osoba stwarzająca śmiertelne zagrożenie – niezależnie od tego, czy jedzie 20-letnim autem, czy najnowszą Teslą.
Dosadnie ujął to Adam Puralewski, zastępca szefa policji w South Barrington. „Technologia wciąż ewoluuje i może zwiększać bezpieczeństwo, gdy jest używana właściwie. Należy jednak pamiętać, że to kierowcy są przez cały czas odpowiedzialni za bezpieczne prowadzenie swoich pojazdów” – stwierdził Puralewski. Krótko mówiąc: automatyzacja nie jest nielegalna, ale zdejmowanie odpowiedzialności z człowieka – już tak.
Problem wizerunkowy Tesli
Każdy system można oszukać i nadużyć. Trudno stworzyć coś całkowicie „idiotoodpornego”. Jednak w kontekście Tesli powraca pytanie, czy firma robi wystarczająco dużo, aby takim nadużyciom zapobiegać. Ta kwestia jest centralnym punktem wielu procesów sądowych dotyczących wypadków z udziałem Autopilota.
Krytycy wskazują, że sam marketing Tesli jest źródłem problemu. Gdy firma nazywa swój system „Autopilotem”, a jego bardziej zaawansowaną wersję „Pełną Samodzielną Jazdą”, wysyła jasny sygnał. Kiedy dodatkowo chwali się swoimi „raportami bezpieczeństwa” – które wielokrotnie były krytykowane przez ekspertów jako metodologicznie wadliwe – i sugeruje, że system jest „bezpieczniejszy od człowieka”, nie można się dziwić, że niektórzy kierowcy w to wierzą. Ufają technologii bardziej, niż powinni, co prowadzi do tragedii.
Wypadek z Illinois, na szczęście niegroźny dla funkcjonariuszy, dolewa oliwy do ognia tej debaty. Pokazuje, że problem wciąż istnieje, a kierowcy nadal przeceniają możliwości swoich samochodów. Dla kierowcy z Illinois sprawa jest prosta – czekają go poważne konsekwencje prawne za skrajną nieodpowiedzialność. Dla Tesli to kolejny wizerunkowy kryzys i argument dla regulatorów, by jeszcze mocniej naciskać na firmę w kwestii zabezpieczeń przed bezmyślnością kierowców.
A jakie jest Wasze zdanie? Czy nazwy „Autopilot” i „Full Self-Driving” powinny być zakazane jako wprowadzające w błąd? Czy to Tesla ponosi część odpowiedzialności za takie wypadki, czy wina leży wyłącznie po stronie kierowców, którzy świadomie łamią zasady? Czekamy na Wasze opinie w komentarzach.






