Spis treści
W ostatnich dniach doszło do nietypowego incydentu z udziałem Tesli Model 3 w miejscowości Sinking Spring w Pensylwanii. Samochód elektryczny znalazł się na torach kolejowych, gdzie został lekko potrącony przez nadjeżdżający pociąg. To, co wzbudza szczególne zainteresowanie, to tłumaczenia kierowcy – twierdzi on bowiem, że Tesla jechała w trybie autonomicznym.
Co dokładnie się stało?
Według raportów służb ratowniczych hrabstwa Berks, Model 3 ominął barierę zabezpieczającą przejazd kolejowy na skrzyżowaniu South Hull Street i Columbia Avenue, a następnie ugrzązł na torach. Kierowca zdołał na szczęście bezpiecznie opuścić pojazd tuż przed zbliżającym się pociągiem. Choć uderzenie nie było silne, to doszło do urwania lusterka bocznego elektrycznego sedana.
Na miejscu szybko pojawiły się służby ratownicze, które zadecydowały o natychmiastowym wstrzymaniu ruchu kolejowego w całym rejonie, aż do usunięcia pojazdu z torowiska. Akcja była na tyle skomplikowana, że do jej przeprowadzenia konieczne było użycie dźwigu. Firma zajmująca się holowaniem – Spitlers Garage & Towing – udostępniła później w mediach społecznościowych zdjęcia z tej nietypowej interwencji.
Autopilot Tesli – jak to właściwie jest?
Twierdzenia kierowcy Tesli Model 3, że samochód jechał samodzielnie w trybie autonomicznym, wymagają dokładniejszej analizy. Tesla promuje bowiem od lat swoją technologię „Full Self-Driving” (FSD), która jednak wbrew nazwie wcale nie jest w pełni autonomiczna. Pomimo obietnic firmy, iż wszystkie modele wyprodukowane od 2016 roku będą gotowe na w pełni autonomiczne prowadzenie, jak dotąd system ten wymaga ciągłej uwagi ze strony kierowcy.
W praktyce oznacza to, że nawet przy aktywnej opcji FSD, to kierowca wciąż ponosi pełną odpowiedzialność za zachowanie pojazdu. Tesla ostrzega przed oddawaniem pełnej kontroli komputerowi – każde zachowanie samochodu musi być nieustannie nadzorowane przez człowieka za kierownicą.
Autopilot a realia na drodze
Trzeba jasno zaznaczyć, że podobne przypadki już się zdarzały. Kierowcy niejednokrotnie nadużywali systemów wspomagania jazdy, wykorzystując je w niewłaściwy sposób lub wręcz całkowicie polegając na autopilocie, ignorując swoje obowiązki. Niestety, niektóre z tych sytuacji kończyły się poważniejszymi kolizjami.
Z drugiej strony, nawet użytkownicy, którzy odpowiedzialnie korzystają z autopilota, wskazują na różne nieprzewidziane zachowania systemu w trudniejszych warunkach drogowych. Dotyczy to m.in. sytuacji, kiedy Tesla próbuje omijać przeszkody na drodze, takie jak np. barierki ochronne czy obszary remontowane. W przypadku z Sinking Spring mogło dojść właśnie do tego typu sytuacji – autopilot mógł źle zinterpretować barierę kolejową jako obiekt możliwy do ominięcia, co doprowadziło do utknięcia auta na torach.
Jak może się rozwinąć sytuacja?
Sprawa z Sinking Spring z pewnością przyciągnie uwagę zarówno opinii publicznej, jak i urzędów regulacyjnych, które od lat dokładnie przyglądają się autonomicznym technologiom w pojazdach. Tesla już wcześniej musiała mierzyć się z kontrolami dotyczącymi bezpieczeństwa swoich technologii, zwłaszcza w USA, gdzie regulacje dotyczące autopilotów stale ewoluują.
Prawdopodobnie dojdzie do dogłębnego dochodzenia, które oceni, na ile odpowiedzialny za zdarzenie był faktycznie autopilot, a na ile sam kierowca. Warto przy tym pamiętać, że każdy podobny incydent może mieć konsekwencje w postaci kolejnych zmian regulacyjnych, które będą mogły wymusić na Tesli jeszcze dokładniejsze informowanie klientów o ograniczeniach funkcjonalności systemu FSD.
Dyskusja wokół odpowiedzialności kierowców i producentów
Ten incydent rodzi istotne pytania o granice zaufania, jakie kierowcy mogą pokładać w technologii. Z jednej strony oczekujemy rozwoju technologicznego i zmniejszenia liczby wypadków dzięki inteligentnym systemom. Z drugiej strony jednak – jak pokazuje przykład z Pensylwanii – nadmierna wiara w komputer może prowadzić do niebezpiecznych sytuacji.
Czy Tesla powinna zmienić nazwę swojej technologii, by lepiej odzwierciedlała rzeczywiste możliwości systemu? Czy kierowcy są odpowiednio edukowani przez producentów samochodów elektrycznych, jak bezpiecznie korzystać z trybu półautonomicznego? A może powinniśmy zacząć wprowadzać bardziej rygorystyczne wymagania przed aktywacją tego typu technologii?
Co Wy o tym myślicie?
Zachęcamy Was do podzielenia się swoimi opiniami. Czy uważacie, że w tej sytuacji zawinił autopilot Tesli Model 3, czy może raczej nieuwaga kierowcy? Jak waszym zdaniem powinna wyglądać przyszłość autonomicznych systemów jazdy?
Dajcie znać w komentarzach poniżej!
Dołącz do dyskusji