Tesla: koniec eksperymentu z Autopilotem?

Amerykańska prasa z satysfakcją donosi o tym, że NHTSA (wreszcie, po ponad 5 latach od pierwszych niepokojących doniesień o nieprawidłowościach!) zdecydowała się na śledztwo w sprawie powtarzających się wypadków, nie brakuje też głosów domagających się surowych kar finansowych dla Tesli Elona Muska i – być może – naprawy bądź ograniczenia funkcjonalności systemu zainstalowanego w ponad 750 tys. samochodów. Sprawa ma bowiem drugie, trzecie i czwarte dno.

Autopilot Tesli "przereklamowany"?

Dziennikarze AutomotiveNews nazywają Autopilota Tesli wprost "przereklamowanym" i dodają: "Elon Musk publicznie deklaruje, że jego firma jest blisko stworzenia autonomicznego pojazdu na poziomie piątym (najwyższy poziom – chodzi o auto całkowicie zastępujące kierowcę - red.), ale w konfrontacji z oficjalnymi organami przyznaje, że Autopilot i system pełnej autonomicznej jazdy w Teslach jest zgodny z poziomem drugim w skali SAE" – czyli ma możliwości nie większe niż systemy oferowane przez innych producentów. A jednak... tylko kierowcy Tesli mogą podczas długich podróży autostradowych sprawdzać e-maile, przysypiać czy też zajmować się czynnościami, które nie mają nic wspólnego z kierowaniem. Auta innych marek nie dają takiej swobody!

Sześć poziomów autonomicznej jazdy - Tesla na poziomie 2

Warto w tym miejscu wyjaśnić, że istnieje autoryzowana przez SAE skala opisująca stopień zautomatyzowania pojazdów. Skala ma sześć poziomów, gdzie zero oznacza samochód bez jakichkolwiek funkcji autonomicznych, a pięć – pojazd, który nie musi mieć kierownicy, a prowadzi się w pełni automatycznie np. wypełniając komendy głosowe użytkownika. Tych ostatnich jeszcze nie wynaleziono i nie wiadomo, czy i kiedy to nastąpi.

Problem z Autopilotem Tesli - co poszło nie tak?

Szerzej sytuację objaśnia inżynier Sam Abuelsamid na łamach amerykańskiego Forbesa. Według niego pierwsza wersja Autopilota zaprezentowana w 2015 roku opierała się na urządzeniach zewnętrznego producenta (Mobileye) przeznaczonych do użycia w systemach ostrzegania o zjechaniu z pasa ruchu, o możliwości kolizji i – w najbardziej wyrafinowanym wydaniu – do korygowania toru jazdy czy automatycznego hamowania. Z tych urządzeń korzysta wielu producentów pojazdów, jednak większość wyłącznie w zakresie przewidzianym przez Mobileye.

Tesla na bazie tych podzespołów (jedna kamera z przodu, jeden radar dalekiego zasięgu i 12 czujników ultradźwiękowych) samodzielnie stworzyła Autopilota o funkcjonalności dalece przewyższającej założenia producenta tych części. Powstała wersja Autopilota, która niedługo później (prawdopodobnie) przyczyniła się do śmiertelnego wypadku oraz do rozstania pomiędzy Teslą i Mobileye.

Kolejna wersja Autopilota (V2) powstała już na podzespołach własnych Tesli: obok radaru dalekiego zasięgu składa się na niego 8 kamer i wydajniejszy procesor z oprogramowaniem samodzielnie stworzonym przez Teslę. Konkurenci, jak np. GM, obok radaru dalekiego zasięgu, który ma niską rozdzielczość i wyjściowo zaprojektowany był do obsługi prostszych systemów (jak tempomat adaptacyjny), stosują jeszcze cztery radary krótkiego zasięgu monitorujące sytuację wokół pojazdu.

Tesla: koniec eksperymentu z Autopilotem?

Radar w Tesli nie widzi różnicy

Autor Forbesa tłumaczy, że radar dalekiego zasięgu stosowany w Autopilocie Tesli (a w innych autach jako element tempomatu adaptacyjnego) nie rozróżnia normalnych elementów infrastruktury drogowej (znaki drogowe, bramownice, itp.) od np. pojazdów stojących na poboczu. Systemy, które potrafią przejąć od kierowcy prowadzenie na autostradzie, zaprojektowane są więc tak, aby przy większych prędkościach ignorować te różne obiekty na poboczu i wokół drogi. Przy założeniu, że kierowca ma w ręku kierownicę, ma otwarte oczy i czuwa, to jest w porządku – w normalnych warunkach na autostradzie nie ma niczego np. na pasie awaryjnym, nic nie stoi też na pasie ruchu, a jakby co, kierowca widzi je z daleka i może z wyprzedzeniem nacisnąć hamulec. Tyle, że np. GM nie twierdzi, że jego samochody wyposażone w układ Super Cruise, np. Cadillac CT6, zdolne są do autonomicznej jazdy – Super Cruise to jedynie asystent kierowcy (choć też kwalifikowany jako ADAS – Advanced Driver Assist System). A Elon Musk oferuje system pod wiele mówiącą nazwą: Autopilot. I twierdzi, że Autopilot kieruje lepiej niż człowiek.

Jest wielce prawdopodobne, że inżynierowie Elona Muska, świadomi od dawna niedostatków zastosowanej w Teslach technologii, próbowali naciągnąć nieco zbyt krótką kołdrę, majstrując w oprogramowaniu i podkręcając czułość systemu na dane spływające z radaru dalekiego zasięgu. Świadczą o tym przypadki gwałtownego hamowania tych samochodów bez wyraźnego powodu.

I jeszcze jedna zła wiadomość: testy przeprowadzone w Korei przez KNCAP dowodzą, że choć Autopilot Tesli ogólnie bardzo dużo potrafi, to jednak np. konsekwentnie nie rozpoznaje rowerzystów nadjeżdżających drogą ułożoną pod kątem prostym do kierunku, w którym podąża Tesla.

테슬라 모델3 | KNCAP 2021년 자동차 안전도평가(종합)

Rzecznik NHTSA: "W każdym stanie USA to kierowca jest osobiście odpowiedzialny za prowadzenie swojego pojazdu".

Elon Musk: kierowca powoduje większe zagrożenie niż Autopilot

Elon Musk oraz jego wyznawcy podkreślają, że wypadki spowodowane przez Autopilota zdarzają się niezwykle rzadko i gdyby nie to urządzenie, ofiar byłoby więcej. Mówi się o kilkunastu bądź kilkudziesięciu wypadkach z rannymi i jednym z ofiarą śmiertelną, które mają być przedmiotem śledztwa NHTSA, jednak prawda jest taka, że tylko Elon Musk wie, w ilu niebezpiecznych zdarzeniach brał udział Autopilot. Nie każdy przecież, kto spowoduje wypadek czy kolizję, przyznaje się publicznie, że uruchomił autopilota, by móc wyspać się w czasie nocnej podróży. Także tylko Elon Musk wie, jak często kierowcy korzystają z opcji autonomicznej jazdy, a dopiero połączenie tych danych (liczby przejechanych kilometrów i liczby kolizji czy np. niepotrzebnego awaryjnego hamowania) dałoby obraz faktycznych korzyści i zagrożeń związanych z Autopilotem.

Autopilot prowadzi, a kierowca śpi?

Tymczasem kolejna wątpliwość związana z Autopilotem Tesli dotyczy kontroli kierowcy. Podczas gdy inni producenci szybko zauważyli, że jednym z większych problemów jest nadzór nad systemami ADAS podczas jazdy, Elon Musk publicznie daje do zrozumienia, że kierowca w Tesli jest zbędny i powoduje większe zagrożenie niż maszyna.

Problem polega na tym (każdy, kto ma w miarę nowoczesny i dobrze wyposażony samochód, może się sam o tym przekonać), że człowiek pozostaje czujny, dopóki jest w dużym stopniu zaangażowany w czynności, którymi się zajmuje. Gdy tylko pilnuje maszyny, zaczyna przysypiać.

Stąd pomysły producentów, jak np. Google'a czy Continentala, aby w celu monitorowania aktywności kierowcy montować w pojeździe kamery na podczerwień widzące w mroku i przez ciemne okulary. A w Teslach montowane są jedynie zwykłe szerokokątne kamery, które można w dodatku oszukać, umieszczając na fotelu kierowcy zdjęcie ludzkiej twarzy z otwartymi oczami. Na tej samej zasadzie systemy zewnętrzne nie rozpoznają, czy mają do czynienia z wizerunkiem osoby na billboardzie czy z pieszym – i w obu wypadkach są skłonne reagować podobnie.

Chcą kary dla Tesli i Muska

"Mamy nadzieję na szczegółowe śledztwo i na to, że ewentualne kary będą miały ostre zęby. Czas skończyć z zabawą Tesli z ludzkim życiem na publicznych drogach" – piszą dziennikarze AutomotiveNews i jest to ton wyraźnie słyszalny w branży. Niektórzy liczą na zaangażowanie Federal Trade Commission (FTC – amerykański odpowiednik polskiego UOKiK-u): o interwencję w sprawie Autopilota Tesli zwróciło się do FTC dwóch senatorów. Wątpliwości dotyczą nieuczciwych reklam narażających bezpieczeństwo publiczne poprzez deklarowanie, że samochód potrafi wyręczyć kierowcę, choć w praktyce możliwości w tej kwestii ma bardzo ograniczone.

Konkluzje ze śledztwa w sprawie Autopilota Tesli dotkną wszystkich producentów?

Sprawa jest poważna z punktu widzenia całej branży motoryzacyjnej, dotyczy bowiem zasad wprowadzania na rynek urządzeń w wersji beta, które w dodatku mają decydujący wpływ na bezpieczeństwo. Nie bez powodu NHTSA prosi wszystkich producentów wprowadzających na rynek elementy systemów autonomicznych o podanie liczby niebezpiecznych zdarzeń, do jakich doszło podczas pracy tych systemów. Paradoks polega bowiem na tym, że obecnie jedyną realną wiedzę na temat skutków działania systemów asystujących mają ich producenci. Inna rzecz, że zatajanie wrażliwych danych, o które prosi NHTSA, gdyby wyszło na jaw, mogłoby skończyć się dla producenta naprawdę źle, o czym przekonał się już w USA Volkswagen podczas Dieselgate.

Po zakończeniu śledztwa NHTSA będzie musiała odpowiedzieć na kilka pytań:

Tak czy inaczej niepokój u inwestorów Tesli spowodowany otwarciem śledztwa przez NHTSA wydaje się uzasadniony. Po ewentualnym wprowadzeniu w życie wspomnianych wyżej konkluzji może się bowiem okazać, że inni producenci, którzy zapowiadają wprowadzenie na rynek swoich "autopilotów” dopiero w najbliższych miesiącach, naprawdę mają co sprzedawać, a Tesla... musi jeszcze swój system bardzo mocno dopracować.