Nowe badanie wskazuje na przerażające zachowanie kierowców w rzekomo bezpieczniejszych samochodach

Pomimo dosłownie mijania znaku zmiennej treści z przerwami, czytającego „SMS-y podczas jazdy jest … (pauza) … 23 razy bardziej niebezpieczne” umieszczonego tuż przed jednym z najbardziej niebezpiecznych, lokalnych manewrów, znanym jako Krzywa Rochester, społeczeństwo stało się bardziej mądre w kwestii znaczenia odwieczny frazes „oczy na drodze, ręce na kierownicy, umysł w drodze”.

A przynajmniej tak myśleliśmy…

A nowe badanie Instytutu Ubezpieczeń Drogowych (IIHS) osób, które posiadały pojazdy z zaawansowanymi funkcjami wspomagania kierowcy stwierdziło, że „…duży odsetek użytkowników (53% [GM] Super Cruise, 42% [Tesla] Autopilot i 12% [Nissan] ProPILOT Assist) wskazało, że czuje się komfortowo w leczeniu ich systemy jako autonomiczne”. Samochody autonomiczne nie są obecnie dostępne dla konsumentów, pomimo wprowadzającego w błąd marketingu niektórych producentów. Trzy wyżej wymienione systemy mają coś, co nazywa się „częściową automatyzacją”. Kierowca w ciele musi nadal wykonywać wiele rutynowych zadań związanych z prowadzeniem pojazdu, ponieważ te systemy są: nie jest gotowy do wszechobecnego uruchomienia.

Zgodnie z tym badaniem stwierdzono, że użytkownicy Super Cruise i Autopilot częściej angażowali się w czynności, w których zdejmowali ręce z kierownicy i nie patrzyli na drogę. W rzeczywistości około 50% Super Cruise i 42% Autopilota „… użytkownicy zgłaszali, że w pewnym momencie uruchomili „blokadę” technologii, co ma miejsce, gdy kierowca nie reaguje na ostrzeżenia dotyczące uwagi”. Jak dotąd wszystkie popularne systemy wymagają aktywnego nadzoru kierowcy.

Możliwy powód: niektórzy producenci byli bardzo liberalni w swoich marketingowych i publicznych wypowiedziach kierownictwa, które zasadniczo zachęcały kierowców do traktowania systemu jako autonomicznego. Doprowadziło to do tego, że niektórzy właściciele samochodów, tacy jak Param Sharma z San Francisco, zostali nagrani na autostradzie jako pasażer na tylnym siedzeniu bez ludzi na przednim siedzeniu. Raj Mathai, prezenter wiadomości KNTV (NBC) w San Francisco, słusznie opisał takie zachowanie jako „… bardzo nielegalne”.

Odkrycia dokonane w ramach badania poddają w wątpliwość, czy podstawowy rygor inżynieryjny (np. badanie bezpieczeństwa zamierzonej funkcji, czyli SOTIF) został odpowiednio wypełniony w przypadku tych projektów i czy opinia publiczna rozumie różnicę między zaawansowanymi systemami wspomagania kierowcy (ADAS) a autonomicznymi. „Częściowe systemy automatyzacji mogą sprawić, że długie przejazdy będą wydawać się mniejszym obciążeniem, ale nie ma dowodów na to, że sprawiają, że jazda jest bezpieczniejsza”, mówi prezes IIHS David Harkey. „W rzeczywistości może być odwrotnie, jeśli systemy nie mają odpowiednich zabezpieczeń”.

Jak donosi New York Times w czerwcu, National Highway Traffic Safety Administration (NHTSA) zaktualizowała … „wstępną ocenę autopilota do analizy inżynierskiej, która … będzie sprawdzać, czy autopilot nie zapobiega odwracaniu uwagi kierowców od drogi i angażowaniu się w inne przewidywalne i ryzykowne zachowania podczas korzystania z systemu.”

Tymczasem osiem krótkich tygodni później Tesla wydała kolejną wersję beta swojego oprogramowania, którą przetestowała tylko na 1000 (szczęśliwych?) użytkownikach z powodu „wielu poważnych zmian w kodzie”.

Być może znak zmiennej wiadomości powinien ostrzegać kierowców o czymś więcej niż tylko wysyłaniu wiadomości tekstowych.

Źródło: https://www.forbes.com/sites/stevetengler/2022/10/25/new-study-points-out-scary-driver-behavior-in-supposedly-safer-cars/