Spór o to, czy Tesla FSD przejedzie dziecko, czy dziecko obojętne, nie trafia w sedno

A ostatnie wideo od TesliTSLA
-krytyk Dan O'Dowd z „Projektu Dawn” pokazuje tor testowy z drogą ułożoną ze stożków. Tam kierowca korzystający z prototypu FSD Tesli jedzie w kierunku dziecięcego manekina i uderza w niego. Twierdzi się, że Telsa FSD nie działa niezawodnie w przypadku dzieci. Krytycy O'Dowd twierdzili, że wideo zostało sfałszowane lub źle stworzone, a niektórzy zrobili własne dema, w tym, ku zmartwieniu wszystkich, przeprowadzając test z prawdziwymi żywymi dziećmi „ochotnikami”. Niewielu zastanawiało się, czy prototyp taki jak Tesla FSD ma niezawodnie hamować dla dzieci, co jest naprawdę interesującą kwestią.

O'Dowd często pisał, że chce zbanowania Tesli FSD. Relacjonowałem wcześniej jego kampanię, a ostatnio startował w nominacji do Senatu Kalifornii wyłącznie po to, by wyświetlać reklamy kampanii przeciwko Tesli FSD. W naturalny sposób wzbudził gniew Elona Muska i wokalnej społeczności pro-Tesli. W związku z tym nastąpił natychmiastowy sparing. Pierwotny film, do którego link znajduje się powyżej, nie pokazywał aktywacji FSD, chociaż późniejsze wersje pokazały, że tak było. Niektórzy sugerowali, że trudne do odczytania obrazy na ekranie mówiły, że kierowca trzyma wciśnięty pedał. Inne dane pokazują, że samochód zwalnia lub wydaje ostrzeżenia, a argumenty na temat tego, jak prawdziwa jest demonstracja, toczą się w kółko.

REKLAMA

Demonstracja została wybrana jako prowokacyjna, ponieważ nie ma nic bardziej przerażającego niż samochody uderzające w dzieci. Każdego dnia w USA w wypadkach samochodowych ginie 3 dzieci, a każdego roku około 170 dzieci-pieszych ginie od samochodów. Dla wielu reakcja jest taka, że ​​żadna technologia, która kiedykolwiek przejechałaby dziecko, nie jest akceptowalna. NHTHT
SA rozpoczęło dochodzenie w sprawie wdrożenia Tesli Autopilot (który jest wydanym produktem) i zaczyna przyglądać się prototypowi FSD. Inni, tacy jak Ralph Nader, również wzywali do usunięcia prototypu FSD z drogi. Po tym, jak bardzo mała liczba osób powtórzyła test z prawdziwymi dziećmi, NHTSA wydała ostrzeżenie, aby tego nie robić, a Youtube wyciągnął filmy, na których ludzie to robią. Tesla podobno poprosił o usunięcie filmów z ich samochodu uderzającego w manekin testowy. The Washington Post donosi, że widział list od Tesli o zawieszeniu i zaprzestaniu działalności.

Ta sprawa jest bardzo złożona, a ponieważ nie jest zbyt niezwykła, nikt nie rozumie jej dokładnie. System FSD, choć nazywany wersją beta, dokładniej nazywa się prototypem. Większość programistów uważa, że ​​autonomiczne prototypy (i wersje beta) wymagają dużej ilości testów na drodze, a każdy zespół to robi, a ludzie „kierowcy bezpieczeństwa” monitorują system i regularnie interweniują, gdy popełnia błędy, aby zapobiec incydentom. Tesla jest niezwykła, ponieważ pozwala zwykłym klientom angażować się w te testy, podczas gdy wszystkie inne firmy mają pracowników, którzy mają pewien poziom przeszkolenia, wykonują to zadanie i zwykle zatrudniają 2 pracowników na pojazd.

Prototypy z natury zawodzą, w tym w ważnych sprawach, takich jak zatrzymywanie się dla pieszych na drodze. Każdy zespół, od najlepszych, jak Waymo do najgorszego, wystawił na drogę pojazdy, które regularnie robiłyby coś poważnie złego, z wyjątkiem interwencji, a większość uważa, że ​​testowanie takich pojazdów na wczesnym etapie było i nadal jest konieczne, aby poczynić postępy i ostatecznie wdrożyć samochody. Po wdrożeniu samochody będą znacznie lepszej jakości i będą ratować życie — wiele z nich — więc wszyscy chcą, aby wdrożenie odbyło się jak najszybciej, ale jest wiele kwestii do omówienia, jak do tego momentu i kiedy dotarliśmy to.

REKLAMA

Asystent kierowcy a samodzielna jazda

Oprócz pytania, czy wykorzystanie klientów Tesli do testowania prototypu jest dobrym pomysłem, wiele kwestii dotyczy różnicy między systemami wspomagania kierowcy, w których człowiek jest w pełni zaangażowany w jazdę, ale nadzoruje system, a nie fizycznie się porusza. elementy sterujące i systemy autonomicznej jazdy, w których nie jest potrzebny nadzór człowieka (i rzeczywiście, pojazd może jechać bez nikogo w środku).

Wielu specjalistów z branży uważa, że ​​są to dwie dość różne rzeczy i że błędem było zadeklarowanie ich przez NHTSA jako tylko dwóch różnych „poziomów” technologii automatyzacji. Sterling Anderson, współzałożyciel firmy Aurora, która sama jeździ, uważa, że ​​przejście od wspomagania kierowcy (lub ADAS, w przypadku zaawansowanego wspomagania kierowcy) do samodzielnej jazdy jest jak próba dotarcia na Księżyc poprzez budowanie wyższych drabin.

Pierwszym dużym zaawansowanym systemem wspomagania kierowcy, który pozwalał zdejmować nogę z pedałów, był tempomat, w szczególności adaptacyjny tempomat. Później pojawił się system utrzymania pasa ruchu, który pozwolił zdjąć ręce z kierownicy, a wkrótce oba zostały połączone w produkty takie jak „Autopilot” Tesli. Jako narzędzia ADAS (wspomaganie kierowcy) należy ich używać z pełną uwagą.

REKLAMA

Chociaż na początku nie wszyscy w to wierzyli, ogólny wniosek jest dziś taki, że te systemy działają i nie stwarzają zagrożenia na drodze. Ludzie początkowo mieli wątpliwości co do nawet podstawowego tempomatu, ale wkrótce stał się on bardzo powszechną funkcją w samochodach.

Tesla Autopilot podniósł nowe pytania z różnych powodów, ale najciekawszą kwestią jest fakt, że jest wyraźnie lepszy pod względem funkcjonalności od wcześniejszych produktów, w tym prostszych tempomatów – ale ta przewaga może w rzeczywistości uczynić go bardziej niebezpiecznym, a przez to gorszym. Dziwny paradoks polega na tym, że im lepszy jest system, tym gorszy może być wynik, ponieważ nadrzędny system powoduje „samotność automatyzacji”, w której nadzorujący kierowca zwraca mniejszą uwagę na drogę. (Niektórzy uważają również, że nazwy „Autopilot” i FSD Tesli zachęcają do tego samozadowolenia, podobnie jak publiczne komunikaty dotyczące tych produktów.)

To nie jest dobry paradoks. Chcemy tworzyć lepsze systemy, ale jeśli system ogólnie się pogorszy, gdy go ulepszysz, znacznie trudniej jest uzyskać naprawdę dobre systemy, gdy podróżujesz przez dolinę niebezpieczeństw, gdzie rzeczy pogarszają się, zanim się poprawią. Dzisiaj nigdy nie zarzucilibyśmy standardowego tempomatu, że uderzy dziecko lub przebije czerwone światło — te systemy były znacznie prostsze i nie miały możliwości uniknięcia tych błędów. Ale wielu chce obwiniać znacznie lepszy system, który zatrzymuje się na większość przeszkód, ponieważ nie zatrzymuje się na 100% — nawet jeśli żaden system nigdy nie będzie tak doskonały, aby uniknąć 100% błędów, a ludzie również nie będą doskonali.

REKLAMA

Uczestniczyłem w opracowaniu pierwszych na świecie przepisów dotyczących testowania samodzielnych pojazdów w Nevadzie i Kalifornii. Gracze zgodzili się, że powinny istnieć pewne podstawowe zasady dotyczące przeprowadzania testów na drogach (poprzednie przepisy tego nie zabraniały, ponieważ oczywiście nikt nigdy nie pomyślał, aby to zrobić). Jednocześnie producenci samochodów, którzy sprzedają narzędzia ADAS, zrobili to samo. nie chcą, aby ich samochody ADAS podlegały przepisom dotyczącym testów autonomicznych, więc działanie ADAS zostało uznane za nieobjęte tymi przepisami.

Zwłaszcza w Kalifornii stworzyło to otwarte pytanie. Wszystkie testy autonomicznej jazdy (z kilkoma niedawnymi wyjątkami) są wykonywane przez nadzorującego kierowcę bezpieczeństwa. W ten sposób jest to bardzo podobne do prowadzenia samochodu ADAS. Prawo nie było jasne co do rozróżnienia, które stworzyło kilka interesujących sytuacji. Anthony Levandowski, który również brał udział w przygotowaniu przepisów, był później szefem UberUBER
ATG. Oświadczył, że ponieważ wszystkie ich samochody w tym czasie działały tylko z kierowcą bezpieczeństwa, był to ADAS, a Uber nie musiał przestrzegać przepisów dotyczących testów autonomicznych. Kalifornijski DMV powiedział, że nie, że zgodnie z tą logiką nikt nie testował samodzielnej jazdy, a to nie było intencją prawa. Powiedzieli Uberowi, że muszą zarejestrować się jako autonomiczne pojazdy testowe, w przeciwnym razie wyciągną tablice rejestracyjne samochodów Ubera, korzystając ze swoich specjalnych uprawnień. Uber spełnił wymagania.

REKLAMA

DMV przyjęło podejście, że jeśli próbujesz stworzyć system do samodzielnego prowadzenia, nawet jeśli był to wczesny niekompletny system, który wymagał nadzoru i był zawsze nadzorowany, powinieneś być uważany za firmę testującą autonomiczną jazdę, która podlega przepisom.

Mimo to Tesla kontynuuje to samo podejście. Ponieważ Tesla zdecydowanie ma produkt ADAS, nigdy nie zgłaszają państwu żadnych testów autonomicznych. Do tej pory DMV pozwoliło to się poślizgnąć — nawet testowanie Tesli FSD przez pracowników Tesli, co bardzo trudno odróżnić od tego, przed czym powstrzymali Ubera. DMV może to dobrze uregulować. Ale co z użytkowaniem przez klientów, gdzie oficjalnie (jeśli przeczytasz drobny druk i zignorujesz nazwę) narzędzie wspomagające kierowcę?

Ale wydaje się działać

Głównym rozwiązaniem tego problemu były sposoby zapewnienia wysokiego poziomu uwagi nadzorców. Istnieją różne techniki, w tym monitorowanie kierowcy na różne sposoby i dręczenie go, jeśli nie zwraca uwagi, lub, jak wspomniano, wyszkoleni zawodowych kierowców lub nawet zespół z wieloma oczami na drodze. Przez wiele dziesięcioleci szkoliliśmy nastoletnich kierowców w szkołach jazdy, mając instruktora, który potrafi chwycić za kierownicę i ma własny hamulec, aby zatrzymać samochód, i ten system sprawdził się bardzo dobrze.

REKLAMA

Jak dotąd silny wniosek jest taki, że to działa. Wzorcowe są wyniki w zakresie bezpieczeństwa największych firm jeżdżących samodzielnie, takich jak Waymo. Waymo zgłosił ponad 20 milionów mil testów z kierowcami bezpieczeństwa w 2021 roku i w tym czasie miał prawdopodobnie 2 wypadki z winy. W tym okresie ludzie będą mieli średnio około 40 wypadków. Podobnie jak studenci jazdy z instruktorami jazdy radzą sobie znacznie lepiej niż świeżo licencjonowani kierowcy, system monitorowania wyraźnie działa, a pojazdy te faktycznie stwarzają mniejsze ryzyko dla społeczeństwa niż podobne prowadzenie zwykłych ludzi.

Przynajmniej w USA, jeśli nikomu się nie stanie – a przynajmniej jeśli poziom ryzyka jest mniejszy niż w przypadku zwykłej jazdy – działalność na ogół nie byłaby regulowana. Podejście USA jest znacznie bardziej liberalne — nie musisz udowadniać, że to, co robisz, jest bezpieczne, ale jeśli okaże się to niebezpieczne, możesz zostać zatrzymany i uznany za odpowiedzialnego za wszelkie wyrządzone szkody. Niektóre inne kraje wymagałyby od regulatorów, aby z góry decydowały, czy coś jest bezpieczne, znacznie wyższa poprzeczka, która znacznie mniej sprzyja innowacjom.

Oczywiście w jednym słynnym przypadku podejście kierowcy bezpieczeństwa zakończyło się śmiercią, gdy pojazd Ubera ATG zabił pieszego w Arizonie. Dochodzenie NTSB i późniejsze sprawy sądowe wykazały, że kierowca bezpieczeństwa był niedbały (oglądała telewizję zamiast wykonywać swoją pracę), chociaż Uber został również oskarżony o słabą kulturę zarządzania kierowcami bezpieczeństwa, która przyczyniła się do tego błędu. Ważnym wnioskiem jest jednak to, że system sterowników bezpieczeństwa działa i sam nie naraża społeczeństwa na nadmierne ryzyko, chociaż jest oczywiście możliwe, że kierowcy kierujący bezpieczeństwem ludzi mogą zaniedbać i powodować wysokie ryzyko.

REKLAMA

To system z przeszkolonymi płatnymi kierowcami. Tesla idzie dalej, a zwykli klienci wykonują tę pracę. Doszło do wielu incydentów, w których kierowcy Tesli wyraźnie zaniedbali nadzór nad produktem Autopilot i miały miejsce wypadki, w tym wypadki śmiertelne. Jednak samochody Tesli pokonują z Autopilotem znacznie więcej kilometrów niż jakikolwiek zespół autonomiczny, więc obecność negatywnych, a nawet tragicznych wydarzeń niekoniecznie jest dowodem na to, że system naraża społeczeństwo na większe ryzyko.

Co kwartał Tesla publikuje wprowadzające w błąd statystyki, z których wynika, że ​​kierowcy korzystający z Autopilota mają lepsze wyniki w zakresie bezpieczeństwa niż ci, którzy tego nie robią, mimo że niektórzy użytkownicy Autopilota są niedbali. Chociaż te liczby są równoznaczne z kłamstwem, Ja i inni próbowaliśmy odtworzyć prawdziwe liczby, a rzeczywiste liczby nie są takie złe i sugerują, że użytkownicy Autopilota mają podobną historię bezpieczeństwa jak osoby niebędące użytkownikami. Chociaż nie jest lepszy, nie naraża też ludzi na dodatkowe ryzyko. Wynik jest na tyle bliski, że NHTSA prowadzi dochodzenie w sprawie wypadków Tesli z pojazdami ratunkowymi. Nie wiadomo, czy przyjmą podejście zapobiegawcze, czy przyjrzą się ogólnemu zapisowi bezpieczeństwa.

Wielu sugerowało, że Tesla może poprawić swoje wyniki dzięki lepszemu monitorowaniu kierowców. Standardowe monitorowanie po prostu wymaga od kierowcy regularnego przykładania siły do ​​koła. Inne firmy mają kamery, które obserwują oczy kierowcy, aby upewnić się, że obserwują drogę — gdyby zrobił to Uber ATG, zapobiegłyby śmierci. Tesla od niedawna również zaczęła korzystać z monitorowania wzroku kierowcy.

REKLAMA

Należy zauważyć, że obliczenia, które pokazują bezpieczeństwo Tesli Autopilot jako podobne do zwykłej jazdy, są obliczeniami praktycznymi. W rzeczywistości jest to połączenie wyższego wskaźnika wypadków wśród niewielkiej grupy niedbałych użytkowników autopilota, którzy ignorują drogę lub popadają w samozadowolenie z automatyzacji, oraz lepszych wyników w zakresie bezpieczeństwa od tych, którzy są sumienni. Mamy z tym filozoficznie trudny czas — nie lubimy sprawiać, że niektórzy ludzie są bardziej narażeni na ryzyko, nawet jeśli więcej ludzi ma mniejsze ryzyko. Nie podoba nam się to tak bardzo, abyśmy mogli pozbawić pilnych ludzi narzędzia, które sprawi, że będą bezpieczniej chronić tych, którzy są niedbali, choć nie jest to naszym celem.

A co z FSD?

Powyższe dane dotyczą Autopilota, który jest produktem wysyłkowym. Tesla FSD nie jest produktem wysyłkowym. Nazywają to „betą” (która jest prawie sfinalizowanym produktem w ostatniej fazie testów przed wydaniem), ale wcale tak nie jest. Mają teraz ponad 100,000 15,000 właścicieli Tesli, którzy ją wypróbowują. Aby z niego skorzystać, właściciel musi uiścić opłatę (obecnie wzrastającą do XNUMX XNUMX USD) za zamówienie ewentualnego systemu FSD i zdać rodzaj testu na bezpieczną jazdę, aby zostać dopuszczonym do kohorty testowej. Test bezpiecznej jazdy jest w dużej mierze fałszywy i nie sprawdza tego, czego faktycznie byś chciał za to zadanie, ale oznacza to, że nie każdy, kto go płaci, dostaje go.

Ostrzegają kierowców, że system ma wiele błędów i wymaga stałego nadzoru, takiego jak ADAS, mówiąc: „W najgorszym momencie zrobi coś złego”. To dość jasne stwierdzenie, ale jednocześnie nazwa „pełna jazda samochodem” w oczywisty sposób przywołuje obraz inny niż ADAS. Jeździłem z tym systemem i oceniłem, że jego wydajność jest dość słaba jako system autonomiczny.

REKLAMA

Mimo to, wbrew intuicjom, podejście Tesli wydaje się działać. Z 100,000 XNUMX kierowców system przechodzi miliony mil działania (chociaż nie ma publicznych danych na temat tego, ile każdy kierowca używa systemu). systemu i tylko niewielka liczba drobnych incydentów została upubliczniona. Podczas gdy niektórzy testerzy Tesli FSD są tak wielkimi fanami Tesli, że mogą ukryć wypadek, który mieli, jest bardzo mało prawdopodobne, aby doszło do znacznej liczby poważnych awarii, których żaden nie został ujawniony. Wszelkie poważne wypadki zgłoszone przez policję, zwłaszcza wypadki z obrażeniami, najprawdopodobniej zwrócą uwagę, podobnie jak w przypadku Autopilota.

A jednak ich nie widzimy. Chociaż nie jest to prawdziwa analiza naukowa, wydaje się prawdopodobne, że program FSD Tesli nie stanowi obecnie zagrożenia dla społeczeństwa. Można to przypisać złemu systemowi. Większość kierowców wie, że byłoby naprawdę głupio nie zwracać uwagi na ten system w jego obecnym stanie. Możliwe, że jak będzie lepiej, to się zmieni. Jeśli weźmiemy pod uwagę podstawowy tempomat, który jest znacznie bardziej prymitywny, to działa, bo nikt nie odważyłby się nie zwracać uwagi na drogę podczas korzystania z niego.

REKLAMA

Nazywanie Tesli

Tesla nie pomaga sobie nazwami produktów. Wielu krytykowało Autopilot jako nazwę, ponieważ (fałszywe) postrzeganie publiczne jest takie, że autopiloty samolotu same latają samolotem. W rzeczywistości autopilot samolotu jest znacznie prostszym systemem niż autopilot samochodu Tesli i działa tylko dlatego, że w powietrzu jesteś bardzo daleko od wszystkiego, w co możesz uderzyć. To jednak nie powstrzymuje fałszywej percepcji społecznej. Z FSD jest jeszcze gorzej. Nie jest jeszcze na poziomie samodzielnej jazdy, nawet nie jest blisko, a na pewno nie jest „pełna”. To zamieszanie sprawiło, że Waymo zrezygnował z używania terminu „samojazda” do opisu swojego produktu, z obawy, że Tesla błędnie zdefiniował ten termin w opinii publicznej.

Tesla tak naprawdę nie potrzebuje więcej szumu dla swoich produktów. Sprzedają wszystko, co mogą zrobić. Wprawiające w zakłopotanie, że świadomie idą z tymi nazwami, zamiast zaniżać i przesadzać. Zaoszczędziliby sobie wiele smutku — innego niż „wszelka reklama to dobra reklama”.

Czy to w porządku, jeśli Tesla uderzy w manekina dziecka?

Zaskakująca odpowiedź brzmi „prawdopodobnie”. Wszystkie testowe systemy prototypowe będą robić takie rzeczy, a poza zakazem wszelkiego testowania prototypów, nie ma sposobu, aby wymagać perfekcji nawet w tak sugestywnej kwestii, jak wypadki z dziećmi. Trudno jest stworzyć system regulacyjny, który zakazałby Tesli FSD, który nie zakazuje również ani nie spowalnia rozwoju bardzo ważnej technologii, która z czasem uratuje miliony istnień ludzkich. Miliony istnień to nie błahostka, będzie to jeden z największych postępów w bezpieczeństwie w historii ludzkości.

REKLAMA

Co najwyżej moglibyśmy spróbować zdefiniować rzeczy tak, aby osoby nadzorujące takie systemy testowe spełniały określone kryteria. Moglibyśmy nalegać, aby lepiej monitorowali (co robi Tesla). Moglibyśmy poprosić ich, aby byli profesjonalistami lub zdali test, ale wtedy stworzylibyśmy ciało, które definiuje i wymusza te testy, co byłoby uciążliwe. Instruktorem jazdy można zostać po zdaniu testu pisemnego i uzyskaniu zaświadczenia o dobrym stanie zdrowia, nie przeprowadza się testu umiejętności na żywo.

Niemniej jednak moglibyśmy zdefiniować zestaw reguł, które mogą nadzorować system prototypowy, co może powstrzymać działalność Tesli. Ale zrobienie tego oznaczałoby popadnięcie w paradoks „im jest lepiej, tym bardziej nam się to nie podoba”. Nie chcemy utrudniać przekraczania tej doliny, aby stać się lepszym systemem. Prawdziwe pytanie brzmi, dlaczego chcielibyśmy tam jechać, skoro nikt nie jest ranny. W tej chwili nie ma doniesień o zranieniach ludzi, a już na pewno nie na żadnym poziomie, który wskazywałby na większe ryzyko niż zwykła jazda. Nie chcemy wpaść w pułapkę zakazywania rzeczy, ponieważ mamy intuicję, że są one niebezpieczne. Chcemy zakazać tylko rzeczy, które faktycznie są niebezpieczne.

Jest całkiem możliwe, że testy Tesli FSD później staną się zbyt niebezpieczne. Może się to zdarzyć z powodu samozadowolenia w zakresie automatyzacji lub zmian w systemie. Rozsądne jest, aby Tesla została poproszona o zgłoszenie władzom, ile incydentów ma miejsce podczas testowania systemu, abyśmy mogli wiedzieć, czy i kiedy stanie się niebezpieczny. Podejście O'Dowda: „powinniśmy tego zakazać, ponieważ wydaje mi się, że byłoby to niebezpieczne” jest błędne, przynajmniej w USA.

REKLAMA

Przeczytaj i zostaw komentarze tutaj

Źródło: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- nie trafia w punkt/