„Crash Course Elona Muska” to pobieżne spojrzenie na błędy inżynieryjne i regulacyjne

Bez względu na to, jak inteligentna lub wizjonerska osoba może wydawać się na pierwszy rzut oka, ważne jest, aby pamiętać, że w końcu są ludźmi i mają wady. Tylko dlatego, że udaje im się odnieść sukces w niektórych obszarach, nie oznacza to, że mogą osiągnąć to samo we wszystkim, czego próbują. Dlatego niezwykle ważne jest, aby unikać umieszczania ludzi na zbyt wysokim piedestale, ponieważ będzie to bolało, gdy upadną. Nowy film dokumentalny opublikowany przez New York Times
NYT
a teraz transmisja strumieniowa w Hulu próbuje przyjrzeć się wysiłkom Elona Muska na rzecz promowania i sprzedaży zautomatyzowanej jazdy na Tesli
TSLA
pojazdów, ale brakuje mu tego, czym mógłby być.

W czasie trwania 74 minut „Crash Course Elona Muska” stara się omówić wiele tematów, ale ostatecznie wydaje się, że niektórym tematom poświęca zbyt dużo czasu, a za mało niektórym najważniejszym. Reżyserka Emma Schwartz otwiera film spojrzeniem na początki Tesli i wysiłki na rzecz rozwoju zautomatyzowanych pojazdów, sięgające wstecz do filmu promocyjnego GM z 1956 r., przedstawiającego koncepcję Firebird II i DAR
AR
Wielkie wyzwanie PA.

Jednak tam, gdzie film wydaje się nie działać, spędza zbyt dużo czasu z Joshuą Brownem. Brown był byłym ekspertem ds. utylizacji bomb marynarki wojennej, który był pierwszą znaną ofiarą śmiertelną podczas korzystania z systemu wspomagania kierowcy AutoPilot Tesli. Znaczące fragmenty filmu zostały przekazane do wysłuchania niektórych przyjaciół Browna o tym, dlaczego był tak zakochany w AutoPilocie, że przejechał ponad 45,000 2016 mil swoim Modelem S w ciągu dziewięciu miesięcy między wydaniem AutoPilota a jego śmiercią w maju XNUMX roku.

Podczas gdy reporterzy New York Times, Neal Baudette i Cade Metz, potrafią wyjaśnić niektóre ograniczenia AutoPilota, większość ludzi, którzy prawdopodobnie powinni oglądać taki film, prawdopodobnie ma niewielką lub żadną wiedzę techniczną na temat działania zautomatyzowanej jazdy. Ci członkowie ogółu społeczeństwa odnieśliby ogromne korzyści z solidnego podkładu, który przecina wiele błędnych wyobrażeń na temat zautomatyzowanej jazdy, z których wiele zostało ogłoszonych przez samego dyrektora generalnego Tesli, Muska na przestrzeni lat.

Widzowie mogliby dowiedzieć się kilku ważnych lekcji na temat tego, co faktycznie trzeba stworzyć, przetestować i zweryfikować zautomatyzowany pojazd, gdyby film zawierał wywiady z profesorem informatyki z Carnegie Mellon University Phillipem Koopmanem lub prawnikiem z Ann Arbor Jennifer Dukarski. Zamiast tego otrzymujemy wiele słów od przyjaciół Browna wyjaśniających, jak bardzo interesował się technologią i dlaczego był tak nieugięty w testowaniu ograniczeń swojego samochodu.

Twórcom filmu należą się wywiady z parą byłych inżynierów z zespołu AutoPilot, członkami National Transportation Safety Board (NTSB), w tym byłym przewodniczącym Robertem Sumwaltem i Bryanem Thomasem, byłym dyrektorem ds. komunikacji w National Highway Traffic Safety Administration (NHT
HT
SA).

Raven Jiang i JT Stukes uznali ograniczenia AutoPilota. „Chcieliśmy sprawić, by AutoPilot był bezpieczny” — powiedział Jiang.

„W czasie tej awarii zdawałem sobie sprawę, że ludzie ufają systemowi, że zrobi rzeczy, których nie został zaprojektowany lub do których nie był zdolny” — dodał Stukes. „Fakt, że doszło do tego rodzaju wypadku, jest oczywiście tragiczny, ale to było coś, co miało się wydarzyć”.

Jednym z powodów, dla których prawdopodobnie tak się stało, jest to, że Tesla zdecydowała się najpierw na kamerę, a teraz tylko na kamerę. „Nie było głębokiej fazy badawczej, w której różne pojazdy byłyby wyposażone w szereg czujników, wielu członków zespołu by to polubiło, zamiast tego najpierw wyciągnięto wniosek, a następnie testy i działania rozwojowe zaczęły udowadniać, że wniosek jest prawidłowy”.

W ciągu ostatnich 15 lat Musk dokonał wielu wspaniałych odkryć w dziedzinie rakiet i spopularyzował pojazdy elektryczne i pojazdy definiowane programowo. Ale jeśli chodzi o systemy krytyczne dla bezpieczeństwa, nie ma dróg na skróty. Gdy stawką jest życie, osoby tworzące technologie są odpowiedzialne za zachowanie należytej ostrożności. Kiedy im się to nie uda, tak jak wielokrotnie robił to Musk z AutoPilotem i pełną samodzielną jazdą, obowiązkiem organów nadzorujących bezpieczeństwo jest panowanie nad tymi ludźmi.

W tym właśnie widzę największą wadę tego filmu. NTSB odpowiada za badanie wszelkiego rodzaju wypadków transportowych, w tym pojazdów lotniczych, kolejowych, morskich i naziemnych. W następstwie wypadku w Brown, NTSB wydało wiele doskonałych zaleceń, w tym wymaganie bardziej niezawodnego monitorowania kierowcy dla systemów, które nadal wymagają nadzoru człowieka, takich jak Tesla AutoPilot/FSD, GM Super Cruise i każdy inny system na drogach. NTSB zalecił również, aby systemy były objęte geofencingiem do dróg, na których mogą bezpiecznie działać.

NHTSA jest agencją, która ma władzę regulacyjną i egzekucyjną w przemyśle samochodowym. W ciągu sześciu lat od śmierci Browna doszło do wielu innych śmiertelnych wypadków związanych z niewłaściwym użyciem AutoPilota, ale NHTSA nie zrobiła nic, aby wdrożyć jakiekolwiek przepisy NTSB. Tylko w ciągu ostatnich 12 miesięcy od zmiany administracji w Waszyngtonie NHTSA zaczęła nawet poważnie gromadzić dane w częściowo zautomatyzowanych systemach i nikt nie zgadnie, kiedy coś konkretnego zostanie zrobione.

Film całkowicie porzuca piłkę, zastanawiając się, dlaczego NHTSA nie zrobiła nic, aby zapewnić, że systemy częściowej automatyzacji są faktycznie weryfikowane pod kątem bezpieczeństwa i skuteczności. Jeśli już, to agencja umożliwiła Tesli kontynuowanie sprzedaży technologii, która tak naprawdę nie działa, i promowanie jej bardziej niż kiedykolwiek. Aby być uczciwym, inne agencje rządowe, takie jak Federalna Komisja Handlu, mogą również próbować zająć się przynajmniej marketingową stroną tego problemu, ale film nie analizuje błędów żadnych urzędników państwowych.

W systemie kapitalistycznym nie jest niczym niezwykłym, że firmy starają się ujść na sucho, jak tylko mogą, w pogoni za zyskiem. Zadaniem rządów jest wznoszenie poręczy potrzebnych do ochrony społeczeństwa przed pozbawionymi skrupułów firmami. Zadaniem dziennikarzy jest zwrócenie uwagi na wszystkie niedociągnięcia w procesie, abyśmy jako społeczeństwo mogli być świadomi i pociągać wszystkich do odpowiedzialności. Crash Course Elona Muska miał okazję zrobić znacznie więcej wokół tej historii i upuścił piłkę. Trzeba zrobić więcej, aby powiedzieć prawdę o tym, co dzieje się ze wszystkimi stronami zaangażowanymi w tę tragiczną historię.

Źródło: https://www.forbes.com/sites/samabuelsamid/2022/05/23/elon-musks-crash-coursetakes-a-cursory-look-at-engineering-and-regulatory-failure/