Wypadek pojazdu autonomicznego w Arizonie

  • Data publikacji: 05.05.2018, 13:28

W piątek 04.05.2018 pojazd poruszający się w trybie autonomicznym uczestniczył w groźnie wyglądającym zderzeniu z innym pojazdem w amerykańskim stanie Arizona. Jest to kolejne zdarzenie w ostatnim czasie, w którym bierze udział pojazd poruszający się samodzielnie po drodze publicznej.

 

Pomimo dużych uszkodzeń obu pojazdów, które uczestniczyły w zdarzeniu, lokalna policja informuje jedynie o niewielkich obrażeniach osoby siedzącej na fotelu kierowcy pojazdu poruszającego się w trybie autonomicznym. Pojazd, który uczestniczył w kolizji należy do przedsiębiorstwa Waymo, które związane jest z projektem pojazdu autonomicznego zapoczątkowanego przez Google w 2009 roku.

 

Z oświadczenia wydanego przez policję wynika, że pojazd Waymo nie był sprawcą kolizji, ale został uderzony przez innego uczestnika ruchu, który to natomiast wykonał nagły manewr omijania, który doprowadził do kolizji z poruszającym się, jak podkreślono, z niewielką prędkością, pojazdem autonomicznym. Z opublikowanej informacji wynika, że pomimo poruszania się w trybie autopilota, w pojeździe znajdowała się osoba kontrolująca przebieg jazdy.

 

Zauważyć należy, że po niedawnym, śmiertelnym wypadku z udziałem samochodu firmy Uber, który także poruszał się w trybie autonomicznym, szef Waymo stwierdził, że jest wielce prawdopodobnym, że technologia wykorzystywana w pojazdach jego firmy poradziłaby sobie w podobnej sytuacji i uniknęła potrącenia pieszego.

 

W obecnej sytuacji mogą pojawić się pewne wątpliwości, co do stosowności takiego stwierdzenia. Należy jednak pamiętać, że policja dopiero wyjaśnia przyczyny piątkowego wypadku i może się okazać, że pojazd Waymo nie byłby w stanie w żaden sposób uniknąć kolizji niezależnie od tego, kto by miał nad nim akurat kontrolę. Nie mniej, alarmująca jest liczba wypadków z udziałem pojazdów autonomicznych w ostatnim czasie i sprzyja narastaniu pytań o stosowność testowania takich samochodów w ruchu drogowym.

Komentarza słów kilka


Jeszcze kilka lat temu pewien kanał telewizyjny o tematyce popularnonaukowej emitował program, w którym prototypy samochodów autonomicznych zmagały się z zainscenizowanymi sytuacjami drogowymi. Rozjeżdżanie pachołków, czy wymuszanie pierwszeństwa były na porządku dziennym, a sporadycznie zdarzały się nawet "ataki" na grające rolę przechodniów, manekiny. Wtedy sytuacje opisane powyżej bardziej śmieszyły, niż napawały strachem przed wyjściem na ulicę, ale perspektywa pojazdów autonomicznych, pomimo ich widocznej ułomności była nęcąca, ale i odległa.

 

Dzisiaj sytuacja wygląda nieco inaczej, autopiloty w samochodach nie są tylko sci-fi, ale realnym elementem ruchu drogowego. Co prawda nie jest to jeszcze standard, ale sam stałem wczoraj na światłach w jednej w większych, polskich aglomeracji obok Tesli modelu S, która to jest chyba symbolem autonomiczności. Jednak, kiedy autopilot pojawił się w ofercie Tesli w 2014 roku, technologia była rozwijana i montowana w pojazdach od kilku dobrych lat. Chociażby w pojazdach Waymo, który to właśnie uczestniczył w piątkowym (04.05) wypadku w Arizonie, a które to pojazdy wywodzą się z projektu zapoczątkowanego przez Google już w 2009 roku.

Rozwiązania, które dzisiaj już nie rozjeżdżają pachołków na placu manewrowym, ale są integtralną częścia ruchu drogowego, szczególnie w Stanach, stoją niewątpliwie na bardzo wysokim poziomie. Pytaniem jednak pozostaje, czy jest to poziom wystarczający, abyśmy oddali nasze zdrowie i życie w władanie lidarów, algorytmów nauczania maszynowego i tysięcy innych, mniejszych lub większych elementów sztucznego kierowcy?

 

Osobiście nie jestem przekonany, czy nazywanie obecnych rozwiązań sztuczną inteligencją jest prawidłowe. Gdyby tak było mielibyśmy do czynienia z rozwiązaniem, które powinno nigdy nie dopuścić do sytuacji, które miały miejsce chociażby w przypadku ostatniego potrącenia pieszego przez pojazd Ubera, czy właśnie kolizji pojazdu Waymo. Wydaje się, że takie wypadki są stosunkowo częstymi zdarzeniami na drogach, co więcej wielokrotnie podobne przypadki widziałem, oglądając filmy prezentujące wypadki samochodowe (zachęcam do seansu wszystkich kierowców, YouTube jest tego pełny, a edukacyjna wartość jest nieoceniona). W przypadku AI, wydaje się, że poddanie analizie takich materiałów przez system autopilota w procesie jego nauki i późniejsze zasymulowanie, nawet w środowisku wirtualnym, podobnych zdarzeń, powinno "nauczyć" wirtualnego kierowcę reakcji na tego typu przypadki. Nie jest to może zadanie banalne, ale jak najbardziej wykonalne, jeśli mamy do czynienia rzeczywiście z AI. Skoro zaś chodzi o ludzkie bezpieczeństwo, to nie wyobrażam sobie, żeby ktoś nie podjął takiej, czy podobnej, akcji.

 

Brak dowodów na nauczanie pojazdów reakcji na takie przypadki implikuje, że nie mamy do czynienia z pełną AI, a jedynie z wysoko rozwiniętym, ale wciąż tylko algorytmem. Potrafi on sterować pojazdem przetwarzając otrzymane dane i podejmować decyzje na podstawie już zaprogramowanych schematów działań. Prosty przykład, czujnik odległości umiejscowiony na masce przesyła dane o zmniejszającej się odległości od czegoś przed pojazdem, wykrycie obiektu sygnalizuje też działajacy radar. Wniosek prosty, zmniejsz prędkość, aż do momentu, kiedy odległość przestanie maleć. Zadanie wykonane, jednak to tylko algorytm, który nie "zastanawia się" czym jest przeszkoda.

 

Nie oznacza, to jednak, że algorytmy raz wgrane nie są ulepszane. Pokazuje to przykład Tesli, która chyba stała się tutaj pewnego rodzaju wzorem w rozwoju autonomicznego kierowania. Komputer pokładowy przesyła do bazy danych pełen raport stanu pojazdu, jeśli ten ulegnie wypadkowi. Dzięki temu, inżynierowie są w stanie przeanalizować tę "czarną skrzynkę" i określić słaby punkt systemu. Doprowadziło to do znacznej redukcji wypadków spowodowanych przez autopilota w ostatnim czasie. Istotne jest, że nastąpiło to właśnie po serii wypadków, sterowanych przez autopilota, Tesli.

 

Pytaniem pozostaje na ile etycznym jest takie wypuszczanie rozwojowych wersji pojazdów na drogi publiczne i nie tyczy się to jedynie marki Elona Muska. Z jednej strony wydaje się to niedopuszczalne, ale z drugiej strony, czy jest inna metoda rozwoju niż zdobywanie danych z rzeczywistego użytkowanie? Nic nie zastąpi fizycznego przejechania setek lub tysięcy kilometrów i analizowania stylu jazdy. Nie jest to kwestia jedynie autopilotów, czy ogólnie technologii w naszym życiu, ale jest to integralny element rozwoju. Na miejscu wydaje się tutaj stwierdzenie z branży lotnicznej, że nic tak nie wpływa na bezpieczeństwo lotów, jak katastrofa lotnicza. Może dosyć drastyczne, ale prawdziwe, gdyż wiele z systemów bezpieczeństa, będących dziś standardem (chociażby radary pogodowe w dziobach samolotów), zostały wdrożone po przenalizowaniu przyczyn katastrof.

 

Odchodząc od tych czarnych scenariuszy, chcę podkreślić, że mocno kibicuję pojazdom autonomicznym, gdyż jest to coś, o czym marzyli nasi ojcowie i my sami (Pan Samochodzik i praskie tajemnice, kto czytał, ten wie). Wody w Wiśle jeszcze trochę upłynie, zanim autopiloty staną się większością na drogach i pewnie o nie jednym wypadku usłyszymy. Jednak trzeba za każdym razem wyciągać wnioski i ulepszać technologię. W końcu, kto nie ryzykuje, ten nie pije szampana!

 

P.S. Jest jeden element, który będzie nas długo powstrzymywał przed pozbyciem się kierownicy na dobre. Czy jest coś piękniejszego w samochodach od aktu kierowania?