Adam Grzeszak Auto-roboty się uczą
Zanim samochody-roboty, czyli autoauta, zaczną nas wozić, muszą się nauczyć widzieć, słyszeć i rozumieć, co się na drodze dzieje. Największym wyzwaniem jest dla nich zrozumienie zachowania człowieka. Nad edukacją robotów pracują polscy inżynierowie z Krakowa.
Nazywa się EZ-GO i trudno to nawet nazwać samochodem. Bardziej przypomina model pojazdu kosmicznego, jakby pod warszawskim Pałacem Kultury w czerwcowym upale kręcono film fantastyczno-naukowy. Zwłaszcza kiedy bezszelestnie podjeżdża, staje i otwiera drzwi. To też nie są do końca drzwi, bo nagle unosi się część dachu, a z przedniej części opuszcza szeroki trap prowadzący do wnętrza. Tam zaś widać ustawioną w podkowę, wzdłuż przeszklonego nadwozia, skromną ławeczkę z pasami bezpieczeństwa. Żadnej kierownicy, fotela kierowcy, deski rozdzielczej – wszystkiego, za co kochamy samochody. Pasażerowie wsiadają, trap się podnosi, górna część nadwozia opada. Z tylnej części dachu wysuwa się wieża kontrolna – oczy pojazdu uzbrojone w radary, lidary, czujniki ultradźwiękowe i kamery. Pojazd bez kierowcy, który w czasie postoju prawie leżał na jezdni, teraz nieco się unosi i bezszelestnie odjeżdża, sprawnie manewrując dzięki czterem skrętnym kołom.
Tak inżynierowie Renault wyobrażają sobie przyszłość miejskiego transportu samochodowego. Model EZ-GO, który przywieźli do Warszawy, to samochód koncepcyjny, pokazujący możliwe rozwiązania przyszłej mobilności miejskiej. W ich założeniu to nie auto, które ma na nas czekać w garażu, ale robot-taksówka, którą wezwiemy, by nas zawiozła pod wskazany adres. Dlatego wsiada się po szerokiej pochylni, by mogły z niej korzystać także osoby niepełnosprawne. EZ-GO ma jeszcze odmianę towarową EZ-PRO oraz EZ-ULTIMO – superluksusową limuzynę dla prezesa, który będzie polecenia służbowe wydawał szoferowi-robotowi. Choć wszystkie dziś bardziej przypominają futurystyczne makiety, to pod dziwaczną formą kryją platformy badawcze do prac nad stworzeniem autonomicznego pojazdu poziomu 5.
Kiedy kierowca nie będzie potrzebny
Poziomy autonomii to międzynarodowy standard ustanowiony przez SAE (Stowarzyszenie Inżynierów Samochodowych), określający, w jakim stopniu samochód jest już samodzielny. Większość z tych, które dziś jeżdżą po drogach, reprezentuje poziom zerowy. Te nowocześniejsze, wyposażone w funkcje asystenta kierowcy (samodzielnie parkujące, pilnujące pasa drogi, hamujące, gdy uznają, że kierowca się zagapił itd.), są na poziomie 1. Poziom 2 reprezentują nieliczne i najnowocześniejsze modele dostępne na rynku. Kierowca może im powierzać bardziej odpowiedzialne zadania, w pewnych warunkach (np. na autostradzie) oddając nawet kierownicę. Aut poziomu 3 w sprzedaży jeszcze nie ma, ale to kwestia czasu i bardziej problem regulacji prawnych niż ograniczeń technicznych. Boryka się z tym Audi, które zabiega o możliwość
sprzedaży modelu A8 z autopilotem Traffic Jam, zdolnym do samodzielnej jazdy w korkach. Samochody poziomu 3 są autonomiczne, choć muszą być jeszcze cały czas nadzorowane przez kierowcę gotowego w każdej chwili przejąć kierownicę. Na poziomie 4 już nie będą wymagały ciągłego nadzoru, ale obecność kierowcy pozostanie konieczna. W trudniejszych warunkach (np. zła pogoda) być może człowiek będzie im musiał pomóc. Celem, do którego dążą wszyscy konstruktorzy, jest poziom piąty, czyli auta, w których człowiek kierowca nie jest już potrzebny.
Ten cel jest coraz bliżej. Pierwsze firmy testują w normalnym ruchu auta-roboty poziomu 4. Jest wśród nich amerykańska Aptiv, która wspólnie z siecią Lyft (to amerykański konkurent Ubera) zastosowała swoją technologię autonomicznej jazdy na pokładach taksówek BMW-5 jeżdżących po Las Vegas. Pasażerowie, korzystając z aplikacji w telefonie, wzywają taksówkę, a ta sama wiezie ich pod wskazany adres. Na razie za kierownicą siedzi człowiek, bo wymagają tego przepisy, ale generalnie do niczego się nie dotyka. Chyba że pojawia się taka konieczność. Chodzi nie tylko o sprawdzenie, jak sobie radzą auta-roboty z poruszaniem się po mieście, ale też jak na taką podróż zareagują pasażerowie.
Okazuje się, że samodzielnie jeżdżący samochód wywołuje często skrajne emocje. Entuzjaści nowoczesności są zachwyceni, ale u wielu ludzi rodzi to niepokój. Wie coś o tym kalifornijska policja, bo władze tego amerykańskiego stanu, na którego terenie leży Krzemowa Dolina, wydają najwięcej zezwoleń na testowanie aut-robotów w ruchu miejskim. Pojazdy te można stosunkowo często spotkać, a wyłowić je łatwo, bo niezależnie od modelu zawsze mają na dachu zainstalowane kamery do monitorowania otoczenia. Inżynierowie prowadzący testy skarżą się na zaskakująco częste objawy niechęci, a nawet akty agresji innych uczestników ruchu. Psychologowie tłumaczą to atawistyczną reakcją, lękiem, że maszyna za chwilę odbierze im pracę. Przypomina to bunt niszczycieli maszyn z czasów pierwszej rewolucji przemysłowej.
Krzemowa Dolina pod Wawelem
Praca nad autonomiczną rewolucją trwa nie tylko w Krzemowej Dolinie czy Las Vegas, ale także w Krakowie. – To wyjątkowo ciekawe wyzwanie. Polscy inżynierowie uczestniczą w pracach nad rozwojem technologii autonomicznej jazdy oraz aktywnym bezpieczeństwem samochodów. Tworzone w Krakowie oprogramowanie pomoże w budowie przyszłości motoryzacji bez kolizji drogowych i śmiertelnych ofiar – wyjaśnia Tomasz Miśniakiewicz, prezes Aptiv Services Poland. Aptiv to firma bardziej znana jako Delphi. Niedawno przeszła reorganizację i zmieniła nazwę. Zajmuje się produkcją części i podzespołów samochodowych na całym świecie do aut różnych marek. W Polsce, obok zakładów produkcyjnych, ma też w Krakowie Centrum Techniczne, w którym pracuje 1,3 tys. inżynierów. To drugi obok centrum w Las Vegas ośrodek Aptiv pracujący nad autami-robotami. Amerykańska firma, dzięki przejęciom firm specjalizujących się w autonomicznej technologii, wysforowała się na pozycję lidera. Szczególnie wiele przyniosło jej przejęcie Ottomatiki oraz nuTonomy, spółki stworzonej przez naukowców Massachusetts Institute of Technology.
Krakowski zespół zajmuje się też rozwojem multimedialnych systemów audio, nawigacji, rozrywki, bo samochody muszą dziś nie tylko wozić ludzi, ale także coraz intensywniej ich zabawiać. Im mniejszy będzie udział człowieka w kierowaniu pojazdem, tym większe może być jego znudzenie. Dlatego jednym z projektów, nad którym pracują inżynierowie z Krakowa, jest system monitorowania wnętrza pojazdu, a zwłaszcza obserwacji kierowcy. Chodzi o to, by uniknąć ryzyka zaśnięcia za kierownicą albo zbyt długiego oderwania wzroku od sytuacji na drodze (np. w celu wysłania esemesa). System kamer obserwuje twarz kierowcy i alarmuje go, jeśli zbyt długo ma zamknięte oczy lub opuszczoną głowę.
Trwają prace nad rozwojem tego systemu, być może kiedyś pokładowy komputer będzie uspokajał zbyt zdenerwowanego kierowcę albo wezwie pomoc, jeśli oceni, że coś nie tak z jego zdrowiem. My zaś będziemy się z komputerem porozumiewali nie tylko za pomocą głosu, ale także na migi. W Krakowie trwają prace nad systemem rozpoznawania przez samochód gestów. Inżynierowie zapewniają, że nie tych ulubionych przez
kierowców (wiadomo jakich). – Chodzi o proste gesty służące sterowaniu funkcjami pojazdu. To rodzaj języka migowego, którym kierowca porozumiewa się z pojazdem, nie odrywając się od jego prowadzenia – tłumaczy inżynier Maciej Książek.
Zrozumieć człowieka
Jednak szczególnie ciekawe zadanie mają krakowscy inżynierowie uczestniczący w projekcie, który ma służyć poprawie bezpieczeństwa na drogach, a w przyszłości pomóc w edukacji robotów-kierowców. Projekt nazywa się SIMUSAFE, to skrót od tajemniczej nazwy: symulator aspektu behawioralnego dla bezpieczniejszego transportu (Simulator of Behavioural Aspects for Safer Transport). Projekt jest finansowany przez Unię Europejską w ramach programu „Horizon 2020”. Uczestniczy w nim 16 firm i instytucji, które wspólnie wykorzystują najnowsze technologie, aby lepiej zrozumieć i cyfrowo symulować zachowanie różnych typów użytkowników dróg. W Krakowie powstają właśnie symulatory i oprogramowanie pozwalające badać, jak zachowują się kierowcy samochodów, motocykliści, rowerzyści oraz piesi w różnych sytuacjach drogowych.
Wybrana grupa ochotników uczestniczących w testach będzie miała na głowach czepki EEG oraz okulary śledzące wzrok, na palcach sondy rezystancji skóry GSR (badające stan emocji), a na piersi elektrody EKG. Do wykonania będą konkretne zadania w ruchu miejskim, a potem te same zadania w symulatorze. Badacze przeanalizują i porównają te zachowania i reakcje, by ustalić, w jakim stopniu są one podobne w normalnym życiu i w symulatorze. Wszystko po to, by w kolejnej fazie, już wyłącznie w symulatorach, przetestować reakcje w najbardziej ekstremalnych zdarzeniach drogowych. – Wyjątkową cechą naszego symulatora jest to, że pozwala uczestniczyć w tych samych sytuacjach wielu osobom równocześnie. To jak gra z wieloma graczami. Dzięki temu możemy obserwować, jak w niebezpiecznych sytuacjach zachowują się prawdziwi ludzie – mówi Dariusz Cieślar, kierownik zespołu pracującego nad SIMUSAFE w Aptiv.
Projekt ten ma posłużyć do konstruowania lepszych rozwiązań bezpieczeństwa czynnego w samochodach (czyli systemów przeciwdziałających wypadkom), a także dostarczyć bazę danych o zachowaniach ludzi, potrzebną dla tworzenia sztucznej inteligencji samochodów-robotów. Bo tym, z czym mają one szczególny problem, jest nieprzewidywalność naszych zachowań. Trudno się temu dziwić, w końcu każdy kierowca z większym doświadczeniem wie, że na drodze może zdarzyć się wszystko, ludzie potrafią robić zadziwiające i nielogiczne rzeczy. Chodzi o to, by sztuczna inteligencja wychwyciła wszystkie objawy takich zachowań, a potem znalazła jakieś bezpieczne rozwiązanie. Musi też umieć przewidywać na przykład, co może zrobić zbliżający się do skrzyżowania rowerzysta, wiedzieć, jak ocenić, czy pieszy chce przejść przez ulicę, czy po prostu stoi i się rozgląda. Zatrzymać się czy jechać dalej?
Problemem jest przestrzeganie przepisów. Roboty są programowane na ścisłe stosowanie się do kodeksu drogowego, a ludzie – wiadomo – mają do niego stosunek elastyczny. Jakie rodzi to problemy, przekonali się dziennikarze magazynu „Komputer Świat”, którzy podróżowali po Londynie autonomicznym nissanem leaf i sfilmowali swoją podróż. Auto świetnie sobie radziło, ale kilka razy utknęło, kiedy np. okazało się, że drogę zatarasował mu autokar zaparkowany w niedozwolonym miejscu, a objechać go nie było można ze względu na ciągłą linię rozdzielającą pasy. Wtedy kierowca przejął stery, wykonał niedozwolony manewr i auto samo ruszyło dalej.
Wszystkie zmysły robota
Kluczem do sprawnego działania auta-robota jest dobra obserwacja otoczenia oraz potężne moce obliczeniowe komputera pokładowego (wspieranego przez sieć 5G), który te dane przetwarza. Z obserwacją jest coraz lepiej, bo już dziś samochody uzbrojone są w kamery, radary i czujniki, które potrafią wychwycić to, czego kierowca nie dostrzega. Sporo jest relacji kierowców samochodów wyposażonych w czujniki radarowe, które zarejestrowały, że jadący w kolumnie kilka aut z przodu pojazd nagle zahamował, dzięki czemu ich auto samo w porę zahamowało.
Jednak w samochodach-robotach najważniejszym czujnikiem jest lidar, czyli laserowy radar, służący do trójwymiarowego skanowania otoczenia. Tylko on potrafi precyzyjnie zobaczyć człowieka w każdych warunkach i śledzić jego ruch, bo dla radaru człowiek jest praktycznie niewidzialny. Problem jest tylko taki, że lidar to na razie piekielnie drogie urządzenie i może kosztować nawet 100 tys. dol. Czyli więcej niż cały samochód. Prezes Miśniakiewicz jednak uspokaja: – W 1999 r. nasza firma stworzyła pierwszy radar samochodowy. Był montowany w jaguarach i tak drogi, że mówiono wówczas, iż klient, który kupi radar, samochód dostanie za darmo. Dziś radary są już seryjnie montowane w wielu autach. Podobnie będzie z lidarami.
Popyt na lidary rośnie, bo dziś wszystkie liczące się koncerny samochodowe prowadzą intensywne prace nad rozwojem pojazdów autonomicznych. Zwykle korzystają przy tym ze wsparcia partnerów technologicznych. Zajmują się tym nie tylko Aptiv czy inni dostawcy elektroniki samochodowej, np. niemiecki Bosch, ale też producenci opon, jak choćby Continental. Są też oczywiście wielkie giganty gospodarki cyfrowej. Google (koncern Alphabet) stworzył spółkę Waymo, a jego auta-roboty zyskały sobie sporą sławę. Tym samym tropem poszedł Apple, który uruchomił projekt „Tytan”, zapowiadając własną technologię aut-robotów. Ostatnio pojawiły się informacje, że prace jednak zostały wstrzymane. Nad taką technologią pracuje też Nvidia, dobrze znany miłośnikom komputerów producent procesorów graficznych. Firm zaangażowanych w projektowanie czujników, map cyfrowych, opracowywanie algorytmów zajmujących się łącznością i innych elementów świata robotów są dziś setki. Wszyscy inwestują miliardy dolarów z nadzieją, że wydatki te roboty odpracują z nawiązką.