Zastosowanie systemów wizyjnych w samochodach autonomicznych

Źródło: Pixabay

Producenci samochodów zwracają się do firm z branży wizji maszynowej o opracowanie algorytmów głębokiego uczenia, które pomogą samochodom autonomicznym w nawigowaniu oraz przetwarzaniu dużych ilości danych z czujników.

Trwa wyścig o uczynienie pojazdów bez kierowcy gotowymi do wyjechania na drogi publiczne. Ponad 2,7 mln samochodów osobowych i ciężarowych, wyposażonych w częściową automatykę, już jeździ po drogach. Wszystko to dzieje się za sprawą rozwoju światowego rynku czujników, którego wartość według szacunków osiągnie 25,56 mld USD w 2021 r.

Producenci samochodów wykorzystują zautomatyzowane systemy wspomagania kierowcy, które realizują funkcje automatycznego parkowania (self-parking) oraz monitoring martwego pola w lusterku (blind spot monitoring), będące fundamentami dla opracowywania samochodów bez kierowcy. Podstawowe czujniki, które ułatwiają zautomatyzowane prowadzenie samochodu – kamery, radary, lidary (laserowy czujnik odległości) oraz ultradźwiękowe – są już dobrze opracowane, ale są nadal udoskonalane pod względem gabarytów (miniaturyzacja) i zasięgu operacyjnego, a przy okazji ich ceny neustannie spadają.

Inne wyzwania technologiczne obejmują opanowanie algorytmów głębokiego uczenia, które mają pomóc samochodom w nawigowaniu po drogach publicznych, w szczególności w trudnych warunkach miejskich, i obsługiwać przetwarzanie dużych ilości danych. W poszukiwaniu drogi do skonstruowania pojazdu całkowicie autonomicznego, producenci samochodów zwracają się o pomoc do firm produkujących oprogramowanie dla systemów wizji maszynowej.

Algorytmy stają się inteligentniejsze

Aplikacje realizowane na zewnątrz budynków nie są obce przemysłowi systemów wizji maszynowej. Zebrał on bowiem całe lata doświadczeń w opracowywaniu sprzętu i oprogramowania dla inteligentnych systemów transportowych, automatycznych czytników tablic rejestracyjnych oraz zabezpieczania granic państw. Podczas gdy aplikacje te wymagają skomplikowanego oprogramowania, które odpowiada za czynniki niekontrolowane, takie jak mgła czy oślepiające słońce, to dodatkowo pojazdy bez kierowcy napotykają i przetwarzają znacznie więcej zmiennych, które różnią się złożonością.

Aplikacje pojazdów autonomicznych charakteryzuje bardzo mała tolerancja na błędy, tak więc te algorytmy muszą być solidne – mówi Jeff Bier, założyciel ogólnoświatowej organizacji Embedded Vision Alliance, pomagającej firmom w integrowaniu wizji maszynowej ze swoimi systemami. – Napisanie algorytmu, który z ekstremalnie dużą dokładnością odróżnia człowieka od drzewa, pomimo zmienności kształtów, wymiarów i oświetlenia tych obiektów, może być bardzo trudne.

Algorytmy osiągnęły punkt, w którym przeciętnie są co najmniej tak dobre, jak ludzie w wykrywaniu ważnych rzeczy – mówi Jeff Bier. – Ten kluczowy postęp umożliwił wdrożenie wizji maszynowej w pojazdach.

AImotive to firma produkująca oprogramowanie, która tworzy algorytmy głębokiego uczenia dla w pełni autonomicznych pojazdów. Jej agnostyczna sprzętowo platforma wykorzystuje sieci neuronowe do podejmowania decyzji niezależnie od warunków pogodowych podczas prowadzenia samochodu. Składa się ona z 4 części:

  1. Układ rozpoznawania (recognition engine) wykorzystuje obrazy z kamer jako podstawowe dane wejściowe.
  2. Układ lokalizacji (location engine) uzupełnia dane z mapy konwencjonalnej o informacje 3D z punktów orientacyjnych.
  3. Układ ruchu (motion engine) pobiera dane wyjściowe dotyczące pozycjonowania i nawigacji z układu lokalizacji w celu przewidzenia możliwych ruchów otoczenia.
  4. Układ sterowania (control engine) prowadzi pojazd za pomocą poleceń niskiego poziomu, wysyłanych do elementów wykonawczych, takich jak kierownica czy hamulce.

Procesory wykorzystywane w zautomatyzowanym pojeździe, które muszą podejmować kluczowe decyzje na podstawie ogromnych ilości danych przychodzących w czasie rzeczywistym z wielu czujników, musiałyby mieć większą moc obliczeniową, a jednocześnie zużywać mniej energii. – Producenci oprogramowania z tej branży opracowują wyspecjalizowane architektury procesorów, które łatwo osiągają od 10 do 100 razy większą wydajność w porównaniu ze zwykłymi, co umożliwia tym złożonym algorytmom dopasowanie się do szczególnych wymagań aplikacji dotyczących kosztów i energii – mówi Jeff Bier. – Właśnie kilka lat temu takie parametry procesorów były uważane za poziom superkomputera.

Aby pojazd autonomiczny mógł podejmować bezpieczne i dokładne decyzje, jego czujniki muszą przetwarzać około 1 GB danych na sekundę, twierdzą przedstawiciele firmy Intel. Waymo, projekt samochodu bez kierowcy firmy Google, wykorzystuje technologię wspomnianego producenta procesorów w swoich wyposażonych w kamery minivanach bez kierowcy Chrysler Pacifica, które wahadłowo przewożą pasażerów w Phoenix (Arizona, USA) jako część projektu pilotażowego.

Przemysł musi określić, w którym miejscu w pojazdach autonomicznych powinno następować podejmowanie decyzji. – W naszych dyskusjach z producentami występuje podwójny tok rozumowania – mówi Ed Goffin, menedżer marketingu w firmie Pleora Technologies. – Pierwszy to analizowanie danych i podejmowanie decyzji na poziomie inteligentnej kamery lub czujnika. Drugi – przesyłanie danych przez szybką sieć o niskiej latencji do scentralizowanego systemu przetwarzania.


Winn Hardin jest redaktorem współpracującym w Stowarzyszeniu Rozwijania Wizji Maszynowej i Obrazowania (AIA), będącym częścią Stowarzyszenia Rozwijania Automatyki (A3).