Niezależnie od tego, co mówi Elon Musk, eksperci w dziedzinie sztucznej inteligencji nie są pewni, czy kiedykolwiek powstaną samochody autonomiczne z prawdziwego zdarzenia. Aby to się stało, ich zdaniem sztuczna inteligencja musi stać się bardziej… inteligentna.
Samochody autonomiczne: biznes vs. nauka
W kontrze do inwestorów i prezesów firm technologicznych, naukowcy zajmujący się sztuczną inteligencją i technologiami autonomicznymi od dawna twierdzą, że stworzenie w pełni samodzielnego pojazdu zajmie wiele lat, może dekad. Ich zdaniem możemy nigdy nie osiągnąć celu obiecywanego przez przedstawicieli takich firm jak Tesla, Waymo czy Lyft. Przynajmniej nie bez przełomowych zmian, przede wszystkim w infrastrukturze drogowej. Ludzie z branży samochodów autonomicznych zaczynają więc redefiniować ten termin. Pojazdy te wymagają do testów specjalnie zaprojektowanego środowiska i idealnych warunków pogodowych. Nie wspominając o kierowcach kontrolnych czy przynajmniej zdalnym monitoringu. Nowa definicja samochodu autonomicznego uwzględnia wszystkie te ograniczenia. W dostępnych na rynku samochodach, na przykład w Super Cruise koncernu General Motors czy Autopilocie Tesli, działa co najwyżej udoskonalona kontrola jazdy. Co więcej, pojazdy Waymo spowodowały kilka drobnych wypadków, gdzie ich zachowanie zaskoczyło ludzkich uczestników ruchu. Ostatnio jeden samochód „zdezorientowały” zwykłe pachołki drogowe.
Problem ze sztuczną inteligencją
Powolny rozwój „autonomicznych” pojazdów nie zaskakuje naukowców. Mimo to właściciele firm technologicznych i inżynierowie utrzymują, że postęp przyspieszy wraz ze zwiększeniem ilości danych o drogach, wgranych do systemów. Niestety, uczące się maszyny wciąż mają prymitywny poziom „inteligencji”. Jak podaje The Wall Street Journal, profesor Mary Cummings z Duke University stworzyła czterostopniową skalę zaawansowania sztucznej inteligencji. Podstawę stanowi tzw. rozumowanie oddolne, w czym dzisiejsze systemy są całkiem dobre. Drugi poziom stanowi uczenie się i wnioskowanie według zasad, np. co mam zrobić, kiedy widzę znak „stop”? Trzeci poziom to wnioskowanie oparte na wiedzy, czyli: czy wciąż widzę znak stop, jeżeli jego połowę zakrywa gałąź? Na szczycie skali mamy typowo ludzkie wnioskowanie „eksperckie”, oparte na wiedzy, doświadczeniu i umiejętnościach. Problemy z pojazdami autonomicznymi pojawiają się na trzecim poziomie. Aby je zniwelować, inżynierowie tworzą niezwykle szczegółowe mapy, uzupełniające te braki. Metoda ta wciąż jednak zawodzi w przypadku nagłych, nieprzewidzianych przeszkód na drodze.
Systemy uczenia maszynowego znakomicie kojarzą wzory, jednak tragicznie radzą sobie z przekładaniem tego, czego się nauczyły, na inne obszary. Dla przykładu: widząc bałwana, nie potrafią zrozumieć, że bałwan stojący na chodniku nie jest pieszym, który może wejść na drogę. Z tego powodu inżynierowie próbują zrozumieć sposób uczenia się… dzieci. Przypuszczają też, że realne wydają się małe, stosunkowo powolne pojazdy poruszające się na dobrze zmapowanych obszarach o zminimalizowanym poziomie niepewności. Rosnąca liczba ekspertów sugeruje, że kierunek rozwoju aut w pełni autonomicznych nie będzie opierał się na sztucznej inteligencji, ale na podziale zadań na segmenty. Metoda ta sprawdza się przy projektowaniu lotów w kosmos. Wciąż jednak potrzeba ogromnych sum na wyposażenie infrastruktury drogowej w odpowiednie transpondery i czujniki, oczywiście najlepiej pod stałą kontrolą ludzkich teleoperatorów. Maszyny bowiem mają to do siebie, że zawsze coś może pójść nie tak.
Słuchaj Radia Bezpieczna Podróż
Źródło: www.wsj.com