Что беспилотные автомобили воспринимают из окружающей обстановки и как они интерпретируют полученную информацию? Эти вопросы важны для дальнейшего развития автономных транспортных средств.
Ученые вместе с программистами сделали важный шаг вперед в улучшении восприятия роботами сложной городской среды.
С помощью искусственного интеллекта (ИИ) роботы уже могут ориентироваться и перемещаться в своей среде самостоятельно, как только они узнают, как эта среда выглядит. Однако восприятие и правильная оценка неизвестных, частично скрытых вещей и движущихся объектов до сих пор были серьезной проблемой.
Профессор Абхинав Валада из Университета Альберта Людвига во Фрайбурге и его команда из университетской лаборатории обучения роботов разработали «амодальную паноптическую сегментацию с помощью подходов ИИ».
До сих пор роботы могли только предсказать, какие пиксели изображения к каким «видимым» областям объекта, такого как человек или автомобиль, принадлежат. Но транспортные средства не в состоянии визуализировать полную физическую структуру объектов, особенно если они частично закрыты другими объектами. А люди могут достроить картинку в своем воображении.
Новая технология позволяет получить целостное понимание окружающей среды, аналогичное пониманию людей, что повысит безопасность беспилотных автомобилей.
Благодаря различным датчикам ИИ будет четко понимать: это другой автомобиль, это велосипедист, это велосипедист с ребенком в детском кресле, два пешехода, идущих вместе и т. д.
Сочетание искусственного интеллекта с высокоразвитой электронной компонентой позволит автономным транспортным средствам адекватно реагировать на все дорожные ситуации.