UCI: автономные транспортные средства можно обманом заставить водить опасно

Системы автопилота из-за чрезмерного желания сделать их безопасными сами могут представлять опасность

«Коробки, велосипеда или дорожного конуса может быть достаточно, чтобы напугать беспилотный автомобиль», — Ци Альфред Чен, профессор компьютерных наук и соавтор статьи, представленной на симпозиуме по безопасности сетей и распределенных систем в Сан-Диего.

Автомобили с автопилотом сами могут стать опасностью на дороге из-за их алгоритмов. Как стало известно «Max-Cars», программы с открытым кодом продемонстрировали вред чрезмерного увлечения безопасностью. Да, компании-разработчики из-за аварий и трагедий теряют деньги и репутацию. Но их желание избежать этого иногда делает даже хуже.

Autoteka

Тесты провели исследователи искусственного интеллекта, используемого в автомобилях. На проверку взяли Apollo и Autoware. Их тестировали с помощью авторского алгоритма PlanFuzz. Оказалось, что машины под управлением указанных систем могут неожиданно останавливаться на пустой улице. Это, конечно, провоцирует ДТП.

А причиной резкой остановки может стать даже обычная коробка или дорожный конус. Планировалось, что в таких случаях машины сменят полосу и объедут препятствие. Но делать этого они не стали, выбрав более безопасный, по их мнению, способ – остановиться. Говорить, что произойдет в случае резкой остановки из-за обычной коробки на скоростной магистрали излишне.

В итоге был сделан вывод, что чрезмерно консервативный подход к созданию автопилота может спровоцировать ухудшение безопасности автомобилей.

* Instagram и Facebook признаны экстремистcкими организациями в России

Новости партнеров

Денис Петлюченко/ автор статьи
Загрузка ...
Max-Cars RU