Обычно главным недостатком беспилотных автомобилей принято считать потенциальную уязвимость перед несанкционированным вмешательством хакеров в систему управления машиной, но команда американских учёных из Мичиганского, Вашингтонского и Калифорнийского университетов, а также Университета в Стоуни-Брук придумала куда более простой способ навредить автопилотам. Если система использует машинное зрение, так почему бы не попытаться обмануть его?
Для того, чтобы распознавать объекты окружающей среды и, скажем, отличать дерево от человека, в беспилотных автомобилях применяется так называемое глубокое обучение на основе нейронных сетей. Это набор алгоритмов машинного обучения, которые пытаются моделировать высокоуровневые абстракции в данных, используя архитектуры, состоящие из множества нелинейных преобразований.
Исследователи решили запутать классификаторы нейронных сетей такой банальной и распространённой в мегаполисах штукой, как вандализм. Как
Обмануть беспилотный автомобиль можно и путём нанесения на знак небольших надписей сверху и снизу от слова STOP, а также слегка затемнив его поверхность. А вот слегка замаскированный серыми стикерами знак «Движение только направо» автопилот стабильно опознавал как знак «Движение без остановки запрещено» или вовсе как указатель направления движения по полосе. Тревожный факт!
Для экспериментов учёные использовали не конкретный беспилотный автомобиль, а типовой алгоритм машинного зрения, который оказался бессилен перед обычными наклейками. Другие эксперты возражают, что в реальных условиях автопилот рассматривает информацию с камеры, которая распознаёт дорожные знаки, в общем контексте — вместе с показаниями других камер, радаров, лидаров и сенсоров. Кто из них окажется прав — покажет время.
Источник: www.popmech.ru