Российские ученые работают над внедрением машинного
зрения на базе искусственного интеллекта в транспортной
сфере. Научный институт РЖД сравнит на внимательность
машинистов поездов и автоматическую систему технического
зрения.
Как рассказал замгендиректора НИИАС Павел Попов
на конференции «Функциональная безопасность сложных
технических систем на основе машинного зрения и
искусственного интеллекта», прошедшей 17 марта, эксперимент
запланирован в рамках работы над системой машинного зрения,
которая сможет автоматически фиксировать препятствия на
железнодорожных путях.
Как отметил Павел Попов, в РЖД уже есть группа
из 10 машинистов, заинтересованных в тестах. Испытания будут
проводиться на полигоне Щербино. «Будем под протокол
записывать, кто лучше увидел — человек или система», —
коротко объяснил он суть эксперимента.
Как рассказал эксперт, уже сегодня в неформальных
наблюдениях результаты машины и человека сопоставимы с точки
зрения дальности восприятия препятствий. Для реализации этой
системы используется ИИ, который, по мнению Павла
Попова, стал «ключом к пониманию данных сенсоров».
А наиболее актуальной проблемой разработки является
бесконечное количество сценариев положения дел на путях,
которые нужно вложить в систему, чтобы она правильно
отреагировала. На текущем этапе в рамках тестов
исследователи фиксировали ситуацию, когда система видела не
существующее в реальности препятствие, но, чуть притормозив
и подъехав поближе, распознавала ошибку.
Ведущий инженер центра интеллектуальных систем ГНЦ РФ
ФГУП «НАМИ» Андрей Илюшин говорил о стандартах,
нормативах и требованиях, касающихся функциональной
безопасности (то есть с полностью корректным
функционированием программных и аппаратных комплексов) при
оценке соответствия автоматизированных систем вождения в
автотранспортной отрасли. Он рассказал, что для
появления инновации нужны сформированные требования, среда
штатной эксплуатации (условия, дороги, помехи), сценарии
эксплуатации и ситуаций, система сохранения функциональной
безопасности, а также наличие верифицированных и
подтвержденных средств оценки систем.
«Проблема доверия к нейросетям решается методом
формальной верификации. Уже есть алгоритмы проверки,
вспомогательные программы и обеспечение математических
гарантий, что алгоритм прав», — отметила в ходе
конференции аспирантка МГУ Екатерина Строева. Как
сказала ученая, работы в этом направлении начались в
2017 году и в сфере авиаперевозок уже есть наработки,
которые помогут с верификацией и на автотранспорте, и на
железной дороге.
Заведующий кафедрой «Информационно-управляющие системы и
технологии» Белорусского госуниверситета транспорта Сергей
Харлап поделился с коллегами из России метким
наблюдением о распространенной ошибке в работе создателей
автоматизированных систем при доказательстве их
безопасности. По наблюдениям белорусского ученого,
разработчики нередко устанавливают формально корректные
требования для своей системы, которые, однако, потом не
могут найти способ подтвердить.
Главный принцип работы над технологиями назвал
ведущий инженер ООО «Сейфети Консалт» Олег Кировский:
автоматизированная система должна быть не менее безопасна,
чем та, где предполагается участие человека. Он же привел в
пример логику, которой руководствуются в США при оценке
безопасности Tesla, автомобиль которой попал в первую аварию
с беспилотником в марте 2018 года. Тогда американские
эксперты подсчитали, что для валидации безопасности
беспилотника Tesla нужно прогнать его по 22 млн км дорог
США. Сегодняшние технологии хоть и впечатляют, но всё же
далеки от совершенства. Так, по словам
аспиранта ИТМО Дмитрия Есипова, всего лишь один битый
пиксель в матрице камеры привел к тому, что при испытании
нейросети, анализирующей изображения, искусственный
интеллект увидел красный свет светофора, когда в реальности
горел зеленый.
Кроме того, как сообщил доктор
технических наук, профессор Белорусского госуниверситета
транспорта Константин Бочков, сегодня можно поставить
крест на любой электронике, в том числе и с
функционированием на базе ИИ, «стрельнув» из
электромагнитной пушки. Ее излучением можно повредить
аппаратные и программные средства, вывести из строя систему
целиком либо привести ее в опасное состояние. Константин
Бочков подчеркнул, что сегодня такое оружие
используется против беспилотников, но можно таким образом
выводить из строя любую электронику, оставаясь при этом
практически незамеченным. Стоимость такого оружия, по его
словам, варьируется от $15 тыс. до $100 тыс.
|