Директор Института системного программирования Российской академии наук (ИСП РАН), академик РАН Арутюн Аветисян рассказал журналистам, что его коллеги работают над технологиями безопасного использования искусственного интеллекта. К разработке систем контроля за внедрением ИИ ученые приступили из-за того, что использование искусственного интеллекта на объектах критической инфраструктуры очень рискованно и чревато возникновением новых угроз.
Для борьбы с такими угрозами, по замечанию академика, нужны специальные инструменты, которых пока не существует. Чтобы решить эту проблему, в России создали Исследовательский центр доверенного ИИ.
Аветисян также отметил, что технологии ИИ связаны не с алгоритмическим описанием в виде кода, а с решением задач по аналогии. Так, если немного поменять входные данные (к примеру, беспилотный автомобиль зафиксирует загрязненный дорожный знак), человеку будет казаться, что это одно и то же, а для автоматической системы это будет другое (например, ИИ сочтет, что это другой знак или знака и вовсе нет).
По данным ТАСС, Исследовательский центр доверенного искусственного интеллекта работает на базе ИСП РАН с 2021-го и его специалисты уже успели создать так называемые доверенные версии популярных фреймворков машинного обучения TensorFlow и PyTorch.