Ученые используют особенности нашего мозга, чтобы сделать ИИ более надежным
Большинство систем искусственного интеллекта основаны на нейронных сетях — алгоритмах, вдохновленных биологическими нейронами. Эти сети могут состоять из нескольких слоев: входные данные поступают с одной стороны, а выходные — с другой. Выходные данные можно использовать для принятия автоматических решений, например, в беспилотных автомобилях.
Атаки с целью ввести в заблуждение нейронную сеть могут включать использование уязвимостей во входных слоях, но обычно при разработке защиты учитывается только начальный входной уровень. Впервые исследователи дополнили внутренние слои нейронной сети процессом, включающим случайный шум, чтобы повысить ее устойчивость.
Искусственный интеллект (ИИ) стал относительно обычным явлением. Наверняка у вас есть смартфон с ИИ или вы используете поисковую систему на базе него. Хотя это широкий термин, который может включать множество различных способов обработки информации и иногда принятия решений, системы ИИ часто строятся с использованием искусственных нейронных сетей (ИНС), аналогичных сетям мозга.
И, как и мозг, ИНС иногда могут запутываться либо случайно, либо в результате преднамеренных действий третьей стороны. Такой процесс у нейросети схож с результатом оптической иллюзии у человека: может возникнуть ощущение, что вы смотрите на одну вещь, хотя на самом деле изображена другая.
Однако разница между тем, что сбивает с толку ИНС, и вещами, путающими нас, заключается в том, что некоторые визуальные данные могут казаться совершенно нормальными или, по крайней мере, понятными для нас, но ИНС «увидит» в этом нечто иное.
Тривиальным примером может послужить система классификации изображений, принявшая кошку за собаку. Но более серьезная ситуация возникает с беспилотным автомобилем, ошибочно принимающим знак остановки за знак, дающий право проезда. На данный момент существуют медицинские диагностические системы и многие другие специальные подходы, которые принимают входные данные и информируют или даже принимают решения, которые могут повлиять на людей.
Поскольку входные данные не обязательно являются визуальными, не всегда легко с первого взгляда проанализировать, почему система могла допустить ошибку. Злоумышленники, пытающиеся разрушить алгоритм, основанный на ИНС, могут воспользоваться этим, незаметно изменив ожидаемый шаблон ввода так, что он будет неправильно истолкован, и система будет вести себя некорректно.
Существуют некоторые методы защиты от подобных атак, но они имеют ряд недостатков. Недавний выпускник Дзюмпей Укита и профессор Кеничи Оки с кафедры физиологии Высшей медицинской школы Токийского университета разработали и протестировали новый способ улучшения защиты ИНС.
— Кеничи Оки, профессор с кафедры физиологии Высшей медицинской школы Токийского университета.
Дзюмпей Укита и Кеничи Оки не просто ученые компьютерных наук. Они также изучали человеческий мозг, и это вдохновило их использовать известный им феномен в ИНС. Они предложили добавить шум не только к входному слою, но и к более глубоким. Обычно этого избегают, поскольку есть опасения, что это повлияет на эффективность сети. Но исследователи выяснили, что это не так, и вместо этого шум способствовал большей адаптивности их тестовой ИНС, что снизило ее восприимчивость к моделируемым атакам.
— Дзюмпей Укита, выпускник кафедры физиологии Высшей медицинской школы Токийского университета.
Хотя новая идея действительно надежна, команда хочет развивать ее дальше, чтобы сделать систему еще более эффективной против ожидаемых атак, в том числе тех, против которых защиту еще не проверяли.
— Дзюмпей Укита.
Атаки с целью ввести в заблуждение нейронную сеть могут включать использование уязвимостей во входных слоях, но обычно при разработке защиты учитывается только начальный входной уровень. Впервые исследователи дополнили внутренние слои нейронной сети процессом, включающим случайный шум, чтобы повысить ее устойчивость.
Искусственный интеллект (ИИ) стал относительно обычным явлением. Наверняка у вас есть смартфон с ИИ или вы используете поисковую систему на базе него. Хотя это широкий термин, который может включать множество различных способов обработки информации и иногда принятия решений, системы ИИ часто строятся с использованием искусственных нейронных сетей (ИНС), аналогичных сетям мозга.
И, как и мозг, ИНС иногда могут запутываться либо случайно, либо в результате преднамеренных действий третьей стороны. Такой процесс у нейросети схож с результатом оптической иллюзии у человека: может возникнуть ощущение, что вы смотрите на одну вещь, хотя на самом деле изображена другая.
Однако разница между тем, что сбивает с толку ИНС, и вещами, путающими нас, заключается в том, что некоторые визуальные данные могут казаться совершенно нормальными или, по крайней мере, понятными для нас, но ИНС «увидит» в этом нечто иное.
Тривиальным примером может послужить система классификации изображений, принявшая кошку за собаку. Но более серьезная ситуация возникает с беспилотным автомобилем, ошибочно принимающим знак остановки за знак, дающий право проезда. На данный момент существуют медицинские диагностические системы и многие другие специальные подходы, которые принимают входные данные и информируют или даже принимают решения, которые могут повлиять на людей.
Поскольку входные данные не обязательно являются визуальными, не всегда легко с первого взгляда проанализировать, почему система могла допустить ошибку. Злоумышленники, пытающиеся разрушить алгоритм, основанный на ИНС, могут воспользоваться этим, незаметно изменив ожидаемый шаблон ввода так, что он будет неправильно истолкован, и система будет вести себя некорректно.
Ученые предлагают новый вариант защиты от атак
Существуют некоторые методы защиты от подобных атак, но они имеют ряд недостатков. Недавний выпускник Дзюмпей Укита и профессор Кеничи Оки с кафедры физиологии Высшей медицинской школы Токийского университета разработали и протестировали новый способ улучшения защиты ИНС.
Нейронные сети обычно состоят из слоев виртуальных нейронов. Первые слои часто отвечают за анализ входных данных путем идентификации элементов, соответствующих им.
Злоумышленник может спрятать в изображении артефакты, которые заставят сеть неправильно его классифицировать. Защитой от такой атаки может быть намеренное введение некоторого шума в этот первый уровень. На первый взгляд нелогично, что такой метод может помочь, но на деле мы позволяем лучше адаптироваться к изображению или другому набору входных данных. Однако этот метод не всегда эффективен, и мы подумали, что можем улучшить его, заглянув за пределы входного слоя — глубже в сеть.
Злоумышленник может спрятать в изображении артефакты, которые заставят сеть неправильно его классифицировать. Защитой от такой атаки может быть намеренное введение некоторого шума в этот первый уровень. На первый взгляд нелогично, что такой метод может помочь, но на деле мы позволяем лучше адаптироваться к изображению или другому набору входных данных. Однако этот метод не всегда эффективен, и мы подумали, что можем улучшить его, заглянув за пределы входного слоя — глубже в сеть.
— Кеничи Оки, профессор с кафедры физиологии Высшей медицинской школы Токийского университета.
Дзюмпей Укита и Кеничи Оки не просто ученые компьютерных наук. Они также изучали человеческий мозг, и это вдохновило их использовать известный им феномен в ИНС. Они предложили добавить шум не только к входному слою, но и к более глубоким. Обычно этого избегают, поскольку есть опасения, что это повлияет на эффективность сети. Но исследователи выяснили, что это не так, и вместо этого шум способствовал большей адаптивности их тестовой ИНС, что снизило ее восприимчивость к моделируемым атакам.
Нашим первым шагом была разработка гипотетического метода атаки, который проходит глубже входного уровня. Такая атака должна была бы противостоять устойчивости сети со стандартной защитой на ее входном уровне.
Такие атаки работают, намеренно предоставляя входные данные далеко от тех, которые ИНС может правильно классифицировать, а не рядом с ними. Но хитрость заключается в том, чтобы вместо этого включить слегка вводящие в заблуждение артефакты на более глубокие уровни. Однажды мы продемонстрировали опасность такой атаки — ввели случайный шум в более глубокие скрытые слои сети, чтобы повысить их адаптивность и, следовательно, возможности защиты. Мы рады сообщить, что это работает.
Такие атаки работают, намеренно предоставляя входные данные далеко от тех, которые ИНС может правильно классифицировать, а не рядом с ними. Но хитрость заключается в том, чтобы вместо этого включить слегка вводящие в заблуждение артефакты на более глубокие уровни. Однажды мы продемонстрировали опасность такой атаки — ввели случайный шум в более глубокие скрытые слои сети, чтобы повысить их адаптивность и, следовательно, возможности защиты. Мы рады сообщить, что это работает.
— Дзюмпей Укита, выпускник кафедры физиологии Высшей медицинской школы Токийского университета.
Хотя новая идея действительно надежна, команда хочет развивать ее дальше, чтобы сделать систему еще более эффективной против ожидаемых атак, в том числе тех, против которых защиту еще не проверяли.
В будущем злоумышленники могут попытаться рассмотреть возможность атак, способных избежать шума в пространстве функций, что мы и рассматривали в этом исследовании. Нападение и защита — это две стороны одной медали, это гонка вооружений, от которой ни одна из сторон не отступит, поэтому нам необходимо постоянно находить, совершенствовать и внедрять новые идеи, чтобы защитить системы, которые мы используем каждый день.
— Дзюмпей Укита.
- Алексей Павлов
- Ohki & Ukita CC-BY
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Эксперты говорят: изобретение ученых из Перми решает одну из самых серьезных и опасных проблем в современной авиации
Американцы потратили на это десятки лет и миллиарды долларов, но открытие сделали в России...
ДНК из ниоткуда: 6000-летние останки в Колумбии ни с кем совпадают по генам. Вообще.
Если у этих людей нет ни предков, ни потомков, то кто они такие?...
Египетская «Зона 51»: Почему власти полностью засекретили «четвертую пирамиду»?
С 60-х годов ХХ века на объект Завиет-эль-Эриан не попал ни один ученый. Что скрывают военные за колючей проволокой?...
Секретные спутники Илона Маска заподозрили в использовании запрещенных сигналов
Что это значит для России и чем могут ответить наши военные?...
Археологи поражены: 404 тысячи лет назад «римляне» спокойно разделали гигантского слона... 3-сантиметровыми ножичками
Получается, что древние охотники могли справиться с самым большим животным в Европе буквально голыми руками?...
Ученые обнаружили на Кавказе «ужасного» хищника, способного дробить черепа с одного укуса
Почему же 400-килограммовый монстр, побеждавший медведей и саблезубых тигров, все-таки исчез с лица планеты?...
«Черный ящик» раскрыл тайну летучей мыши, пожирающей птиц прямо в полете
Ученые совершенно не ожидали, что рукокрылый властелин ночного неба по свирепости и охотничьему мастерству даст фору даже соколам...
2700 дней понадобилось ученым, чтобы, наконец, раскрыть главную тайну гигантских скатов
Оказалось, что манты ныряют на 1250-метровую глубину вовсе не за едой и не спасаясь от хищников...
Нападение акул, считавшихся абсолютно безобидными, вызвало шок у морских биологов
Кто виноват в этой ужасной трагедии? И почему эксперты говорят, что это только начало?...
В ближайшие 100 лет Юпитер «выстрелит» в Землю как минимум 342 раза
Российские ученые рассчитали: ближайшее «прицеливание» состоится уже 2031 году. Что вообще нам ожидать?...
Мог ли великий художник Клод Моне видеть в ультрафиолетовом спектре, как пчела?
Историки уверены: после операции на глазах с французским живописцем стали происходит очень странные вещи...
Ученые говорят: вся жизнь подчиняется одному секретному коду
Но почему это древнее ископаемое отказалось следовать ему?...
Затонувшие корабли с сокровищами у берегов Китая открывают поразительные факты о Великом морском шелковом пути
Да, это лонгрид! Но после его прочтения ваш взгляд на историю Китая изменится самым коренным образом...