Кибер-риски ИИ: на что обратить внимание при развертывании технологии ИИ
Когда среднестатистический человек, не разбирающийся в технических вопросах, слышит термин «искусственный интеллект», вероятно, первое, что приходит ему на ум, — это роботы, изображенные в таких популярных научно-фантастических фильмах, как «Я, робот». Если представить это таким образом, может показаться, что мы далеки от того, чтобы ИИ стал неотъемлемой частью повседневной жизни. Тем не менее, ИИ уже больше встроен в повседневную работу и домашние дела, чем думает большинство людей. Примеры включают виртуальных помощников, таких как Siri, Alexa и Google Assistant, которые обычные люди используют каждый день для выполнения основных задач, таких как поиск в Интернете, отпирание дверей и перевод денег. Список приложений ИИ довольно длинный и растет с каждым днем. Преимущества включают более быстрый и точный кредитный скоринг, лучшую диагностику заболеваний и расширенные инженерные возможности. ИИ, безусловно, значительно улучшил современную жизнь. Тем не менее, ИИ сопряжен с определенными рисками, особенно в том, что касается кибербезопасности. Вполне понятно, что кибер-воры могут захотеть атаковать банковское программное обеспечение для распознавания клиентов на основе ИИ или что злоумышленник-конкурент может рассмотреть возможность атаки на алгоритм ценообразования ИИ для бизнеса. Пройдет совсем немного времени, прежде чем наборы вредоносных программ и кражи личных данных с помощью ИИ станут бесплатно или недорого доступны в Даркнете. Как правило, киберриски ИИ бывают двух видов. Во-первых, это проникновение законных программ искусственного интеллекта. Во-вторых, это использование специально созданных программ искусственного интеллекта, которые стремятся использовать уязвимости в системах целевой организации. Каждый из киберрисков ИИ, которые мы обсуждаем ниже, в значительной степени относится к одной из этих двух категорий.
1. Проникновение в систему ИИ может остаться незамеченным
Чтобы лучше понять киберриск ИИ, важно понять системы ИИ. Например, алгоритмы машинного обучения (разновидность системы ИИ) работают, анализируя входные и выходные данные, а затем используя эти знания для настройки системы для различных обстоятельств. Следовательно, алгоритм учится на практике и совершенствует процесс итеративно. Что касается кибербезопасности, это представляет два риска. Поскольку система ИИ способна принимать решения и делать выводы в автоматическом режиме практически без вмешательства человека, любой взлом и проникновение могут какое-то время оставаться незамеченными.
2. Сложность интерпретации действий ИИ
Основная причина, по которой программа машинного обучения будет принимать определенные решения и выводы, не всегда будет сразу очевидна для системных администраторов. Логика алгоритма машинного обучения может быть чрезвычайно сложной, трудно интерпретируемой или прозрачной. Таким образом, даже когда администраторы обнаруживают то, что кажется явным нарушением, причина этого может оставаться неясной какое-то время. Это означает, что нарушение может быть расценено как простой сбой в системе, даже если оно является результатом активных усилий злоумышленника по захвату контроля над системой ИИ. Поскольку системам машинного обучения все чаще доверяют управление физическими системами, потенциальные последствия огромны, включая смерть, травмы и уничтожение имущества.
3. Алгоритмы ИИ обычно находятся в свободном доступе
Алгоритмы ИИ часто общедоступны, а программное обеспечение часто открыто. Они широко доступны в Интернете и довольно просты в использовании. То же программное обеспечение и библиотеки с открытым исходным кодом, которые можно использовать в законных целях, также могут быть источником уязвимости, которая сыграет на руку преступнику. Точно так же, как программное обеспечение как услуга набирает обороты, вредоносное ПО как услуга является быстрорастущей областью преступного предпринимательства, которая может предоставить готовую платформу для распространения угроз безопасности ИИ. Кроме того, в Даркнете существует негласное соперничество между преступниками, которые борются за звание «самого опасного вредоносного ПО».
4. ИИ может помочь вредоносным программам и хакерам избежать обнаружения
В то время как значительное число поставщиков кибербезопасности интегрируют поведенческую аналитику, машинное обучение и другие функции искусственного интеллекта в свои продукты, большинство систем защиты от вредоносных программ по-прежнему сильно зависят от обнаружения на основе сигнатур. Злоумышленники могут создавать вредоносные программы, которые скрывают свое происхождение и методы, что затрудняет обнаружение их цифровых отпечатков обычными инструментами безопасности. В Даркнете уже можно приобрести специально созданное вредоносное ПО, которое может избежать обнаружения ведущими антивирусами. Набор вредоносных программ с искусственным интеллектом может добавить скрытность, которая гарантирует, что он всегда будет на шаг впереди обновлений антивирусного программного обеспечения и других защитных систем.
Чтобы представить масштаб угрозы в перспективе, подумайте о ботнетах. Это сеть из тысяч устройств, управляемая программным обеспечением управления и контроля (C&C), которое указывает им, что делать. Ботнеты — мощное оружие, часто используемое для выполнения DDoS-атак.
Теперь представьте себе ботнет, находящийся под управлением алгоритма ИИ, который дает ему существенную независимость от человека. У него будет возможность отслеживать атаки, которые работают, и те, которые не работают, чтобы повысить свою эффективность. Он может адаптировать свою атаку на основе наиболее жизнеспособных уязвимостей, с которыми он сталкивается в целевой сети. В отличие от монолитной атаки, которая действует одинаково независимо от цели, самонаправленность ботнета с искусственным интеллектом будет означать, что каждая цель и задача адаптированы к уникальным обстоятельствам, которые их окружают. Это позволяет ему проникать и скомпрометировать больше хостов.
5. ИИ может привести к самоуспокоенности
ИИ также может угрожать кибербезопасности более тонким образом. По мере того, как все больше организаций внедряют продукты AI и ML для своей инфраструктуры безопасности, захват машин может создать иллюзию безопасности, которая убаюкивает профессионалов в области ИТ и информационной безопасности. Учитывая потенциальную опасность, которую представляют инструменты ИИ, это может стать катастрофической ошибкой.
Во всяком случае, расширение использования ИИ должно идти рука об руку с усилением безопасности. Ни одно решение для кибербезопасности на основе ИИ никогда не будет на 100% надежным. Поэтому ИИ должен быть только дополнением к существующей системе безопасности организации, а не заменой основных средств контроля, необходимых для защиты от преступников и вредоносного ПО.
6. ИИ может ускорить кибератаки
ИИ может увеличить скорость, устойчивость и вероятность успеха кибератаки. Наиболее трудоемкие действия по подготовке к кибератаке, такие как просеивание огромных объемов данных, могут выполняться на скорости машины без перерывов. Способность быстро запрашивать неструктурированные данные позволит вредоносному ПО с искусственным интеллектом обнаруживать ссылки, которые невидимы или почти не поддаются расшифровке человеческим глазом.
Поскольку алгоритмы являются самообучаемыми, они могут становиться умнее с каждым сбоем и, таким образом, приспосабливать каждую последующую атаку к новым знаниям, которые они приобрели. Хакеры могут автоматизировать написание эксплойтов и идентификацию уязвимостей. Возможно, в конечном итоге станет возможным создавать алгоритмы ИИ, которые предсказывают реакцию цели и выполняются таким образом, чтобы избежать срабатывания защитных механизмов.
Используйте преимущества, снижая киберриски, связанные с искусственным интеллектом
Чтобы усилить свою защиту от кибератак с использованием искусственного интеллекта, предприятия должны использовать двусторонний подход. Во-первых, это защита собственных инструментов ИИ от атак. Во-вторых, защита как их цифровых активов с искусственным интеллектом, так и цифровых активов, не связанных с искусственным интеллектом, от атак с использованием искусственного интеллекта. Компании должны оценить, как ИИ используется в бизнесе, а затем разработать специальные средства контроля для снижения риска атаки. Новые технологии, такие как AI и ML, часто являются обоюдоострым мечом. Станут ли они активом для бизнеса, зависит от способности компании использовать преимущества при одновременном снижении рисков.