Применение обучающихся систем ИИ в цепи поставок пищевой продукции позволяет ускорить и сделать более прозрачными многие процессы, но при этом создаёт дополнительные риски.
В прошлой статье мы рассказывали о том, как ИИ может укрепить безопасность пищевой продукции, анализируя производственные процессы и тенденции способами, которые недоступны человеку. Теперь расскажем об обратной стороне медали, а именно о том, как ИИ может быть использован против пищевых компаний с целью подорвать безопасность их продукции.
Тёмная сторона ИИ
Одна из главных угроз, связанных с применением ИИ – манипуляции с данными, касающимися безопасности пищевой продукции. Системы ИИ, которые всё чаще используются для мониторинга и анализа параметров безопасности пищевой продукции, могут стать целью кибератак или обычного саботажа. Изменив алгоритм действий ИИ, данные, используемые при его обучении, или введя для анализа ложные данные (например, о требуемой температуре продукта во время хранения и транспортировки), враг может замаскировать некондиционное состояние продукта, которое приведёт к массовому пищевому отравлению. Недавно жертвой подобной кибератаки с вводом ложных данных стала крупная молочная компания, где ИИ применяли для мониторинга уровней бактерий в пастеризованном молоке. В результате ИИ отметил партию молока как безопасную, а на самом деле она была заражена кишечной палочкой.
Ещё одна угроза – саботаж цепей поставок, в которых используется ИИ. Как мы уже писали, системы ИИ часто используются для логистики и менеджмента инвентаря. Хорошо организованная атака на эти системы может привести к срыву поставок, перенаправлению движения транспорта, нехватке ключевых ингредиентов и, в конечном счёте, к остановке производства и финансовым потерям. Подобной атаке подверглась в 2021 году JBS, одна из крупнейших мясоперерабатывающих компаний в мире; её поставки были сорваны в Австралии и странах Северной Америки.
Также ИИ может быть использован для промышленного шпионажа. Конкуренты или просто мошенники могут использовать обучающихся ботов для написания правдоподобных писем или сообщений, чтобы с их помощью получить конфиденциальную информацию о рецептах или методах производства. ИИ также может анализировать состав продукта и создавать идентичные формулы, которые дадут продукт с похожим вкусом. Известны случаи, когда ИИ выполнял такой анализ на основе фотографии продукта и подписи к ней. Кража интеллектуальной собственности не только ослабляет компанию на рынке, но и может привести к появлению низкокачественных продуктов конкурентов, состав которых с чего-то списан.
Спикеры OpenAI (компании, создавшей обучающегося чат-бота ChatGPT) также предупредили, что такие боты могут быть использованы для создания новых биологических угроз, в том числе механизмов заражения патогенами продуктов при их производстве, транспортировке, хранении, обработке и реализации. Пока ИИ не умеет разрабатывать точный алгоритм построения новой биологической угрозы, но это не значит, что его нельзя этому научить.
Пока мы упоминали только те угрозы, которые существовали и до появления обучающегося ИИ; речь шла о том, что применение ИИ в ключевых точках цепи поставок может сделать её уязвимой. Совершенно новой угрозой стали дипфейки – так называют искусственные, но при этом предельно реалистичные изображения и видеоролики, созданные нейросетями и представляющие угрозу для любой промышленности, а не только пищевой. Таким дипфейком может стать видео, в котором продукт конкретной компании якобы становится причиной массового отравления или люди, внешность которых скопирована со спикеров компании, делают заявления о вреде их собственного продукта или продукта конкурентов.
В пищевом секторе, где достоверность источников информации критически важна, дипфейк может быть использован для создания поддельной документации или видеоролика с целью показать клиентам и потребителям методы борьбы за безопасность пищевой продукции, экологически чистое производство или гуманное обращение с животными, которые компания по факту не соблюдает. Так мошеннические компании могут обмануть не только потребителя, но и нормативные органы.
Как с этим бороться
Как и в случае с другими угрозами, для борьбы нужен многоступенчатый подход. Первая линия обороны – это меры кибербезопасности, потому что источником угроз, связанных с ИИ, часто является утечка данных или взлом системы. Необходимы регулярные аудиты систем ИИ, продвинутые методы шифровки и безопасной передачи данных, тренинг сотрудников на тему кибербезопасности. Так, применение технологии блокчейна существенно снижает риск манипуляции с данными или их кражи.
Ещё один способ борьбы с мошенниками – разработка систем ИИ со встроенной защитой от взлома или манипуляций. Этого можно достичь, внедрив практики по безопасному кодированию и регулярно обновляя алгоритмы ИИ для учёта уязвимостей. Кроме того, систему ИИ можно научить распознавать отклонения в базе данных и сообщать о них. Применение ИИ для борьбы с угрозами со стороны ИИ – это в каком-то смысле саморегулирующаяся система.
Взаимосвязанная природа цепи поставок пищевой продукции означает, что атака на одну её точку может обрушить всю цепь поставок по принципу домино. Это значит, что нужен коллективный подход к кибербезопасности и все заинтересованные стороны должны знать о потенциальных угрозах и методах борьбы с ними. Трудность в том, что обучающиеся боты – одна из последних технологий современности, поэтому во многих случаях нет стандартов, касающихся их применения и защиты от взлома.
Выводы
Итак, интеграция ИИ в пищевой сектор не только улучшает эффективность и продуктивность цепей поставок, но и создаёт новые трудности и риски, касающиеся кибербезопасности. Борьба с этими рисками требует активного участия всех заинтересованных сторон, в том числе пищевых и транспортных компаний, экспертов по кибербезопасности и нормативных органов.
Источник: crispy.news