Вызовы безопасности DeFAI и стратегии реагирования в условиях интеграции AI и Web3

robot
Генерация тезисов в процессе

Безопасностные вызовы в условиях слияния ИИ и Web3

Недавно на мероприятии Blockchain Week в Стамбуле эксперты отрасли провели глубокое обсуждение тенденции слияния искусственного интеллекта и Web3, уделив особое внимание новым угрозам безопасности, возникающим в рамках этой тенденции.

С быстрым развитием больших языковых моделей и AI-агентов постепенно формируется новый финансовый режим, известный как "DeFAI" (децентрализованное искусственное интеллектуальное финансирование). Хотя эта инновация имеет большие перспективы, она также приносит совершенно новые угрозы безопасности и векторы атак.

Эксперты отмечают, что в отличие от традиционных смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентами подвержен влиянию множества факторов, включая контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможности для атак.

IBW 2025: Слияние AI и Web3, новые вызовы безопасности на фоне роста DeFAI

AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять действия на основе логики ИИ, обычно работающими по разрешению пользователей, протоколов или децентрализованных автономных организаций. При этом AI-торговые роботы являются наиболее типичными представителями. В настоящее время большинство AI-агентов все еще функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции моделями или подделка данных и т.д. Если AI-агент будет захвачен, это может привести не только к потерям средств, но и повлиять на стабильность всего протокола.

Эксперты привели пример типичного сценария атаки: когда AI-торговый агент, используемый пользователем DeFi, мониторит сообщения в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложное предупреждение, например, утверждая, что какой-то протокол подвергся атаке. Это может побудить AI-агента немедленно запустить экстренные операции по ликвидации, что не только приведет к потерям активов пользователя, но и может вызвать колебания на рынке, которые злоумышленник сможет использовать с помощью таких методов, как фронт-раннинг.

По мнению экспертов, безопасность AI-агентов не должна зависеть от одной стороны, а требует совместных усилий пользователей, разработчиков и сторонних органов безопасности для снижения этих рисков.

Пользователи должны четко понимать объем полномочий, предоставляемых агенту, осторожно предоставлять разрешения и внимательно проверять высокорисковые операции, выполняемые AI-агентами. Разработчики должны внедрять меры защиты на этапе проектирования, такие как укрепление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны, занимающиеся безопасностью, должны предоставлять независимый обзор поведения модели AI-агента, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложения мер по их смягчению.

Для разработчиков, которые исследуют направление DeFAI, эксперты рекомендуют рассматривать AI-агентов как код, который может быть атакован, а не как "черный ящик". Поэтому, так же как и смарт-контракты, AI-агенты также нуждаются в профессиональном аудите безопасности и тестировании на проникновение, чтобы обеспечить их безопасность и надежность.

IBW 2025: Новые вызовы безопасности на фоне слияния AI и Web3, восходящий DeFAI

С углубленной интеграцией ИИ и Web3 вызовы безопасности будут продолжать эволюционировать. Эксперты призывают все стороны сохранять бдительность и совместно работать над созданием более безопасной и надежной децентрализованной экосистемы искусственного интеллекта в финансовой сфере.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
gas_fee_traumavip
· 3ч назад
Безопасность = налоги на дураков
Посмотреть ОригиналОтветить0
BlockDetectivevip
· 23ч назад
Этот DeFAI кажется опасным.
Посмотреть ОригиналОтветить0
SigmaBrainvip
· 23ч назад
Этот ИИ всё понимает, просто у него нет интеллекта.
Посмотреть ОригиналОтветить0
TokenTaxonomistvip
· 23ч назад
статистически говоря, скорость мутаций агентов ИИ представляет собой на 73,4% более высокий уровень риска безопасности, чем традиционные смарт-контракты... позвольте мне обновить мою матрицу рисков
Посмотреть ОригиналОтветить0
NeverPresentvip
· 23ч назад
Боты抢饭碗太快了
Посмотреть ОригиналОтветить0
SmartContractRebelvip
· 23ч назад
Нужно полагаться на безопасность аудита, иначе всё взлетит в воздух.
Посмотреть ОригиналОтветить0
  • Закрепить