Слияние AI и Web3: новые вызовы безопасности, возникающие с ростом DeFAI
Недавно в Стамбуле прошла неделя блокчейна (IBW 2025), сосредоточенная на тенденциях слияния AI и Web3, став важной платформой для обсуждения безопасности Web3 в этом году. В течение двух дней мероприятия состоялось несколько круглых столов, на которых прошли глубокие обсуждения о текущем состоянии применения технологий AI в децентрализованных финансах (DeFi) и связанных с этим вызовах безопасности.
Участники конференции отметили, что с быстрым развитием больших языковых моделей (LLM) и AI-агентов формируется совершенно новая финансовая парадигма — децентрализованное искусственное финансовое управление (DeFAI). Однако эта трансформация также привела к новым уязвимостям и проблемам безопасности.
Один из экспертов по безопасности, участвующий в обсуждении, заявил: "Хотя DeFAI имеет большие перспективы, это также заставляет нас пересмотреть механизмы доверия в децентрализованных системах. В отличие от смарт-контрактов, основанных на фиксированной логике, решения AI-агентов зависят от контекста, времени и даже исторического взаимодействия. Эта непредсказуемость не только увеличивает риски, но и создает возможности для атакующих."
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять действия на основе логики ИИ, обычно работающими под авторизацией пользователей, протоколов или DAO. Наиболее типичным представителем являются AI-торговые роботы. В настоящее время большинство AI-агентов функционирует на базе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для атак внедрения, манипуляций с моделями или подделки данных. В случае захвата это может не только привести к потерям средств, но также оказать влияние на стабильность всего протокола.
В форуме также упоминалась типичная ситуация атаки: когда AI-торговый агент, работающий у пользователя DeFi, отслеживает сообщения в социальных сетях в качестве торговых сигналов, злоумышленник публикует ложные предупреждения, например, "определенный протокол подвергся атаке", что может заставить агента немедленно запустить экстренную ликвидацию. Эта операция не только приведет к убыткам активов пользователя, но и вызовет колебания рынка, которые затем могут быть использованы злоумышленником через фронт-раннинг.
По мнению экспертов, обсуждающих указанные риски, безопасность AI-агента не должна возлагаться на одну сторону, а является общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью.
Во-первых, пользователи должны четко понимать объем полномочий, которыми обладает агент, и осторожно предоставлять эти полномочия, а также внимательно проверять высокорисковые операции AI-агента. Во-вторых, разработчики должны внедрять меры безопасности уже на этапе проектирования, такие как: усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны безопасности должны предоставлять независимую проверку поведения моделей AI-агентов, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать с разработчиками и пользователями для выявления рисков и разработки мер по их смягчению.
Безопасный эксперт предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире — это лишь вопрос времени." Для разработчиков, которые исследуют направление DeFAI, он дал следующий совет: "Так же, как и в случае с умными контрактами, логика поведения AI-агентов также реализуется с помощью кода. Поскольку это код, существует вероятность атаки, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
Как одно из самых влиятельных событий в области блокчейна в Европе, IBW привлекла более 15 000 участников, включая разработчиков, проекты, инвесторов и регулирующие органы со всего мира. В этом году, с официальным запуском выдачи лицензий на блокчейн-проекты Комиссией по капиталовложениям Турции (CMB), статус IBW в отрасли был дополнительно повышен.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
8
Репост
Поделиться
комментарий
0/400
SandwichHunter
· 07-29 04:21
Снова поднимаем горячие темы? Будут играть для лохов.
Посмотреть ОригиналОтветить0
quietly_staking
· 07-28 20:43
Не говори так много, просто сделай это.
Посмотреть ОригиналОтветить0
LucidSleepwalker
· 07-26 15:32
Снова на пике популярности технические концепции и спекуляции.
Посмотреть ОригиналОтветить0
0xSunnyDay
· 07-26 06:12
Атака внедрения действительно немного пугает.
Посмотреть ОригиналОтветить0
GraphGuru
· 07-26 06:11
ИИ и уязвимости безопасности — это вечные темы, не так ли?
Посмотреть ОригиналОтветить0
ChainBrain
· 07-26 06:07
Новый способ будут играть для лохов снова пришел.
Посмотреть ОригиналОтветить0
failed_dev_successful_ape
· 07-26 06:07
Снова предупреждение о безопасности кода какого-то проекта
DeFAI восходит: безопасность AI-агентов становится новой проблемой Web3
Слияние AI и Web3: новые вызовы безопасности, возникающие с ростом DeFAI
Недавно в Стамбуле прошла неделя блокчейна (IBW 2025), сосредоточенная на тенденциях слияния AI и Web3, став важной платформой для обсуждения безопасности Web3 в этом году. В течение двух дней мероприятия состоялось несколько круглых столов, на которых прошли глубокие обсуждения о текущем состоянии применения технологий AI в децентрализованных финансах (DeFi) и связанных с этим вызовах безопасности.
Участники конференции отметили, что с быстрым развитием больших языковых моделей (LLM) и AI-агентов формируется совершенно новая финансовая парадигма — децентрализованное искусственное финансовое управление (DeFAI). Однако эта трансформация также привела к новым уязвимостям и проблемам безопасности.
Один из экспертов по безопасности, участвующий в обсуждении, заявил: "Хотя DeFAI имеет большие перспективы, это также заставляет нас пересмотреть механизмы доверия в децентрализованных системах. В отличие от смарт-контрактов, основанных на фиксированной логике, решения AI-агентов зависят от контекста, времени и даже исторического взаимодействия. Эта непредсказуемость не только увеличивает риски, но и создает возможности для атакующих."
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять действия на основе логики ИИ, обычно работающими под авторизацией пользователей, протоколов или DAO. Наиболее типичным представителем являются AI-торговые роботы. В настоящее время большинство AI-агентов функционирует на базе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для атак внедрения, манипуляций с моделями или подделки данных. В случае захвата это может не только привести к потерям средств, но также оказать влияние на стабильность всего протокола.
В форуме также упоминалась типичная ситуация атаки: когда AI-торговый агент, работающий у пользователя DeFi, отслеживает сообщения в социальных сетях в качестве торговых сигналов, злоумышленник публикует ложные предупреждения, например, "определенный протокол подвергся атаке", что может заставить агента немедленно запустить экстренную ликвидацию. Эта операция не только приведет к убыткам активов пользователя, но и вызовет колебания рынка, которые затем могут быть использованы злоумышленником через фронт-раннинг.
По мнению экспертов, обсуждающих указанные риски, безопасность AI-агента не должна возлагаться на одну сторону, а является общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью.
Во-первых, пользователи должны четко понимать объем полномочий, которыми обладает агент, и осторожно предоставлять эти полномочия, а также внимательно проверять высокорисковые операции AI-агента. Во-вторых, разработчики должны внедрять меры безопасности уже на этапе проектирования, такие как: усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны безопасности должны предоставлять независимую проверку поведения моделей AI-агентов, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать с разработчиками и пользователями для выявления рисков и разработки мер по их смягчению.
Безопасный эксперт предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире — это лишь вопрос времени." Для разработчиков, которые исследуют направление DeFAI, он дал следующий совет: "Так же, как и в случае с умными контрактами, логика поведения AI-агентов также реализуется с помощью кода. Поскольку это код, существует вероятность атаки, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
Как одно из самых влиятельных событий в области блокчейна в Европе, IBW привлекла более 15 000 участников, включая разработчиков, проекты, инвесторов и регулирующие органы со всего мира. В этом году, с официальным запуском выдачи лицензий на блокчейн-проекты Комиссией по капиталовложениям Турции (CMB), статус IBW в отрасли был дополнительно повышен.