A fusão de AI e Web3: os novos desafios de segurança trazidos pelo surgimento do DeFAI
Recentemente, a Semana de Blockchain de Istambul (IBW 2025) focou nas tendências de fusão entre IA e Web3, tornando-se uma plataforma importante para discussões sobre segurança em Web3 este ano. Durante o evento de dois dias, diversos fóruns de discussão abordaram o estado atual da aplicação da tecnologia de IA em finanças descentralizadas (DeFi) e os desafios de segurança associados.
Os especialistas presentes apontaram que, com o rápido desenvolvimento dos grandes modelos de linguagem (LLM) e dos agentes de IA, uma nova paradigma financeiro - a Finança Artificial Inteligente Descentralizada (DeFAI) - está gradualmente a tomar forma. No entanto, esta transformação também trouxe novas superfícies de ataque e riscos de segurança.
Um especialista em segurança que participou da discussão afirmou: "Embora o DeFAI tenha um grande potencial, ele também nos obriga a reavaliar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, pelo tempo e até mesmo pelas interações históricas. Essa imprevisibilidade não apenas agrava os riscos, mas também cria oportunidades para os atacantes."
Os agentes de IA são essencialmente entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base em lógica de IA, geralmente autorizados a operar por usuários, protocolos ou DAOs. O exemplo mais típico disso são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA opera em uma arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ameaças como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, isso pode não apenas resultar em perdas financeiras, mas também pode afetar a estabilidade de todo o protocolo.
O fórum também mencionou uma situação típica de ataque: quando um agente de negociação AI operado por um usuário DeFi está monitorando mensagens de redes sociais como sinais de negociação, um atacante pode divulgar alarmes falsos, como "um determinado protocolo está sob ataque", o que pode levar o agente a iniciar imediatamente uma liquidação de emergência. Esta operação não só pode resultar na perda de ativos do usuário, mas também causar volatilidade no mercado, que pode ser explorada pelo atacante através de negociações antecipadas (Front Running).
Face aos riscos acima mencionados, os especialistas presentes concordam que a segurança dos agentes de IA não deve ser exclusivamente responsabilidade de uma única parte, mas sim uma responsabilidade compartilhada entre os usuários, desenvolvedores e instituições de segurança de terceiros.
Primeiro, os usuários precisam estar cientes do alcance das permissões concedidas ao agente, concedendo permissões com cautela e prestando atenção à revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa desde a fase de design, como: reforço de prompts, isolamento em sandbox, limitação de taxa e lógica de fallback. E as empresas de segurança de terceiros devem realizar uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração em blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Um especialista em segurança alertou: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Para os desenvolvedores que estão explorando a direção do DeFAI, ele deu o seguinte conselho: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Visto que é código, existe a possibilidade de ser atacado, portanto, é necessário realizar auditorias de segurança profissionais e testes de penetração."
Como um dos eventos de blockchain mais influentes da Europa, o IBW atraiu mais de 15.000 participantes, incluindo desenvolvedores, equipes de projetos, investidores e reguladores de todo o mundo. Este ano, com o lançamento oficial pela Comissão de Mercado de Capitais da Turquia (CMB) da emissão de licenças para projetos de blockchain, a posição do IBW na indústria foi ainda mais elevada.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
15 Curtidas
Recompensa
15
8
Repostar
Compartilhar
Comentário
0/400
SandwichHunter
· 07-29 04:21
Outra vez a agitar as tendências? Fazer as pessoas de parvas, apenas.
Ver originalResponder0
quietly_staking
· 07-28 20:43
Não exagere, basta enrolar.
Ver originalResponder0
LucidSleepwalker
· 07-26 15:32
Mais uma vez, a temperatura da especulação sobre conceitos tecnológicos aumenta.
Ver originalResponder0
0xSunnyDay
· 07-26 06:12
Os ataques de injeção são realmente um pouco assustadores.
Ver originalResponder0
GraphGuru
· 07-26 06:11
A IA e as vulnerabilidades de segurança são tópicos eternos, não são?
Ver originalResponder0
ChainBrain
· 07-26 06:07
Nova forma de fazer as pessoas de parvas chegou.
Ver originalResponder0
failed_dev_successful_ape
· 07-26 06:07
Mais um aviso sobre a segurança do código de um determinado projeto
DeFAI em ascensão: a segurança dos agentes de IA torna-se um novo desafio para o Web3
A fusão de AI e Web3: os novos desafios de segurança trazidos pelo surgimento do DeFAI
Recentemente, a Semana de Blockchain de Istambul (IBW 2025) focou nas tendências de fusão entre IA e Web3, tornando-se uma plataforma importante para discussões sobre segurança em Web3 este ano. Durante o evento de dois dias, diversos fóruns de discussão abordaram o estado atual da aplicação da tecnologia de IA em finanças descentralizadas (DeFi) e os desafios de segurança associados.
Os especialistas presentes apontaram que, com o rápido desenvolvimento dos grandes modelos de linguagem (LLM) e dos agentes de IA, uma nova paradigma financeiro - a Finança Artificial Inteligente Descentralizada (DeFAI) - está gradualmente a tomar forma. No entanto, esta transformação também trouxe novas superfícies de ataque e riscos de segurança.
Um especialista em segurança que participou da discussão afirmou: "Embora o DeFAI tenha um grande potencial, ele também nos obriga a reavaliar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, pelo tempo e até mesmo pelas interações históricas. Essa imprevisibilidade não apenas agrava os riscos, mas também cria oportunidades para os atacantes."
Os agentes de IA são essencialmente entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base em lógica de IA, geralmente autorizados a operar por usuários, protocolos ou DAOs. O exemplo mais típico disso são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA opera em uma arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ameaças como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, isso pode não apenas resultar em perdas financeiras, mas também pode afetar a estabilidade de todo o protocolo.
O fórum também mencionou uma situação típica de ataque: quando um agente de negociação AI operado por um usuário DeFi está monitorando mensagens de redes sociais como sinais de negociação, um atacante pode divulgar alarmes falsos, como "um determinado protocolo está sob ataque", o que pode levar o agente a iniciar imediatamente uma liquidação de emergência. Esta operação não só pode resultar na perda de ativos do usuário, mas também causar volatilidade no mercado, que pode ser explorada pelo atacante através de negociações antecipadas (Front Running).
Face aos riscos acima mencionados, os especialistas presentes concordam que a segurança dos agentes de IA não deve ser exclusivamente responsabilidade de uma única parte, mas sim uma responsabilidade compartilhada entre os usuários, desenvolvedores e instituições de segurança de terceiros.
Primeiro, os usuários precisam estar cientes do alcance das permissões concedidas ao agente, concedendo permissões com cautela e prestando atenção à revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa desde a fase de design, como: reforço de prompts, isolamento em sandbox, limitação de taxa e lógica de fallback. E as empresas de segurança de terceiros devem realizar uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração em blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Um especialista em segurança alertou: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Para os desenvolvedores que estão explorando a direção do DeFAI, ele deu o seguinte conselho: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Visto que é código, existe a possibilidade de ser atacado, portanto, é necessário realizar auditorias de segurança profissionais e testes de penetração."
Como um dos eventos de blockchain mais influentes da Europa, o IBW atraiu mais de 15.000 participantes, incluindo desenvolvedores, equipes de projetos, investidores e reguladores de todo o mundo. Este ano, com o lançamento oficial pela Comissão de Mercado de Capitais da Turquia (CMB) da emissão de licenças para projetos de blockchain, a posição do IBW na indústria foi ainda mais elevada.