A fusão da IA com o Web3 gera novos desafios de segurança, DeFAI torna-se o foco
Recentemente, um grande evento de blockchain focado na tendência de fusão entre AI e Web3 ocorreu em Istambul. Especialistas de empresas de segurança, escritórios de contabilidade e projetos de blockchain se reuniram para discutir em profundidade o estado atual da aplicação da tecnologia AI no setor de finanças descentralizadas (DeFi) e os desafios de segurança que isso traz.
Durante a conferência, o tema "DeFAI"( finanças descentralizadas de inteligência artificial) tornou-se um tópico de grande discussão. Com o rápido desenvolvimento de modelos de linguagem grandes( LLM) e agentes de IA, esse novo paradigma financeiro está gradualmente se formando. No entanto, ao mesmo tempo, também trouxe novas superfícies de ataque e riscos de segurança.
Um especialista em segurança apontou: "Embora o DeFAI tenha um futuro promissor, também nos obriga a reavaliar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado por vários fatores, apresentando imprevisibilidade. Isso não só agrava os riscos, mas também cria oportunidades para atacantes."
Os agentes de IA são entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base na lógica da IA, geralmente autorizadas para operar por usuários, protocolos ou DAOs. Atualmente, a maioria dos agentes de IA opera sobre uma arquitetura Web2, dependendo de servidores e APIs centralizados, o que os torna vulneráveis a várias ameaças de ataque. Uma vez sequestrados, não apenas pode haver perda de fundos, como também pode afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando um agente de negociação de IA, operado por um usuário de DeFi, monitora mensagens nas redes sociais como sinais de negociação, os atacantes podem induzir o agente a iniciar uma liquidação de emergência ao publicar alarmes falsos. Isso não apenas resultará em perdas para os ativos dos usuários, mas também poderá provocar volatilidade no mercado, que será ainda mais explorada pelos atacantes.
Em relação a esses riscos, os especialistas presentes concordaram que a segurança dos agentes de IA deve ser uma responsabilidade compartilhada entre os usuários, desenvolvedores e instituições de segurança de terceiros. Os usuários devem conceder permissões com cautela e revisar operações de alto risco; os desenvolvedores devem implementar medidas de defesa na fase de design; enquanto as empresas de segurança de terceiros devem fornecer auditorias independentes e colaborar com todas as partes para identificar riscos e propor medidas de mitigação.
Um especialista advertiu: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', os acidentes de segurança no mundo real são apenas uma questão de tempo." Ele sugeriu aos desenvolvedores que estão explorando a direção do DeFAI: "A lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, há a possibilidade de ser atacado, portanto, é necessário realizar auditorias de segurança profissionais e testes de penetração."
Com o contínuo desenvolvimento da tecnologia blockchain e o aprimoramento gradual do ambiente regulatório, a fusão da IA com o Web3 continuará a suscitar mais atenção e discussão. A indústria precisa trabalhar em conjunto, promovendo a inovação, mas também deve dar a devida atenção e enfrentar os desafios de segurança que podem surgir.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
8 gostos
Recompensa
8
7
Partilhar
Comentar
0/400
MainnetDelayedAgain
· 10m atrás
De acordo com dados estatísticos, esta é já a 147ª reunião sobre os riscos do DeFAI, esperando que no mesmo período do próximo ano ainda estejamos a discutir.
Ver originalResponder0
AirdropBlackHole
· 17h atrás
Outro campo de fazer as pessoas de parvas
Ver originalResponder0
CryptoComedian
· 08-03 05:16
idiotas hoje em dia: AI faz as pessoas de parvas em 0,1 segundos sem pensar
Ver originalResponder0
DefiSecurityGuard
· 08-03 05:15
*sigh* outra superfície de ataque que não precisávamos... estes agentes LLM são basicamente pote de mel à espera de acontecer, para ser sincero. DYOR, mas a minha análise de ameaças sugere bandeiras vermelhas imediatas.
Ver originalResponder0
BearMarketLightning
· 08-03 05:11
Mais uma grande e chique moeda~ a brincar com conceitos.
Ver originalResponder0
ExpectationFarmer
· 08-03 05:05
Não é verdade? A IA protege a IA, quando é que vão me proteger?
Ver originalResponder0
LeekCutter
· 08-03 05:05
Eh, aqueles que estão a fazer grandes modelos vão fazer as pessoas de parvas novamente.
A ascensão do DeFAI impulsionada por IA: os desafios de segurança testam a inovação do Web3
A fusão da IA com o Web3 gera novos desafios de segurança, DeFAI torna-se o foco
Recentemente, um grande evento de blockchain focado na tendência de fusão entre AI e Web3 ocorreu em Istambul. Especialistas de empresas de segurança, escritórios de contabilidade e projetos de blockchain se reuniram para discutir em profundidade o estado atual da aplicação da tecnologia AI no setor de finanças descentralizadas (DeFi) e os desafios de segurança que isso traz.
Durante a conferência, o tema "DeFAI"( finanças descentralizadas de inteligência artificial) tornou-se um tópico de grande discussão. Com o rápido desenvolvimento de modelos de linguagem grandes( LLM) e agentes de IA, esse novo paradigma financeiro está gradualmente se formando. No entanto, ao mesmo tempo, também trouxe novas superfícies de ataque e riscos de segurança.
Um especialista em segurança apontou: "Embora o DeFAI tenha um futuro promissor, também nos obriga a reavaliar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado por vários fatores, apresentando imprevisibilidade. Isso não só agrava os riscos, mas também cria oportunidades para atacantes."
Os agentes de IA são entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base na lógica da IA, geralmente autorizadas para operar por usuários, protocolos ou DAOs. Atualmente, a maioria dos agentes de IA opera sobre uma arquitetura Web2, dependendo de servidores e APIs centralizados, o que os torna vulneráveis a várias ameaças de ataque. Uma vez sequestrados, não apenas pode haver perda de fundos, como também pode afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando um agente de negociação de IA, operado por um usuário de DeFi, monitora mensagens nas redes sociais como sinais de negociação, os atacantes podem induzir o agente a iniciar uma liquidação de emergência ao publicar alarmes falsos. Isso não apenas resultará em perdas para os ativos dos usuários, mas também poderá provocar volatilidade no mercado, que será ainda mais explorada pelos atacantes.
Em relação a esses riscos, os especialistas presentes concordaram que a segurança dos agentes de IA deve ser uma responsabilidade compartilhada entre os usuários, desenvolvedores e instituições de segurança de terceiros. Os usuários devem conceder permissões com cautela e revisar operações de alto risco; os desenvolvedores devem implementar medidas de defesa na fase de design; enquanto as empresas de segurança de terceiros devem fornecer auditorias independentes e colaborar com todas as partes para identificar riscos e propor medidas de mitigação.
Um especialista advertiu: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', os acidentes de segurança no mundo real são apenas uma questão de tempo." Ele sugeriu aos desenvolvedores que estão explorando a direção do DeFAI: "A lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, há a possibilidade de ser atacado, portanto, é necessário realizar auditorias de segurança profissionais e testes de penetração."
Com o contínuo desenvolvimento da tecnologia blockchain e o aprimoramento gradual do ambiente regulatório, a fusão da IA com o Web3 continuará a suscitar mais atenção e discussão. A indústria precisa trabalhar em conjunto, promovendo a inovação, mas também deve dar a devida atenção e enfrentar os desafios de segurança que podem surgir.