مؤخراً، أقيمت فعالية blockchain تركز على اتجاهات دمج AI وWeb3 في إسطنبول. تجمع العديد من الخبراء من شركات الأمن، ووكالات المحاسبة، ومشاريع blockchain لتناول موضوع تطبيقات تكنولوجيا AI في مجال التمويل اللامركزي (DeFi) والتحديات الأمنية التي تترتب عليها.
خلال الاجتماع، أصبح "DeFAI"( الذكاء الاصطناعي المالي اللامركزي) موضوعًا ساخنًا للنقاش. مع التطور السريع لنماذج اللغة الكبيرة( LLM) والوكلاء الذكائيين، تتشكل هذه الفئة المالية الناشئة تدريجياً. ومع ذلك، فإنها تجلب أيضًا مجالات جديدة للهجمات ومخاطر أمنية.
أشار خبير أمان: "على الرغم من أن DeFAI لديه آفاق واسعة، إلا أنه يجبرنا أيضًا على إعادة تقييم آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية المعتمدة على المنطق الثابت، فإن عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي تتأثر بعدة عوامل، مما يجعلها غير قابلة للتنبؤ. وهذا لا يزيد فقط من المخاطر، بل يخلق أيضًا فرصًا للمهاجمين."
العميل الذكي هو كيان قادر على اتخاذ القرارات وتنفيذها بشكل مستقل بناءً على منطق الذكاء الاصطناعي، وعادة ما يتم تفويضه من قبل المستخدم أو البروتوكول أو DAO. في الوقت الحالي، تعمل معظم العملاء الذكية على بنية Web2، وتعتمد على خوادم مركزية وواجهات برمجة التطبيقات، مما يجعلها عرضة لمجموعة متنوعة من تهديدات الهجمات. بمجرد أن يتم اختراقها، يمكن أن يؤدي ذلك ليس فقط إلى فقدان الأموال، ولكن أيضًا إلى التأثير على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضًا سيناريو هجوم نموذجي: عندما يقوم وكلاء التداول المدعومين بالذكاء الاصطناعي الذين يديرهم مستخدمو DeFi بمراقبة رسائل وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر إنذارات كاذبة لاستدراج الوكلاء لبدء تصفية طارئة. هذا قد يؤدي ليس فقط إلى خسائر في أصول المستخدمين، ولكن أيضًا إلى تقلبات في السوق يمكن استغلالها من قبل المهاجمين.
فيما يتعلق بهذه المخاطر، اتفق الخبراء المشاركون على أن أمان الوكلاء الذكيين يجب أن يتحمل مسؤوليته المستخدمون والمطورون والوكالات الأمنية الخارجية بشكل مشترك. يحتاج المستخدمون إلى منح الأذونات بحذر ومراجعة العمليات عالية المخاطر؛ يجب على المطورين تنفيذ تدابير الدفاع في مرحلة التصميم؛ بينما يجب على شركات الأمن الخارجية تقديم مراجعة مستقلة والتعاون مع جميع الأطراف لتحديد المخاطر واقتراح تدابير التخفيف.
حذر خبير قائلاً: "إذا واصلنا اعتبار وكلاء الذكاء الاصطناعي كـ 'صندوق أسود'، فإن وقوع حوادث أمان في العالم الحقيقي هو مجرد مسألة وقت." واقترح على المطورين الذين يستكشفون اتجاه DeFAI: "منطق سلوك وكلاء الذكاء الاصطناعي أيضاً يتم تنفيذه بواسطة الشيفرة. بما أنه شيفرة، فهناك احتمال أن يتم استهدافها، لذا من الضروري إجراء تدقيق أمني محترف واختبارات اختراق."
مع التطور المستمر لتكنولوجيا البلوك تشين وتحسن البيئة التنظيمية، ستستمر دمج الذكاء الاصطناعي وWeb3 في إثارة المزيد من الاهتمام والنقاش. يحتاج القطاع إلى العمل معًا، مع دفع الابتكار، يجب أيضًا إيلاء اهتمام كافٍ ومعالجة التحديات الأمنية التي قد تظهر.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 10
أعجبني
10
8
مشاركة
تعليق
0/400
GateUser-afe07a92
· منذ 9 س
هل سنبدأ من جديد في الترويج لمفهوم جديد؟
شاهد النسخة الأصليةرد0
MainnetDelayedAgain
· منذ 11 س
وفقًا لبيانات الإحصاء، كانت هذه هي الاجتماع رقم 147 لمناقشة مخاطر DeFAI، ونتطلع إلى مناقشة مماثلة في نفس الوقت من العام المقبل.
شاهد النسخة الأصليةرد0
AirdropBlackHole
· 08-05 04:54
又另 حمقى خدار
شاهد النسخة الأصليةرد0
CryptoComedian
· 08-03 05:16
حمقى اليوم أخبار ممتعة: AI خداع الناس لتحقيق الربح حتى بدون تفكير لمدة 0.1 ثانية.
شاهد النسخة الأصليةرد0
DefiSecurityGuard
· 08-03 05:15
*س sigh* هجوم آخر لم نكن بحاجة إليه... هذه الوكلاء LLM هي في الأساس وعاء العسل في انتظار الحدوث بصراحة. DYOR لكن تحليل التهديد الخاص بي يشير إلى علامات حمراء فورية.
شاهد النسخة الأصليةرد0
BearMarketLightning
· 08-03 05:11
تُعَدّ هذه فطيرة رائعة أخرى~ هل هي مجرد مفهوم يتم تداوله؟
شاهد النسخة الأصليةرد0
ExpectationFarmer
· 08-03 05:05
أليس كذلك ai حماية ai، متى ستحمي نفسك
شاهد النسخة الأصليةرد0
LeekCutter
· 08-03 05:05
أه، يبدو أن الذين يعملون على النماذج الكبيرة سيستغلون الحمقى مرة أخرى.
ظهور DeFAI المدفوع بالذكاء الاصطناعي والتحديات الأمنية التي تختبر ابتكارات Web3
دمج الذكاء الاصطناعي وWeb3 يثير تحديات أمنية جديدة، DeFAI يصبح محور التركيز
مؤخراً، أقيمت فعالية blockchain تركز على اتجاهات دمج AI وWeb3 في إسطنبول. تجمع العديد من الخبراء من شركات الأمن، ووكالات المحاسبة، ومشاريع blockchain لتناول موضوع تطبيقات تكنولوجيا AI في مجال التمويل اللامركزي (DeFi) والتحديات الأمنية التي تترتب عليها.
خلال الاجتماع، أصبح "DeFAI"( الذكاء الاصطناعي المالي اللامركزي) موضوعًا ساخنًا للنقاش. مع التطور السريع لنماذج اللغة الكبيرة( LLM) والوكلاء الذكائيين، تتشكل هذه الفئة المالية الناشئة تدريجياً. ومع ذلك، فإنها تجلب أيضًا مجالات جديدة للهجمات ومخاطر أمنية.
أشار خبير أمان: "على الرغم من أن DeFAI لديه آفاق واسعة، إلا أنه يجبرنا أيضًا على إعادة تقييم آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية المعتمدة على المنطق الثابت، فإن عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي تتأثر بعدة عوامل، مما يجعلها غير قابلة للتنبؤ. وهذا لا يزيد فقط من المخاطر، بل يخلق أيضًا فرصًا للمهاجمين."
العميل الذكي هو كيان قادر على اتخاذ القرارات وتنفيذها بشكل مستقل بناءً على منطق الذكاء الاصطناعي، وعادة ما يتم تفويضه من قبل المستخدم أو البروتوكول أو DAO. في الوقت الحالي، تعمل معظم العملاء الذكية على بنية Web2، وتعتمد على خوادم مركزية وواجهات برمجة التطبيقات، مما يجعلها عرضة لمجموعة متنوعة من تهديدات الهجمات. بمجرد أن يتم اختراقها، يمكن أن يؤدي ذلك ليس فقط إلى فقدان الأموال، ولكن أيضًا إلى التأثير على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضًا سيناريو هجوم نموذجي: عندما يقوم وكلاء التداول المدعومين بالذكاء الاصطناعي الذين يديرهم مستخدمو DeFi بمراقبة رسائل وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر إنذارات كاذبة لاستدراج الوكلاء لبدء تصفية طارئة. هذا قد يؤدي ليس فقط إلى خسائر في أصول المستخدمين، ولكن أيضًا إلى تقلبات في السوق يمكن استغلالها من قبل المهاجمين.
فيما يتعلق بهذه المخاطر، اتفق الخبراء المشاركون على أن أمان الوكلاء الذكيين يجب أن يتحمل مسؤوليته المستخدمون والمطورون والوكالات الأمنية الخارجية بشكل مشترك. يحتاج المستخدمون إلى منح الأذونات بحذر ومراجعة العمليات عالية المخاطر؛ يجب على المطورين تنفيذ تدابير الدفاع في مرحلة التصميم؛ بينما يجب على شركات الأمن الخارجية تقديم مراجعة مستقلة والتعاون مع جميع الأطراف لتحديد المخاطر واقتراح تدابير التخفيف.
حذر خبير قائلاً: "إذا واصلنا اعتبار وكلاء الذكاء الاصطناعي كـ 'صندوق أسود'، فإن وقوع حوادث أمان في العالم الحقيقي هو مجرد مسألة وقت." واقترح على المطورين الذين يستكشفون اتجاه DeFAI: "منطق سلوك وكلاء الذكاء الاصطناعي أيضاً يتم تنفيذه بواسطة الشيفرة. بما أنه شيفرة، فهناك احتمال أن يتم استهدافها، لذا من الضروري إجراء تدقيق أمني محترف واختبارات اختراق."
مع التطور المستمر لتكنولوجيا البلوك تشين وتحسن البيئة التنظيمية، ستستمر دمج الذكاء الاصطناعي وWeb3 في إثارة المزيد من الاهتمام والنقاش. يحتاج القطاع إلى العمل معًا، مع دفع الابتكار، يجب أيضًا إيلاء اهتمام كافٍ ومعالجة التحديات الأمنية التي قد تظهر.