عصر عاملیت به شبکه نیاز دارد

عصر عاملهای هوش مصنوعی در بازارهای مالی
هوش مصنوعی در حال ورود به صحنه معاملات است. نه به عنوان نرمافزار، بلکه به عنوان یک بازیگر فعال. عاملهای هوش مصنوعی (AI Agents) تنها به تحلیل بازارها نمیپردازند، بلکه قراردادها را منعقد میکنند، شرایط را تعیین مینمایند و سرمایه را در شبکههای غیرمتمرکز (Decentralized) جابهجا میکنند؛ جایی که تسویه (Settlement) قطعی و برگشتناپذیر است. برای میزهای معاملات رمزارزی نهادی، این به معنای معاملات سریعتر، محصولات بهتر و موقعیتهای معاملاتی کاملاً جدید است.
یک سناریوی خطرناک: عدم تطابق دادهها
حالا تصور کنید دو عامل هوش مصنوعی در حال مذاکره برای یک قرارداد مشتقه (Derivatives Contract) هستند، اما ارقام متفاوتی را ثبت میکنند. یکی مبلغ ۱۰۰ میلیون دلار را ثبت میکند و دیگری ۱۲۰ میلیون دلار. وقتی این اختلاف باعث ایجاد شکست یا تحقیقات شود، پاسخگو چه کسی خواهد بود؟ این یک نظریه محض نیست، بلکه واقعیت عصر عاملهای هوش مصنوعی است. هوش مصنوعی درون سیستمهای مالی یاد میگیرد، مذاکره میکند و عمل میکند؛ جایی که حتی کوچکترین عدم تطابقها میتواند ریسک سیستمیک (Systemic Risk) ایجاد کند.
معضل دادههای جعلی و غیرقابل تأیید
اما مشکل رو به رشدی وجود دارد: عاملها ممکن است بر اساس دادههای نادرست یا غیرقابل تأیید عمل کنند که عواقب واقعی به دنبال دارد. یک سیستم هوش مصنوعی که توسط ارائهدهنده خدمات درمانی ملی بریتانیا استفاده میشد، یک بیمار را به اشتباه تشخیص داد و به یک «بیمارستان سلامت» («Health Hospital») خیالی با یک کدپستی جعلی استناد کرد. همانطور که از اتوماسیون پایه فراتر میرویم، به سیستمهایی نیاز داریم که ریشه در قابلیت تأیید (Verifiability) و پاسخگویی (Accountability) داشته باشند. درست همانطور که وب به HTTPS نیاز داشت، وب عاملمحور نیز به یک شبکه قابل اعتماد نیازمند است.
پیامدهای نبود حافظه مشترک (لجر)
بدون یک حافظه مشترک (که دفترکل توزیعشده یا Ledger نیز نامیده میشود)، عاملها از هم جدا میافتند. سوابق متضاد باعث ایجاد شکست میشوند. بدون ردپای حسابرسی (Audit Trails)، آنها غیرشفاف، غیرقابل پاسخگویی، غیرقابل اعتماد و در نتیجه برای استفاده سازمانی نامناسب میشوند.
مثال روشن از دنیای مالی
تصور کنید دو عامل هوش مصنوعی در حال مذاکره بر سر یک قرارداد مشتقه بینبانکی هستند. یکی مبلغ ۱۰۰ میلیون دلار را ثبت میکند و دیگری ۱۲۰ میلیون دلار. این شکاف ۲۰ میلیون دلاری میتواند منجر به شکست در پرداخت، اقدامات نظارتی یا آسیب عمده به اعتبار شود. با توجه به اینکه هر ماه میلیاردها قرارداد در سطح جهانی معامله میشود، حتی کوچکترین عدم تطابقها میتواند ریسک سیستمیک ایجاد کند.
نیاز به یک زیربنای جدید: سه لایه اصلی
این یک سناریوی دور از ذهن نیست. شکاف زیرساختی هماکنون وجود دارد. برای حرکت در عصر عاملهای هوش مصنوعی، به بنیانی نیاز داریم که بر سه لایه اصلی استوار باشد:
- زیرساخت غیرمتمرکز (Decentralized Infrastructure): نقاط کنترل متمرکز را حذف میکند و تابآوری (Resilience) و مقیاسپذیری (Scalability) را تضمین مینماید، اما مهمتر از همه، پایداری (Sustainability) را به ارمغان میآورد؛ فراتر از تکیه بر نهادهای خصوصی منفرد برای اداره کل پشته فناوری.
- لایه اعتماد (Trust Layer): قابلیت تأیید (Verifiability)، هویت (Identity) و اجماع (Consensus) را در سطح پروتکل تعبیه میکند و تراکنشهای قابل اعتماد در حیطههای قضایی و سیستمهای مختلف را ممکن میسازد.
- عاملهای هوش مصنوعی تأییدشده و قابل اعتماد (Verified, reliable AI agents): منشأ (Provenance)، attestations (گواهیها) و پاسخگویی (Accountability) را اعمال میکند، اطمینان حاصل مینماید که سیستمها قابل حسابرسی باقی میمانند و به این عاملها توانایی عمل به نمایندگی از ما را میدهد.
نیازهای حیاتی عاملها برای همکاری
شبکههای غیرمتمرکز باید ستون فقرات این پشته را تشکیل دهند. عاملها به سیستمهایی نیاز دارند که به اندازهای سریع باشند که بتوانند هزاران تراکنش در ثانیه را پردازش کنند، چارچوبهای هویتی که فرامرزی کار کنند و منطقی که به آنها اجازه همکاری و کار گروهی دهد، نه فقط تبادل داده.
برای عمل در محیطهای مشترک، عاملها به سه چیز نیاز دارند:
- اجماع (Consensus): توافق روی آنچه واقعاً رخ داده است.
- منشأ و تاریخچه (Provenance): شناسایی اینکه چه کسی آن را initiated (آغاز کرد) یا تحت تأثیر قرار داد و چه کسی آن را تأیید نمود.
- قابلیت حسابرسی (Auditability): ردیابی آسان هر مرحله.
بدون این موارد، عاملها میتوانند در سیستمهای disconnected (قطعشده) غیرقابل پیشبینی عمل کنند. و از آنجایی که آنها همیشه روشن (Always On) هستند، باید بهصورت ذاتی پایدار (Sustainable) و قابل اعتماد (Trusted by Design) باشند.
جمعبندی: ساختن آیندهای قابل اعتماد
برای پاسخ به این چالش، enterprises (شرکتهای بزرگ) باید بر روی سیستمهایی بسازند که شفاف (Transparent)، قابل حسابرسی (Auditable) و تابآور (Resilient) هستند. سیاستگذاران باید از شبکههای متنباز (Open Source) به عنوان ستون فقرات هوش مصنوعی قابل اعتماد حمایت کنند. و رهبران و سازندگان اکوسیستم باید اعتماد را در بنیان طراحی کنند، نه اینکه بعداً آن را اضافه نمایند.
عصر عاملهای هوش مصنوعی تنها خودکار (Automated) نخواهد بود. اگر ما انتخاب کنیم که آن را اینگونه بسازیم، مذاکرهای (Negotiated)، ترکیبپذیر (Composable)، پاسخگو (Accountable) و قابل اعتماد (Trusted) خواهد بود.