دسته‌بندی نشده

عصر عاملیت به شبکه نیاز دارد

عصر عامل‌های هوش مصنوعی در بازارهای مالی

هوش مصنوعی در حال ورود به صحنه معاملات است. نه به عنوان نرم‌افزار، بلکه به عنوان یک بازیگر فعال. عامل‌های هوش مصنوعی (AI Agents) تنها به تحلیل بازارها نمی‌پردازند، بلکه قراردادها را منعقد می‌کنند، شرایط را تعیین می‌نمایند و سرمایه را در شبکه‌های غیرمتمرکز (Decentralized) جابه‌جا می‌کنند؛ جایی که تسویه (Settlement) قطعی و برگشت‌ناپذیر است. برای میزهای معاملات رمزارزی نهادی، این به معنای معاملات سریع‌تر، محصولات بهتر و موقعیت‌های معاملاتی کاملاً جدید است.

یک سناریوی خطرناک: عدم تطابق داده‌ها

حالا تصور کنید دو عامل هوش مصنوعی در حال مذاکره برای یک قرارداد مشتقه (Derivatives Contract) هستند، اما ارقام متفاوتی را ثبت می‌کنند. یکی مبلغ ۱۰۰ میلیون دلار را ثبت می‌کند و دیگری ۱۲۰ میلیون دلار. وقتی این اختلاف باعث ایجاد شکست یا تحقیقات شود، پاسخگو چه کسی خواهد بود؟ این یک نظریه محض نیست، بلکه واقعیت عصر عامل‌های هوش مصنوعی است. هوش مصنوعی درون سیستم‌های مالی یاد می‌گیرد، مذاکره می‌کند و عمل می‌کند؛ جایی که حتی کوچک‌ترین عدم تطابق‌ها می‌تواند ریسک سیستمیک (Systemic Risk) ایجاد کند.

معضل داده‌های جعلی و غیرقابل تأیید

اما مشکل رو به رشدی وجود دارد: عامل‌ها ممکن است بر اساس داده‌های نادرست یا غیرقابل تأیید عمل کنند که عواقب واقعی به دنبال دارد. یک سیستم هوش مصنوعی که توسط ارائه‌دهنده خدمات درمانی ملی بریتانیا استفاده می‌شد، یک بیمار را به اشتباه تشخیص داد و به یک «بیمارستان سلامت» («Health Hospital») خیالی با یک کدپستی جعلی استناد کرد. همان‌طور که از اتوماسیون پایه فراتر می‌رویم، به سیستم‌هایی نیاز داریم که ریشه در قابلیت تأیید (Verifiability) و پاسخگویی (Accountability) داشته باشند. درست همان‌طور که وب به HTTPS نیاز داشت، وب عامل‌محور نیز به یک شبکه قابل اعتماد نیازمند است.

پیامدهای نبود حافظه مشترک (لجر)

بدون یک حافظه مشترک (که دفترکل توزیع‌شده یا Ledger نیز نامیده می‌شود)، عامل‌ها از هم جدا می‌افتند. سوابق متضاد باعث ایجاد شکست می‌شوند. بدون ردپای حسابرسی (Audit Trails)، آن‌ها غیرشفاف، غیرقابل پاسخگویی، غیرقابل اعتماد و در نتیجه برای استفاده سازمانی نامناسب می‌شوند.

مثال روشن از دنیای مالی

تصور کنید دو عامل هوش مصنوعی در حال مذاکره بر سر یک قرارداد مشتقه بین‌بانکی هستند. یکی مبلغ ۱۰۰ میلیون دلار را ثبت می‌کند و دیگری ۱۲۰ میلیون دلار. این شکاف ۲۰ میلیون دلاری می‌تواند منجر به شکست در پرداخت، اقدامات نظارتی یا آسیب عمده به اعتبار شود. با توجه به اینکه هر ماه میلیاردها قرارداد در سطح جهانی معامله می‌شود، حتی کوچک‌ترین عدم تطابق‌ها می‌تواند ریسک سیستمیک ایجاد کند.

نیاز به یک زیربنای جدید: سه لایه اصلی

این یک سناریوی دور از ذهن نیست. شکاف زیرساختی هم‌اکنون وجود دارد. برای حرکت در عصر عامل‌های هوش مصنوعی، به بنیانی نیاز داریم که بر سه لایه اصلی استوار باشد:

  • زیرساخت غیرمتمرکز (Decentralized Infrastructure): نقاط کنترل متمرکز را حذف می‌کند و تاب‌آوری (Resilience) و مقیاس‌پذیری (Scalability) را تضمین می‌نماید، اما مهم‌تر از همه، پایداری (Sustainability) را به ارمغان می‌آورد؛ فراتر از تکیه بر نهادهای خصوصی منفرد برای اداره کل پشته فناوری.
  • لایه اعتماد (Trust Layer): قابلیت تأیید (Verifiability)، هویت (Identity) و اجماع (Consensus) را در سطح پروتکل تعبیه می‌کند و تراکنش‌های قابل اعتماد در حیطه‌های قضایی و سیستم‌های مختلف را ممکن می‌سازد.
  • عامل‌های هوش مصنوعی تأییدشده و قابل اعتماد (Verified, reliable AI agents): منشأ (Provenance)، attestations (گواهی‌ها) و پاسخگویی (Accountability) را اعمال می‌کند، اطمینان حاصل می‌نماید که سیستم‌ها قابل حسابرسی باقی می‌مانند و به این عامل‌ها توانایی عمل به نمایندگی از ما را می‌دهد.

نیازهای حیاتی عامل‌ها برای همکاری

شبکه‌های غیرمتمرکز باید ستون فقرات این پشته را تشکیل دهند. عامل‌ها به سیستم‌هایی نیاز دارند که به اندازه‌ای سریع باشند که بتوانند هزاران تراکنش در ثانیه را پردازش کنند، چارچوب‌های هویتی که فرامرزی کار کنند و منطقی که به آن‌ها اجازه همکاری و کار گروهی دهد، نه فقط تبادل داده.

برای عمل در محیط‌های مشترک، عامل‌ها به سه چیز نیاز دارند:

  • اجماع (Consensus): توافق روی آنچه واقعاً رخ داده است.
  • منشأ و تاریخچه (Provenance): شناسایی اینکه چه کسی آن را initiated (آغاز کرد) یا تحت تأثیر قرار داد و چه کسی آن را تأیید نمود.
  • قابلیت حسابرسی (Auditability): ردیابی آسان هر مرحله.

بدون این موارد، عامل‌ها می‌توانند در سیستم‌های disconnected (قطع‌شده) غیرقابل پیش‌بینی عمل کنند. و از آنجایی که آن‌ها همیشه روشن (Always On) هستند، باید به‌صورت ذاتی پایدار (Sustainable) و قابل اعتماد (Trusted by Design) باشند.

جمع‌بندی: ساختن آینده‌ای قابل اعتماد

برای پاسخ به این چالش، enterprises (شرکت‌های بزرگ) باید بر روی سیستم‌هایی بسازند که شفاف (Transparent)، قابل حسابرسی (Auditable) و تاب‌آور (Resilient) هستند. سیاست‌گذاران باید از شبکه‌های متن‌باز (Open Source) به عنوان ستون فقرات هوش مصنوعی قابل اعتماد حمایت کنند. و رهبران و سازندگان اکوسیستم باید اعتماد را در بنیان طراحی کنند، نه اینکه بعداً آن را اضافه نمایند.

عصر عامل‌های هوش مصنوعی تنها خودکار (Automated) نخواهد بود. اگر ما انتخاب کنیم که آن را این‌گونه بسازیم، مذاکره‌ای (Negotiated)، ترکیب‌پذیر (Composable)، پاسخگو (Accountable) و قابل اعتماد (Trusted) خواهد بود.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا