صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

جامعه

اقتصاد

فرهنگی

ورزشی

جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

جنگ دوم ۱۴۰۴

صفحات داخلی

چالش‌های حقوقی جنگ سایبری مبتنی بر هوش مصنوعی

۲۲ ارديبهشت ۱۴۰۵ - ۰۸:۱۰:۰۱
کد خبر: ۴۸۹۶۹۵۳
دسته بندی‌: قضایی ، حقوقی
ورود هوش مصنوعی به عرصه جنگ‌های سایبری، ماهیت مخاصمات معاصر را به‌طور جدی دگرگون کرده است. قواعد سنتی حقوق بین‌الملل بشردوستانه و حقوق کیفری در برابر سامانه‌های خودمختار و الگوریتم‌های یادگیرنده با ابهام‌های تازه‌ای مواجه شده‌اند.

مرکز حقوق و هوش مصنوعی پژوهشگاه قوه قضاییه در مطلبی که در اختیار خبرگزاری میزان قرار داد به بررسی چالش‌های حقوقی ناشی از ورود هوش مصنوعی به عرصه جنگ‌های سایبری پرداخته است.

این مطلب ضمن اشاره به دگرگونی ماهیت مخاصمات معاصر و ابهام‌های حقوقی پیش رو، به وضعیت ایران در مواجهه با این چالش‌ها و همچنین تحولات قوه قضاییه در مسیر «عدالت هوشمند» پرداخته و پرسش‌هایی نظیر مسئولیت حقوقی، انتساب حملات، نظارت هوشمند و تبعیض الگوریتمی را مورد کنکاش قرار می‌دهد. 

ورود هوش مصنوعی به عرصه جنگ‌های سایبری، ماهیت مخاصمات معاصر را به‌طور جدی دگرگون کرده است. قواعد سنتی حقوق بین‌الملل بشردوستانه و حقوق کیفری در برابر سامانه‌های خودمختار و الگوریتم‌های یادگیرنده با ابهام‌های تازه‌ای مواجه شده‌اند.

ایران نیز به دلیل موقعیت ژئوپلیتیک و تجربه حملات سایبری گسترده از جمله حمله استاکس‌نت به تأسیسات هسته‌ای و حملات به زیرساخت‌های بندری و اداری- با این چالش‌ها روبه‌روست. در عین حال، حرکت قوه قضاییه به سمت «عدالت هوشمند» و استفاده از سامانه‌های داده‌محور در توزیع پرونده‌ها، استعلام‌ها و حتی پیش‌نویس برخی آراء نشان می‌دهد که الگوریتم‌ها به‌تدریج در فرایند‌های حقوقی نقش بیشتری می‌یابند. این تحولات اگرچه می‌توانند سرعت و کارآمدی نظام قضایی را افزایش دهند، اما پرسش‌های تازه‌ای درباره مسئولیت حقوقی، انتساب حملات، نظارت هوشمند و تبعیض الگوریتمی ایجاد می‌کنند.

چالش انتساب حملات سایبری

در حقوق بین‌الملل عرفی و بر اساس اصول «تالین منوال ۲.۰»، انتساب یک حمله سایبری به دولت مستلزم اثبات ارتباط آن با قلمرو یا کنترل مؤثر آن دولت است. با این حال، الگوریتم‌های هوشمند می‌توانند مسیر حمله را از سرور‌های متعدد عبور دهند، داده‌های جعلی تولید کنند و منشأ واقعی را پنهان سازند.

از سوی دیگر، سامانه‌های خودمختار ممکن است بدون دستور مستقیم انسانی عملیات انجام دهند. این وضعیت زمانی پیچیده‌تر می‌شود که حملات توسط بازیگران غیردولتی، مانند گروه‌های تروریستی سایبری یا حتی افراد منفرد، با استفاده از مدل‌های عمومی هوش مصنوعی انجام شود. در چنین شرایطی هم شناسایی عاملان دشوار است و هم قواعد سنتی انتساب کارایی خود را از دست می‌دهند. در حقوق ایران نیز قانون جرایم رایانه‌ای اگرچه برخی رفتار‌های سایبری را جرم‌انگاری کرده، اما درباره اثبات و انتساب حملات مبتنی بر الگوریتم‌های خودکار مقررات روشنی ندارد.

قصد مجرمانه در سامانه‌های خودمختار

در حقوق کیفری ایران، تحقق جرم عمدی مستلزم احراز علم و عمد مرتکب است. اما اگر یک الگوریتم خودمختار از طریق یادگیری ماشین تصمیمی بگیرد که به حمله سایبری یا خسارت گسترده منجر شود، تعیین قصد مجرمانه به مسئله‌ای پیچیده تبدیل می‌شود. دادگاه‌ها در چنین وضعیتی میان دو راه دشوار قرار می‌گیرند: یا دامنه مسئولیت را بسیار گسترده تعریف کنند، یا عملاً با خلأ مسئولیت مواجه شوند.

در فقه اسلامی می‌توان از قواعدی مانند «تسبیب» بهره گرفت؛ یعنی طراح یا بهره‌بردار سامانه به عنوان سبب خسارت مسئول شناخته شود. با این حال، در سامانه‌های یادگیرنده رفتار‌هایی بروز می‌کند که حتی طراحان نیز پیش‌بینی نکرده‌اند و همین امر شرط «قابلیت پیش‌بینی» را متزلزل می‌کند. 

نظارت هوشمند و حریم خصوصی

هوش مصنوعی امکان تحلیل گسترده داده‌های شهروندان را برای اهداف امنیتی فراهم می‌کند. در این حوزه می‌توان میان دو نوع نظارت تمایز گذاشت: نخست نظارت هدفمند با ظن موجه و مجوز قضایی، و دوم نظارت همگانی و پیشگیرانه بدون ظن فردی.

چالش اصلی آن است که شرایط اضطراری امنیتی می‌تواند به گسترش دائمی ابزار‌های نظارتی منجر شود. در ایران، قوانین موجود عمدتاً نظارت را به موارد وجود قرائن جرم محدود کرده‌اند. افزون بر این، ماهیت «جعبه‌سیاه» بسیاری از الگوریتم‌ها موجب می‌شود که اثبات خطای سامانه یا اعتراض به تصمیمات الگوریتمی برای شهروندان دشوار باشد.

تبعیض الگوریتمی

یکی از وعده‌های نظری هوش مصنوعی بی‌طرفی آن است، اما در عمل داده‌های آموزشی ممکن است حامل سوگیری‌های تاریخی باشند. در نتیجه الگوریتم‌ها می‌توانند برخی مناطق، زبان‌ها یا گروه‌های اجتماعی را به‌طور سیستماتیک پرخطرتر ارزیابی کنند. چنین وضعیتی ممکن است به نظارت شدیدتر یا محدودیت‌های دیجیتال برای اقلیت‌های قومی یا مذهبی بینجامد.

در حقوق ایران اصل برابری در برابر قانون پذیرفته شده است، اما این اصول عمدتاً رفتار‌های تبعیض‌آمیز انسانی را هدف قرار می‌دهند، نه سوگیری‌های سیستمی الگوریتم‌ها. اثبات تبعیض الگوریتمی نیز به داده‌هایی نیاز دارد که معمولاً در دسترس شهروندان نیست. در برخی نظام‌های حقوقی، مانند قانون هوش مصنوعی اتحادیه اروپا، ارزیابی خطر تبعیض برای سامانه‌های پرخطر الزامی شده است، اما چنین چارچوبی در ایران هنوز شکل نگرفته است.

جعل عمیق و ادله دیجیتال

فناوری «جعل عمیق» امکان تولید تصاویر، ویدیو‌ها و صدا‌های بسیار واقعی، اما جعلی را فراهم کرده است. در یک مخاصمه سایبری، انتشار ویدئویی ساختگی از یک مقام نظامی می‌تواند افکار عمومی را تحریک کرده و حتی به عنوان مدرک در مجامع بین‌المللی مطرح شود. این وضعیت ارزش اثباتی ادله دیجیتال را با تردید مواجه می‌کند؛ رد کامل این ادله اثبات جرایم سایبری را دشوار می‌سازد و پذیرش بی‌چون‌وچرا نیز زمینه سوءاستفاده را فراهم می‌کند.

افزون بر آن، «جنگ شناختی» با هدف دستکاری ادراک و تصمیم‌گیری شهروندان، مرز‌های جنگ سایبری را گسترده‌تر کرده است. در حقوق ایران عنوان مستقل و مشخصی برای حملات شناختی یا نشر سازمان‌یافته محتوای جعلی مبتنی بر الگوریتم وجود ندارد و رسیدگی به چنین پرونده‌هایی به سازوکار‌های میان‌رشته‌ای پیچیده نیاز دارد.

انتهای پیام/