چالشهای حقوقی جنگ سایبری مبتنی بر هوش مصنوعی
مرکز حقوق و هوش مصنوعی پژوهشگاه قوه قضاییه در مطلبی که در اختیار خبرگزاری میزان قرار داد به بررسی چالشهای حقوقی ناشی از ورود هوش مصنوعی به عرصه جنگهای سایبری پرداخته است.
این مطلب ضمن اشاره به دگرگونی ماهیت مخاصمات معاصر و ابهامهای حقوقی پیش رو، به وضعیت ایران در مواجهه با این چالشها و همچنین تحولات قوه قضاییه در مسیر «عدالت هوشمند» پرداخته و پرسشهایی نظیر مسئولیت حقوقی، انتساب حملات، نظارت هوشمند و تبعیض الگوریتمی را مورد کنکاش قرار میدهد.
ورود هوش مصنوعی به عرصه جنگهای سایبری، ماهیت مخاصمات معاصر را بهطور جدی دگرگون کرده است. قواعد سنتی حقوق بینالملل بشردوستانه و حقوق کیفری در برابر سامانههای خودمختار و الگوریتمهای یادگیرنده با ابهامهای تازهای مواجه شدهاند.
ایران نیز به دلیل موقعیت ژئوپلیتیک و تجربه حملات سایبری گسترده از جمله حمله استاکسنت به تأسیسات هستهای و حملات به زیرساختهای بندری و اداری- با این چالشها روبهروست. در عین حال، حرکت قوه قضاییه به سمت «عدالت هوشمند» و استفاده از سامانههای دادهمحور در توزیع پروندهها، استعلامها و حتی پیشنویس برخی آراء نشان میدهد که الگوریتمها بهتدریج در فرایندهای حقوقی نقش بیشتری مییابند. این تحولات اگرچه میتوانند سرعت و کارآمدی نظام قضایی را افزایش دهند، اما پرسشهای تازهای درباره مسئولیت حقوقی، انتساب حملات، نظارت هوشمند و تبعیض الگوریتمی ایجاد میکنند.
چالش انتساب حملات سایبری
در حقوق بینالملل عرفی و بر اساس اصول «تالین منوال ۲.۰»، انتساب یک حمله سایبری به دولت مستلزم اثبات ارتباط آن با قلمرو یا کنترل مؤثر آن دولت است. با این حال، الگوریتمهای هوشمند میتوانند مسیر حمله را از سرورهای متعدد عبور دهند، دادههای جعلی تولید کنند و منشأ واقعی را پنهان سازند.
از سوی دیگر، سامانههای خودمختار ممکن است بدون دستور مستقیم انسانی عملیات انجام دهند. این وضعیت زمانی پیچیدهتر میشود که حملات توسط بازیگران غیردولتی، مانند گروههای تروریستی سایبری یا حتی افراد منفرد، با استفاده از مدلهای عمومی هوش مصنوعی انجام شود. در چنین شرایطی هم شناسایی عاملان دشوار است و هم قواعد سنتی انتساب کارایی خود را از دست میدهند. در حقوق ایران نیز قانون جرایم رایانهای اگرچه برخی رفتارهای سایبری را جرمانگاری کرده، اما درباره اثبات و انتساب حملات مبتنی بر الگوریتمهای خودکار مقررات روشنی ندارد.
قصد مجرمانه در سامانههای خودمختار
در حقوق کیفری ایران، تحقق جرم عمدی مستلزم احراز علم و عمد مرتکب است. اما اگر یک الگوریتم خودمختار از طریق یادگیری ماشین تصمیمی بگیرد که به حمله سایبری یا خسارت گسترده منجر شود، تعیین قصد مجرمانه به مسئلهای پیچیده تبدیل میشود. دادگاهها در چنین وضعیتی میان دو راه دشوار قرار میگیرند: یا دامنه مسئولیت را بسیار گسترده تعریف کنند، یا عملاً با خلأ مسئولیت مواجه شوند.
در فقه اسلامی میتوان از قواعدی مانند «تسبیب» بهره گرفت؛ یعنی طراح یا بهرهبردار سامانه به عنوان سبب خسارت مسئول شناخته شود. با این حال، در سامانههای یادگیرنده رفتارهایی بروز میکند که حتی طراحان نیز پیشبینی نکردهاند و همین امر شرط «قابلیت پیشبینی» را متزلزل میکند.
نظارت هوشمند و حریم خصوصی
هوش مصنوعی امکان تحلیل گسترده دادههای شهروندان را برای اهداف امنیتی فراهم میکند. در این حوزه میتوان میان دو نوع نظارت تمایز گذاشت: نخست نظارت هدفمند با ظن موجه و مجوز قضایی، و دوم نظارت همگانی و پیشگیرانه بدون ظن فردی.
چالش اصلی آن است که شرایط اضطراری امنیتی میتواند به گسترش دائمی ابزارهای نظارتی منجر شود. در ایران، قوانین موجود عمدتاً نظارت را به موارد وجود قرائن جرم محدود کردهاند. افزون بر این، ماهیت «جعبهسیاه» بسیاری از الگوریتمها موجب میشود که اثبات خطای سامانه یا اعتراض به تصمیمات الگوریتمی برای شهروندان دشوار باشد.
تبعیض الگوریتمی
یکی از وعدههای نظری هوش مصنوعی بیطرفی آن است، اما در عمل دادههای آموزشی ممکن است حامل سوگیریهای تاریخی باشند. در نتیجه الگوریتمها میتوانند برخی مناطق، زبانها یا گروههای اجتماعی را بهطور سیستماتیک پرخطرتر ارزیابی کنند. چنین وضعیتی ممکن است به نظارت شدیدتر یا محدودیتهای دیجیتال برای اقلیتهای قومی یا مذهبی بینجامد.
در حقوق ایران اصل برابری در برابر قانون پذیرفته شده است، اما این اصول عمدتاً رفتارهای تبعیضآمیز انسانی را هدف قرار میدهند، نه سوگیریهای سیستمی الگوریتمها. اثبات تبعیض الگوریتمی نیز به دادههایی نیاز دارد که معمولاً در دسترس شهروندان نیست. در برخی نظامهای حقوقی، مانند قانون هوش مصنوعی اتحادیه اروپا، ارزیابی خطر تبعیض برای سامانههای پرخطر الزامی شده است، اما چنین چارچوبی در ایران هنوز شکل نگرفته است.
جعل عمیق و ادله دیجیتال
فناوری «جعل عمیق» امکان تولید تصاویر، ویدیوها و صداهای بسیار واقعی، اما جعلی را فراهم کرده است. در یک مخاصمه سایبری، انتشار ویدئویی ساختگی از یک مقام نظامی میتواند افکار عمومی را تحریک کرده و حتی به عنوان مدرک در مجامع بینالمللی مطرح شود. این وضعیت ارزش اثباتی ادله دیجیتال را با تردید مواجه میکند؛ رد کامل این ادله اثبات جرایم سایبری را دشوار میسازد و پذیرش بیچونوچرا نیز زمینه سوءاستفاده را فراهم میکند.
افزون بر آن، «جنگ شناختی» با هدف دستکاری ادراک و تصمیمگیری شهروندان، مرزهای جنگ سایبری را گستردهتر کرده است. در حقوق ایران عنوان مستقل و مشخصی برای حملات شناختی یا نشر سازمانیافته محتوای جعلی مبتنی بر الگوریتم وجود ندارد و رسیدگی به چنین پروندههایی به سازوکارهای میانرشتهای پیچیده نیاز دارد.
انتهای پیام/