خطر دسترسی عوامل هوش مصنوعی به دادههای کلیدی سازمان و راهکارهای مقابله با آن

اصطلاح «عوامل هوش مصنوعی» به سامانههای خودکاری اشاره دارد که قادر به درک محیط، تصمیمگیری و اقدام برای رسیدن به اهداف مشخص هستند. این عوامل معمولاً برای دسترسی به دادهها، برنامهها و خدمات مختلف به چندین شناسه ماشینی نیاز دارند و به دلیل قابلیتهایی مانند خود تغییریافتگی و ایجاد عوامل فرعی، پیچیدگیهای امنیتی بیشتری ایجاد میکنند.
براساس گزارش شرکت سیلپوینت (SailPoint)، ۸۲ درصد از سازمانها در حال حاضر از عوامل هوش مصنوعی استفاده میکنند، اما تنها ۴۴ درصد از این سازمانها سیاستها و مقررات لازم برای حفظ امنیت آنها را دارند. ۵۳ درصد دیگر در حال تدوین چنین سیاستهایی هستند، اما واقعیت این است که بیشتر سازمانها همچنان در برابر خطرات ناشی از این عوامل آسیبپذیرند.
عوامل هوش مصنوعی، تهدیدی رو به افزایش برای امنیت سازمانها
۹۶ درصد از کارشناسان فناوری اطلاعات معتقدند عوامل هوش مصنوعی یک تهدید رو به رشد هستند، حتی با این که ۹۸ درصد از سازمانها قصد دارند استفاده از این ابزارها را در سال آینده گسترش دهند.
۷۲ درصد از متخصصان فناوری معتقدند عوامل هوش مصنوعی نسبت به شناسههای ماشینی سنتی تهدید بیشتری برای کسبوکار ایجاد میکنند.
عوامل مهم در افزایش خطرات امنیتی عوامل هوش مصنوعی عبارتند از:
- دسترسی به دادههای محرمانه و حساس (۶۰٪)
- احتمال انجام اقدامات ناخواسته یا خارج از کنترل (۵۸٪)
- به اشتراکگذاری دادههای محرمانه با افراد یا سامانههای غیرمجاز (۵۷٪)
- تصمیمگیری بر اساس دادههای نادرست یا تأییدنشده (۵۵٪)
- دسترسی و به اشتراکگذاری اطلاعات نامناسب یا غیرضروری (۵۴٪)
چاندرا، معاون ارشد محصولات و مدیر ارشد فناوری شرکت SailPoint میگوید: «عوامل هوش مصنوعی نیروی محرکهای قوی برای نوآوری هستند، اما در عین حال میتوانند مخاطرهآمیز باشند. آنها نحوه انجام کارها را تغییر میدهند، اما یک سطح جدید برای حملات سایبری ایجاد میکنند. این عوامل معمولاً به سامانهها و دادههای حساس دسترسی گسترده دارند ولی نظارت کافی بر آنها وجود ندارد. این ترکیب دسترسی بالا و دید کم، آنها را هدف اصلی مهاجمان قرار میدهد. سازمانها باید با رویکردی مبتنی بر مدیریت هویت، این عوامل را به اندازه کاربران انسانی کنترل کنند و برای آنها مجوزهای لحظهای، دسترسی حداقلی و نظارت کامل در نظر بگیرند.»
نظارت بر عوامل هوش مصنوعی بسیار حیاتی است
عوامل هوش مصنوعی به اطلاعات مشتریان، دادههای مالی، مالکیت معنوی، اسناد حقوقی، معاملات زنجیره تأمین و سایر اطلاعات بسیار حساس دسترسی دارند. اما بسیاری از سازمانها نگران کنترل دادههایی هستند که این عوامل میتوانند مشاهده یا به اشتراک بگذارند.
۹۲ درصد از پاسخدهندگان معتقدند مدیریت صحیح این عوامل برای حفظ امنیت سازمان حیاتی است. ۲۳ درصد گزارش دادهاند که عوامل هوش مصنوعی آنها فریب خوردهاند و اطلاعات دسترسی را لو دادهاند. همچنین ۸۰ درصد از شرکتها اذعان کردهاند که عواملشان گاهی اقدامات ناخواسته انجام دادهاند.
در میان این اقدامات ناخواسته:
۳۹ درصد گزارش کردهاند که عوامل هوش مصنوعی به سامانههای غیرمجاز وارد شدهاند.
۳۳ درصد اعلام کردهاند که دادههای حساس یا نامناسب مشاهده شده است.
۳۲ درصد گفتهاند که دادههای حساس بارگیری شدهاند.
۳۱ درصد بیان کردهاند که این دادهها به صورت غیرمجاز به اشتراک گذاشته شده است.
تیم فناوری اطلاعات بیشترین آگاهی را دارد
بخش فناوری اطلاعات با ۷۱ درصد آگاهی، بیشترین شناخت را نسبت به نحوه دسترسی عوامل هوش مصنوعی به دادهها دارد، زیرا وظیفه راهاندازی، مدیریت پیکربندی و اعطای مجوزها برعهده آنهاست.
اما آگاهی در میان دیگر گروههای کلیدی مانند: واحد تطبیق مقررات (۴۷٪)، حقوقی (۳۹٪)، مدیران ارشد (۳۴٪) و سایر بخشها بسیار پایینتر است، هرچند این گروهها نقش مهمی در شناسایی دادههای حساس، حفاظت از سازمان و کاهش ریسک ایفا میکنند.
این کمبود نظارت و دید باعث شده که تنها ۵۲ درصد از شرکتها بتوانند تمامی دادههای مورد استفاده یا به اشتراک گذاشته شده توسط عوامل هوش مصنوعی را ردیابی و بررسی کنند.
با وجود نیاز عوامل هوش مصنوعی به چندین مجوز برای انجام وظایف، معمولاً تنها از طریق بخش فناوری اطلاعات دسترسی سریع به منابع مختلف داده مییابند. به طور طبیعی، این عوامل همه منابع موجود را برای انجام درخواستها بررسی میکنند و همین موضوع باعث ایجاد آسیبپذیریهای امنیتی میشود.
راهکارهای پیشنهادی برای مقابله با خطرات عوامل هوش مصنوعی
برای کاهش این تهدیدات، سازمانها باید راهکارهای امنیتی ویژهای برای مدیریت هویت پیاده کنند که مخصوص عوامل هوش مصنوعی طراحی شدهاند.
این راهکارها باید قابلیت محدود کردن دسترسی به دادههای حساس، ثبت کامل فعالیتها و ایجاد شفافیت کامل برای تمام بخشهای سازمان را داشته باشند.
منبع: پلیس فتا
انتهای پیام/