کنگره آمریکا استفاده از ChatGPT را در دفاتر خود محدود میکند
خبرگزاری میزان - مجلس نمایندگان آمریکا استفاده از ChatGPT، یک چت ربات هوش مصنوعی (AI) را که از زمان شروع به کار در ماه نوامبر محبوبیت زیادی پیدا کرده است، را به دلیل نگرانیهای حفظ حریم خصوصی، محدود میکند.
به گزارش «هیل»، در اطلاعیهای که توسط مدیر ارشد اداری مجلس نمایندگان ارسال شد، آمده است که نمایندگان فقط مجاز به استفاده از نسخه ChatGPT Plus هستند که دارای ویژگیهای حریم خصوصی داخلی است که «برای حفظ دادههای مجلس نمایندگان ضروری است».
این اطلاعیه تصریح میکند که ابزار تولید شده توسط هوش مصنوعی باید فقط برای اهداف تحقیق و ارزیابی استفاده شود. همچنین، این اطلاعیه میگوید ChatGPT باید با فعال بودن تنظیمات حریم خصوصی و فقط در صورت وجود دادههای غیر حساس استفاده شود.
در این اطلاعیه آمده است: هر بلوک متنی را که قبلاً عمومی نشده است، در ربات چت قرار ندهید.
ChatGPT به منبع بحث در «کپیتال هیل» تبدیل شده است، زیرا قانونگذاران به دنبال درک و کاهش خطرات احتمالی مرتبط با هوش مصنوعی مولد هستند.
سام آلتمن، مدیر عامل شرکت OpenAI که ChatGPT را ابداع کرد، ماه گذشته در برابر کمیته فرعی حقوقی سنا درباره حریم خصوصی و فناوری ظاهر شد.
در بیانیهای پیش از آن جلسه، سناتور «ریچارد بلومنتال»، رئیس هیئت فرعی سنای آمریکا در این موضوع، گفت که ChatGPT به قوانین و تدابیری فوری برای رسیدگی به وعدهها و دامهای عظیم خود نیاز دارد.
سناتور «جاش هاولی»، عضو رتبه بندی کمیته فرعی سنای آمریکا، گفت که این جلسه اولین گام حیاتی به سوی درک آنچه کنگره باید انجام دهد، بود. وی پیش بینی کرد که هوش مصنوعی «به شکلی که ما حتی نمیتوانیم تصورش را هم کنیم، متحول کننده خواهد بود».
نگرانیها از حفظ حریم خصوصی
به گزارش «پاباکس»، چند روز قبل، در یک افشاگری شگفتانگیز، Group-IB از کشف اطلاعات بیش از ۱۰۱ هزار و ۱۰۰ حساب کاربری ChatGPT در بازارهای «دارک وب» از ژوئن ۲۰۲۲ تا می ۲۰۲۳ خبر داد.
این سرقت اطلاعات باعث افزایش قابل توجهی در حفظ حریم خصوصی شده است.
به گفته کارشناسان، حسابهای کاربری در معرض خطر ChatGPT تهدیدی جدی برای حریم خصوصی و امنیت هستند.
برخی کارمندان از ChatGPT برای بهینه سازی کد اختصاصی یا وارد کردن مکاتبات محرمانه استفاده میکنند. اگر عاملان تهدید به این حسابها دسترسی داشته باشند، میتوانند به اطلاعات حساس زیادی دسترسی پیدا کنند.
ChatGPT، مانند بسیاری از ابزارهای هوش مصنوعی، از اطلاعاتی که به آن داده میشود، آموزش میبیند. این بدان معنی است که هر اطلاعات حساس وارد شده به این سیستم میتواند به طور احتمالی برای بهبود پاسخهای هوش مصنوعی استفاده شود.
در حالی که OpenAI سیاستهایی برای ناشناس کردن دادهها و جلوگیری از استفاده از آنها برای آموزش مدلهای خود دارد، خطر نقض اطلاعات همچنان وجود دارد.
این سرویسها در حالی که به طور کلی ایمن هستند، اما به دلیل اطلاعات اختصاصی که بسیاری از شرکتها در چتهای هوش مصنوعی وارد میکنند، هدف جذابی برای هکرها هستند.
اقدامات پیشگیرانه برخی شرکتها و نهادها
در پاسخ به این نگرانیها، برخی از شرکتها اقدامات پیشگیرانهای انجام دادهاند.
به عنوان مثال، شرکت «سامسونگ» کارمندان خود را از استفاده از ChatGPT به دلیل ترس از ورود اطلاعات حساس شرکتی به پلتفرم هوش مصنوعی منع کرده است.
همچنین به گزارش «میکآسآف»، این اقدام به عنوان یادآوری خطرات بالقوه مرتبط با ابزارهای هوش مصنوعی و نیاز به اقدامات سختگیرانه امنیتی دادهها عمل میکند.
همچنین بانک مشترک المنافع استرالیا، همراه با شرکتهایی مانند آمازون، اپل، و «جی پی موزگان» از این روش پیروی کردند.
برخی بیمارستانها، شرکتهای حقوقی و سازمانهای دولتی نیز کارمندان خود را از استفاده از ChatGPT منع کردهاند.
انتهای پیام/