رؤسای قوه قضائیه وکیل آنلاین مجله حقوقی

کنگره آمریکا استفاده از چت جی‎بی‎تی را محدود می‎کند

13:59 - 06 تير 1402
کد خبر: ۴۷۲۰۳۰۹
کنگره آمریکا استفاده از چت جی‎بی‎تی را محدود می‎کند
مجلس نمایندگان آمریکا اعلام کرد که استفاده از چت جی‎پی‎تی را به دلیل نگرانی‌های حفظ حریم خصوصی محدود می‌کند.

خبرگزاری میزان - مجلس نمایندگان آمریکا استفاده از چت جی‎پی‎تی، یک چت ربات هوش مصنوعی(AI) را که از زمان شروع به کار در ماه نوامبر محبوبیت زیادی پیدا کرده است، به دلیل نگرانی‌های حفظ حریم خصوصی، محدود می‌کند.

به گزارش «هیل»، اطلاعیه‌ مدیر ارشد اداری مجلس نمایندگان آمریکا، می‎گوید که نمایندگان فقط مجاز به استفاده از نسخه «ChatGPT Plus» هستند که دارای ویژگی‌های حریم خصوصی داخلی است که «برای حفظ داده‌های مجلس نمایندگان ضروری است».

این اطلاعیه تصریح می‌کند که ابزار تولید شده توسط هوش مصنوعی باید فقط برای اهداف تحقیق و ارزیابی استفاده شود.

همچنین، این اطلاعیه می‌گوید که چت جی‎پی‎تی باید با فعال بودن تنظیمات حریم خصوصی و فقط در صورت وجود داده‌های غیر حساس استفاده شود.

چت جی‎پی‎تی به منبع بحث در «کپیتال هیل» تبدیل شده است، زیرا قانونگذاران به دنبال درک و کاهش خطرات احتمالی مرتبط با هوش مصنوعی مولد هستند.

سام آلتمن، مدیر عامل شرکت OpenAI که چت جی‎پی‎تی را ابداع کرد، ماه گذشته در برابر کمیته فرعی حقوقی سنا درباره حریم خصوصی و فناوری ظاهر شد. 

در بیانیه‌ای پیش از آن جلسه، سناتور «ریچارد بلومنتال»، رئیس هیئت فرعی سنای آمریکا در این موضوع، گفت که چت جی‎پی‎تی به قوانین و تدابیری فوری برای رسیدگی به وعده‌ها و دام‌های عظیم خود نیاز دارد.

سناتور «جاش هاولی»، عضو رتبه بندی کمیته فرعی سنای آمریکا، گفت که این جلسه اولین گام حیاتی به سوی درک آنچه کنگره باید انجام دهد، بود.

وی پیش بینی کرد که هوش مصنوعی «به شکلی که ما حتی نمی‌توانیم تصورش را هم کنیم، متحول کننده خواهد بود».

نگرانی‌ها از حفظ حریم خصوصی

به گزارش «پاباکس»، چند روز قبل، در یک افشاگری شگفت‌انگیز، Group-IB از کشف اطلاعات بیش از ۱۰۱ هزار و ۱۰۰ حساب کاربری چت جی‎پی‎تی در بازار‌های «دارک وب» از ژوئن ۲۰۲۲ تا می ۲۰۲۳ خبر داد. 

این سرقت اطلاعات باعث افزایش قابل توجهی در حفظ حریم خصوصی شده است.

به گفته کارشناسان، حساب‌های کاربری در معرض خطر چت جی‎پی‎تی تهدیدی جدی برای حریم خصوصی و امنیت هستند. 

برخی کارمندان از چت جی‎پی‎تی برای بهینه سازی کد اختصاصی یا وارد کردن مکاتبات محرمانه استفاده می‌کنند. اگر عاملان تهدید به این حساب‌ها دسترسی داشته باشند، می‌توانند به اطلاعات حساس زیادی دسترسی پیدا کنند. 

چت جی‎پی‎تی، مانند بسیاری از ابزار‌های هوش مصنوعی، از اطلاعاتی که به آن داده می‌شود، آموزش می‌بیند. این بدان معنی است که هر اطلاعات حساس وارد شده به این سیستم می‌تواند به طور احتمالی برای بهبود پاسخ‌های هوش مصنوعی استفاده شود. 

در حالی که OpenAI سیاست‌هایی برای ناشناس کردن داده‌ها و جلوگیری از استفاده از آن‌ها برای آموزش مدل‌های خود دارد، خطر نقض اطلاعات همچنان وجود دارد. 

این سرویس‌ها در حالی که به طور کلی ایمن هستند، اما به دلیل اطلاعات اختصاصی که بسیاری از شرکت‌ها در چت‌های هوش مصنوعی وارد می‌کنند، هدف جذابی برای هکر‌ها هستند.

اقدامات پیشگیرانه برخی شرکت‌ها و نهاد‌ها

در پاسخ به این نگرانی‌ها، برخی از شرکت‌ها اقدامات پیشگیرانه‌ای انجام داده‌اند. 

به عنوان مثال، شرکت «سامسونگ» کارمندان خود را از استفاده از چت جی‎پی‎تی به دلیل ترس از ورود اطلاعات حساس شرکتی به پلتفرم هوش مصنوعی منع کرده است. 

همچنین به گزارش «میک‌آس‌آف»، این اقدام به عنوان یادآوری خطرات بالقوه مرتبط با ابزار‌های هوش مصنوعی و نیاز به اقدامات سختگیرانه امنیتی داده‌ها عمل می‌کند. 

همچنین بانک مشترک‎المنافع استرالیا، همراه با شرکت‌هایی مانند آمازون، اپل، و «جی پی موزگان» از این روش پیروی کردند.

برخی بیمارستان‌ها، شرکت‌های حقوقی و سازمان‌های دولتی نیز کارمندان خود را از استفاده از چت جی‎پی‎تی منع کرده‌اند.

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *