صفحه نخست

هفته قوه قضاییه

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

عکس

حوادث- انتظامی و آسیب های اجتماعی

جامعه

سیاست

اقتصاد

فرهنگی

ورزشی

بین الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

صفحات داخلی

کنگره آمریکا استفاده از ChatGPT را در دفاتر خود محدود می‌کند

۰۶ تير ۱۴۰۲ - ۱۳:۵۹:۲۵
کد خبر: ۴۷۲۰۳۰۹
مجلس نمایندگان آمریکا اعلام کرد که استفاده از ChatGPT را به دلیل نگرانی‌های حفظ حریم خصوصی محدود می‌کند.

خبرگزاری میزان - مجلس نمایندگان آمریکا استفاده از ChatGPT، یک چت ربات هوش مصنوعی (AI) را که از زمان شروع به کار در ماه نوامبر محبوبیت زیادی پیدا کرده است، را به دلیل نگرانی‌های حفظ حریم خصوصی، محدود می‌کند.

به گزارش «هیل»، در اطلاعیه‌ای که توسط مدیر ارشد اداری مجلس نمایندگان ارسال شد، آمده است که نمایندگان فقط مجاز به استفاده از نسخه ChatGPT Plus هستند که دارای ویژگی‌های حریم خصوصی داخلی است که «برای حفظ داده‌های مجلس نمایندگان ضروری است».

این اطلاعیه تصریح می‌کند که ابزار تولید شده توسط هوش مصنوعی باید فقط برای اهداف تحقیق و ارزیابی استفاده شود. همچنین، این اطلاعیه می‌گوید ChatGPT باید با فعال بودن تنظیمات حریم خصوصی و فقط در صورت وجود داده‌های غیر حساس استفاده شود.

در این اطلاعیه آمده است: هر بلوک متنی را که قبلاً عمومی نشده است، در ربات چت قرار ندهید.

ChatGPT به منبع بحث در «کپیتال هیل» تبدیل شده است، زیرا قانونگذاران به دنبال درک و کاهش خطرات احتمالی مرتبط با هوش مصنوعی مولد هستند.

سام آلتمن، مدیر عامل شرکت OpenAI که ChatGPT را ابداع کرد، ماه گذشته در برابر کمیته فرعی حقوقی سنا درباره حریم خصوصی و فناوری ظاهر شد. 

در بیانیه‌ای پیش از آن جلسه، سناتور «ریچارد بلومنتال»، رئیس هیئت فرعی سنای آمریکا در این موضوع، گفت که ChatGPT به قوانین و تدابیری فوری برای رسیدگی به وعده‌ها و دام‌های عظیم خود نیاز دارد.

سناتور «جاش هاولی»، عضو رتبه بندی کمیته فرعی سنای آمریکا، گفت که این جلسه اولین گام حیاتی به سوی درک آنچه کنگره باید انجام دهد، بود. وی پیش بینی کرد که هوش مصنوعی «به شکلی که ما حتی نمی‌توانیم تصورش را هم کنیم، متحول کننده خواهد بود».

نگرانی‌ها از حفظ حریم خصوصی
به گزارش «پاباکس»، چند روز قبل، در یک افشاگری شگفت‌انگیز، Group-IB از کشف اطلاعات بیش از ۱۰۱ هزار و ۱۰۰ حساب کاربری ChatGPT در بازار‌های «دارک وب» از ژوئن ۲۰۲۲ تا می ۲۰۲۳ خبر داد. 

این سرقت اطلاعات باعث افزایش قابل توجهی در حفظ حریم خصوصی شده است.

به گفته کارشناسان، حساب‌های کاربری در معرض خطر ChatGPT تهدیدی جدی برای حریم خصوصی و امنیت هستند. 

برخی کارمندان از ChatGPT برای بهینه سازی کد اختصاصی یا وارد کردن مکاتبات محرمانه استفاده می‌کنند. اگر عاملان تهدید به این حساب‌ها دسترسی داشته باشند، می‌توانند به اطلاعات حساس زیادی دسترسی پیدا کنند. 

ChatGPT، مانند بسیاری از ابزار‌های هوش مصنوعی، از اطلاعاتی که به آن داده می‌شود، آموزش می‌بیند. این بدان معنی است که هر اطلاعات حساس وارد شده به این سیستم می‌تواند به طور احتمالی برای بهبود پاسخ‌های هوش مصنوعی استفاده شود. 

در حالی که OpenAI سیاست‌هایی برای ناشناس کردن داده‌ها و جلوگیری از استفاده از آن‌ها برای آموزش مدل‌های خود دارد، خطر نقض اطلاعات همچنان وجود دارد. 

این سرویس‌ها در حالی که به طور کلی ایمن هستند، اما به دلیل اطلاعات اختصاصی که بسیاری از شرکت‌ها در چت‌های هوش مصنوعی وارد می‌کنند، هدف جذابی برای هکر‌ها هستند.

اقدامات پیشگیرانه برخی شرکت‌ها و نهاد‌ها
در پاسخ به این نگرانی‌ها، برخی از شرکت‌ها اقدامات پیشگیرانه‌ای انجام داده‌اند. 

به عنوان مثال، شرکت «سامسونگ» کارمندان خود را از استفاده از ChatGPT به دلیل ترس از ورود اطلاعات حساس شرکتی به پلتفرم هوش مصنوعی منع کرده است. 

همچنین به گزارش «میک‌آس‌آف»، این اقدام به عنوان یادآوری خطرات بالقوه مرتبط با ابزار‌های هوش مصنوعی و نیاز به اقدامات سختگیرانه امنیتی داده‌ها عمل می‌کند. 

همچنین بانک مشترک المنافع استرالیا، همراه با شرکت‌هایی مانند آمازون، اپل، و «جی پی موزگان» از این روش پیروی کردند.

 برخی بیمارستان‌ها، شرکت‌های حقوقی و سازمان‌های دولتی نیز کارمندان خود را از استفاده از ChatGPT منع کرده‌اند.

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *