هوش مصنوعی و موضوع تسهیل نقض حقوق بشر
خبرگزاری میزان – مرکز ایمنی هوش مصنوعی به تازگی هشداری عمومی را درباره خطراتی که هوش مصنوعی برای بشریت ایجاد میکند، منتشر کرد.
این بیانیه که از سوی بیش از ۳۵۰ دانشمند، مدیران تجاری و شخصیتهای عمومی امضا شده است، میگوید: کاهش خطر هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای یک اولویت جهانی باشد.
نکته نخست اینکه برخی از امضاکنندگان - از جمله مدیران عامل «گوگل دیپمایند و اوپنآی» - که در مورد پایان تمدن هشدار میدهند، شرکتهایی را نمایندگی میکنند که در وهله اول مسئول ایجاد این فناوری هستند؛ و دقیقا همین شرکتها هستند که این قدرت را دارند که اطمینان حاصل کنند هوش مصنوعی واقعا برای بشریت مفید است یا حداقل آسیبی به آن وارد نمیکند.
توصیههای جامعه حقوق بشر
این شرکتها باید به توصیههای جامعه حقوق بشر توجه کنند و فورا چارچوبی را اتخاذ کنند که به آنها کمک میکند تا اثرات منفی بالقوه محصولات خود را شناسایی، پیشگیری و کاهش دهند.
در حالی که دانشمندان مدتهاست در مورد خطرات هوش مصنوعی مولد هشدار دادهاند، اما تا زمان انتشار اخیر ابزارهای جدید هوش مصنوعی، بخش بزرگی از مردم متوجه پیامدهای منفی آن نشدند.
هوش مصنوعی مولد یک اصطلاح گسترده است که الگوریتمهای خلاقانهای را توصیف میکند که خود میتوانند محتوای جدیدی از جمله تصاویر، متن، صدا، ویدئو و حتی کدهای رایانهای تولید کنند؛ این الگوریتمها بر روی مجموعههای داده عظیم آموزش داده میشوند، و سپس از آن آموزش برای ایجاد خروجیهایی استفاده میکنند که اغلب از دادههای «واقعی» قابل تشخیص نیستند - تشخیص اینکه آیا محتوا از سوی یک شخص یا یک الگوریتم تولید شده است، اگر نگوییم غیرممکن، دشوار است.
ظهور ناگهانی ابزارهای جدید هوش مصنوعی مولد بی سابقه بوده است. چت ربات «ChatGPT» توسعه یافته از سوی «OpenAI» کمتر از ۲ ماه طول کشید تا به ۱۰۰ میلیون کاربر برسد؛ این به مراتب بیشتر از رشد اولیه پلتفرمهای محبوبی مانند تیکتاک است که ۹ ماه طول کشید تا به همان تعداد کاربر دسترسی پیدا کند.
در طول تاریخ، فناوری به پیشرفت حقوق بشر کمک کرده است، اما آسیبهایی نیز به بار آورده است، اغلب هم به روشهای غیرقابل پیش بینی؛ هنگامی که ابزارهای جستجوی اینترنتی، رسانههای اجتماعی و فناوری تلفن همراه برای نخستین بار توسعه یافتند و با افزایش پذیرش و دسترسی گسترده، پیشبینی بسیاری از راههای ناراحتکننده که این فناوریهای دگرگونکننده به محرکها و افزایشدهنده نقض حقوق بشر در سراسر جهان تبدیل شدند، تقریبا غیرممکن بود.
موارد نقض حقوق بشر
به گزارش الجزیره، نقش «متا» در پاکسازی قومی روهینگیا در میانمار در سال ۲۰۱۷، یا استفاده از نرم افزارهای جاسوسی تقریبا غیرقابل کشف برای تبدیل تلفنهای همراه به دستگاههای نظارتی ۲۴ ساعته، هر ۲ پیامدهای معرفی اخلالگر هستند؛ فناوریهایی که پیامدهای اجتماعی و سیاسی آنها مورد توجه جدی قرار نگرفته بود.
با درس گرفتن از این تحولات، جامعه حقوق بشر از شرکتهایی که محصولات هوش مصنوعی مولد را توسعه میدهند میخواهد که فوراً برای جلوگیری از هرگونه عواقب منفی برای حقوق بشر اقدام کنند؛ بنابراین رویکرد مبتنی بر حقوق بشر به هوش مصنوعی مولد چگونه ممکن است به نظر برسد؟
برای انجام مسئولیت خود در مورد احترام به حقوق بشر، آنها باید فوراً چارچوب دقیق بررسی حقوق بشر را که در اصول راهنمای سازمان ملل در مورد تجارت و حقوق بشر آمده است، اجرا کنند.
این موضوع شامل بررسی لازم پیشگیرانه و مستمر برای شناسایی آسیبهای واقعی و بالقوه، شفافیت در مورد این آسیبها، و کاهش و اصلاح در صورت لزوم است.
شرکتهایی که این فناوریها را توسعه میدهند، باید فعالانه با دانشگاهیان، فعالان و سازمانهای اجتماعی، بهویژه آنهایی که نمایندگان جوامع سنتی به حاشیه رانده شدهاند، وارد تعامل شوند.
تعامل فعال با جوامع به حاشیه رانده شده باید بخشی از طراحی محصول و فرآیندهای توسعه سیاست باشد تا تأثیر بالقوه این ابزارهای جدید بهتر درک شود. این کار را نمیتوان پس از اینکه شرکتها قبلا آسیب رسانده یا به آسیبها کمک کردهاند، انجام داد.
انتهای پیام/