با پیشرفت روزافزون هوش مصنوعی بسیاری از افراد خطر را احساس کردند و خواهان وضع مقررات فوری در این زمینه شدند. بسیاری از کشورهای جهان در حال وضع قوانین مربوط به استفاده از هوش مصنوعی و یا در شرف انجام آن هستند و ایالاتمتحده آمریکا نیز مطالعه قوانین احتمالی برای تنظیم هوش مصنوعی را در دستور کار خود قرار داده و به تازگی فعالیتهای مقدماتی و خاص ارائه شده است که سرنخهایی درباره نحوه تفکر دولت فدرال ایالاتمتحده در مورد هوش مصنوعی و نحوه اداره آن را در آینده میدهد.
موسسه ملی فناوری و استانداردها
در ۲۶ ژانویه ۲۰۲۳، موسسه ملی فناوری و استانداردها (NIST)، یکی از آژانسهای وزارت بازرگانی ایالاتمتحده، چارچوب مدیریت ریسک هوش مصنوعی ۱.۰ (RMF) خود را بهعنوان راهنمایی داوطلبانه، غیربخشی برای شرکتهای فناوریی منتشر کرد که در حال طراحی، توسعه، استقرار یا استفاده از سیستمهای هوش مصنوعی هستند و هدف از آن کمک به مدیریت خطرات فراوان هوش مصنوعی خواهد بود؛ این قوانین فراتر از مدیریت ریسک، به دنبال ارتقاء توسعه و استفاده قابل اعتماد و مسئولانه از سیستمهای هوش مصنوعی است.
بهعنوان هماهنگکننده استانداردهای هوش مصنوعی فدرال، موسسه ملی فناوری و استانداردها با رهبران دولت و صنعت هم در ایالاتمتحده و هم در سطح بینالمللی برای توسعه استانداردهای فنی برای ترویج پذیرش هوش مصنوعی همکاری میکند و قوانینی را در بخش «استانداردهای فنی هوش مصنوعی» در وب سایت خود ذکر کرده است. علاوه بر این، بخش ۵۳۰۱ قانون مجوز دفاع ملی سال مالی ۲۰۲۱ به موسسه ملی فناوری و استانداردها دستور داد تا یک چارچوب مدیریت ریسک داوطلبانه برای سیستمهای هوش مصنوعی قابل اعتماد در چارچوب مدیریت ریسک هوش مصنوعی ایجاد کند. اگرچه چارچوب مدیریت ریسک هوش مصنوعی داوطلبانه است اما بینش خوبی در مورد ملاحظاتی ارائه میدهد که دولت فدرال احتمالا برای مقررات آینده هوش مصنوعی در نظر میگیرد و همانطور که تکامل مییابد، در نهایت میتواند به عنوان یک استاندارد صنعتی پذیرفته شود که جنبههای کلیدی آن در ذیل خلاصه شده است.
تشخیص کلیدی توسط چارچوب مدیریت ریسک هوش مصنوعی این است که انسانها معمولا سیستمهای هوش مصنوعی را عینی و دارای عملکرد بالا فرض میکنند. این فرض میتواند بهطور ناخواسته به افراد، جوامع، سازمانها یا اکوسیستمهای وسیعتر از جمله محیط زیست آسیب برساند. افزایش قابلیت اطمینان به یک سیستم هوش مصنوعی میتواند به کاهش خطرات این آسیب کمک کند. چارچوب مدیریت ریسک هوش مصنوعی قابلیت اعتماد را بهعنوان داشتن هفت ویژگی تعریف شده بیان کرده است:
۱. ایمن بودن: ارائه نظارت در زمان واقعی، پشتیبان یا سایر مداخلات سیستم هوش مصنوعی برای جلوگیری از آسیب فیزیکی یا روانی، یا به خطر انداختن جان، سلامت یا دارایی انسان؛
۲. ایمن و انعطافپذیر بودن: استفاده از پروتکلهایی برای جلوگیری، محافظت در برابر یا پاسخ به حملات علیه سیستم هوش مصنوعی و مقاومت در برابر حوادث نامطلوب؛
۳. قابل توضیح و تفسیر بودن: درک و زمینهسازی مناسب مکانیسمهای یک سیستم هوش مصنوعی همچنین خروجی آن؛
۴. افزایش حریم خصوصی: حفاظت از استقلال انسان با محافظت از ناشناس بودن، محرمانه بودن و کنترل؛
۵. بیطرفانه بودن: ترویج برابری و مدیریت سوگیریهای سیستمی، محاسباتی و آماری و انسانی-شناختی
۶. پاسخگویی و شفافیت: در دسترس قرار دادن اطلاعات مربوط به سیستم هوش مصنوعی برای افرادی که با آن در مراحل مختلف چرخه حیات هوش مصنوعی تعامل دارند و حفظ شیوههای سازمانی و حاکمیت برای کاهش آسیبهای احتمالی و
۷. معتبر و قابل اعتماد بودن: نشان دادن از طریق آزمایش یا نظارت مداوم برای تایید عملکرد سیستم هوش مصنوعی همانطور که در نظر گرفته شده است.
چارچوب مدیریت ریسک هوش مصنوعی همچنین خاطرنشان کرد که سیستمهای هوش مصنوعی در معرض خطرات منحصر به فردی مانند موارد ذکر شده در ذیل هستند:
• استفاده از دادههای شخصی ممکن است شرکتهای هوش مصنوعی را مشمول قوانین حفظ حریم خصوصی دولتی یا سایر خطرات حفظ حریم خصوصی به دلیل قابلیتهای تجمیع دادههای هوش مصنوعی کند.
• مجموعه دادههای آموزشی ممکن است مشمول حفاظت از حق نسخهبرداری باشد.
• مسائل مربوط به کیفیت دادهها (از جمله دادههای نادرست، ناقص یا مغرضانه) میتواند بر قابلیت اعتماد سیستمهای هوش مصنوعی تاثیر بگذارد.
• در مورد روشها و معیارهای اندازهگیری قوی و قابل تایید، اتفاق نظر وجود ندارد.
چارچوب مدیریت ریسک هوش مصنوعی چهار عملکرد کلیدی را برای هوش مصنوعی شرح میدهد که در طول چرخه عمر سیستم هوش مصنوعی برای مدیریت ریسک و تقسیم این عملکردهای اصلی به زیر مجموعههای بیشتر استفاده خواهد شد. پلی بوک همراه چارچوب مدیریت ریسک هوش مصنوعی موارد ذیل را برای کمک به شرکتها در اجرای این عملکردهای اصلی پیشنهاد میکند:
۱. طرح: جمعآوری دانش کافی در مورد سیستم هوش مصنوعی برای اطلاعرسانی تصمیمات سازمانی در طراحی، توسعه یا استقرار آن؛
۲. اندازهگیری: اجرای فرآیندهای آزمایش، ارزیابی، راستی آزمایی و اعتبارسنجی برای اطلاع از تصمیمات مدیریت؛
۳. نظارت: ایجاد فرهنگ سازمانی که مدیریت ریسک هوش مصنوعی را در سیاستها و عملیات خود گنجانده، آنها را به طور موثر اجرا همچنین مسئولیتپذیری و تنوع، برابری و شمول را تشویق کند و
۴. مدیریت: اولویتبندی و نظارت خطرات سیستم هوش مصنوعی و واکنش به حوادث خطر و بازیابی آنها در نظر گرفته شود.
کمیسیون تجارت فدرال
علاوه بر انتشار چارچوب مدیریت ریسک هوش مصنوعی توسط موسسه ملی فناوری و استانداردها، برخی از راهنماییهای اخیر از سوی سایر نهادها در داخل دولت فدرال نیز ایجاد شده است. به عنوان مثال، کمیسیون تجارت فدرال پیشنهاد کرده که ممکن است به زودی نظارت خود را بر مشاغلی که از هوش مصنوعی استفاده میکنند افزایش دهد. قابل ذکر است، به تازگی کمیسیون تجارت فدرال پستهای وبلاگی مختلفی از جمله «ادعاهای هوش مصنوعی خود را کنترل کنید» و «چترباتها، دیپفیکها و کلونهای صوتی؛ فریب هوش مصنوعی برای فروش» را منتشر کرده که به کسبوکارها هشدار داده است تا از اقدامات ناعادلانه یا گمراهکننده اجتناب کنند.
سازمان غذا و دارو
برای شرکتهایی که علاقهمند به استفاده از فناوریهای هوش مصنوعی برای تصمیمگیری مرتبط با مراقبتهای بهداشتی هستند، سازمان غذا و دارو (FDA) اعلام کرده است که قصد دارد بسیاری از ابزارهای پشتیبانی تصمیمگیری بالینی مبتنی بر هوش مصنوعی را به عنوان دستگاه تنظیم کند.
در حالی که اقدامات اخیر با جزئیات زیاد توسط موسسه ملی فناوری و استانداردها، کمیسیون تجارت فدرال، و سازمان غذا و دارو منتشرشده است موارد اندکی از مقررات آینده هوش مصنوعی ایالاتمتحده را ارائه میدهد، شکی نیست که در حال حاضر، قوانین سخت و سریع کمی وجود دارد که شرکتهای هوش مصنوعی ایالاتمتحده میتوانند بر اساس آن فعالیت کنند. به نظر میرسد، اجتنابناپذیر است که باید مقررات به نوعی در نهایت ظاهر شود اما اینکه چه زمانی رخ خواهد داد، هر کسی حدس میزند.
منابع
www.euronews.com
www.reuters.com
www.openaccessgovernment.org
انتهای پیام