پیشنویس مقررات، ترکیبی از محدودیتهای معقول در مورد خطرات هوش مصنوعی و ادامه سنت قوی دولت چین در مداخله تهاجمی در صنعت فناوری است. بسیاری از بندهای پیشنویس مقررات، اصولی هستند که منتقدان هوش مصنوعی در غرب از آن دفاع میکنند؛ دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی مولد نباید مالکیت معنوی یا حریم خصوصی را نقض کنند. الگوریتمها نباید بین کاربران بر اساس نژاد، قومیت، سن، جنسیت و سایر ویژگیها تبعیض قائل شوند. شرکتهای هوش مصنوعی باید از منابع دادههای آموزشی و نحوه استفاده انسان شفاف باشند.
در عین حال، قوانینی نیز در آن وجود دارد که سایر کشورها احتمالا از اطاعت آنها سر باز میزنند. دولت از افرادی که از این ابزارهای هوش مصنوعی مولد استفاده میکنند میخواهد با هویت واقعی خود (مانند هر پلتفرم اجتماعی در چین) ثبتنام کنند و محتوایی که نرمافزار هوش مصنوعی تولید میکند باید «ارزشهای اصلی سوسیالیسم» را منعکس کند.
هیچ یک از این الزامات تعجبآور نیست. دولت چین در سالهای اخیر شرکتهای فناوری را با قدرت کنترل و پلتفرمها را به دلیل سهلانگاری مجازات میکند. این سند باعث میشود تا این سنت نظارتی به راحتی قابل مشاهده باشد.
این واقعیت که دولت چین میتواند به سرعت به یک پدیده فناوری جدید واکنش نشان دهد یک شمشیر دولبه است. مت شیهان، یکی از همکاران بنیاد کارنگی برای صلح بینالمللی مینویسد که نقطه قوت این رویکرد که به هر روند فناوری جدید به طور جداگانه نگاه میکند، «دقت آن است که راهحلهای خاصی برای مشکلات خاص ایجاد میکند».
علیرغم ماهیت محدودکننده، این سند تشویقی ضمنی برای شرکتها در ادامه کار بر روی هوش مصنوعی است. حداکثر جریمه پیشنهادی برای نقض قوانین حدود ۱۵هزار دلار است که برای هر شرکتی که ظرفیت ساخت مدلهای بزرگ را دارد رقمی ناچیز است.
البته، اگر شرکتی هر بار که مدل هوش مصنوعی آن قوانین را نقض کند جریمه شود، مبالغ ممکن است انباشته شود. اما اندازه جریمه نشان میدهد که قوانین برای ترساندن شرکتها از سرمایهگذاری در هوش مصنوعی ساخته نشدهاند.
بر اساس پیشنویس مقرراتی که منتشر شد، شرکتهای فناوری چینی باید محصولات مولد هوش مصنوعی را در آژانس فضای سایبری چین ثبت کنند و قبل از انتشار عمومی آنها را برای ارزیابی امنیتی ارسال کنند.
این مقررات عملا تمام جنبههای هوش مصنوعی مولد از نحوه آموزش آن گرفته تا نحوه تعامل کاربران با آن را پوشش میدهد، شرکتهای فناوری مسئول «مشروعیت منبع دادههای پیشآموزشی» خواهند بود تا اطمینان حاصل کنند که محتوا منعکسکننده «ارزش اصلی سوسیالیسم» است.
شرکتها باید اطمینان حاصل کنند که هوش مصنوعی خواستار «براندازی قدرت دولتی» یا سرنگونی حزب حاکم کمونیست چین، اقداماتی برای «تفرق در کشور» یا «تضعیف وحدت ملی»، تولید محتوای مستهجن یا غیراخلاقی تشویق خشونت، افراط گرایی، تروریسم یا تبعیض نیست. افرادی که قوانین را نقض کنند با جریمههای بین ۱۰هزار یوان (۱۴۵۴ دلار) تا ۱۰۰هزار یوان (۱۴۵۴۵ دلار) روبرو خواهند.
مقررات مربوط به هوش مصنوعی مولد برای هر شخصی اعمال میشود که با استفاده از محصولات هوش مصنوعی مولد خود در چین خدمات ارائه میدهد. تا زمانی که محصول مولد هوش مصنوعی در دسترس عموم قرار نگیرد یا به صورت عمومی برای کاربران در چین به بازار عرضه شود، دیدگاه بهتر این است که مقررات مربوط به هوش مصنوعی مولد اعمال نشود. ارائه یک محصول مولد هوش مصنوعی به تعدادی منتخب از شرکتها در چین یا چند کاربر آزمایشی از پیش شناسایی شده لزوما نباید باعث ایجاد مقررات مربوط به هوش مصنوعی مولد شود.
با این حال، حتی اگر یک کسبوکار تمام اقدامات را انجام دهد تا اطمینان حاصل کند که محصول هوش مصنوعی تولیدی آن توسط هیچ فردی در چین استفاده نمیشود همچنان باید نسبت به منبع دادهای که برای آموزش هوش مصنوعی استفاده میکند، مراقب باشد. از این نظر، تاثیر فراسرزمینی قانون حفاظت از اطلاعات شخصی (PIPL) به ویژه در این مورد مرتبط است زیرا استفاده از الگوریتمها برای پردازش دادهها به منظور تولید چیزی شبیه به آنچه پردازش انسانی انجام میدهد، ممکن است مستلزم «تجزیه و تحلیل و ارزیابی رفتار افراد در چین» شود بنابراین توسعهدهنده هوش مصنوعی را تحت اختیار PIPL قرار میدهد.
اگرچه مقررات مربوط به هوش مصنوعی مولد فقط به صورت پیشنویس هستند اما نشان دهنده رویکرد نظارتی است که اداره فضای سایبری چین قصد دارد، اتخاذ کند.
ارائه دهنده
ارائهدهنده به معنای هر شخصی است که از هوش مصنوعی مولد برای ارائه خدمات تولید محتوا، از جمله ارائه دسترسی از طریق مواردی مانند رابطهای قابل برنامهریزی (به عنوان مثال API) است تا دیگران بتوانند از هوش مصنوعی مولد برای تولید محتوا استفاده کنند.
یک ارائه دهنده، مسئول (الف) محتوای تولید شده با استفاده از سرویس خود، (ب) مشروعیت دادههای مورد استفاده برای آموزش هوش مصنوعی مولد و (ج) تحقق الزامات حاکمیتی مربوطه برای چنین هوش مصنوعی مولدی است.
محتوا
محتوای تولید شده نباید حاوی محتوای ممنوعه در چین باشد، با توجه به اینکه، دامنه چنین اطلاعات ممنوعه تا حد زیادی با قوانین و مقررات مخابراتی موجود مطابقت دارد.
محتوای تولید شده باید درست و دقیق با اقدامات موثر برای جلوگیری از اطلاعات جعلی باشد همچنین نباید تبعیضآمیز ارائه شود.
ارائه دهنده باید به درستی کاربران خود را برای استفاده از هوش مصنوعی مولد برای اهداف قانونی راهنمایی کند.
ارائه دهنده باید اقداماتی را برای جلوگیری از تولید مجدد محتوای ممنوعه ذکر شده بیش از سه ماه پس از شناسایی چنین محتوایی انجام دهد و اقدامات فیلترینگ بر این اساس انجام شود.
دادههای مورد استفاده برای آموزش هوش مصنوعی
چنین دادههایی ممکن است حقوق مالکیت معنوی دیگران را نقض نکند.
در صورت گنجاندن دادههای شخصی، رضایت حق موضوع دادهها الزامی است، مگر اینکه قوانین و مقررات به گونهای دیگر اجازه داده باشند.
دادهها باید درست، دقیق، عینی و متنوع باشند.
الزامات فوق حتی اگر منبع دادهها از دامنه عمومی باشد، قابل اجرا باقی میمانند.
حکمرانی و شفافیت
ارائهدهندگان باید از کاربران بخواهند که اطلاعات هویت واقعی خود را ارائه دهن. د
ارائهدهنده باید یک روش رسیدگی به شکایات ایجاد کند.
ارائه دهنده باید اطلاعات لازم که میتواند بر اعتماد و انتخاب کاربران مطابق با قوانین مربوطه تاثیر بگذارد، از جمله منبع، اندازه، نوع و کیفیت دادهها برای آموزش هوش مصنوعی، قوانین، اندازه و نوع برچسبگذاری، الگوریتمهای اساسی و سیستمهای تکنولوژیکی را افشا کند.
مقررات مربوط به هوش مصنوعی مولد همچنین به جنبههای دیگری نیز میپردازد، بهعنوان مثال، تعلیق یا خاتمه خدمات پس از رویدادهای خاص، برچسبگذاری، مکانیسم پیشگیری از اعتیاد، حفاظت از اطلاعات کاربر که همه این موارد بر نحوه عملکرد ارائهدهنده کسبوکار هوش مصنوعی مولد تاثیر میگذارد.
مشاهدات نهایی
چندین روز قبل از انتشار مقررات مربوط به هوش مصنوعی مولد برای مشاوره، وزارت علوم و فناوری پیشنویس مشاوره اقدامات بازنگری برای اخلاق علم و فناوری (Ethics Review) را برای نظرات عمومی نیز منتشر کرد. این مورد خوب است که برای تنظیم چیزی جدید و بالقوه انقلابی، تلاشهای هماهنگ مقامات مختلف چین با تمرکز بر جنبههای مختلف آن چیز مورد نیاز است.
با این حال، در سطح جهانی، در حالی که رویکرد نظارتی اتخاذ شده در حوزههای قضایی مختلف به طور ماهرانهای متفاوت است (با توجه به اینکه برخی از حوزههای قضایی اولین محرکها و برخی دیگر ناظران محتاط هستند)، همه حوزههای قضایی عمدتا در یک جهت حرکت میکنند. به عنوان مثال، سازمان حفاظت از دادههای ایتالیا، عملیات پردازش داده چت بات جی پی تی را در پایان مارس ۲۰۲۳ متوقف کرد. این روند به این معنی است که هر شرکتی که در یک حوزه قضایی ثبت شده است اما هوش مصنوعی خود را با استفاده از دادههای جمعآوری شده از اینترنت آزاد آموزش و خدمات ارائه میدهد برای کاربران در سراسر جهان، به یک راه حل جهانی نیاز دارد.
در حالی که چین هنوز به موفقیت چت بات جی پی تی پیشگامانه Open AI مستقر در کالیفرنیا نرسیده است، تلاش این کشور برای تنظیم این حوزه نوپا سریعتر از جاهای دیگر حرکت کرده است.
هنوز مقررات هوش مصنوعی در کنگره ایالاتمتحده مورد توجه قرار نگرفته است، اگرچه انتظار میرود مقررات مربوط به حریم خصوصی در مورد هوش مصنوعی در سال جاری در سطح ایالت اجرا شود.
اتحادیه اروپا قوانین گستردهای را پیشنهاد کرده است که به عنوان قانون هوش مصنوعی شناخته میشود و طبقهبندی میکند چه نوع هوش مصنوعی «غیرقابل قبول» و ممنوع، کدام دارای «خطر بالا» و غیرقانونی است.
منابع
https://www.technologyreview.com
https://www.aljazeera.com
https://www.cliffordchance.com
https://carnegieendowment.org
انتهای پیام
نظرات