/جهان و هوش مصنوعی/

قوانین ایالات‌متحده آمریکا در هوش مصنوعی کدامند؟ /۱/

توسعه سریع هوش مصنوعی، درخواست‌هایی برای مقررات فوری در این حوزه برانگیخته است که برخی کشورها این قوانین را انجام می‌دهند یا قصد انجام آن را دارند.

پیشرفت‌های سریع در حوزه هوش مصنوعی (AI)، مانند چت بات محبوب جی پی تی (ChatGPT) ساخته شده OpenAI که توسط مایکروسافت پشتیبانی می‌شود، تلاش‌های دولت‌ها را برای توافق بر سر قوانین حاکم بر استفاده از فناوری پیچیده می‌کند. جی پی تی یک برنامه هوش مصنوعی است که به تازگی به دلیل توانایی خود در نوشتن سریع پاسخ به طیف گسترده‌ای از سوالات، توجه عموم و به ویژه  قانون‌گذاران ایالات‌متحده را به خود جلب کرده زیرا با رشد بیش از حد به سریع‌ترین برنامه مصرف‌کننده در تاریخ تبدیل شده است و ۱۰۰ میلیون کاربر فعال ماهانه دارد.

دولت بایدن گفته است که به دنبال نظرات عمومی در مورد اقدامات بالقوه پاسخگویی برای سیستم‌های هوش مصنوعی (AI) است زیرا سوالاتی در مورد تاثیر آن بر امنیت ملی و آموزش وجود دارد. همچنین اداره ملی مخابرات و اطلاعات، آژانس وزارت بازرگانی که به کاخ سفید در مورد سیاست‌های مخابراتی و اطلاعاتی مشاوره می‌دهد، به دلیل وجود علاقه نظارتی فزاینده به مکانیسم پاسخگویی هوش مصنوعی، خواهان دریافت اطلاعات در این زمینه است. این آژانس می‌خواهد بداند که می‌توانیم برای اطمینان از اینکه سیستم‌های هوش مصنوعی قانونی، موثر، اخلاقی، ایمن و قابل اعتماد هستند، اقداماتی انجام داد یا خیر.

سیستم‌های هوش مصنوعی مسئول می‌توانند مزایای زیادی به همراه داشته باشند اما تنها در صورتی که به پیامدها و آسیب‌های احتمالی آنها توجه کنیم. برای اینکه این سیستم‌ها به پتانسیل کامل خود دست یابند، شرکت‌ها و مصرف‌کنندگان باید بتوانند به آنها اعتماد کنند.

بایدن گفت که «باید بررسی کرد، آیا هوش مصنوعی خطرناک است یا خیر. به نظر من، شرکت‌های فناوری مسئولیت دارند که از ایمن بودن محصولاتشان قبل از عمومی کردن آن‌ها مطمئن شوند».

چت بات جی پی تی که برخی از کاربران را با پاسخ‌های سریع به سوالات شگفت‌زده کرده است، توسط OpenAI مستقر در کالیفرنیا ساخته شده و توسط شرکت مایکروسافت (MSFT.O) پشتیبانی می‌شود؛ گروه اخلاق فناوری، مرکز هوش مصنوعی و سیاست دیجیتال، از کمیسیون تجارت فدرال ایالات‌متحده خواسته است که OpenAI را از انتشار نسخه‌های تجاری جدید GPT-۴ با بیان اینکه این نسخه غرض‌آمیز، فریبنده و خطری برای حریم خصوصی و امنیت عمومی است، متوقف کند.

اتحادیه اروپا خواستار قوانین قوی‌تر هوش مصنوعی برای محافظت از آینده است و از سازمان‌ها می‌خواهد در یک ابتکار جهانی با هدف اجرای مقررات هوش مصنوعی در تلاش برای کنترل برنامه‌های هوش مصنوعی مانند چت بات جی پی تی مشارکت کنند.

از آنجایی که توسعه هوش مصنوعی (AI) همچنان از تصویب قوانین حاکم بر استفاده از آن پیشی می‌گیرد، کمیسیون اروپا رهبری تلاش‌های مشترک با ایالات‌متحده را بر عهده می‌گیرد. هدف ایجاد یک کد رفتار داوطلبانه است که شرکت‌ها می‌توانند آن را اتخاذ کنند و شکاف بین قابلیت‌های هوش مصنوعی و اقدامات نظارتی را پر کند.

آیین‌نامه رفتار داوطلبانه در شورای تجارت و فناوری ایالات‌متحده / اتحادیه اروپا پیشنهاد شده است و در جلسه شورای تجارت و فناوری ایالات‌متحده / اتحادیه اروپا (TTC)، مارگرت وستاگر، معاون اجرایی کمیسیون اروپا، این پیشنهاد را ارائه کرد.

وی اظهار کرد: ما در مورد فناوری صحبت می‌کنیم که هر ماه توسعه می‌یابد، بنابراین آنچه در جلسه شورای تجارت و فناوری ایالات‌متحده / اتحادیه اروپا به نتیجه رسید، این است که باید ابتکار عمل را به کار بگیریم تا هرچه بیشتر کشورهای دیگر از یک کد رفتاری هوش مصنوعی برای کسب‌وکارها برای ثبت نام داوطلبانه استفاده کنند.

کاهش خطرات و تصویب مقررات فوری هوش مصنوعی

در میان چشم‌انداز اقتصادی ابزارهای مولد هوش مصنوعی، نگرانی‌هایی در مورد خطرات احتمالی آنها برای دموکراسی در هنگام استفاده برای اطلاعات نادرست و تصمیم‌گیری ایجاد می‌شود زیرا کارشناسان برجسته هوش مصنوعی بر لزوم اولویت‌بندی تلاش‌های جهانی برای کاهش خطر انقراض انسان ناشی از هوش مصنوعی تاکید می‌کنند.

از زمان راه‌اندازی  چت بات جی پی تی، گوگل و مایکروسافت همچنین شرکت‌های پیشرو فناوری اطلاعات ایالات‌متحده، خدمات هوش مصنوعی مولد خود را معرفی کرده‌اند که آغاز عصر جدیدی در نوآوری دیجیتال است با این حال، سرعت قوانین دولت برای رسیدگی به تاثیرات منفی احتمالی این فناوری کند بوده است و به گفته وستاگر، حتی اگر توافقی در یک سال حاصل شود، اجرای این قانون ممکن است دو تا سه سال دیگر طول بکشد.

در این میان، وستاگر یک توافقنامه بین‌المللی را بین کشورهای گروه هفت و شرکای دعوت شده مانند هند و اندونزی پیشنهاد کرد که اگر شرکت‌های این کشورها که حدود یک سوم جمعیت جهان را نمایندگی می‌کنند، به یک کد رفتار متعهد شوند و به تصویب برسند، می‌تواند موثر واقع شود.

همکاری جهانی برای مقررات هوش مصنوعی و کدهای رفتار

طی چهارمین نشست وزیران جلسه شورای تجارت و فناوری ایالات‌متحده / اتحادیه اروپا در سوئد، معاون اجرایی اتحادیه اروپا، وستاگر و وزیر امور خارجه ایالات‌متحده، آنتونی بلینکن فرصت‌های اقتصادی و خطرات اجتماعی مرتبط با فناوری‌های هوش مصنوعی را تصدیق کردند.

آنان در مورد اجرای یک نقشه راه مشترک برای هوش مصنوعی قابل اعتماد و مدیریت ریسک بحث کردند و بر نیاز به کدهای رفتار داوطلبانه تاکید کردند. جلسه شورای تجارت و فناوری ایالات‌متحده / اتحادیه اروپا گروه‌های متخصصی را برای شناسایی استانداردها و ابزارهایی برای هوش مصنوعی قابل اعتماد ایجاد کرده که اکنون شامل تمرکز بر سیستم‌های هوش مصنوعی مولد است.

وستاگر قصد دارد پیش‌نویس آیین‌نامه رفتاری را با نظرات صنعت ارائه و از کشورهایی مانند کانادا، بریتانیا، ژاپن و هند حمایت کند.

نمایندگان بخش خصوصی همچنین در مورد نیاز به استانداردها و ارزیابی برای تنظیم موثر هوش مصنوعی ابراز نگرانی کردند و بر اهمیت همکاری داوطلبانه بین اتحادیه اروپا، ایالات‌متحده، گروه هفت و سایر کشورها برای تسریع پیشرفت در این زمینه تاکید کردند.

شرکت‌ها بیش از هر زمان دیگری در حال توسعه، استقرار و تعامل با فناوری‌های هوش مصنوعی (AI) هستند بنابراین هر گونه مقرراتی را که ممکن است بر شرکت‌هایی که در این فضای پیشرفته فعالیت می‌کنند تحت تاثیر قرار دهد، زیر نظر داریم.

برای شرکت‌هایی که در اروپا فعالیت می‌کنند، چشم‌انداز توسط تعدادی از قوانین قانونی اتحادیه اروپا در حال اجرا و معلق کنترل می‌شود، به ویژه قانون هوش مصنوعی اتحادیه اروپا که انتظار می‌رود اواخر امسال تصویب شود. بریتانیا اخیرا نشان داده است که ممکن است رویکرد متفاوتی در این حوزه داشته باشد.

برای شرکت‌هایی که در ایالات‌متحده فعالیت می‌کنند، چشم‌انداز مقررات هوش مصنوعی کمتر روشن است. تا به امروز، هیچ بررسی جدی در مورد مشابه ایالات‌متحده با قانون هوش مصنوعی اتحادیه اروپا یا قوانین فدرال فراگیر برای کنترل استفاده از هوش مصنوعی صورت نگرفته است همچنین هیچ قانون اساسی ایالتی در حال اجرا نیست، اگرچه قوانین حفظ حریم خصوصی ایالتی وجود دارد که ممکن است بر سیستم‌های هوش مصنوعی که انواع خاصی از داده‌های شخصی را پردازش می‌کنند، نظارت کنند.

با این اوصاف، به تازگی، فعالیت‌های اولیه و خاص بخش خاصی را مشاهده کرده‌ایم که سرنخ‌هایی درباره نحوه تفکر دولت فدرال ایالات‌متحده در مورد هوش مصنوعی و نحوه اداره آن در آینده به دست می‌دهد. به طور خاص، موسسه ملی استانداردها و فناوری (NIST)، کمیسیون تجارت فدرال (FTC) و سازمان غذا و دارو (FDA) همگی راهنمایی‌های اخیر را ارائه کرده‌اند...

منابع

www.euronews.com

www.reuters.com

www.openaccessgovernment.org

انتهای پیام

  • شنبه/ ۲۷ خرداد ۱۴۰۲ / ۱۰:۵۵
  • دسته‌بندی: خراسان رضوی
  • کد خبر: 1402032717195
  • خبرنگار : 50072