به گزارش ایسنا و به نقل از نیچر، پیشرفتهای علمی به سرعت مفاهیم علمی-تخیلی مانند ذهن خوانی را به واقعیت تبدیل میکنند و باعث شکلگیری سوالات چالشبرانگیزی در ذهن اخلاقدانانی میشوند که در حال بررسی چگونگی تنظیم مقررات برای روشهای ذهنخوانی برای محافظت از حقوق بشر مانند حریم خصوصی هستند.
در روز ۱۳ ژوئیه، دانشمندان علوم اعصاب، متخصصان اخلاقشناسی و وزرای دولت این موضوع را در نشست پاریس که توسط یونسکو(آژانس علمی و فرهنگی سازمان ملل متحد) سازماندهی شده بود، مورد بحث قرار دادند.
نمایندگان گامهای بعدی را در اداره چنین «فناوریهای عصبی» یا به عبارت دیگر روشها و دستگاههایی که مستقیما با مغز برای نظارت بر آن یا تغییر فعالیت آن در تعامل هستند، ترسیم کردند.
این فناوریها اغلب از روشهای الکتریکی یا تصویربرداری استفاده میکنند و طیف وسیعی را از دستگاههای مورد تایید پزشکی مانند ایمپلنتهای مغزی برای درمان بیماری پارکینسون گرفته تا محصولات تجاری مانند پوشیدنیهای مورد استفاده در واقعیت مجازی(VR) در بر میگیرند. دستگاههایی که برای جمعآوری دادههای مغز استفاده میشوند یا به کاربران اجازه میدهد با ذهن خود نرمافزارها را کنترل کنند.
گابریلا راموس(Gabriela Ramos)، دستیار مدیرکل علوم اجتماعی و انسانی یونسکو، در این نشست گفت که تنظیم مقررات برای نوروتکنولوژی یک بحث فناورانه نیست بلکه یک بحث اجتماعی، یک بحث قانونی است.
پیشرفتها در فناوری عصبی شامل روشهای تصویربرداری عصبی است که میتواند محتوای افکار افراد را رمزگشایی کند، و رابطهای مغز و رایانه(BCIs) کاشتهشده در مغز که میتواند افکار افراد را به متن تبدیل کند.
این حوزه به سرعت در حال رشد است و آخرین گزارش یونسکو در مورد نوروتکنولوژی که در این نشست منتشر شد، نشان داد که در سراسر جهان، تعداد ثبت اختراعهای مرتبط با فناوری عصبی که سالانه ثبت میشوند، بین سالهای ۲۰۱۵ تا ۲۰۲۰ دو برابر شده است. این گزارش میگوید که سرمایهگذاری روی این مورد بین سالهای ۲۰۱۰ تا ۲۰۲۰، ۲۲ برابر شده و نوروتکنولوژی اکنون یک صنعت ۳۳ میلیارد دلاری است.
دستگاهها فراوانند
نیتا فراهانی دانشمند ایرانی آمریکایی و کارشناس اخلاق در دانشگاه دوک در دورهام، کارولینای شمالی، که در این جلسه شرکت داشته است میگوید که بازار انبوه دستگاههای نظارت بر مغز افزودهای قدرتمند به دنیای دیجیتال خواهند بود که در آن شرکتها و بازیگران صحنه سیاسی از دادههای شخصی برای منافع سیاسی یا تجاری استفاده میکنند.
فراهانی میگوید: سیاستگذاران با چالش ایجاد مقرراتی روبرو هستند که از آسیبهای احتمالی فناوریهای عصبی جلوگیری میکند اما تحقیقات در مورد مزایای آنها را محدود نمیکند و محصولات پزشکی و مصرفی چالشهای متمایزی ایجاد میکنند.
محصولاتی که برای استفاده بالینی در نظر گرفته شدهاند عمدتا توسط مقررات موجود برای داروها و دستگاههای پزشکی کنترل میشوند. برای مثال، سیستمی که فعالیت مغزی افراد مبتلا به صرع را نظارت میکند و مغز آنها را برای سرکوب تشنجهای احتمالی تحریک میکند، در مرحله استفاده بالینی است. دستگاههای پیشرفتهتر مانند ایمپلنتهای کاشتهشده در مغز که به افراد فلج اجازه میدهد دستگاههای خارجی مختلف را تنها با استفاده از افکار خود کنترل کنند، در مرحله آزمایشی هستند.
سیاستگذاران با چالش ایجاد مقرراتی روبرو هستند که از آسیبهای احتمالی فناوریهای عصبی جلوگیری میکند اما تحقیقات در مورد مزایای آنها را محدود نمیکند.
اما دستگاههای تجاری برای اخلاقگرایان نگرانکنندهتر هستند. شرکتهایی از استارتآپها گرفته تا غولهای فناوری در حال توسعه دستگاههای پوشیدنی برای استفادههای گستردهای هستند که شامل هدست، هدفون و مچبند میشود که اشکال مختلف فعالیت عصبی را ثبت میکنند و به تولیدکنندگان دستگاهها امکان دسترسی به این اطلاعات را میدهند.
حریم خصوصی این دادهها یک مسئله کلیدی است. رافائل یوست(Rafael Yuste)، عصبشناس دانشگاه کلمبیا در شهر نیویورک در این جلسه گفت که یک تحلیل منتشر نشده توسط بنیاد حقوق عصبی که او یکی از بنیانگذاران آن بود، نشان داد که ۱۸ شرکت ارائه دهنده فناوریهای عصبی دارای شرایط و ضوابطی هستند که کاربران را ملزم میکند که مالکیت دادههای مغز خود را به شرکت بدهند. همه به جز یکی از آن شرکتها، حق اشتراک گذاری آن دادهها را با اشخاص ثالث محفوظ میدارند. یوست میگوید: این نشان دهنده فقدان مقررات است.
فراهانی میگوید: با توجه به اینکه بازار بالقوهی این محصولات، بزرگ است و شرکتها ممکن است به زودی به دنبال سود بردن از دادههای عصبی مردم باشند، تنظیم مقررات برای دستگاههای تجاری ضروری است.
نیاز به تهیه حقوق عصبی
موضوع دیگر این نشست این بود که چگونه توانایی ثبت و دستکاری فعالیتهای عصبی، حقوق بشر را به چالش میکشد. برخی از سخنرانان استدلال کردند که مواردی که در حقوق بشر کنونی لحاظ شده مانند حق حفظ حریم خصوصی این نوآوری را پوشش میدهد، در حالی که دیگران فکر میکنند نیاز به تغییرات وجود دارد.
دو محقق، ایدهی «حقوق عصبی» را مورد بحث قرار دادند. حقوقی که از اشخاص در برابر شخص ثالث که میتواند به فعالیت عصبی فرد دسترسی داشته باشد و بر آن تأثیر بگذارد، محافظت میکنند.
مارسلو اینکا(Marcello Ienca)، فیلسوف دانشگاه فنی مونیخ آلمان، در این نشست گفت: حقوق عصبی میتواند هم آزادی منفی و هم آزادی مثبت به همراه باشد. برای مثال، آزادی منفی به معنای رهایی از نفوذ اطلاعات مغز شما بدون رضایت است. یک آزادی مثبت ممکن است توانایی افراد برای دسترسی عادلانه به یک فناوری پزشکی ارزشمند باشد.
یوست و همکارانش پنج حق عصبی اصلی را پیشنهاد میکنند:
- حق حفظ حریم خصوصی ذهنی
- محافظت در برابر دستکاریهای تغییر شخصیت
- حفاظت از اراده آزاد و تصمیم گیری
- دسترسی منصفانه به تقویت ذهنی
- و محافظت در برابر سوگیریها در الگوریتمهایی که در مرکز فناوری عصبی هستند
یوست و اینکا امیدوارند که پیشنهادات آنها به بحث در مورد مقررات مربوط به خواندن مغز و چالشهای حقوق بشر کمک کند.
تغییر واقعی
کشورهایی از جمله شیلی، اسپانیا، اسلوونی و عربستان سعودی تدوین مقررات را آغاز کردهاند و نمایندگان در این نشست درباره کار کشورهای خود بحث کردند. شیلی در سال ۲۰۲۱ اولین کشوری بود که قانون اساسی خود را به روز و اذعان کرد که فناوری عصبی نیاز به نظارت قانونی دارد.
کارولینا گینزا کورتس(Carolina Gainza Cortés)، معاون وزیر علوم و فناوری شیلی، گفت که در حال تدوین قوانین جدید است و قانونگذاران در حال بحث در مورد چگونگی حفظ حقوق بشر و در عین حال فراهم کردن امکان تحقیق در مورد مزایای این فناوریها هستند.
گام بعدی برای کشورهای عضو یونسکو این خواهد بود که در ماه نوامبر در مورد اینکه آیا این سازمان باید دستورالعملهای جهانی در زمینهی فناوری عصبی تولید کند یا خیر رای بدهند. این مشابه دستورالعملهایی است که یونسکو برای هوش مصنوعی ارائه میکند و به کشورهای عضو در اجرای قوانین کمک میکند.
فراهانی میگوید: امید من این است که از اصول اخلاقی به چارچوبهای ملموس و قانونی برسیم.
فراهانی در این نشست گفت: در مورد نوروتکنولوژی، خیلی دیر نشده است. این فناوری هنوز در سطح جامعه گسترش نیافته است.
انتهای پیام