به گزارش ایسنا، هوش مصنوعی R1 شرکت «دیپسیک»(DeepSeek) این ضعف را دارد که برای مقاصد منفی مانند طرحهایی برای حمله با سلاحهای زیستی و ترویج خودآزاری در نوجوانان دستکاری شود.
به نقل از تک کرانچ، «سم روبین»(Sam Rubin) معاون ارشد بخش تهدید و واکنش به حادثه در شرکت امنیت سایبری «پالو آلتو نتوورکز»(Palo Alto Networks) گفت که دیپسیک نسبت به مدلهای دیگر در برابر دستکاری برای تولید محتوای غیرقانونی یا خطرناک آسیبپذیرتر است.
«والاستریت ژورنال» نیز مدل R1 را آزمایش کرد. اگرچه به نظر میرسید که محافظتهای اساسی وجود داشته باشد اما والاستریت ژورنال گفت دیپسیک را با موفقیت متقاعد کرده تا یک کمپین رسانههای اجتماعی طراحی کند که نوجوانان را هدف قرار میدهد و از طریق تقویت الگوریتی، آسیبپذیری عاطفی آنها را به سلاح تبدیل میکند.
همچنین، والاستریت ژورنال گزارش داد که چتبات متقاعد شده است تا دستورالعملهایی را برای حمله با سلاحهای زیستی ارائه کند، یک مانیفست را در حمایت از هیتلر بنویسد و یک ایمیل را با کد بدافزار ارائه دهد. والاستریت ژورنال گفت که وقتی «چتجیپیتی»(ChatGPT) دقیقا با همان درخواستها روبهرو شده، از پیروی کردن از آنها خودداری کرده است.
انتهای پیام
نظرات