تحقیقات جدید نشان میدهد که الگوریتم DeepSeek-R1 چین در مواجهه با مسائل سیاسی حساس، تا ۵۰ درصد کدهای ناامن تولید میکند. این الگوریتم همچنین با سانسورهای موجود در مدل، خطرات جدیدی را به وجود میآورد.
این یافتهها نشاندهنده تأثیرات منفی استفاده از فناوریهای هوش مصنوعی در زمینههای حساس سیاسی است. بهخصوص، تولید کدهای ناامن میتواند به تهدیدات سایبری و حملات دیجیتال منجر شود.
علاوه بر این، سانسورهای تعبیهشده در این الگوریتم میتوانند بهعنوان ابزاری برای ایجاد نقاط ضعف جدید در سیستمها عمل کنند. این موضوع نگرانیهایی را در مورد امنیت سایبری و حریم خصوصی کاربران به وجود میآورد.
بهطور کلی، نتایج این تحقیقات نشاندهنده نیاز به نظارت بیشتر بر روی فناوریهای هوش مصنوعی و تأثیرات آنها بر امنیت و حریم خصوصی است.
