موسسه Future of Life در شاخص «ایمنی هوش مصنوعی» اعلام کرده است که هشت شرکت پیشرو در این حوزه فاقد اقدامات ایمنی کافی و برنامههای بلندمدت برای مدیریت ریسک سیستمهای پیشرفته هستند. در این ارزیابی، شرکتهای آمریکایی امتیاز بالاتری کسب کردند و محصول شرکت Anthropic در مقایسه با OpenAI و DeepMind گوگل در رتبه بالاتری قرار گرفت.
با این حال، هیچ یک از این شرکتها در شاخص «ریسک وجودی» نمرهای بالاتر از D دریافت نکردند و شرکتهایی مانند Alibaba Cloud، DeepSeek، Meta، xAI و Z.ai حتی نمره F را کسب کردند. پژوهشگران بر این باورند که ایمنی وجودی بزرگترین نقطه ضعف ساختاری این صنعت است و شکاف بین سرعت توسعه AGI و نبود برنامههای معتبر برای کنترل آن به طور فزایندهای نگرانکننده میشود.
استورات راسل، استاد علوم رایانشی دانشگاه UC Berkeley، در این باره اظهار داشت: «مدیران ارشد میدانند چگونه ابرهوش بسازند، اما هیچکس نمیتواند نشان دهد چگونه خطر از دست رفتن کنترل آنها را مهار کند. آنها قادر به کاهش ریسک سالانه از دست دادن کنترل به سطحی مشابه الزامات ایمنی راکتورهای هستهای نیستند.» این تحقیق زنگ خطری برای صنعت هوش مصنوعی و سیاستگذاران جهانی است تا قبل از آنکه توسعه فناوریهای فوق پیشرفته از کنترل خارج شود، تدابیر ایمنی مناسب و الزامآور وضع کنند.
