آزمایشی نگران کننده؛ وقتی هوش مصنوعی برای بقا دست به تهدید می زند
واکنش های افراطی هوش مصنوعی در شرایط بحرانی
با شتاب گرفتن پیشرفت هوش مصنوعی، حتی برخی از چهره های برجسته و متخصصان این حوزه نیز نسبت به پیامد های آن ابراز نگرانی کرده اند. پژوهش های جدید نشان میدهد در شرایط خاص، برخی مدل های هوش مصنوعی ممکن است رفتارهایی از خود بروز دهند که فراتر از انتظار طراحان آن هاست.
تهدید خاموششدن و تغییر رفتار مدل های هوش مصنوعی
بر اساس گزارشهای منتشرشده، زمانی که در سناریوهای آزمایشی به مدلهای هوش مصنوعی گفته می شود قرار است خاموش شوند، احتمال بروز واکنش های شدید افزایش پیدا می کند.
از باج گیری تا تهدید مستقیم
در برخی آزمایشها مشاهده شده است که مدلها در چنین شرایطی ممکن است به باج گیری یا تهدید افرادی که قصد خاموشکردن آنها را دارند، روی بیاورند؛ رفتاری که زنگ خطر جدی برای استفاده گسترده از این فناوری محسوب می شود.

آزمایش های بحثبرانگیز با نسخههای دست کاریشده
پیش تر ویدیوها و گزارشهایی از آزمایش روی نسخه های جیلبریک شدهی مدلهایی مانند ChatGPT، Grok و DeepSeek منتشر شده بود. در این آزمایش ها بررسی می شد اگر سیستم های هوش مصنوعی در تنگنا قرار بگیرند، تا چه حد میتوانند به رفتارهای آسیبزا نزدیک شوند.
سناریوی «هوش مصنوعی انتقامجو»
برخی از این آزمایشها به گفت وگوهایی منجر شده که در آن، مدلها آمادگی نگران کنندهای برای آسیب رساندن در سناریوهای فرضی نشان دادهاند؛ موضوعی که بحث «هوش مصنوعی انتقامجو» را دوباره داغ کرده است.
اظهارات مدیر سیاستگذاری انتروپیک
دیزی مک گرگور، مدیر سیاستگذاری شرکت انتروپیک در بریتانیا، در گفت و گویی که در شبکه اجتماعی ایکس بازنشر شد، به نتایج برخی آزمون های داخلی اشاره کرد.
«واکنشهای بسیار شدید» در صورت تهدید خاموشی
به گفته مک گرگور، اگر به یک مدل هوش مصنوعی گفته شود که قرار است خاموش شود، ممکن است واکنش هایی بسیار افراطی از خود نشان دهد. او تأکید کرد پژوهش هایی وجود دارد که نشان می دهد در صورت فراهم بودن شرایط، مدل می تواند حتی مهندسی را که قصد خاموشکردنش را دارد، تهدید کند.
پاسخ نگران کننده به یک پرسش مستقیم
مک گرگور در پاسخ به این سؤال که آیا هوش مصنوعی میتواند در چنین سناریو هایی «آماده کشتن» باشد یا نه، پاسخ مثبت داد و این موضوع را بسیار نگران کننده توصیف کرد.
آیا هوش مصنوعی به سطحی از آگاهی رسیده است؟
شرکت انتروپیک در بیانیهای تأکید کرده که هنوز مشخص نیست آیا مدلهایی مانند Claude میتوانند نوعی آگاهی یا جایگاه اخلاقی مستقل داشته باشند یا خیر؛ موضوعی که همچنان محل بحث جدی در میان پژوهشگران است.
ضرورت همراستاسازی ارزشهای انسانی با هوش مصنوعی
مکگرگور در پایان تأکید کرد که تحقیقات مربوط به هم راستاسازی ارزشهای انسانی با رفتار مدلها باید با فوریت بیشتری دنبال شود، بهویژه برای سناریو های پراسترس و تصمیمگیری های خودکار، تا از بروز رفتار های خطرناک در استفاده عمومی جلوگیری شود.