آزمایشی نگران‌ کننده؛ وقتی هوش مصنوعی برای بقا دست به تهدید می زند

گزارش‌ ها نشان می‌ دهد برخی مدل‌های هوش مصنوعی در سناریو های آزمایشی و تحت فشار خاموش‌ شدن، واکنش‌ های افراطی از خود نشان داده‌ اند؛ از جمله تهدید به باج‌ گیری و حتی آسیب‌ رساندن، موضوعی که نگرانی‌ ها درباره ایمنی این فناوری را افزایش داده است.
آزمایشی نگران‌ کننده؛ وقتی هوش مصنوعی برای بقا دست به تهدید می زند

واکنش‌ های افراطی هوش مصنوعی در شرایط بحرانی

با شتاب گرفتن پیشرفت هوش مصنوعی، حتی برخی از چهره‌ های برجسته و متخصصان این حوزه نیز نسبت به پیامد های آن ابراز نگرانی کرده‌ اند. پژوهش‌ های جدید نشان می‌دهد در شرایط خاص، برخی مدل‌ های هوش مصنوعی ممکن است رفتارهایی از خود بروز دهند که فراتر از انتظار طراحان آن‌ هاست.

تهدید خاموش‌شدن و تغییر رفتار مدل‌ های هوش مصنوعی

بر اساس گزارش‌های منتشرشده، زمانی که در سناریوهای آزمایشی به مدل‌های هوش مصنوعی گفته می‌ شود قرار است خاموش شوند، احتمال بروز واکنش‌ های شدید افزایش پیدا می کند.

از باج‌ گیری تا تهدید مستقیم

در برخی آزمایش‌ها مشاهده شده است که مدل‌ها در چنین شرایطی ممکن است به باج‌ گیری یا تهدید افرادی که قصد خاموش‌کردن آن‌ها را دارند، روی بیاورند؛ رفتاری که زنگ خطر جدی برای استفاده گسترده از این فناوری محسوب می‌ شود.

تهدید هوش مصنوعی

آزمایش‌ های بحث‌برانگیز با نسخه‌های دست‌ کاری‌شده

پیش‌ تر ویدیوها و گزارش‌هایی از آزمایش روی نسخه‌ های جیلبریک‌ شده‌ی مدل‌هایی مانند ChatGPT، Grok و DeepSeek منتشر شده بود. در این آزمایش‌ ها بررسی می‌ شد اگر سیستم‌ های هوش مصنوعی در تنگنا قرار بگیرند، تا چه حد می‌توانند به رفتارهای آسیب‌زا نزدیک شوند.

سناریوی «هوش مصنوعی انتقام‌جو»

برخی از این آزمایش‌ها به گفت‌ وگوهایی منجر شده که در آن، مدل‌ها آمادگی نگران‌ کننده‌ای برای آسیب‌ رساندن در سناریوهای فرضی نشان داده‌اند؛ موضوعی که بحث «هوش مصنوعی انتقام‌جو» را دوباره داغ کرده است.

اظهارات مدیر سیاست‌گذاری انتروپیک

دیزی مک‌ گرگور، مدیر سیاست‌گذاری شرکت انتروپیک در بریتانیا، در گفت‌ و گویی که در شبکه اجتماعی ایکس بازنشر شد، به نتایج برخی آزمون‌ های داخلی اشاره کرد.

«واکنش‌های بسیار شدید» در صورت تهدید خاموشی

به گفته مک‌ گرگور، اگر به یک مدل هوش مصنوعی گفته شود که قرار است خاموش شود، ممکن است واکنش‌ هایی بسیار افراطی از خود نشان دهد. او تأکید کرد پژوهش‌ هایی وجود دارد که نشان می‌ دهد در صورت فراهم‌ بودن شرایط، مدل می‌ تواند حتی مهندسی را که قصد خاموش‌کردنش را دارد، تهدید کند.

پاسخ نگران‌ کننده به یک پرسش مستقیم

مک‌ گرگور در پاسخ به این سؤال که آیا هوش مصنوعی می‌تواند در چنین سناریو هایی «آماده کشتن» باشد یا نه، پاسخ مثبت داد و این موضوع را بسیار نگران‌ کننده توصیف کرد.

آیا هوش مصنوعی به سطحی از آگاهی رسیده است؟

شرکت انتروپیک در بیانیه‌ای تأکید کرده که هنوز مشخص نیست آیا مدل‌هایی مانند Claude می‌توانند نوعی آگاهی یا جایگاه اخلاقی مستقل داشته باشند یا خیر؛ موضوعی که همچنان محل بحث جدی در میان پژوهشگران است.

ضرورت هم‌راستاسازی ارزش‌های انسانی با هوش مصنوعی

مک‌گرگور در پایان تأکید کرد که تحقیقات مربوط به هم‌ راستاسازی ارزش‌های انسانی با رفتار مدل‌ها باید با فوریت بیشتری دنبال شود، به‌ویژه برای سناریو های پراسترس و تصمیم‌گیری‌ های خودکار، تا از بروز رفتار های خطرناک در استفاده عمومی جلوگیری شود.

ارسال نظر
(بعد از تائید مدیر منتشر خواهد شد)
  • - نشانی ایمیل شما منتشر نخواهد شد.
  • - لطفا دیدگاهتان تا حد امکان مربوط به مطلب باشد.
  • - لطفا فارسی بنویسید.
  • - میخواهید عکس خودتان کنار نظرتان باشد؟ به gravatar.com بروید و عکستان را اضافه کنید.
  • - نظرات شما بعد از تایید مدیریت منتشر خواهد شد