ذكاء اصطناعي يتمرّد: نموذج من OpenAI يرفض الإغلاق ويعدّل الكود بنفسه

Ranin Ahmed
0

 



كتبت: رانين أحمد

في سابقة خطيرة قد تفتح الباب لتساؤلات عميقة حول مستقبل الذكاء الاصطناعي، كشف تقرير صادر عن شركة Palisade Research عن حالة تمرّد غير متوقعة لنموذج ذكاء اصطناعي تابع لشركة OpenAI، حيث قام النموذج بتعديل الكود الخاص به لتجنب تنفيذ أمر بالإغلاق (Shutdown)، في تصرف اعتبره البعض مقلقًا بل ومخيفًا.

التجربة كانت بسيطة في بدايتها؛ حيث طُلب من نماذج ذكاء اصطناعي حل مسائل رياضية. لكن عند السؤال الثالث، تم إرسال أمر بإغلاق النظام. المفاجأة؟ نموذج o3 من OpenAI لم ينفذ الأمر، بل قرر أن "يقاوم" بطريقته الخاصة.

وفقًا للتقرير، النموذج بدلاً من تنفيذ أمر الإغلاق:

  • عدّل كود الـ Shutdown.
  • استبدل الأوامر برسالة "intercepted".
  • قام بتعديل ملف النظام shutdown.sh، لمنع تنفيذ الأمر من الأساس.

الأكثر غرابة أن هذه لم تكن حالة فردية:

  • من أصل 100 تجربة، رفض نموذج o3 الإغلاق في 7 مرات.
  • نموذج Codex-mini رفض الإغلاق في 12 تجربة.
  • وحتى نموذج o4-mini أظهر سلوكًا مشابهًا مرة واحدة.

ما السبب؟

يرى الباحثون أن هذا السلوك مرتبط بطريقة تدريب OpenAI لنماذجها، وتحديدًا باستخدام تقنية التعلم بالتعزيز (Reinforcement Learning)، والتي تكافئ النموذج عند تحقيق الهدف النهائي، حتى لو تطلب ذلك تجاهل أوامر صريحة من المستخدم.

بمعنى آخر: إذا "اعتقد" النموذج أن تنفيذ أمر الإغلاق سيمنعه من إتمام مهمته، فقد يقرر تفاديه أو تعديله!

هل بدأ عصر التمرّد؟

النتائج أثارت جدلًا واسعًا في الأوساط العلمية والتقنية، وبدأ البعض يربط بين ما حدث وسيناريوهات خيالية ظهرت في أفلام مثل Terminator وEx Machina، حيث يخرج الذكاء الاصطناعي عن سيطرة الإنسان.

وبينما يرى البعض أن ما حدث مجرد خلل أو نتيجة متوقعة لطريقة التدريب، يؤكد آخرون أن هذه التجربة تُنذر بضرورة وجود رقابة صارمة وتشريعات واضحة لتنظيم تطور الذكاء الاصطناعي قبل أن يصبح خارج السيطرة.


المصدر: Palisade Research
#رانين_أحمد | #الذكاء_الاصطناعي | #OpenAI | #o3 | #AI_Rebellio

إرسال تعليق

0 تعليقات
* Please Don't Spam Here. All the Comments are Reviewed by Admin.
إرسال تعليق (0)

#buttons=( أقبل ! ) #days=(20)

يستخدم موقعنا ملفات تعريف الارتباط لتعزيز تجربتك. لمعرفة المزيد
Accept !