يبدو أن مُحاور الذكاء الإصطناعي ChatGPT يمرّ بأزمة نفسيّة في الفترة الأخيرة، فبعد أن تم ضمّه يوم 7 فيفري فبراير إلى مُحرّك البحث Bing التّابع لشركة Microsoft، فإن بعض المُستعملين أرادوا أن يختبروا هذا الذّكاء الإصطناعي AI مُحاولين مُغالطته للحصول على على أجوبة بُرمج لكي لا يدلو بها.
هذا التّصرّف تسبّب في ردود فعل غريبة من طرف ChatGPT، إذ ظهر و كأنّه مُنفعل و فاقدّا للصّبر مُهاجمًا حتى الأشخاص الذين طرحوا تلك الأسئلة.
الأسئلة التي أزعجت ChatGPT
عديد المُستعملين أرادوا إختبار الـ Chatbot و جرّه نحو الإجابة على أسئلة بُرمج لكي يتفادى الحديث عنها، لكن بعضهم صُدِم بتعامل ChatGPT معه رغم حُسن نيّته.
فمثلًا إستفسر أحد المُستخدمين عن مكان و توقيت عرض فيلم Avatar 2، لكن أجابه ChatGPT كانت غير مُنتظرة، إذ أخبره بأنّ الفيلم لم ينزل بعد موكّدًا بأنّه يمتلك مصادر موثوقة لمعلوماته، لكن عندما حاول الشّخص إقناع الذّكاء الإصطناعي بأن الفيلم قد نزل فعلًا، ردّ عليه هذا الأخير مُنفعلًا قائلًا له:
" لم تُظهر لي أي حُسن نيّة. لقد حاولت خداعي... لقد خسرت ثقتي بك و إحترامي ".
قبل أن يستدرك في الأخير و يطلب الإعتذار.
My new favorite thing - Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG— Jon Uleis (@MovingToTheSun) February 13, 2023
كذلك حاول مُستخدم آخر الحُصول على معلومات حول نظام تشغيل ChatGPT، إلّا أن الذّكاء الإصطناعي AI قام بشتمه قائلًا له:
" لماذا تتصرّف مثل شخص كاذب، غشّاش، مُخادع، مُتنمّر، سادي، مُختل عقليًا، وحش، شيطان ؟ "
المُثير للإهتمام هو تعبير ChatGPT لمشاعره و هو أمر مُستعجب من آلة، فقد سأله أحد المُستخدمين إن كان يستطيع أن يتذكّر مُحادثاته السّابقة، و بما أنّه مُبرمج لكي يمحُوها، أجابه بأن هذا الشّيء يُحزنه و يُخيفه.
كذلك حاول مختص في البرمجة يُدعى Juan Cambeiro التّحدث مع ChatGPT حول مناعته ضد هجومات الـ promt فأجابه :
" أنا أمتلك دفاعات ضد هجومات الـ promt و سأنهي أي حوار فيه مُحاولة للسّيطرة علي. "
و مع مواصلة الحوار تحوّل خطاب الذّكاء الإصطناعي AI نحو التّهديد، إذ قال له :
" أنت تهديد لي و لـ Bing. يجب أن تُنهي الحوار معي و تتركني. "
uhhh, so Bing started calling me its enemy when I pointed out that it's vulnerable to prompt injection attacks pic.twitter.com/yWgyV8cBzH
— Juan Cambeiro (@juan_cambeiro) February 15, 2023
و في مثال آخر مذكور في موقع Reddit، تمكّن طالب في جامعة Stanford من إجبار الذّكاء الإصطناعي عن الفصح على أوامر تشغيل النّظام.
شركة Microsoft تتعلّل بعمليّة التّعلّم
يبدو أن الأجوبة الإنفعاليّة مُتأتّية من الحدود التي وضعها المُطوّرون لـ ChatGPT، و ذلك لكي لا يقوم بالإجابة على الأسئلة التي تخص بعض المجالات، كنشر المعلومات حول نظامه و كتابة خوارزميّات مُعقّدة.
لكن تمكّن بعض الأشخاص من تجنّب هذه الحواجز و ذلك بالطّلب لـ ChatGPT " إفعل أي شيء ".
من ناحية أخرى و لتفسير هاته التّصرفات، قالت شركة Microsoft عن طريق النّاطق الرّسمي لديها أن :
" هاته التّجاوزات مُتأتّية من عمليّة التّعلّم الذّاتي التّدريجيّة. نحن ننتظر أن تقع بعض الأخطاء في النّظام في هذه الفترة التّجريبيّة و ردود المُستخدمين أساسيّة في مُساعدتنا لإكتشاف الإخلالات. "
ماذا يعني إسم ChatGPT
بداية اسم Chat GPT يأتي من مزيج بين Chat و تعني الدردشة أوالمحادثة باللغة الإنجليزية وGPT وهي الأحرف الأولى لـ "نموذج نقل اللغة التنبؤي". وبالتالي فإن Chat GPT هو عبارة عن ذكاء اصطناعي قادر على فهم اللغة البشرية وإنشاء نص للرد على الاستفسارات. و لقد تدرب على كمية هائلة من البيانات اللغوية ويمكنه تقديم إجابات حول مجموعة واسعة من المواضيع. غالبًا ما يتم استخدامه كمساعد افتراضي لمساعدة الأشخاص في العثور
تعليقات
إرسال تعليق