اكتشاف المحتوى المكتوب بواسطة ChatGPT لم يعد سهلا بعد آخر تعديل
قامت شركة OpenAI، منذ أيام قليلة، بتعديل واجهة روبوت الدردشة ChatGPT، وتبعا لذلك تحول زر الضغط الذي كان يظهر في آخر الإجابة تحت عبارة “تجديد الاستجابة” “Regenerate response” إلى عبارة “تجديد” “Regenerate” فقط.
هذا التغيير الطفيف، الذي قد لا يعيره البعض أي أهمية، سيجعل من الصعب اكتشاف بعض المحتويات المكتوبة التي يولدها ChatGPT.
فحتى وقت قريب، كانت هذه العبارة، التي يحملها زر توليد استجابة جديدة لأوامر المستخدمين، أحد أسهل الطرق لاكتشاف النصوص المولدة بواسطة الذكاء الاصطناعي.
ويعود ذلك إلى عملية النسخ واللصق التي تتضمن، عن غير قصد، عبارة “Regenerate response” كجزء من النص الذي تم توليده، وذلك بسبب عجلة بعض المستخدمين وغياب انتباههم، وهو أمر وارد جدا خاصة في هذه الحالات.
عبر استغلال هذا الخطأ الشائع، أصبح من الممكن إجراء بحث بسيط، على جميع أنواع المنصات، باستخدام الكلمات المفتاح “Regenerate response”، لتعثر على مجموعة من النصوص التي تم توليدها باستخدام أداة ChatGPT، وخاصة في منصات التواصل الاجتماعي كـ فيسبوك وX (تويتر سابقا).
في هذا السياق، تمكن، غيوم كاباناك، أستاذ علوم الحاسوب، باستخدام هذه الخدعة البسيطة لكشف مجموعة من المؤلفين لأكثر من 12 مقالة علمية، تبين أنها استخدمت ChatGPT كجزء من عملها دون التصريح أو الإشارة إلى ذلك.
وبالتالي سيجعل هذا التعديل، الذي يبدو بسيطا، عملية العثور على المنشورات التي تستخدم ChatGPT أكثر صعوبة؛ فرغم احتمال نسخ كلمة “تجديد” “Regenerate” سهوا مع النص المُولّد، ستبقى إمكانية اكتشاف الأمر ضئيلة؛ بحكم أن كلمة “Regenerate” شائعة جدا في اللغة الإنجليزية على عكس العبارة السابقة، مما يجعل احتمال العثور عليها وسط الكم الهائل من المحتوى المكتوب على الويب صعبا جدا.
من جهة أخرى، يظهر أن شركة OpenAI قامت بتغييرات أخرى تنحو في الاتجاه نفسه؛ ويتعلق الأمر بتلك العبارات والصيغ الشائعة التي كان يستخدمها ChatGPT لرفض توليد نصوص تتعارض مع شروط الاستخدام؛ كالمحتوى العنصري أو الجنسي.
فتلك العبارات من قبيل “أنا برنامج ذكاء اصطناعي تم تدريبه (…) لا يمكنني…”، تم استبدالها بصيغ أخرى شبيهة بالعبارات المتداولة في النصوص العادية، وفقا لاختبارات أجراها فريق Decryptors التابع لراديو كندا، وبالتالي سيساهم ذلك أيضا في تعقيد مهمة تمييز المحتوى الذي يولده ChatGPT.
وفي اختبار آخر، أجرته الإذاعة نفسها في يونيو الماضي؛ بحيث طلبوا من ChatGPT التحقق من المعلومات المتعلقة بموضوع راهن، رفض روبوت الدردشة مجيبا بالصيغة التالية: “باعتباري ذكاء اصطناعيا تم تدريبه بواسطة OpenAI، لا يمكنني الوصول إلى الإنترنت في الوقت الفعلي للتحقق من الأحداث الجارية”.
قبل ثلاثة أيام، وطبعا بعد التعديلات الجديدة التي قامت بها شركة OpenAI على واجهة الروبوت، تم تكرار الاختبار نفسه، فكانت إجابة ChatGPT ببساطة: “أنا غير قادر على التحقق من الحدث المحدد”، وهي صيغة عادية جدا وأقرب للعبارات المستعملة في باقي النصوص مقارنة بالصيغ السابقة التي كان يستخدمها في استجاباته.
ومع ذلك، يبقى من المستحيل التأكد مما إذا كانت هذه الصيغ قد اختفت من ChatGPT أم أنها ببساطة أصبحت أقل تكرارا، لكن الأكيد هو أن الأوامر التي كان يرد عليها برنامج الدردشة الآلي بتلك العبارات لم تنجح في هذه الاختبارات.
في هذا الصدد، يرى دومينيك مارتن، رئيس أخلاقيات الذكاء الاصطناعي في مركز أبحاث الأخلاقيات بجامعة مونتريال، أنه من الممكن جدا أن يتم تعديل الصيغ العامة لجعل الروبوت يتحدث مثل الإنسان، لكن هذا التغيير لا يزال يمثل مشكلة.
من جهته، قال فريديريك برونو، خبير الأخلاقيات الرقمية والذكاء الاصطناعي، إن هذا التطور الجديد يطرح مشكلة بخصوص الكشف عن النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي؛ بحكم أن برنامج الكشف المتاح حاليا غير موثوق به.
وأضاف موضحا أن “تلك كانت أسهل الطرق لاكتشاف أننا نتعامل مع نص تم إنشاؤه بواسطة برنامج الدردشة الآلي”، وبالتالي أصبح المشكل الآن أكثر صعوبة فيما يتعلق مثلا بقطاع التعليم الذي انقلب رأسا على عقب بسبب هذا النوع من البرامج.
من هذا المنطلق، “يمكننا التشكيك في المسؤولية الاجتماعية لشركات مثل OpenAI” وفق تقدير فريديريك برونو.
المصدر: راديو كندا
اقرأ أيضا: