banner
تكنولوجيا
banner

برنامج ذكاء اصطناعي يهدد مصداقية الدوريات العلمية! ناشرون أصدروا قراراً بمنع استخدامه في الدراسات

{clean_title}
جهينة نيوز -

 أعلنت مجموعة من الناشرين لآلاف من الدوريات العلمية حظر استخدام برنامج الذكاء الاصطناعي ChatGPT من قبل المساهمين بالدراسات الأكاديمية، بسبب مخاوف من أن يملأ هذه الدراسات بأبحاث معيبة وملفقة، كونه قادراً على إنتاج ملخصات علمية "مزيفة"، بحسب ما أفادت صحيفة The Guardian البريطانية.

 

وبرنامج الذكاء الاصطناعي ChatGPT هو تطبيق دردشة آلي يعتمد على الذكاء الاصطناعي ابتكرته شركة OpenAI الأمريكية، وقد أبدى البرنامج طلاقة في استخدامات الدردشة، إلا أنه انطوى على بعض العيوب والاضطراب أيضاً.

 

ومنذ إطلاقه، في نوفمبر/تشرين الثاني 2022، استخدمه أكثر من مليون شخص في صياغة القصائد والقصص القصيرة والمقالات، واختلفت الآراء فيه بين إعجاب وانزعاج.

 

ملخصات علمية مزيفة

وعلى الرغم من استخداماته المثيرة للاهتمام، فإن بعض المتابعين أشاروا إلى قدرة البرنامج على إنتاج ملخصات علمية مزيفة بما يكفي لخداع المراجعين البشريين، ما أدى إلى اعتماده بالفعل ضمن المؤلفين المشاركين في حفنة من الدراسات العلمية.

 

لكن اقتحام ChatGPT لعالم الدراسات الأكاديمية الموثقة استدعى التصدي له من بعض هيئات النشر العلمية، حيث أعلن هولدن ثورب، رئيس تحرير دورية Science الأمريكية الرائدة، الخميس 26 يناير/كانون الثاني، عن تحديث السياسة التحريرية للدورية تحديثاً يتضمن حظر استخدام النصوص من ChatGPT، ويمنع إدراج البرنامج بين المؤلفين المشاركين في الدراسات المقدَّمة إلى الدورية.

 

وقال ثورب: "لقد ثارت بشأن البرنامج حالة شبيهة بالهوس، لذا يحسن بنا أن نوضح أننا لن نسمح بإدراج ChatGPT بين المؤلفين المشاركين للدراسات العلمية، ولا باستخدام النصوص التي صاغها".

 

يقتضي النشر في الدوريات العلمية الرائدة توقيع الباحثين والمؤلفين المشاركين في الدراسات المقدمة على نموذج يقرون فيه بالمسؤولية عما قدموه من إسهام في العمل.

 

استخدامه "مشكلة"

ويقول ثورب إنه لما كان ChatGPT لا يمكنه فعل ذلك، فلا يمكن السماح بإدراجه ضمن المؤلفين.

 

كما يرى ثورب أن استخدام ChatGPT في إعداد الدراسات العلمية مشكلة في حدِّ ذاته، لأن البرنامج يقع في كثير من الأخطاء، ومن ثم فإن استخدامه يعني المخاطرة بتسرب تلك الأخطاء لدراسات موثوقة.

 

وإذا اعتمد الباحثون على برامج الذكاء الاصطناعي لمراجعة الدراسات أو تلخيص النتائج التي توصلوا إليها، فقد ينتقص ذلك من إحكام خطوات العمل، ويُضعف من دقة النتائج، بحسب ثورب.

 

في الوقت ذاته، أعلن ناشرون آخرون عن تغييرات مماثلة، فقد عمدت دار النشر الأكاديمي Springer-Nature، التي تنشر ما يقرب من 3 آلاف دورية علمية، إلى تحديث توجيهاتها، الثلاثاء 24 يناير/كانون الثاني، ومنعت إدراج ChatGPT بين المؤلفين المشاركين.

 

ومع ذلك، فلم تحظر الدار استخدام البرنامج، والأدوات الشبيهة له، في إعداد الدراسات حظراً تاماً، وإن كانت اشترطت الكشف عن ذلك في مسودة الدراسات المقدمة.

 

تحسين لغة المقالات!

بدورها، قالت ماجدالينا سكيبر، رئيسة تحرير دوريةNature العلمية: "التغير الذي رأينا أنه يستدعي الرد هو ظهور البرنامج بين عشية وضحاها بين المؤلفين المشاركين بالدراسات العلمية".

 

وترى سكيبر أنه إذا اعتُمدت مجموعة واضحة من القواعد المنظِّمة، فإن برنامج ChatGPT وغيره من أدوات الذكاء الاصطناعي المماثلة يمكنها إفادة العلم بأكثر من وجه، منها تعزيز تكافؤ الفرص بين المتحدثين باللغة الإنجليزية وغير المتحدثين بها، ممن يمكنهم استخدام برامج الذكاء الاصطناعي لتحسين اللغة المستخدمة في دراساتهم العلمية.

 

في السياق، اتخذت دار نشر Elsevier الهولندية، التي تنشر نحو 2800 دورية علمية، موقفاً مشابهاً، إذ قال أندرو ديفيس، المسؤول بالدار، إن الإرشادات التي أعلنت عنها الدار تسمح باستخدام أدوات الذكاء الاصطناعي "لتحسين لغة المقالة البحثية وبلاغتها، لكن ليس بالاستعاضة بها عن دور المؤلفين في الاضطلاع بالواجبات الرئيسية لإعداد الدراسات، مثل تفسير البيانات واستخلاص النتائج العلمية".

 

من جانب آخر، استحسنت ساندرا واتشتر، أستاذة التكنولوجيا والتنظيم بجامعة أكسفورد، خطوات دور النشر، وقالت: "من الرائع أن نرى الناشرون يتخذون إجراءات في هذا السياق، فبرنامج ChatGPT يتيح تجاوز بعض الخطوات، وهو أمر مربك، لا سيما إذا لم نُحكم التحقق من المحتوى المقدَّم، ولم نتحرَّ من صحته. فهذا يمكن أن يقودنا إلى نشر معلومات مضللة وعلوم مزيفة. وأرى أن الكثير من القطاعات، مثل التعليم والفن والصحافة، سيتعين عليها التفكير في خطوات مماثلة".

 

تابعو جهينة نيوز على google news