بواسطة
ناثان أويونج
—
هل يقوم ChatGPT بسرقة المحتوى؟ كيف تعمل الكتابة بالذكاء الاصطناعي وماذا تعني الأصالة حقًا

هل يقوم ChatGPT بانتحال المحتوى؟ يعود هذا السؤال إلى الظهور باستمرار مع دخول أدوات الذكاء الاصطناعي في الكتابة اليومية. الطلاب يقلقون بشأن الدرجات. الكتّاب يقلقون بشأن الأصالة. والمهنيون يقلقون بشأن الثقة والمصداقية.
هذه المخاوف مفهومة. يستطيع ChatGPT إنتاج نص واضح وواثق بسرعة كبيرة. وعندما تبدو الكتابة مصقولة بهذه السرعة، فمن الطبيعي أن نتساءل: من أين جاءت؟ في هذا المقال، ستتعلم ما الذي يعنيه الانتحال حقًا، وكيف ينشئ ChatGPT النصوص، وأين تظهر المناطق الرمادية، وكيف تستخدم الذكاء الاصطناعي بمسؤولية من دون تجاوز الحدود الأخلاقية.
<CTA title="اكتب بثقة وأصالة" description="نظّم الأفكار وأدر المصادر واحتفظ بمسوداتك واضحة التعبير مع إبقاء العمل ملكًا لك تمامًا" buttonLabel="جرّب Jenni مجانًا" link="https://app.jenni.ai/register" />
ما هو الانتحال؟
الانتحال هو استخدام كلمات أو أفكار أو أعمال شخص آخر وتقديمها على أنها لك من دون نسب الفضل إلى أصحابها. إنه يخلّ بالثقة وقد يؤدي إلى عواقب وخيمة.
في المدارس، قد يؤدي الانتحال إلى رسوب في الواجبات أو إنذارات أو إجراءات تأديبية. وفي البيئات المهنية، يمكن أن يضر بالمصداقية ويؤثر في المسار المهني ويخلق مخاطر قانونية. وتكتسب الأصالة أهميتها لأنها تُظهر الجهد والفهم والصدق.
تقليديًا، يرتبط الانتحال بالقصد. يختار الشخص أن ينسخ عمل شخص آخر أو يعيد صياغته عن قرب. أما الذكاء الاصطناعي فيغيّر هذه الفكرة، لأن الآلات لا تفكر ولا تخطط ولا تتخذ قرارات أخلاقية.
وهذا الفرق هو جوهر الجدل الدائر حول ChatGPT.
<ProTip title="💡 نصيحة احترافية:" description="تعرف دائمًا على تعريف الانتحال في مدرستك أو مكان عملك قبل استخدام أدوات الذكاء الاصطناعي" />
الانتحال في سياق الذكاء الاصطناعي

الانتحال البشري يتضمن عادةً وعيًا بالتصرف. يعرف الشخص أنه ينسخ، ثم يختار القيام بذلك رغمًا عن ذلك. أما أنظمة الذكاء الاصطناعي فتعمل بطريقة مختلفة تمامًا.
لا يفهم ChatGPT الملكية أو الإسناد أو الأخلاقيات. إنه يولّد النصوص عبر التنبؤ بالكلمات اعتمادًا على الأنماط التي تعلّمها أثناء التدريب. وهو لا يعرف من كتب المادة الأصلية أو أين ظهرت الفكرة لأول مرة.
ولهذا السبب، لا يمكن للذكاء الاصطناعي أن يقصد الانتحال. ومع ذلك، فإن المخرجات التي ينتجها قد تثير المخاوف.
لماذا قد تبدو كتابة الذكاء الاصطناعي مألوفة
تعلم ChatGPT كيف يشرح الناس الأفكار عادةً. وعندما تسأله عن موضوع شائع، قد يبدو الرد مشابهًا للتفسيرات التي قرأتها من قبل.
يحدث ذلك لأن كثيرًا من الكتّاب يصفون الأفكار نفسها بطرق متقاربة. وغالبًا ما تأتي الصياغات المألوفة من عادات لغوية مشتركة، لا من فقرات منسوخة. ومع ذلك، قد تصبح هذه الصياغات المألوفة محفوفة بالمخاطر عندما تكون الأصالة مطلوبة، خصوصًا في العمل الأكاديمي أو المنشور.
المنطقة الرمادية بين الذكاء الاصطناعي والأصالة
حتى لو لم ينتحل الذكاء الاصطناعي عن قصد، يمكن للمستخدمين إساءة استخدامه.
تظهر المنطقة الرمادية عندما يعتمد الناس على مخرجات الذكاء الاصطناعي من دون مراجعتها أو تعديلها. إن تسليم نص مولّد بالذكاء الاصطناعي على أنه العمل النهائي يزيل التفكير البشري الذي تعتمد عليه الأصالة.
يعمل الذكاء الاصطناعي بأفضل صورة عندما يكون أداة دعم. يمكنه مساعدتك في العصف الذهني، وتنظيم الأفكار، أو تحسين الوضوح. لكنه لا ينبغي أن يحل محل الفهم أو اتخاذ القرار. ويعني الاستخدام المسؤول للذكاء الاصطناعي أن تظل منخرطًا في كل خطوة وأن تمارس الاستخدام الأخلاقي للذكاء الاصطناعي في مواقف الكتابة الحقيقية.
<ProTip title="🧠 نصيحة احترافية:" description="أعد دائمًا صياغة النص الذي يولده الذكاء الاصطناعي بحيث يعكس صوتك وفهمك أنت" />
فهم تصميم ChatGPT
للحكم على مسألة الانتحال بعدل، من المفيد فهم كيفية عمل ChatGPT.
كيف يعمل ChatGPT
تم بناء ChatGPT على نظام يسمى المحول التوليدي المدرب مسبقًا. وهو لا يبحث في الويب ولا يستخرج النصوص من مكتبة محفوظة من المقالات.
بل يتنبأ بالكلمة التالية بناءً على السياق، وهو جزء أساسي من معالجة اللغة الطبيعية، ما يسمح له بتوليد ردود سلسة. قبل تقييم مخرجات الذكاء الاصطناعي، ضع هذه النقاط في الاعتبار:
لا يحتفظ ChatGPT بالمستندات الكاملة
لا يسترجع ChatGPT المصادر الدقيقة
لا يتحقق ChatGPT مما إذا كان المحتوى موجودًا بالفعل
هذا التصميم يحدّ من النسخ المتعمد، لكنه لا يمنع التشابه مع اللغة الشائعة.
مصادر البيانات والتدريب
أوضحت OpenAI أن ChatGPT يتدرب على مزيج من البيانات المرخّصة، والبيانات التي أنشأها مدربون بشريون، والنصوص المتاحة للعامة. ويساعد هذا المزيج الواسع النموذج على تعلم كيفية عمل اللغة عبر موضوعات وأنماط متعددة.
ما يهم أكثر هو ما لا يعرفه ChatGPT لا. فهو لا يعرف أي الكتب أو المقالات أو المواقع التي أُدرجت في تدريبه. ولا يستطيع العودة إلى بيانات التدريب أو الإشارة إلى مصدر محدد. كما أنه لا يحتفظ بسجل يوضح من أين جاءت الأفكار.
ولهذا السبب، لا يستطيع ChatGPT الاستشهاد بالمصادر أو التحقق من الحقائق بنفسه. إنه يعكس فقط أنماط اللغة التي تعلّمها من أمثلة كثيرة. وتصبح هذه الإشكالية أوضح عند التفكير في الطلاب متعددي اللغات الذين يتعلمون الكتابة، حيث يمكن لدعم الذكاء الاصطناعي أن يؤثر في الوضوح والثقة وملكية النص.
يمكن للذكاء الاصطناعي أن يشرح الأفكار بوضوح، لكنه لا يغني عن البحث السليم.
<ProTip title="📌 نصيحة احترافية:" description="تحقق دائمًا من الحقائق والتعريفات من مصادر موثوقة عند استخدام مخرجات الذكاء الاصطناعي" />
علاقة ChatGPT بالمحتوى الأصلي
لا ينشئ ChatGPT الأفكار بالطريقة التي يفعلها البشر. فالبشر يستندون إلى الخبرة والحكم والقصد. أما ChatGPT فيعمل عبر تجميع أنماط لغوية رآها من قبل.
في معظم الوقت، يؤدي هذا إلى صياغات جديدة ومزج جديد للأفكار. لكن عندما يكون الموضوع شائعًا، قد تبدو الشروحات مشابهة لما هو موجود بالفعل. ويحدث ذلك لأن كثيرًا من الناس يشرحون الأفكار نفسها بطرق متقاربة.
من الناحية التقنية، هذا ليس انتحالًا. فالنموذج لا ينسخ نصًا محددًا. لكن من الناحية العملية، قد تصبح المشابهة مشكلة إذا سلّم المستخدمون نصًا مولدًا بالذكاء الاصطناعي من دون تحرير أو إسناد.
ولهذا السبب، تبقى المراجعة البشرية ضرورية. فالتعديل يضيف صوتًا وسياقًا وأصالة لا يستطيع الذكاء الاصطناعي وحده توفيرها.
هل ChatGPT محصن من الانتحال؟
لا يقوم ChatGPT بالانتحال عمدًا. فهو لا يستطيع اتخاذ قرارات أخلاقية أو اختيار إخفاء المصادر. إنه ببساطة يولد نصًا وفق الاحتمالات.
ويأتي الخطر الحقيقي من طريقة استخدام الناس للأداة. فعندما يراجع المستخدمون النصوص ويعيدون صياغتها ويضيفون رؤيتهم الخاصة، يبقى خطر الانتحال منخفضًا. أما عندما ينسخ المستخدمون مخرجات الذكاء الاصطناعي مباشرةً ويسلمونها كعمل نهائي، فإن الخطر يرتفع بسرعة.
تُظهر النقاشات حول استخدام ChatGPT في التعليم العالي أن النتائج تعتمد على طريقة استخدام الأداة أكثر من الأداة نفسها. باختصار، تعتمد الأصالة بدرجة أكبر بكثير على سلوك المستخدم من اعتمادها على الذكاء الاصطناعي نفسه. يمكن للذكاء الاصطناعي أن يساعد في الكتابة، لكن المسؤولية تبقى دائمًا على عاتق الشخص الذي يستخدمه.
الجدل حول الذكاء الاصطناعي والانتحال
أثارت أدوات الكتابة بالذكاء الاصطناعي نقاشًا قويًا عبر مجالات التعليم والنشر والأعمال. ومع شيوع هذه الأدوات أكثر، يختلف الناس حول كيفية استخدامها وتقييمها.
وفي قلب هذا الجدل سؤال بسيط: هل يمكن اعتبار العمل أصيلًا عندما يكون الذكاء الاصطناعي جزءًا منه؟
وجهات نظر مختلفة حول المحتوى المولد بالذكاء الاصطناعي
هناك ثلاث وجهات نظر شائعة في هذا النقاش، وكل واحدة منها تشكّل الطريقة التي تتعامل بها المؤسسات والأفراد مع استخدام الذكاء الاصطناعي.
المنظور التقليدي
يرى البعض أن العمل الأصلي يجب أن يأتي من البشر فقط. ومن هذا المنظور، يفتقر النص المكتوب بالذكاء الاصطناعي إلى المؤلف الحقيقي، ولا ينبغي تقديمه على أنه عمل أصيل. ويخشى مؤيدو هذا الرأي أن يضعف الذكاء الاصطناعي التعلم والجهد الإبداعي.
وغالبًا ما يؤدي هذا المنظور إلى قيود صارمة أو حظر كامل للمحتوى المولّد بالذكاء الاصطناعي في البيئات الأكاديمية.
المنظور التقني
يرى آخرون أن الذكاء الاصطناعي أداة محايدة، مثل التدقيق الإملائي أو الآلة الحاسبة. فالأداة نفسها لا تغش، بل سوء الاستخدام هو الذي يفعل ذلك. ومن هذا المنظور، تقع المسؤولية على المستخدم لا على البرنامج. ويعتقد المؤيدون أن الذكاء الاصطناعي يمكن أن يعزز الكفاءة والوضوح عندما يُستخدم بشكل صحيح.
المنظور الهجين
يدعم كثيرون نهجًا متوازنًا. يمكن للذكاء الاصطناعي أن يساعد في العصف الذهني، والصياغة الأولية، وتحسين الوضوح، لكن يجب أن يوجّه البشر النتيجة النهائية ويعدلوها ويوافقوا عليها.
وأصبح هذا الحل الوسط حاضرًا الآن في كثير من سياسات المؤسسات. فالذكاء الاصطناعي مسموح به كدعم، لا كبديل عن التفكير.
ادعاءات الانتحال المرتبطة بـ ChatGPT
تعرض ChatGPT للانتقاد بعدما لاحظ بعض المستخدمين أن بعض الردود بدت مشابهة لمحتوى موجود بالفعل على الإنترنت. وغالبًا ما تتعلق هذه الحالات بالتعريفات الأساسية، أو الشروحات الشائعة، أو الموضوعات واسعة النقاش. وعندما يشرح كثير من الناس الفكرة نفسها، يصبح التشابه في اللغة أمرًا طبيعيًا.
فعلى سبيل المثال، تُشرح موضوعات مثل الانتحال أو تغير المناخ أو بنية المقال بطرق متقاربة في الكتب والمقالات والمدونات. وعندما يجيب ChatGPT عن هذه الأسئلة، قد يستخدم صياغات مألوفة لأنه تعلّم كيف يتحدث الناس عنها عادةً.
هذا لا يعني أن ChatGPT نسخ مقالًا محددًا. بل يعني أن النموذج كرر أنماطًا شائعة في الشرح. ومع ذلك، قد يسبب التشابه مشكلات حقيقية، خاصة مع استمرار تأثير المخاوف المتعلقة بالكشف عن الانتحال في طريقة تقييم الكتابة المولدة بالذكاء الاصطناعي.
ولهذا السبب، لا ينبغي أبدًا التعامل مع مخرجات الذكاء الاصطناعي على أنها عمل نهائي. فالمراجعة والتحرير مطلوبان دائمًا، حتى عندما يكون التشابه غير مقصود.
كيف تتعامل أدوات فحص الانتحال مع ChatGPT
تعمل أدوات فحص الانتحال من خلال مقارنة النص بقواعد بيانات كبيرة من الكتابات الموجودة. وهي لا تعرف كيف أُنشئ النص، بل تقيس درجة التشابه فقط.
قبل الاعتماد على النتائج، من المفيد فهم ما الذي تبحث عنه هذه الأدوات بالفعل. فمعظم أدوات فحص الانتحال تركّز على الأنماط السطحية لا على النية. وغالبًا ما تُعلِّم النصوص بناءً على:
العبارات المطابقة الموجودة في مصادر أخرى
تشابه بنية الجمل
الصياغات الشائعة المستخدمة عبر كثير من النصوص
وبما أن ChatGPT يستخدم أنماطًا لغوية يستخدمها كثير من الناس أيضًا، فقد تؤدي مخرجاته أحيانًا إلى نتائج إيجابية كاذبة. ويظهر هذا بوضوح أكبر في الموضوعات العامة أو الشروحات القياسية.
لا تعني نتيجة التشابه المرتفعة دائمًا أن النسخ قد حدث فعلًا. وغالبًا ما تعني أن النص يحتاج إلى مزيد من التخصيص وإعادة الصياغة.
<ProTip title="🔍 نصيحة احترافية:" description="حرر مسودات الذكاء الاصطناعي وخصصها قبل تشغيل فحوصات الانتحال لتقليل المطابقات الكاذبة" />
ChatGPT والنزاهة الأكاديمية
النزاهة الأكاديمية تعني أكثر من مجرد تجنب الجمل المنسوخة. إنها تعني التعلم والجهد والتفكير الأصلي.
تقدّر المدارس عملية التفكير في الأفكار، لا الجواب النهائي فقط. وعندما يحل الذكاء الاصطناعي محل هذه العملية، يتضرر التعلم. وهذا يثير أيضًا سؤالًا حول ما إذا كان من الأخلاقي استخدام الذكاء الاصطناعي في الكتابة الأكاديمية من الأساس. ويمكن أن يدعم ChatGPT النزاهة عندما يُستخدم بشكل صحيح، خاصة في الاستخدامات التعليمية لـ ChatGPT مثل العصف الذهني، وشرح المفاهيم، وبناء المسودة. ولا يصبح مشكلة إلا عندما يحل محل الفهم.
ChatGPT في الكتابة الأكاديمية
غالبًا ما يستخدم الطلاب ChatGPT لأسباب معقولة ومفيدة. وعندما يُستخدم بحذر، يمكنه دعم التعلم بدلًا من استبداله.
تشمل الاستخدامات المعتمدة الشائعة:
العصف الذهني لموضوعات المقال
توضيح الأفكار الصعبة
تحسين تدفق الجمل
تلخيص الملاحظات للمراجعة
تساعد هذه الاستخدامات الطلاب على التفكير بوضوح أكبر. وتبدأ المشكلات عندما يكتب ChatGPT الواجبات كاملةً ثم يسلّمها الطلاب من دون مراجعة أو إفصاح. في تلك الحالات، لا يعود العمل يعكس فهم الطالب.
الإرشادات الأكاديمية المتعلقة بالمحتوى المولد بالذكاء الاصطناعي
تنشر كثير من المدارس والجامعات الآن قواعد واضحة بشأن استخدام الذكاء الاصطناعي. وتهدف هذه القواعد إلى توجيه الطلاب لا إلى إرباكهم. وتركّز معظم الإرشادات على الشفافية والمسؤولية، بما في ذلك كيفية الإفصاح عن مساعدة الذكاء الاصطناعي والاستشهاد بها، بدلًا من حظر الذكاء الاصطناعي تمامًا. وتشمل القواعد الشائعة:
التمييز الواضح بين العمل المساعد بالذكاء الاصطناعي والعمل المولد بالذكاء الاصطناعي
السماح باستخدام الذكاء الاصطناعي للتخطيط والعصف الذهني والتعلم
وضع حدود على تسليم مخرجات الذكاء الاصطناعي على أنها عمل أصيل
وقد يؤدي مخالفة هذه القواعد إلى عقوبات مشابهة لتلك المرتبطة بالانتحال التقليدي. ولهذا السبب، فإن قراءة إرشادات المؤسسة أمر ضروري قبل استخدام الذكاء الاصطناعي.
المنظورات القانونية حول الكتابة بالذكاء الاصطناعي
تثير الكتابة بالذكاء الاصطناعي أيضًا أسئلة قانونية، خاصة حول الملكية والحقوق. وتكتسب هذه الأسئلة أهمية أكبر في النشر والصحافة والعمل التجاري.
ما زالت القوانين تتطور، وتتعامل البلدان المختلفة مع محتوى الذكاء الاصطناعي بطرق متفاوتة.
قوانين حقوق النشر والذكاء الاصطناعي
صُممت قوانين حقوق النشر لحماية المبدعين البشر. ويطرح الذكاء الاصطناعي تحديًا لهذه القواعد لأن الآلات لا تملك تأليفًا قانونيًا. وتشمل الأسئلة القانونية الأساسية ما يلي:
من يملك المحتوى المولّد بالذكاء الاصطناعي
ما إذا كان يمكن حماية مخرجات الذكاء الاصطناعي بحقوق النشر
كيف تختلف القوانين من بلد إلى آخر
في كثير من المناطق، لا تنطبق حماية حقوق النشر إلا عندما يضيف الإنسان مساهمة ذات معنى. وغالبًا ما لا تكفي الأوامر البسيطة. وهذا يجعل التحرير البشري والمساهمة البشرية مهمين قانونيًا.
هل استخدام ChatGPT قانوني؟
استخدام ChatGPT قانوني. وتوفّر OpenAI الأداة لدعم الكتابة والتعلم والبحث.
تظهر المشكلات القانونية عادةً عندما يدّعي المستخدمون أن المحتوى المولّد بالذكاء الاصطناعي أصيل بالكامل في المجالات المنظمة من دون مراجعة أو إفصاح. ويساعد الوضوح على تجنب هذه المخاطر ويحمي المصداقية.
مقارنة ChatGPT بغيره من مولدات النصوص بالذكاء الاصطناعي
يُعد ChatGPT واحدًا من بين كثير من أدوات الكتابة بالذكاء الاصطناعي المتاحة اليوم. وتستخدم أدوات أخرى أنظمة مشابهة وتواجه مخاوف مشابهة حول الأصالة. وقبل اختيار أداة، من المفيد فهم ما يجمعها.
أوجه التشابه والاختلاف بين الأدوات
تشترك معظم أدوات الكتابة بالذكاء الاصطناعي في بعض السمات الأساسية:
تتدرب على مجموعات بيانات نصية كبيرة
تولّد النصوص بناءً على الأنماط
تتطلب مراجعة بشرية
وتظهر الاختلافات عادةً في النبرة والميزات وسير العمل. ويعتمد خطر الانتحال أكثر على كيفية استخدام الأداة منه على الأداة المختارة.
إجراءات منع الانتحال في الذكاء الاصطناعي

يعمل المطورون على تقليل التشابه مع المحتوى الموجود بالفعل.
ويجري استكشاف عدة أساليب.
أولًا، يمكن تدريب النماذج على مجموعات بيانات أنظف.
ثانيًا، قد تضيف المنصات فحوصات للأصالة.
ثالثًا، يمكن أن تحسن ملاحظات المستخدمين الردود.
رابعًا، تساعد التحذيرات الأكثر وضوحًا المستخدمين على فهم الحدود.
تساعد التكنولوجيا، لكنها لا تغني عن الاستخدام الحذر.
دليل المستخدم للاستخدام المسؤول للذكاء الاصطناعي
يحمي الاستخدام المسؤول للذكاء الاصطناعي كلًا من الجودة والنزاهة.
كيف تضمن الأصالة مع ChatGPT
للمحافظة على أصالة العمل، اتبع عملية بسيطة.
ابدأ بتوليد أكثر من مسودة.
أعد كتابة المحتوى بأسلوبك الخاص.
أضف أمثلة أو آراء أو تحليلًا.
تحقق من الحقائق من مصادر موثوقة.
وإذا كنت بحاجة إلى تطوير مسودتك الخاصة أكثر، فيمكن أن يساعدك موسّع الجمل والفقرات بالذكاء الاصطناعي على توسيع أفكارك قبل أن تعدلها من حيث الأسلوب والدقة.
تحول هذه الخطوات مخرجات الذكاء الاصطناعي إلى عمل حقيقي.
تجنب المزالق الشائعة في استخدام الذكاء الاصطناعي
تنشأ كثير من المشكلات من أخطاء بسيطة.
تجنب هذه العادات:
الاعتماد على الذكاء الاصطناعي وحده
تخطي التحرير والمراجعة
تجاهل قواعد الإفصاح
<ProTip title="✅ نصيحة احترافية:" description="الأصالة تنبع من تفكيرك أنت، لا من مجرد تجنب أدوات الذكاء الاصطناعي" />
الآثار المستقبلية للكتابة بالذكاء الاصطناعي
ستواصل أدوات الكتابة بالذكاء الاصطناعي التحسن. وستصبح أسرع وأكثر وضوحًا وأكثر اندماجًا في العمل اليومي. ومع حدوث ذلك، سترتفع التوقعات. سيبحث المعلمون والمحررون وأصحاب العمل عن الفهم الحقيقي، لا عن الجمل المصقولة فقط.
ستصبح الأدوات التي تدعم التخطيط والاستشهاد والمراجعة أكثر أهمية من الأدوات التي تولّد الكلمات فقط. وسيبقى الحكم البشري أهم جزء في الكتابة الأصيلة.
الكتابة بالذكاء الاصطناعي مع الحفاظ على الأصالة
لا يقوم ChatGPT بالانتحال عمدًا. فهو يولّد النصوص بناءً على أنماط لغوية تعلّمها، وقد تشبه أحيانًا محتوى موجودًا بالفعل. وتبقى مسؤولية الأصالة على المستخدم دائمًا.
<CTA title="أنشئ عملًا أصيلًا بدعم الذكاء الاصطناعي" description="استخدم Jenni للتخطيط للبحث وإدارة المصادر وصقل المسودات مع بقائك المسيطر على العمل" buttonLabel="جرّب Jenni مجانًا" link="https://app.jenni.ai/register" />
عندما يقترن الذكاء الاصطناعي بالحكم البشري، يمكنه دعم التعلم والإنتاجية من دون الإضرار بالنزاهة. يساعد Jenni الكتّاب على تنظيم الأفكار وإدارة المصادر والحفاظ على الأصالة أثناء استخدام الذكاء الاصطناعي بمسؤولية وثقة.
