25‏/01‏/2022

هل ستحل الذكاء الاصطناعي محل كتاب المحتوى؟ تطور ومستقبل كتابة المحتوى بالذكاء الاصطناعي

مع تقدم توليد النصوص وتعلم الآلة، يدور الكثير من الحديث حول ما إذا كان سيتم استبدال كتّاب المحتوى بأدوات كتابة النسخ الآلي التي تقدم وظائف الإكمال التلقائي.

GPT-3، وريتر، جارفيس، قريباً، كوبي إيه آي، فراز

، إلخ - قائمة المنتجات الجديدة التي تقدم خاصية الإكمال التلقائي في السوق لا تنتهي، جميعها يتميز بزر "اكتب عني". تضغط على هذا الزر، ويخرج فقرة نصية.


إنه يبدو تقريباً كالسحر.

كباحث في مجال الذكاء الصناعي، لقد تابعت الاختراقات في هذا المجال على مدى السنوات الخمس الماضية - ومن المثير كيف أن شيئًا كان في البداية طريقة لإكمال رسائلك النصية تحول إلى تكنولوجيا يمكنها الآن تقريبًا أن تنتج روايات بأكملها.

ولكن هل يعني هذا أن الذكاء الصناعي يمكن أن يحل محل كتّاب النسخ - هل أصبح الكتابة البشرية عفا عليها الزمن؟ الإجابة معقدة.

للإجابة على هذا السؤال، يجب علينا أولاً كشف الستار لنرى كيفية عمل الإكمال التلقائي لكتابة المحتوى فعلاً. مسلحين بهذه المعلومات، يمكننا البحث في المقايضات التي تأتي بها تكنولوجيا الذكاء الصناعي، ومعرفة ما إذا كان لدى كتّاب المحتوى ما يدعو للقلق مع كل هذه الأدوات الكتابية الذكاء الاصطناعي في السوق.

كيف تطور الإكمال التلقائي لكتابة المحتوى

مع كل الضجيج حول الاختراقات الجديدة في الذكاء الصناعي مثل GPT-3، من السهل أن ننسى كيف تطورت تقنية النص التنبؤية (الإكمال التلقائي والتصحيح التلقائي) عبر العقود.

نعم، هذه هي الميزة في أيفون 5 القديم الذي يصحح التهجئة لك من "iz" إلى "is"، وهو أيضاً كيف تقترح جوجل عليك (أحياناً بطريقة مضحكة) اكمالات لبحثك.

الاعتماد على نماذج N-Grams للكتابة بالنيابة عنك

قد تتفاجأ، ولكن يمكن تتبع تقنية الإكمال التلقائي إلى عام 1948. منذ ذلك الحين، ساعدت كتّاب المحتوى في التدقيق الإملائي وتصحيح كتاباتهم.

دعونا نلقي نظرة على الأصول المتواضعة للإكمال التلقائي.

كانت العديد من أنظمة الإكمال التلقائي المبكرة تعتمد على مفهوم نموذج اللغة. كان هذا في الأساس نموذجًا يمكنه التنبؤ بالكلمة التالية بناءً على تاريخ من الكلمات.

كان أول نموذج لغة، تم الإشارة إليه بواسطة كلود شانون، يسمى نموذج الن-grams. استُخدمت إحدى تطبيقات الن-grams للتنبؤ بمدى احتمالية ظهور مجموعة كلمات في النص الذي تكتبه.

فعلى سبيل المثال، إذا كتبت "هل يمكنك الرجاء أن تأتي" (كلمات التاريخ)، سيتنبأ نموذج الن-grams أن الكلمة التالية "هنا" محتملة جداً (على سبيل المثال، بنسبة 80%). سيقترح هاتفك ثم إكمال جملتك بكلمة "هنا".

كيف تعرف نماذج الن-grams أي الكلمات مرجحة؟

يمكنك إنشاء نموذج الن-grams ببساطة عن طريق حساب عدد مرات ظهور العبارة "هل يمكنك الرجاء أن تأتي إلى هنا" في مجموعة من النصوص عالية الجودة (تسمى أيضًا بيانات التدريب). إذا ظهرت هذه العبارة كثيرًا، فهذا يعني أن "هنا" هو اكمال صحيح محتمل - وإلا فهو صياغة غير محتملة.

يتم تطبيق هذه العدد من المرات على جميع العبارات الممكنة في مجموعة النصوص، وهذا ينتج عنه "جدول العد".

في المثال أعلاه، تحتوي الصف الأول على أعلى عدد لأنه يحدث في اللغة المكتوبة بشريًا كثيرًا. الصف الأخير مكتوب بالإنجليزية الغامضة ولا يحدث كثيرًا في اللغة الحديثة، لذلك لديه عدد أقل.

مع هذا الجدول، عندما يكتب شخص ما، سينظر البرنامج في هذا الجدول ليجد العبارة التي تتطابق مع أعلى عدد. هذا المطابقة الأفضل هي في الأساس توقع لما يجب أن تكون الكلمة التالية. هذه المطابقة تسمح أيضًا للبرنامج بإعطائك تقديراً لاحتمال الصحة (على سبيل المثال، فرصة بنسبة 80% للإكمال الصحيح بناءً على مجموعة النصوص).

وهكذا لدينا - السحر وراء العديد من أدوات الإكمال التلقائي ينحصر في عد الكلمات!

في جوهره الأكثر بساطة، هذه هي الطريقة التي تبني بها نموذجًا يمكنه التنبؤ بالكلمة التالية الأكثر احتمالاً بناءً على مجموعة معينة من كلمات التاريخ. هذا هو أساس كيفية عمل أنظمة الإكمال التلقائي والتصحيح التلقائي.

فهل سيتم استبدال كتّاب المحتوى بنموذج الن-grams؟

بالتأكيد لا.

هناك مشكلة جوهرية مع الن-grams - فهي تمثل اللغة بطريقة متناثرة. لوضعه ببساطة، هذا يعني إذا كان لديك الكثير من البيانات، فإن جدولك يصبح كبيرًا جدًا. هنا يأتي دور الشبكات العصبية مثل GPT للعب دورها.

الذهاب إلى ما بعد الجدول مع جي بي تي (GPT)

ما نستخدمه اليوم قد قطع شوطاً طويلاً منذ نموذج الن-grams.

يعتمد الذكاء الصناعي الحديث للإكمال التلقائي على الشبكات العصبية، والتي هي أقوى بكثير من النماذج الن-grams. على الرغم من كونها أكثر تعقيدًا، فإن الشبكات العصبية تعتمد على نفس المبدأ الأساسي للعد الإحصائي.

نموذج اللغة العصبي الكبير GPT-3 (Generative Pre-trained Transformer v3) الذي طورته OpenAI هو الآن العمود الفقري لجميع أدوات الكتابة التلقائية التي تم إصدارها مؤخراً في السوق. يعتبر GPT-3 جزءًا من اتجاه في معالجة اللغات الطبيعية (NLP) نحو الانتقال إلى الشبكات العصبية الكبيرة المدربة مسبقًا.

مع GPT-3، لم نعد نستخدم الجدول البدائي لتخزين جميع العبارات الممكنة، بل نخزن ملخصًا مضغوطًا له في أوزان شبكته العصبية. هذا يسمح لنا بتدريب أنماط على مليارات العبارات والجمل التي كان من غير الممكن إدراجها في جدول واحد.

فكيف يكتب GPT-3 من أجلك؟

مثل الن-grams، عندما تكتب كلمة أو عبارة، سيحاول GPT-3 إيجاد الكلمة الأكثر احتمالاً لإكمال جملتك بناءاً على مجموعة النصوص التي تم تدريبه منها.

ولكنه لا يتوقف عند هذا الحد. بمجرد أن يتنبأ بالكلمة التالية التي ستكتبها، سيفعل هذا في حلقة متكررة ويواصل التنبؤ بالكلمة التالية حتى يكتب فقرة. هكذا يقوم بـ"توليد" فقرة لك.

ولكن انتظر - إذا كان كل ما يفعله GPT-3 هو البحث في الاحتمالات المشتقة من محتوى مكتوبه سابقاً، فهل هذا يعني أن GPT-3 يكرر ببساطة ما قرأه، أم أنه فعلاً مبدع؟

هذا سؤال فلسفي صعب يسود في مناقشات اليوم حول المحتوى الذي ينشئه الذكاء الصناعي.

المفاهيم الخاطئة حول كتابة المحتوى بواسطة الذكاء الصناعي

هل يمكن لكتابة المحتوى بالذكاء الصناعي أن تكون مبدعة؟

لقد لاحظ الكثير من النقاد أن GPT-3، مثل جميع الأنماط الذكاء الصناعي، يمكنه فقط إنتاج نصوص رآها من قبل. هم يدعون أن كتابة الذكاء الصناعي تفتقر إلى الإبداع وأن هذه الأدوات جيدة فقط لانتاج محتوى مكرر.

بينما كان هذا الرأي صحيحًا في السابق، فهو ل

هل أنت مستعد لتحويل كتابة بحثك العلمي؟

سجل اليوم للحصول على حساب Jenni AI مجاني. اطلق العنان لإمكاناتك البحثية وتجربة الفارق بنفسك. رحلتك نحو التميز الأكاديمي تبدأ من هنا.