button icon
صورة الخلفيّة
button icon
بطاقات دُعاء
button icon
رمضان مبارك
button icon
بطاقة الإجابة

أخطاء الذكاء الاصطناعي أغرب بكثير من أخطاء البشر

ADVERTISEMENT

يرتكب البشر أخطاءً طوال الوقت. جميعنا نفعل ذلك يوميًا، سواءً في مهام جديدة أو روتينية. بعض أخطائنا طفيفة وبعضها كارثية. قد تُزعزع هذه الأخطاء ثقة أصدقائنا، أو تُفقدنا ثقة رؤسائنا، وقد تُحدث أحيانًا فرقًا بين الحياة والموت. على مر آلاف السنين، ابتكرنا أنظمة أمنية للتعامل مع أنواع الأخطاء الشائعة التي يرتكبها البشر. في هذه الأيام، تُغير الكازينوهات موزعيها بانتظام، لأنهم يرتكبون أخطاءً إذا استمروا في أداء المهمة نفسها لفترة طويلة. يكتب موظفو المستشفيات على الأطراف قبل الجراحة ليُجري الأطباء العملية على الجزء الصحيح من الجسم، ويحصون الأدوات الجراحية للتأكد من عدم وجود أي منها داخل الجسم. من تحرير النصوص إلى مسك الدفاتر بنظام القيد المزدوج إلى محاكم الاستئناف، أصبحنا نحن البشر بارعين جدًا في تصحيح الأخطاء البشرية. تُدمج البشرية الآن بسرعة نوعًا مختلفًا تمامًا من مُرتكبي الأخطاء في المجتمع: الذكاء الاصطناعي. تستطيع تقنيات مثل نماذج اللغة الكبيرة (LLMs) أداء العديد من المهام المعرفية التي كان البشر يُنجزونها تقليديًا، لكنها تُرتكب الكثير من الأخطاء. يبدو الأمر سخيفًا عندما تطلب منك برامج الدردشة الآلية أكل الصخور أو إضافة الغراء إلى البيتزا.

ADVERTISEMENT
From pexels

الأخطاء البشرية مقابل أخطاء الذكاء الاصطناعي

تُسهّل تجارب الحياة على كلٍّ منا تخمين متى وأين سيرتكب البشر الأخطاء. تميل الأخطاء البشرية إلى أن تكون على حافة معرفة الشخص: فمعظمنا يرتكب أخطاءً في حل مسائل التفاضل والتكامل. نتوقع أن تتجمع الأخطاء البشرية: من المرجح أن يصاحب خطأ واحد في التفاضل والتكامل أخطاء أخرى. نتوقع أن تتزايد الأخطاء وتتناقص، اعتمادًا على عوامل مثل التعب والتشتت. وغالبًا ما تكون الأخطاء مصحوبة بالجهل: فمن يرتكب أخطاء في التفاضل والتكامل من المرجح أيضًا أن يجيب بـ "لا أعرف" على الأسئلة المتعلقة بالتفاضل والتكامل. بقدر ما ترتكب أنظمة الذكاء الاصطناعي هذه الأخطاء البشرية، يمكننا تسخير جميع أنظمة تصحيح الأخطاء لدينا للتأثير على مخرجاتها. لكن نماذج الذكاء الاصطناعي الحالية - وخاصةً نماذج ماجستير القانون - ترتكب الأخطاء بشكل مختلف. تظهر أخطاء الذكاء الاصطناعي في أوقات تبدو عشوائية، دون أي تركيز على مواضيع محددة. تميل أخطاء نماذج ماجستير القانون إلى التوزيع بشكل أكثر توازناً في فضاء المعرفة. قد يكون احتمال ارتكاب نموذج ما خطأً في مسألة حساب التفاضل والتكامل مساوياً لاحتمال ارتكابه خطأً في اقتراح أن الملفوف يأكل الماعز. وأخطاء الذكاء الاصطناعي لا تصاحبها جهل. سيكون نموذج ماجستير القانون واثقاً تماماً عند قول شيء خاطئ تماماً - وهذا واضح، بالنسبة للإنسان - كما سيكون واثقاً عند قول شيء صحيح. إن التناقض العشوائي الظاهري لنماذج ماجستير القانون يجعل من الصعب الوثوق بمنطقها في المشكلات المعقدة متعددة الخطوات.

ADVERTISEMENT
From pexels

كيفية التعامل مع أخطاء الذكاء الاصطناعي

يشير هذا الوضع إلى مجالين بحثيين محتملين. الأول هو هندسة برامج ماجستير في القانون ترتكب أخطاءً أكثر شبهًا بالأخطاء البشرية. والثاني هو بناء أنظمة جديدة لتصحيح الأخطاء تتعامل مع أنواع محددة من الأخطاء التي يميل طلاب ماجستير في القانون إلى ارتكابها. لدينا بالفعل بعض الأدوات التي تُمكّن طلاب ماجستير في القانون من التصرف بطرق أقرب إلى البشر. ينبع العديد من هذه الأدوات من مجال أبحاث "المواءمة"، التي تهدف إلى جعل النماذج تعمل وفقًا لأهداف ودوافع مطوريها البشريين. ومن الأمثلة على ذلك التقنية التي يُقال إنها كانت مسؤولة عن النجاح الباهر لـ ChatGPT: التعلم المعزز مع التغذية الراجعة البشرية. في هذه الطريقة، يُكافأ نموذج الذكاء الاصطناعي (مجازيًا) على إنتاج استجابات تحظى بموافقة المُقيّمين البشريين. يمكن استخدام أساليب مماثلة لحث أنظمة الذكاء الاصطناعي على ارتكاب أخطاء أكثر شبهًا بالأخطاء البشرية، لا سيما من خلال زيادة معاقبتها على الأخطاء الأقل وضوحًا. عندما يتعلق الأمر باكتشاف أخطاء الذكاء الاصطناعي، فإن بعض الأنظمة التي نستخدمها لمنع الأخطاء البشرية ستساعد في ذلك. إلى حد ما، يُمكن أن يُساعد إجبار طلاب الماجستير في القانون على مراجعة أعمالهم مُجددًا في تجنّب الأخطاء. لكن يُمكنهم أيضًا اختلاق تفسيرات تبدو معقولة، لكنها سخيفة حقًا، لتبرير انحرافهم عن المنطق. تختلف أنظمة تخفيف الأخطاء الأخرى في الذكاء الاصطناعي عن أي شيء نستخدمه مع البشر.

ADVERTISEMENT
From pexels

فهم أوجه التشابه والاختلاف

لا يزال الباحثون يُكافحون لفهم مواطن اختلاف أخطاء طلاب الماجستير في القانون عن أخطاء البشر. بعض غرابة الذكاء الاصطناعي أقرب إلى البشر مما يبدو للوهلة الأولى. يُمكن أن تُؤدي التغييرات الطفيفة في استعلام طالب الماجستير في القانون إلى استجابات مُختلفة تمامًا، وهي مُشكلة تُعرف باسم حساسية الاستجابة الفورية. ولكن، كما يُمكن لأي باحث في مجال الاستطلاعات أن يُخبرك، فإن البشر يتصرفون بهذه الطريقة أيضًا. يُمكن أن يكون لصياغة سؤال في استطلاع رأي تأثيرات جذرية على الإجابات. يبدو أيضًا أن برامج التعلم العميق تميل إلى تكرار الكلمات الأكثر شيوعًا في بيانات تدريبها؛ على سبيل المثال، تخمين أسماء الأماكن المألوفة مثل "أمريكا" حتى عند سؤالها عن مواقع أكثر غرابة. ربما يكون هذا مثالًا على "استدلال التوافر" البشري الذي يتجلى في برامج التعلم العميق، حيث تُخرج الآلات أول ما يخطر على بالها بدلاً من التفكير في السؤال. ومثل البشر، ربما، يبدو أن بعض برامج التعلم العميق تشتت انتباهها في منتصف المستندات الطويلة؛ فهي أكثر قدرة على تذكر الحقائق من البداية إلى النهاية. هناك بالفعل تقدم في تحسين نمط الخطأ هذا، حيث وجد الباحثون أن برامج التعلم العميق المُدربة على المزيد من أمثلة استرجاع المعلومات من النصوص الطويلة تبدو أفضل في استرجاع المعلومات بشكل موحد. في بعض الحالات، ما هو غريب في برامج التعلم العميق هو أنها تتصرف كبشر أكثر مما نعتقد. اتضح أيضًا أن بعض أفضل طرق "كسر حماية" برامج الذكاء الاصطناعي (بجعلها تخالف تعليمات مُنشئها الصريحة) تُشبه إلى حد كبير حيل الهندسة الاجتماعية التي يستخدمها البشر ضد بعضهم البعض: على سبيل المثال، التظاهر بكونك شخصًا آخر أو القول إن الطلب مجرد مزحة. لكن تقنيات كسر الحماية الفعّالة الأخرى هي أمور لن ينطلي على أي إنسان.

المزيد من المقالات

toTop