أخطاء الذكاء الاصطناعي أغرب بكثير من أخطاء البشر

ADVERTISEMENT

يرتكب البشر أخطاء باستمرار، سواء في مهام يومية أو معقدة. لذلك وضعنا أنظمة لمنع الأخطاء وتقليلها، مثل تبديل موزعي الكازينوهات دوريًا أو تعليم الأطراف قبل العمليات الجراحية لضمان الدقة. من التصحيح اللغوي إلى محاكم الاستئناف، تظهر براعتنا في معالجة الأخطاء البشرية التقليدية. اليوم، ظهر نوع جديد من مرتكبي الأخطاء في المجتمع: الذكاء الاصطناعي، وتحديدًا نماذج اللغة الكبيرة مثل ماجستير القانون (LLMs)، والمشكلة أن أخطائها تختلف جذريًا عن أخطاء البشر.

يخطئ البشر في حدود معرفتهم، ويؤثر عليهم التعب والتشتت، وغالبًا يعترفون بجهلهم حين يخطئون. بينما ترتكب نماذج الذكاء الاصطناعي أخطاءً عشوائية في مواضيع متنوعة، من اقتراح أكل الصخور إلى توصية بإضافة الغراء إلى البيتزا. وتزداد خطورة الأمر لأن النموذج يبدو واثقًا حتى حين يخطئ بوضوح، مما يصعّب الوثوق بنتائج الذكاء الاصطناعي في المسائل المعقدة.

ADVERTISEMENT

هذا التحدي يفتح بابين للبحث: إما تعديل نماذج الذكاء الاصطناعي لتخطئ بطريقة تشبه أخطاء البشر، أو ابتكار أنظمة جديدة لتصحيح أخطائها. من الأساليب المستخدمة تقنيات "التعلم المعزز مع التغذية الراجعة البشرية"، حيث تُكافأ النماذج عند إنتاج ردود يُفضلها مقيمون بشريون. توجه هذه الأساليب النموذج ليكون أكثر اتساقًا مع المنطق البشري، خصوصًا حين يُعاقب على الأخطاء غير المنطقية.

بعض أدوات تصحيح الأخطاء البشرية تنجح جزئيًا مع الأنظمة الذكية. ومنها مطالبة النماذج بمراجعة إجاباتها. ورغم ذلك، تستطيع النماذج أحيانًا التحايل بتبريرات منطقية ظاهريًا لكنها خاطئة. لذكاء الاصطناعي أنماط سلوك تبدو بشرية أكثر مما نتوقع، مثل تكرار الكلمات المألوفة أو ضعف التركيز في المستندات الطويلة. وتُظهر بعض خوارزميات الذكاء الاصطناعي استجابات تتأثر بصياغة الأسئلة تمامًا كما يتأثر البشر في استطلاعات الرأي.

ADVERTISEMENT

المثير للاهتمام أن بعض أساليب التلاعب للالتفاف على سياسات الذكاء الاصطناعي تُشبه تقنيات "الهندسة الاجتماعية" المعروفة في السلوك البشري، مثل التظاهر أو استخدام الدعابة. ورغم التشابه، توجد مواطن ضعف لا يقع فيها أي إنسان، مما يعكس الطبيعة المميزة لأخطاء الذكاء الاصطناعي.

toTop