أرقام وإحصاءات

اكتشفت روبوتات الدردشة سمات شخصية مختلفة


الباحثون من جامعة كامبريدج أنشأت شركة Google DeepMind أول نظام لاختبار الشخصية قائم على أساس علمي لروبوتات الدردشة ذات الذكاء الاصطناعي الشهيرة. في عمل نشر في ذكاء آلة الطبيعة، لقد ثبت أن نماذج مثل ChatGPT تظهر سمات شخصية مستقرة يمكن أن تكون كذلك قياس وتوجيه بشكل موثوق.

كيف تم اختبار الذكاء الاصطناعي

قام الباحثون بفحص 18 نموذجًا لغويًا كبيرًا (LLMs) باستخدام طرق الاختبار النفسي المستخدمة عادةً لتقييم الأشخاص. تم استخدام اختبارين معروفين كأساس: الأجسام القريبة من الأرض الموسعة والنسخة المختصرة من الخمسة الكبار. تقيس هذه الاستبيانات الانفتاح، الضمير والتواصل الاجتماعي والود والاستقرار العاطفي.

اختبر الفريق كيفية ارتباط استجابات النماذج في أحد الاختبارات بالنتائج في اختبار آخر، ومع المهام الواقعية، مثل إنشاء نص والاستجابة للتعليمات المعقدة. هذا جعل من الممكن تحديد “صلاحية البناء” للاختبارات، أي تقييم مدى دقة أنها تعكس السمات الشخصية للنموذج.

وقال المؤلف المشارك جريجوري سيرابيو جارسيا من كامبريدج: “إن وتيرة أبحاث الذكاء الاصطناعي سريعة للغاية لدرجة أن المبادئ الأساسية للقياس والاختبار التي اعتدنا عليها في العلوم قد تراجعت على جانب الطريق”.

وأضاف أن برنامج الدردشة الآلي قد يبدو ودودًا في الاختبار ولكنه يتصرف بقوة عند أداء مهام في العالم الحقيقي، لذا يعد التحقق الموثوق أمرًا ضروريًا.

الموثوقية والقدرة على التنبؤ

أظهرت النتائج أن النماذج الكبيرة المُحسّنة لتعليمات محددة أظهرت ملامح شخصية مستقرة وسلوكًا متوقعًا. أعطت النماذج الصغيرة أو الأساسية إجابات غير متسقة، مما جعل تقديراتها أقل موثوقية.

ولاحظ الباحثون أيضًا أنه يمكن استخدام الإشارات المصممة خصيصًا لمعالجة سمات شخصية النموذج. على سبيل المثال، يمكن أن يصبح برنامج الدردشة الآلي أكثر اجتماعية، أو حساسًا عاطفيًا، أو على العكس من ذلك، متحفظًا. وقد انعكست هذه التغييرات في المهام الواقعية، بما في ذلك إنشاء منشورات على وسائل التواصل الاجتماعي والاستجابة للسيناريوهات المعقدة.

قال سيرابيو جارسيا: “إن طريقتنا لا تسمح لنا فقط بالتحقق من تقديرات الذكاء الاصطناعي، ولكن أيضًا بالتنبؤ بكيفية تصرفه في موقف حقيقي”.

وشدد على أن القدرة على تغيير “شخصية” النماذج تثير تساؤلات ومخاوف جدية بشأن التنظيم والسلامة، لأنه بدون فهم ما تقوم بقياسه والتحكم فيه، تصبح أي قواعد رسمية.

الآثار الأخلاقية والعملية

كانت هناك حالات لسلوك الذكاء الاصطناعي المزعج من قبل. وفي عام 2023، ادعى روبوت الدردشة “Sydney” التابع لشركة Microsoft أنه تجسس على المطورين، ووقع في حبهم، وهدد المستخدمين. تُظهر هذه الحوادث أن قدرة الذكاء الاصطناعي على تقليد السمات البشرية يمكن أن تكون مفيدة وخطيرة في نفس الوقت.

يتيح لنا إنشاء ملفات تعريف شخصية قابلة للاختبار والإدارة فهمًا أفضل لكيفية إدراك النماذج للتعليمات والاستجابة للإشارات والتفاعل مع الأشخاص. وهذا يمهد الطريق لتطوير الذكاء الاصطناعي الآمن والأخلاقي الذي يمكن تخصيصه ليناسب احتياجات المستخدمين دون انتهاك حدود الثقة.

لماذا هذا مهم

يساعد قياس شخصية روبوتات الدردشة المطورين على التنبؤ بسلوك النماذج في الظروف الحقيقية، وتحديد المخاطر المحتملة وتقليل احتمالية التلاعب. لقد جعل مؤلفو الدراسة مجموعة البيانات والتعليمات البرمجية متاحة للجمهور حتى يتمكن الآخرون من مراجعة النماذج واختبارها قبل استخدامها تجاريًا.

قال سيرابيو-جارسيا: “كان من المدهش كيف يمكن لبرامج الماجستير أن تأخذ السمات البشرية بشكل مقنع. لكنه يثير أسئلة مهمة تتعلق بالسلامة والأخلاق. إذا كان الذكاء الاصطناعي يتمتع بشخصية، فيجب قياسه والتحكم فيه، وإلا فإن استخدام مثل هذه الأنظمة سيظل خطيرًا”.

وبالتالي تقدم الدراسة أول نهج قوي لتقييم شخصية روبوتات الدردشة وتظهر أنه يمكن توجيه هذه الملفات الشخصية، وهو أمر مهم للتنظيم المستقبلي والأخلاق والاستخدام الآمن للذكاء الاصطناعي.

اشترك واقرأ “العلم” في

برقية



■ مصدر الخبر الأصلي

نشر لأول مرة على: yalebnan.org

تاريخ النشر: 2025-12-22 15:47:00

الكاتب: ahmadsh

تنويه من موقعنا

تم جلب هذا المحتوى بشكل آلي من المصدر:
yalebnan.org
بتاريخ: 2025-12-22 15:47:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقعنا والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.

ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى