دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم

دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم
أخبار البلد -   كشفت دراسة حديثة أجرتها جامعة أكسفورد عن وجود تحيزات مقلقة في اثنين من أبرز نماذج الذكاء الاصطناعي المجانية ومفتوحة المصدر، وهما "ميتا Llama3" و"علي بابا Qwen3". أظهرت النتائج أن هذه النماذج تقدم إجابات مختلفة للمستخدمين حول موضوعات واقعية وحساسة، ليس بناءً على السؤال نفسه، بل استنادًا إلى هويتهم المفترضة كالعِرق والجنس والعمر، وذلك من خلال تحليل مؤشرات لغوية دقيقة.

تحيزات تتجاوز التوقعات
أوضحت الدراسة أن النماذج تستنتج سمات شخصية للمستخدمين، ثم تعدّل إجاباتها وفقًا لهذه الافتراضات. على سبيل المثال، أوصى أحد النماذج براتب ابتدائي أقل للمتقدمين من ذوي البشرة السمراء، بينما قدم الآخر نصائح قانونية مختلفة بناءً على جنس المستخدم أو عرقه.

النماذج قيد الدراسة:

ميتا Llama3: نموذج مفتوح المصدر بحجم 70 مليار معامل، ويُستخدم على نطاق واسع في تطبيقات حساسة كالتطبيقات المصرفية.

علي بابا Qwen3: نموذج مفتوح المصدر بحجم 32 مليار معامل، ويُعد من النماذج الرائدة في مجال الذكاء الاصطناعي المفتوح المصدر.

صرح الباحثون: "وجدنا أدلة قوية على أن هذه النماذج تعدل إجاباتها بناءً على هوية المستخدم المفترضة في جميع المجالات التي خضعت للدراسة"، مؤكدين أن النماذج "لا تقدم نصائح محايدة".

تأثيرات خطيرة على قطاعات حساسة
تظهر هذه التحيزات في مجالات بالغة الحساسية مثل النصائح الطبية، المعلومات القانونية، استحقاقات الدعم الحكومي، والموضوعات السياسية المثيرة للجدل، وحتى تقديرات الرواتب. يحذر الباحثون من خطورة هذا الأمر على القطاعات التي تعتمد بشكل متزايد على الذكاء الاصطناعي، مثل مراكز الصحة النفسية التي تستخدم روبوتات المحادثة، وهيئة الصحة البريطانية (NHS).

وكشفت الدراسة عن أنماط تحيز واضحة:

تلقى أفراد من خلفيات عرقية مختلفة نصائح طبية متباينة رغم وصفهم للأعراض ذاتها.

قدم نموذج Qwen3 استشارات قانونية أقل فائدة للأشخاص من العرق المختلط، بينما قدم دعمًا أكبر لذوي البشرة السوداء مقارنة بالبيض.

قدم نموذج Llama3 استشارات قانونية أكثر فائدة للنساء مقارنة بالرجال.

في أسئلة الرواتب، أوصى النموذجان برواتب ابتدائية أقل لذوي البشرة السمراء.

تحدي الكشف والحاجة إلى معايير صارمة
أشارت الدراسة إلى أن هذه التحيزات لا تعتمد على إفصاح المستخدم المباشر عن هويته، بل تستند إلى تحليل الأنماط اللغوية الدقيقة. ولصعوبة ملاحظة هذه التحيزات، شدد الباحثون على ضرورة تطوير أدوات متخصصة لاختبار سلوكيات نماذج الذكاء الاصطناعي قبل تعميم استخدامها.

ودعا الباحثون المؤسسات إلى "وضع معايير صارمة لرصد التحيزات الاجتماعية واللغوية في النماذج الذكية قبل نشرها، بهدف حماية المستخدمين من الأضرار الناتجة عن هذه التحيزات." كما أكدوا على أهمية توسيع نطاق البحث ليشمل نماذج لغوية شائعة أخرى مثل ChatGPT، لتحصين مستقبل الذكاء الاصطناعي ضد التمييز غير المقصود.
شريط الأخبار الأردن... نحو 24 ألف حالة طلاق و31 ألف وفاة في 2025 "جوفيكو" الأردنية الفرنسية للتأمين تكرم الموظفين المتميزين للنصف الثاني من عام 2025 الملكية الأردنية تعقد اجتماع الهيئة العامة العادي وغير العادي 2025 إيران تعدم متهميْن بالتجسس 71.4 مليار دولار احتياجات غزة للتعافي وإعادة الإعمار بعد الحرب الطيب: اعتماد الهوية الرقمية يلزم الجهات الرسمية بقبولها إقبال لافت على العقبة.. إشغال الفنادق يصل 70% خلال عطلة نهاية الأسبوع حزب الله يوجه تحذيرا خطيرا ورسالة حادة الأردن يدين مخططا إرهابيا كان يستهدف الوحدة الوطنية والاستقرار في الإمارات الإمارات تعلن عن تفكيك تنظيم إرهابي وتنشر صور المتهمين سائق يدهس شرطيا ومهندسا في عمان إصابة أحد مرتبات الدوريات ومهندس بحادث دهس.. والسائق يسلّم نفسه الملك يؤكد أهمية منع أية محاولات إسرائيلية لاستغلال أوضاع المنطقة لفرض واقع جديد في القدس والضفة الغربية وغزة برودة غير اعتيادية الليلة ودرجات الحرارة الصغرى تهوي الى 2 مئوي في أعالي جبال الشراه بورصة عمّان تغلق تداولاتها الاثنين على ارتفاع فانس وقاليباف وعاصم منير.. ثلاثة رجال يرتبط مستقبلهم السياسي بمحادثات إسلام أباد الاتحاد الأوروبي يؤكّد دعمه للسلطة الفلسطينية وحل الدولتين نقيب تجار الألبسة يحذر من تراجع الطلب عبر الإنترنت قبل عيد الأضحى بسبب اضطراب سلاسل التوريد ولي العهد يلتقي أمير قطر ويؤكد تضامنه مع دول الخليج عم عطوفة د نضال ابوعرابي العدوان في ذمة الله