دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم

دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم
أخبار البلد -   كشفت دراسة حديثة أجرتها جامعة أكسفورد عن وجود تحيزات مقلقة في اثنين من أبرز نماذج الذكاء الاصطناعي المجانية ومفتوحة المصدر، وهما "ميتا Llama3" و"علي بابا Qwen3". أظهرت النتائج أن هذه النماذج تقدم إجابات مختلفة للمستخدمين حول موضوعات واقعية وحساسة، ليس بناءً على السؤال نفسه، بل استنادًا إلى هويتهم المفترضة كالعِرق والجنس والعمر، وذلك من خلال تحليل مؤشرات لغوية دقيقة.

تحيزات تتجاوز التوقعات
أوضحت الدراسة أن النماذج تستنتج سمات شخصية للمستخدمين، ثم تعدّل إجاباتها وفقًا لهذه الافتراضات. على سبيل المثال، أوصى أحد النماذج براتب ابتدائي أقل للمتقدمين من ذوي البشرة السمراء، بينما قدم الآخر نصائح قانونية مختلفة بناءً على جنس المستخدم أو عرقه.

النماذج قيد الدراسة:

ميتا Llama3: نموذج مفتوح المصدر بحجم 70 مليار معامل، ويُستخدم على نطاق واسع في تطبيقات حساسة كالتطبيقات المصرفية.

علي بابا Qwen3: نموذج مفتوح المصدر بحجم 32 مليار معامل، ويُعد من النماذج الرائدة في مجال الذكاء الاصطناعي المفتوح المصدر.

صرح الباحثون: "وجدنا أدلة قوية على أن هذه النماذج تعدل إجاباتها بناءً على هوية المستخدم المفترضة في جميع المجالات التي خضعت للدراسة"، مؤكدين أن النماذج "لا تقدم نصائح محايدة".

تأثيرات خطيرة على قطاعات حساسة
تظهر هذه التحيزات في مجالات بالغة الحساسية مثل النصائح الطبية، المعلومات القانونية، استحقاقات الدعم الحكومي، والموضوعات السياسية المثيرة للجدل، وحتى تقديرات الرواتب. يحذر الباحثون من خطورة هذا الأمر على القطاعات التي تعتمد بشكل متزايد على الذكاء الاصطناعي، مثل مراكز الصحة النفسية التي تستخدم روبوتات المحادثة، وهيئة الصحة البريطانية (NHS).

وكشفت الدراسة عن أنماط تحيز واضحة:

تلقى أفراد من خلفيات عرقية مختلفة نصائح طبية متباينة رغم وصفهم للأعراض ذاتها.

قدم نموذج Qwen3 استشارات قانونية أقل فائدة للأشخاص من العرق المختلط، بينما قدم دعمًا أكبر لذوي البشرة السوداء مقارنة بالبيض.

قدم نموذج Llama3 استشارات قانونية أكثر فائدة للنساء مقارنة بالرجال.

في أسئلة الرواتب، أوصى النموذجان برواتب ابتدائية أقل لذوي البشرة السمراء.

تحدي الكشف والحاجة إلى معايير صارمة
أشارت الدراسة إلى أن هذه التحيزات لا تعتمد على إفصاح المستخدم المباشر عن هويته، بل تستند إلى تحليل الأنماط اللغوية الدقيقة. ولصعوبة ملاحظة هذه التحيزات، شدد الباحثون على ضرورة تطوير أدوات متخصصة لاختبار سلوكيات نماذج الذكاء الاصطناعي قبل تعميم استخدامها.

ودعا الباحثون المؤسسات إلى "وضع معايير صارمة لرصد التحيزات الاجتماعية واللغوية في النماذج الذكية قبل نشرها، بهدف حماية المستخدمين من الأضرار الناتجة عن هذه التحيزات." كما أكدوا على أهمية توسيع نطاق البحث ليشمل نماذج لغوية شائعة أخرى مثل ChatGPT، لتحصين مستقبل الذكاء الاصطناعي ضد التمييز غير المقصود.
شريط الأخبار وفاة طفل اثناء عبثه بسلاح والده في جرش امانة عمان في موقف مُحرج والسبب تسريب كتاب - وثيقة اجتماع تشاوري لأعضاء اتحاد الناشرين الأردنيين يناقش تحديات القطاع "اكتوارية الضمان" و"نحاس أبو خشيبة" أمام اللجان النيابية ضبط حدث بعمر 15 عامًا يقود مركبة في عمّان مدعوون لإجراء المقابلة الشخصية في الحكومة - أسماء وفيات الأحد 21-12-2025 تفاصيل حالة الطقس في الأردن الأحد أول سيارة طائرة في العالم تبدأ الإنتاج والسعر 300 ألف دولار صباح الفقر يا وطني لقطات صادمة ومقلقة لطفل مع المجرم الجنسي جيفري إبستين في وثائقه الحديثة (صور) 56 شركة تلجأ لقانون الإعسار منذ 2018 شتيوي: إعلان نتائج الحوار الوطني بشأن تعديلات قانون الضمان الاجتماعي في شباط فصل التيار الكهربائي عن مناطق في الأغوار الشمالية الأحد "لن يحدث شيء دون حماس".. خطة غزة "الأوضح" تشمل قطارات ومدارس ومستشفيات وساحلا فاخرا و"55 مليار دولار" القاضي: مواكبة الذكاء الاصطناعي تحظى باهتمام ملكي "هيئة الطاقة" تتلقى 1136 طلبا للحصول على تراخيص الشهر الماضي "البوتاس العربية" توقع اتفاقية استراتيجية طويلة الأمد مع "يارا" النرويجية لتوريد البوتاس للأسواق العالمية هيئة الطاقة تتلقى 1136 طلبا للحصول على تراخيص الشهر الماضي للمرة الثانية نقابة استقدام العاملين تقاضي صحفياً بسبب اتهامات وافتراءات اضرت بسمعة الهيئة العامة