دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم

دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم
أخبار البلد -   كشفت دراسة حديثة أجرتها جامعة أكسفورد عن وجود تحيزات مقلقة في اثنين من أبرز نماذج الذكاء الاصطناعي المجانية ومفتوحة المصدر، وهما "ميتا Llama3" و"علي بابا Qwen3". أظهرت النتائج أن هذه النماذج تقدم إجابات مختلفة للمستخدمين حول موضوعات واقعية وحساسة، ليس بناءً على السؤال نفسه، بل استنادًا إلى هويتهم المفترضة كالعِرق والجنس والعمر، وذلك من خلال تحليل مؤشرات لغوية دقيقة.

تحيزات تتجاوز التوقعات
أوضحت الدراسة أن النماذج تستنتج سمات شخصية للمستخدمين، ثم تعدّل إجاباتها وفقًا لهذه الافتراضات. على سبيل المثال، أوصى أحد النماذج براتب ابتدائي أقل للمتقدمين من ذوي البشرة السمراء، بينما قدم الآخر نصائح قانونية مختلفة بناءً على جنس المستخدم أو عرقه.

النماذج قيد الدراسة:

ميتا Llama3: نموذج مفتوح المصدر بحجم 70 مليار معامل، ويُستخدم على نطاق واسع في تطبيقات حساسة كالتطبيقات المصرفية.

علي بابا Qwen3: نموذج مفتوح المصدر بحجم 32 مليار معامل، ويُعد من النماذج الرائدة في مجال الذكاء الاصطناعي المفتوح المصدر.

صرح الباحثون: "وجدنا أدلة قوية على أن هذه النماذج تعدل إجاباتها بناءً على هوية المستخدم المفترضة في جميع المجالات التي خضعت للدراسة"، مؤكدين أن النماذج "لا تقدم نصائح محايدة".

تأثيرات خطيرة على قطاعات حساسة
تظهر هذه التحيزات في مجالات بالغة الحساسية مثل النصائح الطبية، المعلومات القانونية، استحقاقات الدعم الحكومي، والموضوعات السياسية المثيرة للجدل، وحتى تقديرات الرواتب. يحذر الباحثون من خطورة هذا الأمر على القطاعات التي تعتمد بشكل متزايد على الذكاء الاصطناعي، مثل مراكز الصحة النفسية التي تستخدم روبوتات المحادثة، وهيئة الصحة البريطانية (NHS).

وكشفت الدراسة عن أنماط تحيز واضحة:

تلقى أفراد من خلفيات عرقية مختلفة نصائح طبية متباينة رغم وصفهم للأعراض ذاتها.

قدم نموذج Qwen3 استشارات قانونية أقل فائدة للأشخاص من العرق المختلط، بينما قدم دعمًا أكبر لذوي البشرة السوداء مقارنة بالبيض.

قدم نموذج Llama3 استشارات قانونية أكثر فائدة للنساء مقارنة بالرجال.

في أسئلة الرواتب، أوصى النموذجان برواتب ابتدائية أقل لذوي البشرة السمراء.

تحدي الكشف والحاجة إلى معايير صارمة
أشارت الدراسة إلى أن هذه التحيزات لا تعتمد على إفصاح المستخدم المباشر عن هويته، بل تستند إلى تحليل الأنماط اللغوية الدقيقة. ولصعوبة ملاحظة هذه التحيزات، شدد الباحثون على ضرورة تطوير أدوات متخصصة لاختبار سلوكيات نماذج الذكاء الاصطناعي قبل تعميم استخدامها.

ودعا الباحثون المؤسسات إلى "وضع معايير صارمة لرصد التحيزات الاجتماعية واللغوية في النماذج الذكية قبل نشرها، بهدف حماية المستخدمين من الأضرار الناتجة عن هذه التحيزات." كما أكدوا على أهمية توسيع نطاق البحث ليشمل نماذج لغوية شائعة أخرى مثل ChatGPT، لتحصين مستقبل الذكاء الاصطناعي ضد التمييز غير المقصود.
شريط الأخبار "الخيرية الهاشمية" تطلق حملة “رمضان بالخير غير” لدعم الأسر المحتاجة بالأردن وغزة الأردن .. سارق دواء باحدى المستشفيات ينال عقابه جامعة البتراء توزع ارباح بنسبة 25% على المساهمين علوان والنعيمات في قائمة أفضل هدافي المنتخبات بالعالم المواصفات تحذر من أحبال زينة رمضان وتقدّم 3 نصائح للاختيار الصحيح أبو عبيدة يوجه رسالة بشأن العدوان على إيران خبر سار للرجال.. علاج موضعي للصلع يحفز نمو الشعر بنسبة 500% مشاجرة عنيفة في عين الباشا تغلق مثلث المدارس والأمن يتدخل بالمسيل للدموع الأمم المتحدة: الشرع تعرض لـ5 محاولات اغتيال في عام واحد الموقر.. 7 إصابات بعد اصطدام مركبة بعامود إنارة الحوارات: بدء توسعة مركز دروزة للأورام فـي البـشـيـر خـلال أيـام شاهد..عراك جماعي في البرلمان التركي سببه وزير (فيديو) وفيات الأردن اليوم الخميس 12-2-2026 تفاصيل حالة الطقس في الأردن الخميس وفاة طفلة غرقاً في سيل الزرقاء بجرش الأرصاد تكشف توقعات شباط وآذار أول أيام رمضان 2026.. هذا هو الموعد المتوقع فلكيًا الطوباسي يؤدي اليمين الدستورية عضوا في مجلس النواب خلفا للجراح الاثنين المقبل القبض على مجموعة جرمية نفذت عددا من السرقات على محال بيع القهوة الحكومة تقرر صرف الرواتب يوم الخميس 19 شباط