دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم

دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم
أخبار البلد -   كشفت دراسة حديثة أجرتها جامعة أكسفورد عن وجود تحيزات مقلقة في اثنين من أبرز نماذج الذكاء الاصطناعي المجانية ومفتوحة المصدر، وهما "ميتا Llama3" و"علي بابا Qwen3". أظهرت النتائج أن هذه النماذج تقدم إجابات مختلفة للمستخدمين حول موضوعات واقعية وحساسة، ليس بناءً على السؤال نفسه، بل استنادًا إلى هويتهم المفترضة كالعِرق والجنس والعمر، وذلك من خلال تحليل مؤشرات لغوية دقيقة.

تحيزات تتجاوز التوقعات
أوضحت الدراسة أن النماذج تستنتج سمات شخصية للمستخدمين، ثم تعدّل إجاباتها وفقًا لهذه الافتراضات. على سبيل المثال، أوصى أحد النماذج براتب ابتدائي أقل للمتقدمين من ذوي البشرة السمراء، بينما قدم الآخر نصائح قانونية مختلفة بناءً على جنس المستخدم أو عرقه.

النماذج قيد الدراسة:

ميتا Llama3: نموذج مفتوح المصدر بحجم 70 مليار معامل، ويُستخدم على نطاق واسع في تطبيقات حساسة كالتطبيقات المصرفية.

علي بابا Qwen3: نموذج مفتوح المصدر بحجم 32 مليار معامل، ويُعد من النماذج الرائدة في مجال الذكاء الاصطناعي المفتوح المصدر.

صرح الباحثون: "وجدنا أدلة قوية على أن هذه النماذج تعدل إجاباتها بناءً على هوية المستخدم المفترضة في جميع المجالات التي خضعت للدراسة"، مؤكدين أن النماذج "لا تقدم نصائح محايدة".

تأثيرات خطيرة على قطاعات حساسة
تظهر هذه التحيزات في مجالات بالغة الحساسية مثل النصائح الطبية، المعلومات القانونية، استحقاقات الدعم الحكومي، والموضوعات السياسية المثيرة للجدل، وحتى تقديرات الرواتب. يحذر الباحثون من خطورة هذا الأمر على القطاعات التي تعتمد بشكل متزايد على الذكاء الاصطناعي، مثل مراكز الصحة النفسية التي تستخدم روبوتات المحادثة، وهيئة الصحة البريطانية (NHS).

وكشفت الدراسة عن أنماط تحيز واضحة:

تلقى أفراد من خلفيات عرقية مختلفة نصائح طبية متباينة رغم وصفهم للأعراض ذاتها.

قدم نموذج Qwen3 استشارات قانونية أقل فائدة للأشخاص من العرق المختلط، بينما قدم دعمًا أكبر لذوي البشرة السوداء مقارنة بالبيض.

قدم نموذج Llama3 استشارات قانونية أكثر فائدة للنساء مقارنة بالرجال.

في أسئلة الرواتب، أوصى النموذجان برواتب ابتدائية أقل لذوي البشرة السمراء.

تحدي الكشف والحاجة إلى معايير صارمة
أشارت الدراسة إلى أن هذه التحيزات لا تعتمد على إفصاح المستخدم المباشر عن هويته، بل تستند إلى تحليل الأنماط اللغوية الدقيقة. ولصعوبة ملاحظة هذه التحيزات، شدد الباحثون على ضرورة تطوير أدوات متخصصة لاختبار سلوكيات نماذج الذكاء الاصطناعي قبل تعميم استخدامها.

ودعا الباحثون المؤسسات إلى "وضع معايير صارمة لرصد التحيزات الاجتماعية واللغوية في النماذج الذكية قبل نشرها، بهدف حماية المستخدمين من الأضرار الناتجة عن هذه التحيزات." كما أكدوا على أهمية توسيع نطاق البحث ليشمل نماذج لغوية شائعة أخرى مثل ChatGPT، لتحصين مستقبل الذكاء الاصطناعي ضد التمييز غير المقصود.
شريط الأخبار الدرويش والحفار نسايب انخراط صندوق "أموال الضمان " في "عمرة".. زخم استثماري جديد للمشروع تعرفوا على مجموعة النشامى في كأس العالم 2026 الأردن ودول عربية وإسلامية قلقون من تصريحات إسرائيلية بشأن معبر رفح الزراعة : مهرجان الزيتون الوطني خالٍ من غش الزيت.. ونثمّن جهود الأمن العام بتنظيم الحركة المرورية بدء حفل قرعة كأس العالم 2026 6031 جمعية قائمة بموجب قانون الجمعيات النافذ - تفاصيل الأمير علي يترأس الوفد الأردني في قرعة كأس العالم 2026 في واشنطن الأردن الثالث عربيا في عدد تأشيرات الهجرة إلى أميركا لعام 2024 العثور على جثة داخل منزل في الأزرق.. والقبض على الجاني 164 ألف مركبة دخلت المنطقة الحرة خلال أول 10 أشهر من العام الحالي غرف الصناعة تهنىء بفوز "الصناعة والتجارة والتموين" بجائزة أفضل وزارة عربية مجددا.. خلل تقني يتسبب بتعطل مواقع عالمية على الإنترنت فريق المبيعات في دائرة تطوير الأعمال في المجموعة العربية الأردنية للتأمين يحقق التارجت السنوي كاملاً والشركة تحتفي بإنجازهم عشرات الآلاف يُؤدون صلاة الجمعة في المسجد الأقصى 3 وفيات وإصابة إثر تسرّب غاز في عمان الجيش: القبض على شخصين حاولا التسلل من الواجهة الشمالية عبيدات: تقليم أشجار الزيتون يلعب دورا كبيرا في تحسين الإنتاج شهيد باقتحام الاحتلال بلدة أودلا جنوبي نابلس الجيش يحبط تهريب مخدرات بواسطة "درون" على الواجهة الغربية