خلاف وصل نقطة الانهيار.. مستقيل من ChatGPT يفضح أولويتها

خلاف وصل نقطة الانهيار.. مستقيل من ChatGPT يفضح أولويتها
أخبار البلد -  

قبيل قمة الذكاء الاصطناعي العالمية المقررة في سيول الأسبوع المقبل، حيث يناقش السياسيون والخبراء والمديرون التنفيذيون في مجال التكنولوجيا الرقابة على التكنولوجيا، فجّر أحد كبار الموظفين السابقين في شركة أوبن إيه آي (Open AI) مفاجأة جديدة.

"نقطة الانهيار"

فقد كشف جان لايكي الذي كان باحثاً رئيسياً في مجال السلامة في OpenAI، أن الشركة التي تقف وراء ChatGPT تعطي الأولوية "للمنتجات اللامعة" على السلامة.

 

وأكد الذي كان مسؤولاً عما يضمن التزام أنظمة الذكاء الاصطناعي القوية بالقيم والأهداف الإنسانية، أن استقالته جاءت بعد أن وصل الخلاف حول الأهداف الرئيسية إلى "نقطة الانهيار".

كما قام لايكي بتفصيل أسباب رحيله في منشور له عبر منصة "إكس"، الجمعة الماضي، معتبراً أن ثقافة السلامة أصبحت ذات أولوية أقل في الشركة.

وكشف أنه على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة إلى المنتجات اللامعة، مشددا على أنه كان يختلف مع قيادة OpenAI حول أولويات الشركة لبعض الوقت، لكن هذه المواجهة وصلت أخيرا إلى نقطة الانهيار، وفق قوله.

وقال: "إن OpenAI، التي طورت أيضًا مولد الصور Dall-E ومولد الفيديو Sora، يجب أن تستثمر المزيد من الموارد في قضايا مثل السلامة والتأثير الاجتماعي والسرية والأمن للجيل القادم من النماذج".

وتابع: "من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك"، مردفًا: أن الأمر أصبح "أصعب فأصعب" بالنسبة لفريقه لإجراء أبحاثه.

 

كما قال: "إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته. تتحمل OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء"، مشدداً على أن OpenAI "يجب أن تصبح شركة AGI للسلامة أولًا".

خلاف حول الخطر

يشار إلى أن OpenAI كان تأسست بهدف ضمان أن الذكاء الاصطناعي العام، والذي تصفه بأنه "أنظمة الذكاء الاصطناعي الأكثر ذكاءً بشكل عام من البشر"، يفيد البشرية جمعاء.في حين تأتي هذه الاستقالة بعد أيام من إطلاق الشركة التي يقع مقرها في سان فرانسيسكو، أحدث طراز للذكاء الاصطناعي ChatGPT-4o.

كما يعني رحيله أن اثنين من كبار الشخصيات في مجال السلامة في OpenAI قد غادرا هذا الأسبوع بعد استقالة إيليا سوتسكيفر، المؤسس المشارك لـ OpenAI وزميله الرئيس المشارك لشركة Superalignment.

وجاء تحذير لايكي في الوقت الذي أصدرت فيه لجنة من خبراء الذكاء الاصطناعي الدوليين تقريرًا افتتاحيًا حول سلامة الذكاء الاصطناعي، والذي ذكر أن هناك خلافًا حول احتمالية تهرب أنظمة الذكاء الاصطناعي القوية من السيطرة البشرية، حسب صحيفة "الغارديان".

مع ذلك، حذرت من أن المنظمين يمكن أن يتخلفوا عن التقدم السريع في التكنولوجيا، منبهين من التفاوت المحتمل بين وتيرة التقدم التكنولوجي ووتيرة الاستجابة التنظيمية.

شريط الأخبار "بعد زيارات الفرق الميدانية " البدور :تغيير أماكن 41 مركز صحي مُستأجر غير ملائم … الرئيس الإيراني: يجب أن نعمل مع دول الجوار بهدف ضمان وتأمين الأمن والسلام من كرة القدم إلى العقارات.. 25 مليون دولار مكسبا فوريا لجار ميسي رئيس الأركان الإسرائيلي: نحن بصدد سحق النظام الإيراني إعلام إسرائيلي: صاروخ إيراني جديد يقلص زمن التحذير إلى دقيقة واحدة الجامعة العربية تعقد اجتماعا الأحد حول الضربات الإيرانية على عدد من الدول العربية. حرب عالمية ثالثة! .. توقعات العرافة الكفيفة بابا فانغا للعام 2026 تعود إلى الواجهة مجددا ترامب يعلن حضوره مراسم تأبين جنود أمريكيين قُتلوا في الكويت السفارة الأميركية في الأردن تواصل إصدار البيانات التحذيرية الامارات : نتعامل مع تهديدات صاروخية وطائرات مسيّرة قادمة من إيران ودوي انفجارات في ابو ظبي وزارة الصحة اللبنانية: ارتفاع عدد قتلى الغارات الإسرائيلية على بلدة النبي شيت في البقاع إلى 12 طقس بارد وزخات مطرية خفيفة اليوم وفيات السبت .. 7 / 3 / 2026 الأمن العام : سقوط صاروخ بمنطقة خالية في كفريوبا ولا إصابات تقرير: السعودية تكثف قنوات اتصال مباشر مع إيران لخفض التصعيد موجة برد مُقبلة تجلب درجات حرارة "المربعانية" في آذار النائب العوايشة: آلية العمل داخل المؤسسة العامة للغذاء والدواء) تُدار بنظام “الفزعات” وصول حاملة الطائرات الفرنسية شارل ديغول إلى البحر المتوسط شركة التأمين الإسلامية تُقيم إفطارًا خيريًا للأيتام هجوم صاروخي يستهدف قاعدة عسكرية تضم مركزا دبلوماسيا أميركيا في العراق