أخبار البلد - طردت شركة غوغل أحد مهندسيها، الذي قال إن نظام الذكاء الاصطناعي للشركة يمتلك مشاعر
وكان بلايك ليموين أعلن في الشهر الماضي عن نظريته القائلة بأن تقنية غوغل اللغوية، واعية ويجب بالتالي احترام "رغباتها"
ونفت غوغل والعديد من خبراء الذكاء الاصطناعي هذه المزاعم، وأكدت يوم الجمعة أنه تمت إقالته
وقال ليموين لبي بي سي إنه يتلقى مشورة قانونية، ورفض الإدلاء بمزيد من التعليقات
وقالت غوغل في بيان إن مزاعم ليموين بشأن نموذج اللغة لتطبيقات الحوار المعروف باسم لامدا "لا أساس لها على الإطلاق" وإن الشركة عملت معه "لعدة أشهر" لتوضيح ذلك
وأوضح بيان للشركة "لذلك، من المؤسف أنه على الرغم من الانخراط المطول في هذا الموضوع، لا يزال بلايك يختار باستمرار انتهاك سياسات التوظيف وأمن البيانات الواضحة التي تتضمن الحاجة إلى حماية معلومات المنتج"
ولامدا هي تقنية متطورة وأداة الشركة لبناء روبوتات المحادثة
تخطى البودكاست وواصل القراءة البودكاست تغيير بسيط (A Simple Change)
تغيير بسيط: ما علاقة سلة مشترياتك بتغير المناخ؟
وبدأ ليموين يتصدر عناوين الصحف الشهر الماضي عندما قال إن لامدا كانت تُظهر وعيا شبيها بالإنسان. وأثار هذا النقاش بين خبراء الذكاء الاصطناعي والمتحمسين حول تطور التكنولوجيا المصممة لانتحال شخصية البشر
وقال ليموين، الذي عمل مع فريق الذكاء الاصطناعي المسؤول في غوغل، لصحيفة واشنطن بوست إن وظيفته كانت اختبار ما إذا كانت التكنولوجيا تستخدم خطابا تمييزيا أو يحض على الكراهية
ووجد أن لامدا أظهرت وعيا ذاتيا ويمكنها إجراء محادثات حول الدين والعواطف والمخاوف. ودفع هذا ليموين إلى الاعتقاد بأن وراء مهاراته اللفظية المثيرة للإعجاب قد يكمن أيضا عقل واع
ورفضت غوغل النتائج التي توصل إليها وتم منحه إجازة مدفوعة الأجر لانتهاكه سياسة السرية للشركة. ثم نشر ليموين محادثة أجراها وشخص آخر مع لامدا لدعم مزاعمه
وقالت غوغل في بيانها إنها تأخذ التطوير المسؤول للذكاء الاصطناعي "على محمل الجد" ونشرت تقريرا يفصل ذلك
وأضافت أن أي مخاوف للموظفين بشأن تكنولوجيا الشركة تتم مراجعتها "على نطاق واسع"، وأن لامدا خضعت لـ 11 مراجعة
واختتمت البيان بقولها "نتمنى لبلايك (ليموين التوفيق"
وليموين ليس أول مهندس ذكاء اصطناعي يعلن عن ادعاءات بأن التقنية أصبحت أكثر وعيا. ففي الشهر الماضي أيضا، شارك موظف آخر في غوغل أفكارا مماثلة مع مجلة "الإيكونوميست"