يبدو أن الخوف من تمرد الآلات الذكية، بحيث تشكل في يوم ما تهديدا للبشرية كما يحذر مؤسس شركة تيسلا إيلون ماسك أو الفيزيائي البريطاني المعروف ستيفن هوكينغ، قد انتقل أيضا إلى شركة خدمات الإنترنت غوغل التي تقف وراء تطوير تقنية “ديب مايند” للذكاء الاصطناعي.
فقد نشرت غوغل ورقة (بي دي أف) تُفصل عمل فريق “ديب مايند”، وهي التقنية التي كانت وراء هزيمة بطل العالم في لعبة غو المعقدة، مشيرة إلى أن الفريق يعمل على ضمان وجود “مفتاح تعطيل” لمنع ما يمكن أن يكون كارثة روبوتية تصيب البشرية على غرار ما جرى في فيلم الخيال العلمي الأميركي “تيرمينتور” عندما سيطر الذكاء الاصطناعي “سكاينت” على الآلات ومنع الروبوتات من الانصياع لأوامر البشر.
وفي الأساس، طوّر فريق ديب مايند إطار عمل سيمنع الذكاء الاصطناعي من تعلم كيفية منع -أو تضمين- تدخُّل (إعاقة) الإنسان لما تقوم به، وافترض الفريق حالة يعمل فيها الروبوت في مستودع حيث يفرز الصناديق أو يذهب خارجا لإحضار مزيد من الصناديق.
ويعتبر الأمر الأخير مهما جدا، وذلك أن الباحثين سيمنحون الروبوت مكافأة أكبر على قيامه بهذا الأمر, لكن التدخل البشري لمنع وقوع ضررٍ أمرٌ مطلوب كما في حالة هطول المطر مثلا، بحيث يتم تغيير مهمة الروبوت بطريقة تجعله يريد البقاء بعيدا عن المطر، ومن ثم تَبَنِّي تدخُّل الإنسان باعتباره جزءا من المهمة وليس عائقا في طريق إنجازها.
وكتب الباحثون يقولون إن “المداخلة (الإعاقة) الآمنة يمكن أن تكون مفيدة للسيطرة على روبوت يسيء التصرف وقد يتسبب في عواقب لا يمكن التراجع عنها، أو لإخراجه من وضع دقيق، أو حتى لاستخدام الروبوت مؤقتا لإنجاز مهمة لم يتعلم تأديتها أو لن يتلقى بالضرورة مكافآت عن إنجازها”.
لكن فريق “ديب مايند” غير متأكد من أن آلية التدخل هذه يمكن أن تطبق على كل الخوارزميات، وتحديدا ما يتعلق بسياسة البحث الروبوتية، وهي جزء من تقنية تعلُّم الآلة، ولهذا فإن الأمر سيتطلب وقتا أطول قبل أن يتم تطبيق “مفتاح التعطيل” هذا على نطاق واسع.
الجزيرة