عندما يتبرّأ مبتكرو الذكاء الاصطناعي منه

محمود الريماوي

حرير- “هل يجب أن نطوّر عقولا غير بشرية قد تتفوّق في النهاية علينا عددا، وتتفوّق على الذكاء البشري، وتحلّ محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟”. وردت هذه التساؤلات في رسالة تحذير أطلقها مدراء شركات التكنولوجيا ومختصّون في الذكاء الاصطناعي. لا تتوقف الرسالة المفتوحة عند ما سبق، فهي تحذّر بصريح العبارة من “انقراض البشرية” إذا ما جرى استخدام تطبيقات هذا الذكاء في مجال الأوبئة (إنتاجها وإطلاقها كما يُفهم) والأسلحة النووية. وتأتي الرسالة من قبيل إبراء الذمّة المسبق، وفي الوقت نفسه، لغاية دقّ ناقوس الخطر، وحمل مؤسّسات الدول على الحدّ من تطوير الذكاء الاصطناعي، وذلك للمخاوف من أن تقع هذه التطبيقات في أيدي عصابات الإنترنت في أي بلد، أو يجرى استثمارها وتسخيرها من دولٍ توصف بالاستبدادية أو أن تكون أداة في يد أية دولةٍ، أيا كان تصنيفها.

كانت الرحلة التي قطعتها التكنولوجيا الرقمية سريعة خلال العقدين الماضيين، ففي حين كان انتشار الإنترنت محدودا في مطلع الألفية الثالثة، فإن الهاتف الذكي بات في أيدي ملايين البشر بمن فيهم أبناء الدول الفقيرة. وإذ حقّق الإنترنت إنجازات باهرة في مجالات الاقتصاد والطب والعلوم عموما والتعليم ونشر المعرفة، فإن المخاطر بدأت تلوح بقوة، ومن أهمها كسر الغربة وإزالة الحواجز بين الإنسان والأجهزة مع زيادة هذه الحواجز بين البشر الطبيعيين أنفسهم. إضافة إلى ما توفّره هذه التطبيقات الجديدة في مجالات التسلح والأعمال العدائية، من قبيل صناعة أسلحة متطوّرة قابلة للعمل ذاتياً، وتحديد الأهداف واختيارها من تلقاء نفسها على غرار المركبات ذاتيّة القيادة. وقد سبق لوزير الخارجية الأسبق هنري كيسنجر أن حذّر من هذه المسألة. ولنا أن نتصوّر أي مدىً يمكن أن تذهب إليه الحرب الحالية على أوكرانيا، إذا ما جرى التوسّع في استخدام الذكاء الاصطناعي، بحيث لا يقتصر توظيفه على المسيّرات، وذلك في ضوء تبشير بعض المسؤولين الروس بأن هذه الحرب قد تستمرّ سنواتٍ، بما يمنح فسحة زمنية كافية لاستدخال أسلحة فتّاكة تعمل وفق الذكاء الاصطناعي، وتتولى سحق مظاهر الحياة من بشر وطبيعة وعمران. وقد تنبأ عالم الفيزياء النظرية ستيفن هوكينغ، قبل رحيله في العام 2018، بأن “النجاح في إنشاء الذكاء الاصطناعي سوف يشكل أكبر حدث في تاريخ البشرية. ولكن لسوء الحظ، قد يكون أيضًا الأخير”. والمقصود أن البشرية ستكون قد صنعت وسيلة فنّائها بأيديها، وذلك مع الهوس في التطوير واشتداد حمّى المنافسة بين المبتكرين هنا وهناك.

أعلن، في مارس/ آذار الماضي، من يعتبر الأب الروحي للذكاء الاصطناعي استقالته من شركة غوغل، فقد أعلن جيفري هينتون (75 عامًا) استقالته من شركة التكنولوجيا الرائدة في بيان نشرته “نيويورك تايمز”، قال فيه إنه يأسَف الآن لعمله في هذا الميدان. فيما قال الرجل، في تصريحات لاحقة لـ”بي بي سي”، “إن بعض جوانب برامج تشات بوت (برامج آلية للدردشة بين البشر والآلة) مخيفة للغاية. ولم يكتم قناعته بأن البرامج مثل هذه “ستتفوّق علينا، على صانعيها البشر، قريباً”. وكانت أبحاث هينتون الرائدة في الشبكات العصبية والتعلم العميق قد مهّدت الطريق لتقنيات الذكاء الاصطناعي، مثل تشات جي بي تي (ChatGPT). ومن الملاحظات الثاقبة التي يوردها الخبير المستقيل قوله: “لقد توصلت إلى استنتاجٍ مفادُه أن نوع الذكاء الذي نطوّره مختلف تماماً عن الذكاء الذي نملكه، نحن أنظمة بيولوجية وهذه أنظمة رقمية. والفرق الكبير أن لديك، مع الأنظمة الرقمية، نُسخ عديدة تملك الإمكانات نفسها، وتعمل في البئية التقنية ذاتها”. و”يمكن أن تتعلم كل هذه النسخ بشكلٍ مستقل، لكنها تتبادل المعرفة على الفور. لذا يبدو الأمر كما لو كان لديك ألف شخص، وكلما تعلم شخص ما شيئًا سوف يعرفه الجميع تلقائيًا، ما يسمح لأنظمة تشات بوت أن تعرف أكثر بكثير من أي شخص”.

لسوف تنعكس تداعيات هذه الطفرة على حياة الأفراد والمجتمعات، كما على الدول ومؤسّساتها، ولن يكون أحد بمنجاة من هذه التأثيرات، وليس سرّا أن عشرات الدول، بما فيها دول نامية، أخذت في الاستعانة ببرامج الذكاء الاصطناعي في مجالات مهمّة وحسّاسة، بينما تتنافس دول كبرى على كل ما هو جديد في التقنيات، ما يثير الحاجة مجدّدا إلى استعادة أجواء الثقة بين هذه الدول وحاجتها إلى إبرام اتفاقيات بينها، كما حدث طوال عقود في المباحثات التي أفضت إلى توقيع معاهدات الحد من الأسلحة الاستراتيجية واستخداماتها. وقد أعلن الاتحاد الأوروبي والولايات المتحدة، أخيرا، عن مشروع “مدوّنة سلوك” مشتركة للذكاء الاصطناعي مفتوحة أمام الدول الديمقراطية على أساس تطبيق طوعي، وقد ذكرت المفوضة الأوروبية المكلفة المنافسة، مارغريت فيستاغر، في مؤتمر صحافي مشترك مع وزير الخارجية الأميركي، أنتوني بلينكن، في السويد: “سنعرض خلال الأسابيع المقبلة مشروع مدوّنة سلوك حول الذكاء الاصطناعي”، فيما قال بلينكن إن “الهدف هو وضع قواعد سلوك طوعية تكون مفتوحةً لكل الدول التي تتشاطر الذهنية ذاتها”. ووضع مدوّنة سلوك مشتركة لاستخدام الذكاء الاصطناعي تطور مهم، رغم أنه يتعلّق بالغرب حصرا حتى اللحظة، إذ تكمن أهميته في وضع قاعدة وأساس ونموذج ملهم، لاجتذاب أطراف أخرى، بعيدا عن تصنيف الأنظمة السياسية وبمعزل عن امتلاك الذهنية ذاتها، إلى مثل هذه التفاهمات فائقة الأهمية. ولعل الأنباء عن عكوف الدول الكبرى على تنظيم هذا القطاع تكون صحيحة، وأن تشمل دولاً متقدّمة في هذا المجال التقني، ومن أبرزها الصين واليابان والهند وكندا وأستراليا، ذلك أن مسألة الأمن العالمي ليست أمرا خاصا بـ”الدول الديمقراطية”، وتتعدّى الانقسامات الأيديولوجية والفوارق الثقافية. وكما هو الحال مع إنتاج أسلحة الدمار الشامل واستخدامها ووضع الاتفاقيات بشأنها. وبما أن هناك حاجة بشرية عامة لتقييد الذكاء الاصطناعي وتحديد نطاقات استخدامه وآفاق تطويره، فإن التجنّد لوضع مدوّنة سلوك مشتركة يستدعي حُكماً مشاركة أطرافٍ دوليةٍ عديدة، وتحت مظلّة الأمم المتحدة، ومن دون ترك هذه المسألة للمبادرات الطوعية، ما دامت سائر الدول تبدي التزامها بمقتضيات الأمن الدولي ومواثيق الأمم المتحدة، عدا بعض الدول المارقة، مثل الدولة العبرية وكوريا الشمالية وغيرهما.

مقالات ذات صلة