حذر مسؤول بريطاني من خطر استغلال
الذكاء الاصطناعي في غير مقاصده، مع غياب خطط السيطرة عليه وتوظيفه، مؤكدا أن أمام العالم سنتين فقط لتحجيم خطره.
وقال
مات كليفورد مستشار رئيس وزراء
بريطانيا ريشي سوناك للذكاء الاصطناعي، إن الوقت ينفد بسرعة، وربما "يكون أمامنا سنتان فقط لإنقاذ العالم من خطر الذكاء الاصطناعي".
وأضاف كليفورد في تصريحات نشرتها "
التايمز" إنه "خلال سنتين فقط، سوف تتمتع نظم الذكاء الاصطناعي بالقدر الكافي من القوة التي تمكنها من قتل الكثير من البشر'"، مطالبا بالاستعداد لمواجهة مخاطر الذكاء الاصطناعي المحتملة "التي تمتد من الهجمات الإلكترونية إلى تخليق الأسلحة البيولوجية إذا فشل البشر في إيجاد طريقة للسيطرة على هذه التكنولوجيا".
ودعا كليفورد إلى التكاتف بين دول العالم في مواجهة هذا الخطر، قائلا: "قد يكون أشبه بسيناريو فيلم، لكنه مصدر لمخاوف حقيقية، وهو ما يجعل من الضروري أن تتكاتف دول العالم من أجل وضع قواعد تحكم ذلك".
وأضاف: "هذا النوع من الخطر الوجودي الذي يقصده المشاركون في إرسال الخطاب المفتوح على ما أعتقد يتحقق عندما نتمكن من تطوير فصائل جديدة ذكاؤها يفوق ذكاء البشر. وإذا حاولنا تطوير ذكاء اصطناعي أذكى من البشر ولم نعرف كيف يمكننا السيطرة عليه، فسوف يجعلنا ذلك عرضة لجميع المخاطر المحتملة الآن وفي المستقبل. لذا فإن من الضروري أن يكون هذا الأمر على رأس أجندة أولويات صناع السياسات".
ويرى كليفورد أن ما يجعل المشكلة أكثر خطورة هو أن مطوري تلك التكنولوجيا أنفسهم يعترفون بأنه لا يمكنهم التنبؤ بسلوك تطبيقات الذكاء الاصطناعي.
وهناك جهود من قبل رئيس الوزراء البريطاني سوناك تستهدف جعل المملكة المتحدة في موقع الريادة على صعيد السيطرة على الذكاء الاصطناعي ووضع وتطبيق القواعد التي تحكمه في المستقبل.
وهدد سوناك في وقت سابق بأن بلاده قد تتبنى منهجية أكثر تدخلا في شؤون تلك الصناعة الجديدة، ما يشير إلى إمكانية إصدار قواعد وقوانين بريطانية جديدة للسيطرة على هذه التكنولوجيا.
واجتمع مسؤولون بريطانيون وأمريكيون في الأسابيع القليلة الماضية للتباحث في ما يمكن القيام به للتحكم في ذلك الخطر المحتمل، من بينها اجتماع انعقد الأسبوع الماضي في السويد استهدف صياغة ميثاق أخلاقي للذكاء الاصطناعي.
وكان 350 شخصا من كبار المسؤولين في قطاع الذكاء الاصطناعي، من بينهم الرئيس التنفيذي للشركة المنتجة لتطبيق ChatGPT، حذروا من أنه على المدى المتوسط فإنه يمكن لهذه التكنولوجيا أن تؤدي إلى "انقراض البشرية".