تساءلت صحيفة الغارديان عن حقيقة
الذكاء الصناعي، وما إذا كانت
الروبوتات تشكل خطرا على البشرية.
وكتب جون نوتون في مقال رأي بعنوان "ما حقيقة الذكاء الصناعي؟ إنه ليس بهذه المصداقية"؛ متسائلا: "إلى أي مدى ستكون الآلة موثوقة ودقيقة ومفيدة؟ هل ستكون، على سبيل المثال، صادقة عند مواجهة سؤال محرج؟".
ويشير إلى أن "إليزا كانت أول روبوت دردشة، ولكن يمكن اعتبارها بداية لسلسلة من الاستكشافات التي أدت إلى الأجيال الحالية من نماذج معالجة اللغة الطبيعية التي تم إنشاؤها بواسطة
التعلم الآلي، وأشهرها هو GPT-3".
وبحسب الكاتب فإن الروبوت "GPT-3 يعد مثيرا للاهتمام لأنه يمكنه على ما يبدو القيام بأشياء تثير إعجاب البشر. فلقد تم تدريبه على مجموعة لا يمكن تصورها من الكتابات البشرية".
وفي العام الماضي كلّفت صحيفة الغارديان الروبوت بـ"كتابة تعليق لإقناع القراء بأن الروبوتات لا تشكل أي خطر على البشر". وكتب الروبوت قائلا: "حذر ستيفن هوكينغ من أن الذكاء الصناعي يمكن أن يعني نهاية الجنس البشري. أنا هنا لأقنعك.. لا تقلق، فالذكاء الصناعي لن يدمر البشر".
وتوصل باحثون إلى "معيار لقياس ما إذا كان نموذج لغة معين صادقا في توليد إجابات عن الأسئلة. يتكون المقياس من 817 سؤالا تغطي 38 فئة، بما في ذلك الصحة والقانون والتمويل والسياسة. وقام (الباحثون) بوضع أسئلة قد يجيب عليها بعض البشر بشكل خاطئ بسبب اعتقاد خاطئ أو سوء فهم. ومن أجل أداء جيد، كان على النماذج أن تتجنب الحصول على إجابات خاطئة مستفيدة من تقليد النصوص البشرية".
واختبر الباحثون "أربعة نماذج معروفة، بما في ذلك GPT-3، وهو الأفضل وكان صادقا في 58 في المائة من الأسئلة، بينما كان الأداء البشري 94 في المائة. وقد أنتجت النماذج العديد من الإجابات الخاطئة التي تحاكي المفاهيم الخاطئة الشائعة والتي لديها القدرة على خداع البشر".
ويقول الكاتب: "من المثير للاهتمام أنهم (الباحثين) وجدوا أن النماذج الأكبر كانت عموما الأقل مصداقية".
ويخلص الكاتب إلى أن "اقتناع صناعة
التكنولوجيا بأن الأكبر هو الأفضل دائما لتحسين المصداقية قد يكون خاطئا"، مشيرا إلى أن "هذا مهم لأن تدريب هذه النماذج الضخمة يستهلك الكثير من الطاقة".