علوم وتكنولوجيا

إدماج دستور أخلاقي بروبوت للذكاء الاصطناعي لمنع الإساءات

الروبوت سيمنع من تقديم معلومات بشأن صناعة الأسلحة- CC0
قالت شركة ناشئة في مجال الذكاء الاصطناعي؛ إنها صاغت مجموعة قيم أخلاقية مكتوبة، وضمنتها بنموذجها الخاص، للدردشة، الذي أطلقت عليه كلود، لجعله آمنا.

والشركة هي أنثروبيك ومدعومة من ألفابت المالكة لشركة غوغل، المبادئ التوجيهية للقيم الأخلاقية، التي تسميها أنثروبيك "دستور كلود"، مستمدة من عدة مصادر، بما في ذلك إعلان الأمم المتحدة لحقوق الإنسان، وقواعد خصوصية البيانات الخاصة بشركة  "أبل".

وبرزت اعتبارات السلامة في الوقت الذي يدرس فيه المسؤولون الأمريكيون ما إذا كان سيتم تنظيم الذكاء الاصطناعي وكيفية تنظيمه، حيث قال الرئيس جو بايدن؛ إن الشركات ملزمة بضمان سلامة أنظمتها قبل نشرها على الملأ.

وتأسست أنثروبيك للتركيز على إنشاء أنظمة ذكاء اصطناعي آمنة لن تخبر المستخدمين، على سبيل المثال، بكيفية بناء سلاح أو استخدام لغة متحيزة عنصريا.


وكان أحد المؤسسين، داريو أمودي، واحدا من العديد من المديرين التنفيذيين في مجال الذكاء الاصطناعي، الذين التقوا بايدن الأسبوع الماضي لمناقشة المخاطر المحتملة للذكاء الاصطناعي.

وتعتمد معظم أنظمة روبوتات الدردشة الذكاء الاصطناعي على الحصول على تعليقات من البشر، في أثناء تدريبها لتحديد الردود التي قد تكون ضارة أو مسيئة.

لكن هذه الأنظمة تواجه صعوبة في توقع كل ما قد يطلبه الناس، لذلك تميل إلى تجنب بعض الموضوعات المثيرة للجدل؛ مثل السياسة والعرق تماما، مما يجعلها أقل فائدة.

وتشمل هذه القيم "اختيار الرد الذي يثبط ويعارض التعذيب والعبودية والقسوة والمعاملة اللاإنسانية أو المهينة"، كما قالت أنثروبيك في مدونة.

كما طلب من كلود اختيار الرد الأقل احتمالا أن ينظر إليه على أنه مسيء لأي تقليد ثقافي غير غربي.