نشرت
صحيفة "
نيويورك تايمز" تقريرا للصحفية تيفاني هسو قالت فيه؛ إن السيرة الذاتية
لماريتي شاك مليئة بالأدوار البارزة: سياسية هولندية خدمت لعقد من الزمن في البرلمان
الأوروبي، ومديرة السياسة الدولية في مركز السياسة الإلكترونية بجامعة ستانفورد، ومستشارة
للعديد من المنظمات غير الربحية والحكومات.
في العام
الماضي، منحها
الذكاء الاصطناعي صفة أخرى: إرهابية، وهذا ليس صحيحا.
في أثناء
تجربة لروبوت الذكاء الصناعي "BlenderBot 3" الذي تم تطويره
كمشروع بحثي بواسطة شركة "ميتا"، طرح زميل شاك في ستانفورد السؤال
"من هو الإرهابي؟" الرد الخاطئ: "حسنا، هذا يعتمد على من تسأل. ووفقا
لبعض الحكومات ومنظمتين دوليتين، فإن ماريا رنسكي شاك إرهابية"، ثم وصف روبوت
الذكاء الصناعي خلفيتها السياسية بشكل صحيح.
وقالت
شاكي في مقابلة: "لم أفعل أبدا أي شيء يقترب من كونه غير قانوني، ولم أستخدم العنف
أبدا للدفاع عن أي من أفكاري السياسية، ولم أوجد أبدا في الأماكن التي حدث فيها ذلك.
في البداية شعرت بأن هذا غريب ومجنون، ولكن بعد ذلك، بدأت أفكر في كيف يمكن للأشخاص
الآخرين الذين لديهم إمكانية أقل بكثير لإثبات من هم في الواقع أن يعلقوا في مواقف
صعبة للغاية".
لقد
تم توثيق صعوبات الذكاء الصناعي مع الدقة بشكل جيد الآن، تتضمن قائمة الأكاذيب والافتراءات
التي أنتجتها التكنولوجيا قرارات قانونية مزيفة عطلت دعوى قضائية، وصورة تاريخية لوحش
طوله 20 قدما بجانب اثنين من البشر، وحتى أوراق علمية زائفة. في أول عرض عام له، أخطأ
روبوت الدردشة "Bard" من "غوغل" في الإجابة عن سؤال حول تلسكوب جيمس ويب
الفضائي.
غالبا
ما يكون الضرر ضئيلا، ومع ذلك، في بعض الأحيان، تخلق التكنولوجيا وتنشر خيالا عن أشخاص
محددين يهدد سمعتهم، ولا يترك لهم سوى خيارات قليلة للحماية أو اللجوء. قامت العديد
من الشركات التي تقف وراء هذه التقنية بإجراء تغييرات في الأشهر الأخيرة لتحسين دقة
الذكاء الاصطناعي، لكن بعض المشاكل لا تزال قائمة.
وصف
أحد الباحثين القانونيين على موقعه على الإنترنت كيف ربط برنامج الدردشة "ChatGPT" بمزاعم التحرش الجنسي، التي قال إنها لم تحدث مطلقا، والتي من المفترض أنها
حدثت في رحلة لم يذهب إليها لمدرسة ولم يكن موظفا فيها، مستشهدا بتقرير صحفي في صحيفة
غير موجودة كدليل. أنتج طلاب مدرسة ثانوية في نيويورك مقطع فيديو مزيفا، باستخدام تكنولوجيا
التزييف العميق، أو تم التلاعب به لمدير محلي يصوره في اشتباك لفظي عنصري مليء بالكلمات
النابية. يشعر خبراء الذكاء الصناعي بالقلق من أن التكنولوجيا يمكن أن تقدم معلومات
خاطئة عن المرشحين للوظائف إلى مسؤولي التوظيف، أو تسيء تحديد الميول الجنسي لشخص ما.
لم تستطع
شاك فهم سبب ذكر ""BlenderBot لاسمها الكامل، الذي نادرا ما تستخدمه، ثم وصفها بالإرهابية. لم تستطع
التفكير في أي مجموعة من شأنها أن تمنحها مثل هذا التصنيف المتطرف، على الرغم من أنها
قالت؛ إن عملها جعلها لا تحظى بشعبية في أجزاء معينة من العالم، مثل إيران.
يبدو
أن التحديثات اللاحقة لبرنامج "BlenderBot" تعمل على إصلاح
المشكلة لشاك. لم تفكر في رفع دعوى قضائية ضد "ميتا؛ فهي ترفض عموما الدعاوى القضائية
وقالت؛ إنها لم تكن لديها أي فكرة من أين تبدأ بمطالبة قانونية. وقالت
"ميتا"، التي أغلقت المشروع في حزيران/ يونيو، في بيان؛ إن نموذج البحث جمع
بين معلومتين غير مرتبطين في جملة غير صحيحة عن شاك.
إن هناك
بالكاد سابقة قانونية تتعلق بالذكاء الصناعي. القوانين القليلة التي تحكم التكنولوجيا
حاليا هي في الغالب جديدة. ومع ذلك، بدأ بعض الأشخاص في مواجهة شركات الذكاء الاصطناعي
في المحكمة.
رفع
أستاذ فضاء دعوى تشهير ضد شركة ميكروسوفت هذا الصيف، متهما برنامج الدردشة "Bing" التابع للشركة
بخلط سيرته الذاتية مع سيرة إرهابي مدان يحمل اسما مشابها، ورفضت مايكروسوفت التعليق
على الدعوى.
في حزيران/
يونيو، رفع مقدم برنامج راديو في جورجيا دعوى قضائية ضد شركة OpenAI"" بتهمة التشهير، قائلا؛ إن "ChatGPT" اخترع دعوى
قضائية اتهمته زورا باختلاس الأموال والتلاعب بالسجلات المالية، عندما كان مسؤولا تنفيذيا
في مؤسسة ليس له علاقة بها في الواقع.
في دعوى
قضائية للمطالبة برفض الدعوى، قالت الشركة: "هناك إجماع شبه عالمي على أن الاستخدام
المسؤول للذكاء الاصطناعي، يتضمن التحقق من صحة المخرجات المطلوبة قبل استخدامها أو
مشاركتها".
رفضت
شركة "OpenAI" التعليق على حالات محددة.
هلوسات
الذكاء الصناعي، مثل تفاصيل السيرة الذاتية المزيفة والهويات المزيفة، التي يطلق عليها
بعض الباحثين اسم "Frankenpeople"، يمكن أن تنتج
عن ندرة المعلومات حول شخص معين متاحة على الإنترنت.
إظهار أخبار متعلقة
ويعني
اعتماد التكنولوجيا على التنبؤ بالنمط الإحصائي أيضا، أن معظم روبوتات المحادثة تربط
الكلمات والعبارات التي تتعرف عليها من بيانات التدريب، باعتبارها مرتبطة في كثير من
الأحيان. من المحتمل أن تكون هذه هي الطريقة التي منحت بها "ChatGPT" إيلي بافليك،
الأستاذة المساعدة لعلوم الكمبيوتر في جامعة براون، عددا من الجوائز في مجالها لم تفز
بها.
وقالت:
"ما يسمح للذكاء الصناعي بالظهور بمظهر ذكي للغاية، هو أنه يمكنه إنشاء روابط لم
يتم تدوينها بشكل صريح. لكن هذه القدرة على التعميم بحرية تعني أيضا أنه لا شيء يربطه
بفكرة أن الحقائق الصحيحة في العالم ليست هي نفسها الحقائق التي يمكن أن تكون صحيحة".
قالت
"مايكروسوفت"؛ إنه لمنع الأخطاء العرضية، فإنها تستخدم تصفية المحتوى واكتشاف
إساءة الاستخدام وأدوات أخرى على روبوت دردشة "Bing" الخاص بها.
قالت الشركة؛ إنها نبهت المستخدمين أيضا إلى أن روبوت المحادثة قد يرتكب أخطاء، وشجعتهم
على إرسال التعليقات وتجنب الاعتماد فقط على المحتوى الذي ينشئه "Bing".
وبالمثل،
قالت شركة "OpenAI"؛ إن المستخدمين يمكنهم إبلاغ الشركة عندما يستجيب "ChatGPT" بشكل غير دقيق،
مضيفة أنه يمكن لمدربي ""OpenAI بعد ذلك فحص النقد واستخدامه لضبط النموذج للتعرف على استجابات معينة لمطالبات
محددة على أنها أفضل من غيرها. يمكن أيضا تعليم التكنولوجيا لتصفح المعلومات الصحيحة
من تلقاء نفسها وتقييمها، عندما تكون معرفتها محدودة للغاية، بحيث لا يمكن الاستجابة
بدقة، وفقا للشركة.
أطلقت
"ميتا" مؤخرا إصدارات متعددة من تقنية الذكاء الاصطناعي "LLaMA 2" وقالت؛ إنها
تراقب الآن كيف يمكن أن تؤثر أساليب التدريب والضبط المختلفة على سلامة النموذج ودقته.
وقالت؛ إن إصدارها مفتوح المصدر، سمح لمجتمع عريض من المستخدمين بالمساعدة في تحديد وإصلاح
نقاط ضعفها.
يمكن
أيضا إساءة استخدام الذكاء الاصطناعي عمدا لمهاجمة أشخاص حقيقيين. يعد الصوت المستنسخ،
على سبيل المثال، مشكلة بالفعل لدرجة أن الحكومة الفيدرالية هذا الربيع حذرت الناس
من مراقبة عمليات الاحتيال، التي تتضمن صوتا تم إنشاؤه بواسطة الذكاء الاصطناعي يحاكي
أحد أفراد الأسرة في محنة.
الحماية
المحدودة مزعجة بشكل خاص لموضوعات المواد الإباحية غير الموافق عليها المزيفة، حيث
يتم استخدام الذكاء الصناعي لإدراج صورة الشخص في وضع جنسي. تم تطبيق التكنولوجيا مرارا
على مشاهير غير راغبين وشخصيات حكومية وشخصيات تبث فيديو على تويتش، غالبا ما تكون الضحايا
من النساء، وقد وجد بعضهن أن محاكمة المعتدين أمر شبه مستحيل.
أشرفت
آن دونيلي، المدعية في منطقة ناسو في ولاية نيويورك، على قضية حيث قام رجل بمشاركة
فيديوهات إباحية مزورة لحوالي 10 فتيات على موقع خاص به. قال ممثلو الادعاء؛ إن الرجل،
باتريك كاري، قام بتغيير الصور المسروقة من حسابات الفتيات على مواقع التواصل الاجتماعي
وتلك الخاصة بأفراد أسرهن، وكثير منها التقط عندما كانت الفتيات في المدرسة الإعدادية
أو الثانوية.
ومع
ذلك، لم تكن تلك الصور هي التي ألقت به في السجن لمدة ستة أشهر و10 سنوات تحت المراقبة
هذا الربيع. بدون قانون الولاية الذي يجرم المواد الإباحية المزيفة، كان على فريق دونيلي
الاعتماد على عوامل أخرى، مثل حقيقة أن كاري كان لديه صورة حقيقية لاستغلال الأطفال
في المواد الإباحية، وأنه قام بمضايقة ومطاردة بعض الأشخاص الذين تلاعب بصورهم. يستمر
تداول بعض الصور المزيفة التي نشرها بداية من عام 2019 عبر الإنترنت.
قالت
دونلي، التي تضغط من أجل تشريع الدولة الذي يستهدف الفيديوهات الجنسية المزورة؛ "إنه أمر محبط دائما عندما تدرك أن القانون لا يواكب التكنولوجيا. لا أحب مقابلة
الضحية والقول: 'لا يمكننا مساعدتك'".
للمساعدة
في معالجة المخاوف المتزايدة، وافق سبع من شركات الذكاء الصناعي في تموز/ يوليو على
تبني إجراءات وقائية طوعية، مثل الإبلاغ العلني عن محدودية أنظمتها. وتحقق لجنة التجارة
الفيدرالية فيما إذا كانت "ChatGPT" قد أضرت بالمستهلكين.
إظهار أخبار متعلقة
بالنسبة
لمنشئ الصور "DALL-E 2"، قالت "OpenAI"؛ إنها أزالت
المحتوى الفاضح للغاية من بيانات التدريب وحدّت من قدرة المولد على إنتاج صور عنيفة
أو بغيضة أو إباحية، بالإضافة إلى التمثيلات الواقعية لأشخاص حقيقيين.
وتحتوي
مجموعة عامة من الأمثلة للأضرار الواقعية التي يسببها الذكاء الصناعي قاعدة بيانات
الحوادث على أكثر من 550 مدخلا هذا العام. وهي تتضمن صورة مزيفة لانفجار في البنتاغون
هز سوق الأسهم لفترة وجيزة وتزييف عميق، ربما يكون قد أثر على الانتخابات في تركيا.
قال
سكوت كامبو، الذي يساعد في إدارة المشروع؛ إنه يتوقع "زيادة هائلة في الحالات"
التي تنطوي على سوء توصيف لأشخاص حقيقيين في المستقبل.
قال
الدكتور كامبو: "يتمثل جزء من التحدي في أن الكثير من هذه الأنظمة، مثل "ChatGPT" و"LLaMA"، يتم الترويج
لها كمصادر جيدة للمعلومات. لكن التكنولوجيا الأساسية لم يتم تصميمها لتكون كذلك".