أعرب أربعة خبراء في الذكاء الاصطناعي عن قلقهم بعد الاستشهاد بعملهم في رسالة مفتوحة شارك في توقيعها إيلون ماسك، يطالبون فيه بوقفة عاجلة في البحث.
دعت الرسالة، المؤرخة في 22 مارس والتي تضم أكثر من 1800 توقيع بحلول يوم الجمعة، إلى دورة توقف لمدة ستة أشهر في تطوير أنظمة “أقوى” من نظام GPT-4 الجديد المدعوم من Microsoft (MSFT.O) ، والذي يمكنه بإجراء محادثة شبيهة بالبشر، و بتأليف الأغاني وتلخيص المستندات الطويلة.
تقول الرسالة المفتوحة إن أنظمة الذكاء الاصطناعي ذات “الذكاء التنافسي البشري” تشكل مخاطر جسيمة على البشرية ، مستشهدة بـ 12 بحثًا من خبراء بما في ذلك أكاديميون جامعيون بالإضافة إلى الموظفين الحاليين والسابقين في أوبن إيه آي ، وغوغل.
ومنذ ذلك الحين، ضغطت مجموعات المجتمع المدني في الولايات المتحدة والاتحاد الأوروبي على المشرعين لكبح جماح أبحاث أوبن إيه آي.
ولم ترد شركة أوبن إيه آي على الفور على طلبات التعليق.
اتهم النقاد معهد Future of Life Institute (FLI) ، المنظمة التي تقف وراء الرسالة والتي تمولها بشكل أساسي مؤسسة ماسك ، بإعطاء الأولوية لسيناريوهات نهاية العالم المتخيلة على المخاوف الأكثر إلحاحًا بشأن الذكاء الاصطناعي ، مثل التحيزات العنصرية أو الجنسية التي يتم برمجتها في الآلات.
من بين الأبحاث التي تم الاستشهاد بها “حول مخاطر الببغاوات العشوائية”، وهي ورقة بحثية مشهورة شاركت في تأليفها مارجريت ميتشل، التي أشرفت سابقًا على أبحاث الذكاء الاصطناعي الأخلاقية في غوغل.
وانتقدت ميتشل، كبير علماء الأخلاقيات الآن في شركة Hugging Face للذكاء الاصطناعي، الرسالة قائلة لرويترز إنه من غير الواضح ما الذي يعتبر “أقوى من GPT4”.
وقالت: “من خلال معالجة الكثير من الأفكار المشكوك فيها كأمر مسلم به ، تؤكد الرسالة مجموعة من الأولويات وسردًا عن الذكاء الاصطناعي يفيد مؤيدي FLI”. “إن تجاهل الأضرار النشطة في الوقت الحالي هو امتياز لا يتمتع به البعض منا.”
انتقد مؤلفوها المشاركون تيمنيت جيبرو وإميلي إم بيندر الرسالة على موقع تويتر، حيث وصف الأخير بعض مزاعمه بأنها “مختلة”.
وقال ماكس تيجمارك رئيس FLI، لرويترز إن الحملة لم تكن محاولة لعرقلة ميزة شركة أوبن أيه آي.
وقال “إنه أمر مضحك للغاية. رأيت الناس يقولون إيلون ماسك يحاول إبطاء المنافسة “، مضيفًا أن ماسك لم يكن له دور في صياغة الرسالة”. “هذا ليس عن شركة واحدة.”
المخاطر الآن
شيري دوري-هاكوهين، الأستاذة المساعدة في جامعة كونيتيكت، اعترضت أيضًا على عملها المذكور في الرسالة.
شاركت العام الماضي في تأليف ورقة بحثية تجادل بأن الاستخدام الواسع للذكاء الاصطناعي يشكل بالفعل مخاطر جسيمة.
وجادل بحثها أن الاستخدام الحالي لأنظمة الذكاء الاصطناعي يمكن أن يؤثر على صنع القرار فيما يتعلق بتغير المناخ ، والحرب النووية، والتهديدات الوجودية الأخرى.
وقالت لرويترز: “الذكاء الاصطناعي لا يحتاج إلى الوصول إلى معلومات استخباراتية على المستوى البشري لتفاقم تلك المخاطر”.
“هناك مخاطر غير وجودية مهمة حقًا ، لكنها لا تحظى بنفس النوع من الاهتمام على مستوى هوليوود.”
وردا على سؤال للتعليق على الانتقادات، قال تيجمارك من FLI، إنه يجب أخذ مخاطر الذكاء الاصطناعي على المدى القصير والطويل على محمل الجد.
وقال لرويترز “إذا استشهدنا بشخص ما، فهذا يعني فقط أننا ندعي أنه يؤيد هذه الجملة. ولا يعني ذلك أنه يؤيد الخطاب، أو نؤيد كل ما يعتقده.”
دان هيندريكس ، مدير مركز أمان الذكاء الاصطناعي ومقره كاليفورنيا، والذي ورد ذكره أيضًا في الرسالة، تمسك بمحتوياته، قائلاً لرويترز إنه من المنطقي النظر في أحداث البجعة السوداء تلك التي تبدو غير مرجحة ، لكن سيكون لها عواقب وخيمة.
وحذر الخطاب المفتوح أيضًا من إمكانية استخدام أدوات الذكاء الاصطناعي التوليدية لإغراق الإنترنت بـ “الدعاية والكذب”.
قالت دوري-هكوهين، إن توقيع ماسك عليها “ثري جدًا”، مشيرةً إلى زيادة المعلومات المضللة على تويتر بعد استحواذه على المنصة، التي وثقتها مجموعة المجتمع المدني “كومون كوز” وآخرين.
وسيطلق تويتر قريبًا هيكل رسوم جديد للوصول إلى بياناته البحثية، مما قد يعيق البحث حول هذا الموضوع.
قالت دوري-هكوهين: “لقد أثر ذلك بشكل مباشر على عمل الابحاث، وهذا ما قام به الآخرون الذين يدرسون المعلومات الخاطئة والمضللة”. “نحن نعمل ويد واحدة مقيدة خلف ظهورنا”.
ولم يستجب ماسك وتويتر على الفور لطلبات التعليق.
المصدر: رويترز