مع تخوف كثيرين من زيادة استخدام تقنيات الذكاء الاصطناعي، واحتمالية تطورها دون رقيب أو قواعد تحكم عملها، أصدر المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة، إطارا جديدا لإدارة مخاطر الذكاء الاصطناعي.
ويأتي الإطار الجديد بعدما فشلت المؤسسات التي تستخدم هذه التقنيات في مناقشة بشكل عميق وتفصيلي المبادئ والأخلاقيات التي يجب مراعاتها أثناء استخدام الذكاء الاصطناعي.
ويهدف هذا الإطار إلى تقديم إرشادات وتوصيات عالية المستوى، حول كيفية الحفاظ على نتائج مفيدة للبشرية للذكاء الاصطناعي، بالإضافة إلى جعل المعلومات والخوارزميات صالحة وموثوقة وآمنة ومرنة وخاضعة للمساءلة والشفافية، وقابلة للتفسير ومعززة للخصوصية وعادلة بدون تحيز ضار.
ويتخوف الخبراء من أن يواصل الذكاء الاصطناعي التعلم إلى ما هو أبعد من برمجته الأصلية.
ويشير الخبراء إلى أن الذكاء الاصطناعي يحمل مخاطر خصوصية مرتفعة إلى حد كبير، بسبب القدرة المحسّنة على تجميع البيانات، مما جعل الأمر أكثر صعوبة لأن تحليل البيانات الضخمة يمكن أن يتيح اتخاذ قرارات مستهدفة للغاية بواسطة الذكاء الاصطناعي دون الحاجة إلى الاعتماد على معلومات التعريف الشخصية، التي تقع ضمن نطاق قوانين الخصوصية التقليدية.
وفي هذا الصدد، قال الخبير في الذكاء الاصطناعي فيصل الجندي في حديثه لـ”سكاي نيوز عربية”:
- وضع هذا الإطار يعد مبادرة جميلة جدا، نادينا بها قبل أكثر من سنتين، لأن أخلاقيات الذكاء الاصطناعي مهمة جدا.
- هناك عدة دول قامت بمبادرات مماثلة، بهدف جعل الناس يشعرون بالأمان والشفافية.
- أهم نقطة في الإطار الجديد هي الخصوصية.
- الذكاء الاصطناعي سينهار ويفشل إذا لم يوفر للناس الشعور بالأمان.