أخر الأخباراتصالات و تكنولوجيا

الذكاء الاصطناعي.. خطر يواجه البشرية

اقتصادنا – دبي
كشف تقرير جديد صادر عن “غلادستون إيه آي” (Gladstone AI) بتكليف من وزارة الخارجية الأميركية عن مخاطر كارثية غير مسبوقة قد تنجم عن التطور السريع في مجالات الذكاء الاصطناعي المتقدم.

وشدد التقرير على أن هذه المخاطر قد تهدد الأمن القومي والاستقرار العالمي إذا لم يتم السيطرة عليها بشكل صحيح.

وحذر معدو التقرير من أن أنظمة الذكاء الاصطناعي المتقدمة يمكن أن تتحول إلى أسلحة دمار شامل أو أدوات لحوادث كارثية. ويزداد هذا الخطر مع تزايد سهولة الوصول إلى تقنية الذكاء الاصطناعي القوية

أُنجز التقرير المعنون بـ “الدفاع المتعدد الطبقات: خطة عمل لزيادة أمان وأمن الذكاء الاصطناعي المتقدم” بعد أكثر من عام من الحوارات مع أكثر من 200 جهة معنية من مختلف المجالات، بما في ذلك الحكومات الأميركية والبريطانية والكندية، ومقدمي خدمات السحابة الرئيسيين، ومنظمات سلامة الذكاء الاصطناعي، وخبراء الأمن والحوسبة، وجهات اتصال رسمية وغير رسمية في المختبرات الرائدة للذكاء الاصطناعي.

وحذر التقرير من أن الديناميكيات التنافسية بين المختبرات الرائدة للذكاء الاصطناعي، التي تسعى للتفوق على حساب اعتبارات السلامة والأمن، قد تؤدي إلى سرقة أنظمة الذكاء الاصطناعي المتقدمة وتسليحها ضد المصالح الأميركية. كما أشار التقرير إلى احتمال فقدان السيطرة على هذه الأنظمة، مما قد يؤدي إلى عواقب مدمرة على الأمن العالمي
مخاطر الذكاء الاصطناعي
يُشير التقرير إلى مخاطر متعددة مرتبطة بالذكاء الاصطناعي المتقدم، أهمها
أنظمة الذكاء الاصطناعي المتقدمة وتُستخدم ضد المصالح الأميركية.
فقدان السيطرة: قد تؤدي الديناميكيات التنافسية بين المختبرات الرائدة للذكاء الاصطناعي إلى فقدان السيطرة على هذه الأنظمة.
التأثير على الأمن القومي: قد تُستخدم أنظمة الذكاء الاصطناعي المتقدمة في هجمات إلكترونية أو عمليات اغتيال أو حروب.
خطة عمل شاملة لمواجهة المخاطر
لمواجهة هذه المخاطر، اقترح التقرير خطة عمل شاملة تتكون من خمس خطوات رئيسية تهدف إلى:

تثبيت تطوير الذكاء الاصطناعي المتقدم، بما في ذلك فرض قيود على صادرات سلسلة التوريد.
تعزيز قدرات واستعداد الحكومة الأميركية للتصدي للحوادث المتعلقة بالذكاء الاصطناعي المتقدم
زيادة الاستثمار الوطني في أبحاث السلامة التقنية للذكاء الاصطناعي وتطوير المعايير ذات الصلة.
إنشاء إطار قانوني وتنظيمي جديد لمراقبة تطوير الذكاء الاصطناعي المسؤول، بما في ذلك إنشاء وكالة تنظيمية جديدة تُسمى “إدارة أنظمة الذكاء الاصطناعي الرائدة”.
تكريس معايير السلامة والأمن للذكاء الاصطناعي في القانون الدولي، وإقامة نظام دولي للرقابة على سلسلة التوريد للذكاء الاصطناعي.
أبرز توصيات التقرير
إنشاء “إدارة أنظمة الذكاء الاصطناعي الرائدة” كوكالة تنظيمية جديدة لترخيص ومراقبة تطوير الذكاء الاصطناعي المتقدم في الولايات المتحدة.
تشكيل نظام دولي للرقابة على سلسلة التوريد للذكاء الاصطناعي لمنع انتشار هذه التقنيات الخطيرة.
نهج “الدفاع المتعدد الطبقات”
واعتمد التقرير نهج “الدفاع المتعدد الطبقات” الذي يجمع تدابير متعددة ومتداخلة لتوفير مرونة عالية ضد أي نقطة فشل واحدة. كما يحدد إطارًا لإدارة المخاطر قائمًا على مفهوم “فترات الاختراق” المطلوبة لتطوير قدرات الذكاء الاصطناعي المتقدمة من الصفر تحت ظروف معينة
الفرصة الفريدة للقيادة في مجال الذكاء الاصطناعي المتقدم، من خلال الجهود الوطنية والعلمية والدبلوماسية التي ستلبي احتياجات هذه المرحلة التاريخية الحاسمة لصالح الأمن القومي والاستقرار العالمي

زر الذهاب إلى الأعلى