أثار تقرير لجنة الأمن القومي للذكاء الاصطناعي الأمريكية قلقًا شديدًا بشأن تفوق الصين في مجال الذكاء الاصطناعي، وحذر من أن هذا النوع من الأسلحة قد يستخدم في السعي وراء السلطة.

n-3n-3


 وأكد الكاتب جون نوتون أن هذا الخطر يشكل تحديًا هائلًا للولايات المتحدة في مواجهة الصين التي تتزايد قوتها على المسرح العالمي. وقد دعت اللجنة الرئيس جو بايدن على عدم فرض حظر عالمي على الأسلحة ذاتية التشغيل المثيرة للجدل، مشيرة إلى أن الصين وروسيا لن تلتزمان بأي معاهدة. وبهذا، تبدو الولايات المتحدة عاجزة عن منع تفوق الصين في هذا المجال، ما يعيد تشكيل الخريطة العالمية للقوة والنفوذ.

تحدثت اللجنة أيضًا عن تطوير أنظمة الذكاء الاصطناعي الخارقة التي يمكن أن تتجاوز قدرات البشر في المستقبل، وهذا يثير مخاوف من أن تصبح الآلات راعية للبشر بدلاً من أن تكون أدوات لخدمتهم. ولقد أشار الكاتب إلى أن الباحثين في هذا المجال يدركون هذه المخاطر، وقد وجهوا نداءً لجميع المختبرات للتوقف عن تدريب أنظمة الذكاء الاصطناعي أقوى من GPT-4 لمدة ستة أشهر على الأقل، في محاولة للحد من هذه المخاطر.


ويتصاعد القلق من أن تكون الولايات المتحدة متخلفة في السباق لتطوير هذه التقنيات، مما يمكن أن يتركها في موقف ضعيف في المنافسة الدولية. لذلك، يتوقع أن يستثمر الحكومة الأمريكية مليارات الدولارات في البحث والتطوير في هذا المجال خلال السنوات القادمة.

تشير بعض التقارير إلى أن الهدف النهائي لتطوير أنظمة الذكاء الاصطناعي الخارقة هو إنشاء آلة تفوق الذكاء البشري، وهذا ما يعرف بـ "الذكاء الفائق". ومن المتوقع أن تحدث هذه التقنية تحولًا جذريًا في كيفية تفاعل البشر مع التكنولوجيا وبعضهم يرونها كخطوة نحو التفوق البشري الجديد.


ومع ذلك، فإن هذا الهدف يثير أيضًا مخاوف أخرى، مثل المخاطر الأمنية والخصوصية والأخلاقية المتعلقة بتطوير تقنية تفوق الذكاء البشري. ولقد دعا بعض الخبراء إلى وجود إطار تنظيمي دولي لتطوير هذه التقنية وضمان أن تستخدم بطريقة آمنة ومسؤولة.

يعتقد العديد من الخبراء أن تطوير أنظمة الذكاء الاصطناعي الخارقة يمكن أن يؤدي إلى تحسين الكثير من جوانب الحياة البشرية، مثل الرعاية الصحية والتعليم والاقتصاد والبحث العلمي وغيرها. ومن الممكن أن تؤدي هذه التقنية أيضًا إلى تقليل العمل الشاق وتحسين جودة الحياة.


ومع ذلك، فإن هذه التقنية تنطوي على مخاطر كبيرة، ومنها تهديد الوظائف وفقدان السيطرة على الآلات وانعدام الخصوصية والتمييز وتفاقم الفوارق الاجتماعية. وبالإضافة إلى ذلك، فإن التقنية يمكن استخدامها في أغراض عدائية ومحتملة للتأثير على السياسة والمجتمع.


لذلك، يتوجب على الحكومات والمؤسسات والمجتمعات التعامل مع هذه التقنية بحذر ومسؤولية، وضمان تطويرها واستخدامها بطريقة آمنة ومسؤولة ومتوازنة.

كتابة تعليق

أحدث أقدم