كلمة الوزير أنتوني بلينكن في اجتماع لمجلس الأمن الدولي حول الذكاء الاصطناعي

كلمة الوزير أنتوني بلينكن في اجتماع لمجلس الأمن الدولي حول الذكاء الاصطناعي

كلمة
وزير الخارجية أنتوني بلينكن
مقر الأمم المتحدة
مدينة نيويورك، ولاية نيويورك

19 كانون الأول/ديسمبر 2024

الوزير بلينكن: السيدة لي، شكرا جزيلا لكِ على مشاركة رؤيتك الثاقبة ومشاركة أفكارك مع المجلس.  وهذا محل تقدير عميق.

سأدلي الآن ببيان بصفتي وزير خارجية الولايات المتحدة.  واسمحوا لي مرة أخرى – اسمحوا لي أن أبدأ، مرة أخرى، بتوجيه الشكر إلى كل من مقدمي الإحاطات، السيد ليكون، والسيدة لي، على مشاركة أفكارهما معنا اليوم.

كما سمعنا للتو، وكما أعتقد أن الكثير منا يعرف، فإن الذكاء الاصطناعي لديه القدرة على القيام بعمل جيد للغاية.  فالعلماء يستخدمون الذكاء الاصطناعي لاكتشاف الأدوية التي يمكن أن تحارب البكتيريا المقاوِمة للمضادات الحيوية.  ونماذج الذكاء الاصطناعي تتنبأ بالكوارث الطبيعية بشكل أكثر دقة حتى تتمكن المجتمعات من الاستعداد بشكل أفضل.  وهذه الأدوات تحدد هياكل بلورية جديدة يمكن أن تساعدنا في بناء الجيل القادم من بطاريات السيارات الكهربائية.

بهذه الطرق، وغيرها الكثير من الطرق الأخرى، يمكن للذكاء الاصطناعي أن يسرّع من تقدمنا في تحقيق ما يقرب من 80 في المئة من أهداف الأمم المتحدة للتنمية المستدامة.

وفي الوقت نفسه، وكما سمعنا، يمكن للذكاء الاصطناعي إذا أسيئ استخدامه، أن يشكل تهديدات هائلة للسلم والأمن الدوليين اللذين كُلف هذا المجلس بدعمهما.  فباستخدام الذكاء الاصطناعي، يمكن للقراصنة أن يجعلوا الهجمات الإلكترونية أكثر تدميرا وأصعب في تتبعها.  والأنظمة القمعية تستخدم المراقبة المدعومة بالذكاء الاصطناعي لاستهداف الصحفيين والمعارضين السياسيين، مما يزعزع استقرار المجتمعات.  إذا كانت الخوارزميات مدمجة في أنظمة الأسلحة – وإذا تعطلت – يمكن أن تشعل صراعًا عن طريق الخطأ.

من خلال وضع قواعد طريق منظِّمة للذكاء الاصطناعي، يمكننا تقليل هذه المخاطر.  يمكننا تسخير الوعد الاستثنائي لهذه التكنولوجيا.  ويمكننا أن نحقق الرؤية التي كرستها الأمم المتحدة في الميثاق الرقمي العالمي – والمتمثلة في مستقبل تكون فيه التكنولوجيا شاملة جامعة، ومنفتحة، ومستدامة، وعادلة، ومأمونة، وآمنة للناس في كل مكان.

على مدى السنوات القليلة الماضية، كانت الولايات المتحدة تقود الجهود الدولية نحو تحقيق هذه الأهداف المشتركة.  وباعتبارنا موطنا لشركات التكنولوجيا الرائدة في العالم، فإننا نتحمل مسؤولية التأثير على تطور الذكاء الاصطناعي.

ونحن ملتزمون أيضا بحشد استجابة جماعية.  لذلك، تعاونّا مع شركائنا في الحكومات والقطاع الخاص والمجتمع المدني – من بلدان في جميع أنحاء العالم – لمعالجة مخاطر الذكاء الاصطناعي وفرصه.

أولا، حصلت حكومتنا على التزامات من الشركات الأميركية الرائدة لجعل أنظمة الذكاء الاصطناعي أكثر أمانا.  على سبيل المثال، وافقت هذه الشركات على إنشاء أدوات، مثل العلامات المائية، تساعد المستخدمين على التعرف على المحتوى الذي يتم إنشاؤه بالذكاء الاصطناعي.  كما أنها ستعمل على تعزيز أمنها السيبراني لحماية نماذج الذكاء الاصطناعي من القراصنة.

وبقيادة اليابان، وسّعت مجموعة السبع هذه التعهدات لتجعل منها مدونة سلوك لمطوري الذكاء الاصطناعي في جميع أنحاء العالم.  وتوصي بأن يجروا اختبارات لتحديد مخاطر السلامة، وأن يعطوا الأولوية للبحث في الأضرار المحتملة، وأن يقدموا تقارير علنية عن قيود الذكاء الاصطناعي، وذلك لزيادة المساءلة.

ثم، في وقت سابق من هذا العام، طرحت الولايات المتحدة أول قرار مستقل للجمعية العامة للأمم المتحدة بشأن الذكاء الاصطناعي، والذي اعتمده جميع الأعضاء بالإجماع.  لقد التزمنا بتعزيز أنظمة ذكاء اصطناعي مأمونة وآمنة وجديرة بالثقة تحترم حقوق الإنسان وتعزز التقدم الاقتصادي والاجتماعي.

واتفقنا أيضًا على جعل فوائد الذكاء الاصطناعي متاحة بشكل أكبر، وذلك جزئيًا من خلال سد الفجوة الرقمية التي لا تزال موجودة في جميع أنحاء العالم.  وهذا أمر أكدنا عليه في القرار الثاني الذي صاغته الصين واعتمدته الأمم المتحدة في حزيران/يونيو.

لقد توصلت الولايات المتحدة وشركاؤنا إلى إجماع عالمي بشأن الذكاء الاصطناعي، ونحن الآن نبني عليه.

ففي الشهر الماضي، أطلقت الولايات المتحدة شبكة دولية لمعاهد الأمان في مجال الذكاء الاصطناعي، حيث يعمل الباحثون والخبراء على إنشاء معايير مشتركة لاختبار وتقييم أنظمة الذكاء الاصطناعي.  وستقدم توصياتهم إرشادات عملية للمطورين وشركات التكنولوجيا.

كما أننا بصدد استحداث ووضع قواعد أساسية للحكومات.  ففي هذا العام، وقّع الاتحاد الأوروبي والولايات المتحدة وتسع دول أخرى على أول معاهدة دولية بشأن الذكاء الاصطناعي.  وتعهدنا بحماية حقوق الإنسان والديمقراطية وسيادة القانون عندما نستخدم الذكاء الاصطناعي.  وهذا يعني حماية خصوصية البيانات.  ويعني تبني تدابير الشفافية والمساءلة.  ويعني تنفيذ استراتيجيات أخرى من شأنها الحد من أي أضرار.

وقد حشدت الولايات المتحدة ما يقرب من 60 حكومة للالتزام بالمبادئ التوجيهية للجيوش أيضًا.  على سبيل المثال، نريد التأكد من أن كبار المسؤولين يشرفون على تطوير ونشر الذكاء الاصطناعي – بما في ذلك في أنظمة الأسلحة – وأن هذه الأدوات تُستخدم بطرق تتبع القانون الإنساني الدولي.

وبشكل منفصل، أكد الرئيس بايدن والرئيس شي في اجتماع عُقد في تشرين الثاني/نوفمبر أن البشر فقط هم من يجب أن يسيطروا على قرار استخدام الأسلحة النووية.

وبينما نعمل على دعم مبادئنا المشتركة للذكاء الاصطناعي، فإن الولايات المتحدة تعمل على تحسين إمكانية الوصول إلى هذه التكنولوجيا حتى تتمكن المجتمعات في كل مكان من الاستفادة منها.  نحن نتعاون مع شركات التكنولوجيا الرائدة لاستضافة التدريب، وبناء مجموعات البيانات المحلية، وتوفير أدوات الذكاء الاصطناعي للمطورين والباحثين.  وفي صيف هذا العام، أنشأت الولايات المتحدة والمغرب أيضًا مجموعة في الأمم المتحدة، مفتوحة لجميع الدول الأعضاء، حيث يتبادل الخبراء من كل منطقة أفضل الممارسات لاعتماد الذكاء الاصطناعي.

الآن، هذا تقدم حقيقي.  ولكن على الرغم من كل هذا التقدم، أعتقد أننا جميعًا نعلم أنه لا يزال هناك الكثير من العمل الذي يتعين القيام به.  ويجب على الدول ذات القطاعات التكنولوجية الرائدة أن تبذل مزيدًا من الجهد للحفاظ على معايير الأمن ومنع إساءة استخدام الذكاء الاصطناعي.

إن المجتمع الدولي يحتاج إلى الوقوف معًا ضد سوء الاستخدام غير المسؤول لأنظمة الذكاء الاصطناعي. واليوم، تقوم جهات فاعلة حكومية وغير حكومية باستخدام هذه الأدوات بشكل متزايد للتأثير على الرأي العام وتشويهه، والتلاعب بالسرديات الجيوسياسية، وجعل العمليات السيبرانية الهجومية أكثر فعالية. وهذا لن يزداد إلا سوءًا مع تقدم الذكاء الاصطناعي.

إن الولايات المتحدة تعارض الاستخدام الخبيث للذكاء الاصطناعي من قِبل أي جهة، ونحن ندعو الآخرين في هذا المجلس إلى رفض وإدانة هذه الممارسات.  يجب أن نلتزم بمعاييرنا المشتركة ونبني أنظمة ذكاء اصطناعي تكون آمنة ومأمونة حقا.

في الأشهر والسنوات المقبلة، سيتحمل هذا المجلس مسؤولية هامة.  فقد تكيفت هذه الهيئة منذ إنشائها للتصدي لأكبر التهديدات للسلم والأمن الدوليين: الصراعات والإرهاب وانتشار الأسلحة النووية.  وإذا كان مجلس الأمن سيواصل الاضطلاع بهذه المسؤولية – وتعتقد الولايات المتحدة أنه يجب عليه ذلك – فإنه يتعين على أعضائه التعامل مع المخاطر المتطورة للذكاء الاصطناعي.  ويتطلب ذلك الاستفادة من قوتنا الجماعية للمساعدة في وضع المعايير الدولية بشأن الذكاء الاصطناعي وتحديثها وإنفاذها في نهاية المطاف – لأن ذلك ببساطة سيكون أمرًا حيويًا لتحقيق الأمن الدائم.

الآن، حتى مع العقول اللامعة التي استمعنا إليها اليوم، والتي بذلت كثيرًا من الجهد للعمل على تطور الذكاء الاصطناعي والتفكير في تطوره، فإنني لا أعتقد أن أيًا منا يستطيع التنبؤ بشكل كامل بما يخبئه المستقبل للذكاء الاصطناعي.  ولكي نفهم تمامًا كيف تتغير هذه التكنولوجيا مع مرور الوقت – لكي نبقى متقدمين على المخاطر التي يمكن أن تشكلها – علينا أن نواصل التعاون.  نحن بحاجة إلى مواصلة العمل مع المطورين، ومع قادة الأعمال، ومع أعضاء المجتمع المدني.

وإذا فعلنا ذلك، فإنني على يقين من أننا قادرون على تشكيل الذكاء الاصطناعي نحو الأفضل، حتى يظل قوة للتقدم والارتقاء بالناس في مختلف أنحاء العالم.

وبذلك، أعود لأستأنف عملي كرئيس للمجلس.  وأود الآن أن أعطي الكلمة لسعادة السيدة غابرييلا سومرفيلد، وزيرة الشؤون الخارجية وشؤون التنقل البشري في الإكوادور.