به گزارش بولتن نیوز به نقل از ایرنا، آنتونیو گوترش دبیرکل سازمان ملل روز سه شنبه به وقت محلی در نخستین نشست شورای امنیت با عنوان فرصت ها و خطرات هوش مصنوعی برای صلح و امنیت بین المللی افزود: هوش مصنوعی تأثیر چشمگیری بر توسعه پایدار، دنیای کار و بافت اجتماعی خواهد داشت.
این مقام ارشد سازمان ملل اضافه کرد: اما من از جدیدترین شکل هوش مصنوعی مولد، شوکه شده و تحت تاثیر قرار گرفته ام. هوش مصنوعی یک پیشرفت اساسی در توانایی های خود داشته است. سرعت و دسترسی این فناوری جدید در تمام اشکال آن کاملا بی سابقه است.
دبیرکل سازمان ملل ادامه داد: هوش مصنوعی با معرفی دستگاه چاپ مقایسه شده است. اما در حالی که دسترسی به کتاب های چاپی در سراسر اروپا بیش از پنجاه سال طول کشید، چت جی پی تی تنها در دو ماه به ۱۰۰ میلیون کاربر رسید.
او گفت: صنعت مالی تخمین می زند که هوش مصنوعی تا سال ۲۰۳۰ بین ۱۰ تا ۱۵ تریلیون دلار به اقتصاد جهانی کمک کند. تقریباً همه دولتها، شرکتها و سازمانهای بزرگ در جهان روی هوش مصنوعی کار میکنند.
دبیرکل سازمان ملل تصریح کرد: این تکنولوژی ظرفیت افزایش سرعت توسعه جهانی، از نظارت بر بحران آب و هوا گرفته تا پیشرفت در تحقیقات پزشکی را دارد.
وی ادامه داد: این تکنولوژی ظرفیت جدید برای تحقق حقوق بشر، به ویژه در زمینه بهداشت و آموزش ارائه می دهد. اما کمیساریای عالی حقوق بشر نسبت به شواهدی مبنی بر اینکه هوش مصنوعی می تواند تعصبات، تبعیض و سطوح جدیدی از نظارت مستبدانه را تقویت کند، ابراز نگرانی کرده است.
دبیرکل سازمان ملل تصریح کرد: از هوش مصنوعی به طور فزاینده ای برای شناسایی الگوهای خشونت، نظارت بر آتش بس ها و موارد دیگر استفاده می شود و به تقویت حفظ صلح، میانجیگری و تلاش های بشردوستانه کمک می کند.
وی تاکید کرد: استفاده بدخواهانه از سیستمهای هوش مصنوعی برای اهداف تروریستی، جنایی یا دولتی میتواند منجر به سطوح وحشتناک مرگ و ویرانی، آسیبهای روانی گسترده و آسیبهای روانی عمیق در مقیاس غیرقابل تصور شود.
گوترش هشدار داد : حملات سایبری بر پایه هوش مصنوعی در حال حاضر زیرساختهای حیاتی و عملیاتهای حفظ صلح و بشردوستانه ما را هدف قرار میدهند و باعث درد و رنج بزرگ انسانی میشوند. کاربردهای نظامی و غیرنظامی هوش مصنوعی می تواند عواقب بسیار جدی برای صلح و امنیت جهانی داشته باشد
دبیر کل سازمان ملل ادامه داد: ظهور هوش مصنوعی مولد میتواند زمانی تعیینکننده برای اطلاعات نادرست و سخنان نفرتانگیز باشد و حقیقت، حقایق و ایمنی را تضعیف کند.
وی در ادامه هشدارهایش تصریح کرد: تعامل بین هوش مصنوعی و سلاحهای هستهای، بیوتکنولوژی، نوروتکنولوژی و رباتیک عمیقاً نگرانکننده است.
گوترش تاکید کرد: هوش مصنوعی مولد ظرفیت عظیمی برای خیر و شر در مقیاس دارد. سازندگان آن هشدار داده اند که خطرات بسیار بزرگتر، بالقوه فاجعه بار و وجودی در مسیر این تکنولوژی وجود دارد. بدون اقدام برای مقابله با این خطرات، ما مسئولیت های خود در قبال نسل کنونی و آینده را نادیده می گیریم.
دبیر کل سازمان ملل همچنین خواستار تشکیل نهادی بینالمللی برای قانونمند شدن استفاده از هوش مصنوعی و مقابله با خطرات بالقوه ویرانگر آن شد و افزود: تشکیل این نهاد با توجه به خطرات فاجعه بار بالقوه آن ضروری است و سازمان ملل این فرصت را دارد تا مقرراتی جهانی را برای قاعده مند کردن و نظارت بر هوش مصنوعی تدوین کند.
گوترش گفت: سازمان ملل باید تا کمتر از سه سال آینده یعنی تا سال ۲۰۲۶، توافق حقوقی لازمالاجرایی را برای ممنوعیت استفاده از هوش مصنوعی در تسلیحات تمام خودکار جنگی نهایی کند.
دبیرکل سازمان ملل همچنین وعده داد شورایی را برای تدوین مقررات پیشنهادی ناظر بر استفاده گستردهتر از هوش مصنوعی تا پایان سال جاری تشکیل دهد.
این نخستین نشست شورای امنیت سازمان ملل درباره فناوری رو به گسترش هوش مصنوعی است. علاوه بر آنتونیو گوترش دبیرکل سازمان ملل، جک کلارک یکی از بنیانگذاران شرکت هوش مصنوعی آنتوپیک و پروفسور زنگ یی مدیر آزمایشگاه هوش شناختی و یکی از مدیران "مرکز چین و انگلیس برای اخلاق و مدیریت هوش مصنوعی" در این نشست حضور داشتند.
جیمز کلورلی وزیر امور خارجه انگلیس که کشورش ریاست دوره ای شورای امنیت را برعهده دارد، در سخنانی به عنوان رئیس این نشست خواستار همکاری بینالمللی برای مدیریت پیامدهای استفاده گسترده از هوش مصنوعی در جهان شد.
کلورلی تصریح کرد که انگلیس برای استفاده موثر از این تکنولوژی قوانین و مسئولیت پذیری را حائز اهمیت حیاتی میداند.
وی تاکید کرد: هیچ کشوری از دسترس هوش مصنوعی دور نمیماند، بنابراین ما باید در ائتلاف گسترده بینالمللی در تمامی بخشها درگیر و دخیل باشیم.
در این نشست، نمایندگان کشورهای انگلیس، ژاپن، موزامبیک، چین، آمریکا، برزیل، سوییس و غنا نظرات خود را مطرح کردند.
شما می توانید مطالب و تصاویر خود را به آدرس زیر ارسال فرمایید.
bultannews@gmail.com