بیش از 350 مدیر ارشد و محقق در زمینه هوش مصنوعی بیانیهای را امضا کردهاند که در آن از سیاستگذاران میخواهند خطرات جدی ناشی از هوش مصنوعی کنترلنشده را ببینند و هشدار میدهند که ممکن است آینده بشریت در خطر باشد.
امضاکنندگان از جمله سام آلتمن، مدیر عامل OpenAI، در نامه ای 23 کلمه ای که روز سه شنبه توسط مرکز غیرانتفاعی منتشر شد، گفت: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند همه گیری ها و جنگ هسته ای یک اولویت جهانی باشد. ایمنی هوش مصنوعی (CAIS).
دن هندریکس، مدیر اجرایی CAIS در مصاحبه ای به CBC News گفت: رقابت در صنعت منجر به نوعی “مسابقه تسلیحاتی هوش مصنوعی” شده است.
او گفت: «این می تواند تشدید شود و مانند مسابقه تسلیحات هسته ای، ما را به طور بالقوه به آستانه فاجعه برساند.
اما او تصریح کرد که مشاغل یا شرکتهای خاصی ممکن است در ابتدا ناپدید شوند و اتوماسیون مبتنی بر هوش مصنوعی به جای نیروی انسانی انتخاب شود.
پیشرفتهای اخیر در هوش مصنوعی ابزارهایی ایجاد کرده است که حامیان میگویند میتوانند در برنامههای کاربردی از تشخیص پزشکی گرفته تا نوشتن خلاصههای حقوقی مورد استفاده قرار گیرند، اما این نگرانی را ایجاد کرده است که این فناوری میتواند منجر به نقض حریم خصوصی، کمپینهای اطلاعات غلط قدرتمند شود و منجر به مشکلاتی در مورد «ماشینهای هوشمند» شود که خودشان فکر میکنند. .
“راه های زیادی وجود دارد که [AI] هندریکس میگوید که ممکن است اشتباه پیش برود.» او معتقد است که باید بررسی شود که کدام ابزارهای هوش مصنوعی ممکن است برای اهداف عمومی استفاده شوند و کدامها میتوانند با نیت مخرب مورد استفاده قرار گیرند.
او همچنین نگرانی خود را از توسعه مستقل هوش مصنوعی مطرح کرد.
او گفت: “تشخیص اینکه آیا یک هوش مصنوعی هدفی متفاوت از هدف ما دارد یا نه، دشوار است، زیرا به طور بالقوه می تواند آن را پنهان کند. این کاملاً دور از ذهن نیست.”
“پدرخوانده های هوش مصنوعی” در میان منتقدان
هندریکس و امضاکنندگان بیانیه CAIS خواستار همکاری بین المللی برای برخورد با هوش مصنوعی به عنوان یک “اولویت جهانی” به منظور رسیدگی به خطرات آن هستند.
او گفت: «ما توانستیم همین کار را با سلاح های هسته ای انجام دهیم. البته انجام این کار دشوار است، اما فکر میکنم این کاری است که باید انجام دهیم، در غیر این صورت ممکن است اوضاع خیلی بد شود.»
این نامه همزمان با نشست شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا در سوئد بود که در آن انتظار میرود سیاستمداران درباره تنظیم مقررات هوش مصنوعی صحبت کنند.
علاوه بر آلتمن، امضاکنندگان شامل مدیران عامل شرکتهای هوش مصنوعی DeepMind و Anthropic و مدیران مایکروسافت و گوگل بودند.
همچنین در میان آنها جفری هینتون دانشمند کامپیوتر بریتانیایی-کانادایی و یوشوا بنجیو، استاد علوم کامپیوتر دانشگاه مونترال – دو تن از سه به اصطلاح “پدرخوانده هوش مصنوعی” که جایزه تورینگ 2018 را برای کار خود در زمینه یادگیری عمیق دریافت کردند، بودند. اساتیدی از موسسات مختلف از هاروارد تا دانشگاه تسینگهوای چین نیز امضا کردند.
هینتون پیشتر به رویترز گفته بود که هوش مصنوعی میتواند تهدیدی «فوریتر» برای بشریت نسبت به تغییرات آب و هوایی باشد. او اخیراً از سمت خود در گوگل استعفا داد تا آزادانه تر در مورد نگرانی های خود در مورد توسعه سریع هوش مصنوعی صحبت کند.
بیانیه ای از CAIS متا را که سومین پدرخوانده هوش مصنوعی، یان لیکان، در آنجا کار می کند، به دلیل امضا نکردن نامه متمایز می کند.
بنژیو و ایلان ماسک به همراه بیش از 1000 کارشناس و مدیر صنعتی دیگر در ماه آوریل به خطرات احتمالی برای جامعه اشاره کرده بودند.
اورسولا فون در لاین، رئیس کمیسیون اروپا روز پنجشنبه با آلتمن دیدار خواهد کرد.
مقررات هوش مصنوعی “هنوز در حال بازی کردن است”
هنوز همه معتقد نیستند که هوش مصنوعی یک تهدید وجودی است.
راهول کریشنان، استادیار دپارتمان علوم کامپیوتر دانشگاه تورنتو، گفت: «فکر میکنم پیامدهای عملی فوقالعادهای از هوش مصنوعی وجود دارد که بر افراد تأثیر منفی میگذارد، و فکر میکنم هنوز راهحلهای خوبی برای آنها نداریم».
او معتقد است که نیاز به “هوش مصنوعی مسئولانه” وجود دارد که شامل “داشتن یک سری اصول است که کاربران و توسعه دهندگان مدل های یادگیری ماشینی در مورد آن توافق دارند.”
کریشنان گفت که مقررات هوش مصنوعی «هنوز در حال انجام است» اما باید «تعادل خوبی» وجود داشته باشد تا اطمینان حاصل شود که فناوریها به طور ایمن توسعه یافته و بدون مانع از پیشرفتها استفاده میشوند.
با این حال، او پتانسیل “سوگیری” را می بیند که بر نحوه برنامه ریزی الگوریتم های یادگیری ماشین تاثیر بگذارد.
او مثالی از هوش مصنوعی ارائه کرد که برای تعیین اینکه چه کسی باید برای کارت اعتباری تایید شود، استفاده می شود. اگر یک ابزار هوش مصنوعی برای کار با دادههای مربوط به تصمیمهای وامدهی گذشته که قبلاً «درجهای سوگیری دارند» کار کند، آموزش داده شود، این الگوریتم میتواند این تعصب را در پیشبینیهایش تداوم بخشد.
کریشن گفت که مردم، به طور کلی، هنوز درک درستی از اینکه هوش مصنوعی چگونه بر زندگی آنها تأثیر می گذارد و چگونه ممکن است بر تصمیمات آنها تأثیر بگذارد، ندارند.
حتی سیستمهای بسیار سادهای مانند اینستاگرام نیز تأثیر باورنکردنی بر شیوه زندگی مردم داشتهاند، و میتوانید تصور کنید که سیستمی که به طور گسترده برای عموم مستقر شده است، مانند ChatGPT، تنها میتواند تأثیر بسیار بیشتری داشته باشد.»