وقتی در سایه استخوان بندی آن می ایستید، سخت است که تحت تأثیر سکوت و آرامش مطلق گنبد گنباکو قرار نگیرید.
این سالن که در ابتدا به عنوان یک سالن نمایشگاه محصولات صنعتی در اوایل قرن گذشته ساخته شد، یکی از تنها ساختمانهای هیروشیما بود که تا حدی از اولین بمباران اتمی جهان جان سالم به در برد.
شورای شهر هیروشیما، در سالهای پس از جنگ، بحث طولانی و سختی داشت که آیا باید ساختاری را که برای بسیاری از بازماندگان حمله، یادآور وحشتهایی بود که در طول و بعد از انفجاری که عصر هستهای را آغاز کرد، متحمل شده بودند، تخریب کنند.
تصمیم برای حفظ آن، حفظ ویرانه های آن و افزودن یک پارک یادبود سرسبز و سرسبز برای در آغوش گرفتن این مکان، گنبد را به یک نماد قوی ضد جنگ تبدیل کرد، یک درخواست نیرومند برای خلع سلاح هسته ای.
فومئو کیشیدا، نخست وزیر ژاپن، از رهبران گروه 7 می خواست که جمعه گذشته همراه با سکوت در این پیام غرق شوند.
و انجام دادند.
نخست وزیر جاستین ترودو گفت: “بیشتر ما زمانی را به یاد نمی آوریم که جهان در معرض خطر جنگ هسته ای قرار داشته باشد.” جنگ سرد مدت ها پیش به پایان رسید و خطر جنگ هسته ای متأسفانه توسط بسیاری فراموش شده است.
با این حال، درس دیگری نیز وجود دارد، یک درس کمتر از آن، که باراک اوباما در اظهارات خود در سال 2016، زمانی که اولین رئیس جمهور مستقر ایالات متحده بود که از هیروشیما بازدید کرد، به آن اشاره کرد. او گفت که یادبودهای بسیاری در سرتاسر جهان وجود دارد که داستانهای شجاعت و قهرمانی را روایت میکنند و یادبودهای دیگری مانند آشویتس که “پژواکی از تباهی وصف ناپذیر” را ارائه میدهند.
اوباما گفت که گنبد گنباکو و ابر قارچی بزرگی که در 6 اوت 1945 بر فراز آن برخاسته بود، چیزی کاملاً متفاوت از سایر بناهای تاریخی بود. این به “تضاد اصلی بشریت” صحبت می کند – که خلاقیت، تخیل و توانایی ما برای خم کردن طبیعت به اراده خود نیز می تواند منجر به نابودی خودمان شود.
بلافاصله پس از بمباران، که توسط بمب افکن B-29 به نام انولا گی انجام شد، نیروی هوایی ارتش ایالات متحده در تعجب باقی ماند، همانطور که کمک خلبان کاپیتان رابرت لوئیس بعداً به ژورنال خود گفت: “خدای من، چه چیزی انجام داده ایم؟”
با تهدیدات هستهای روسیه بر سر اوکراین، به هم ریختن معاهدات چند دههای کنترل تسلیحات و امتناع چین از پذیرش محدودیتهای تسلیحات هستهای، تمرکز ذهن بر روی مجموعهای از سناریوهای کنونی آسان است.
ورود ولودیمیر زلنسکی، رئیسجمهور اوکراین به اجلاس سران گروه ۷ در روز شنبه، تنها بر این ترس بود که جهان میتواند بدون کنترل به سمت نوعی رویارویی هستهای – چه بزرگ و چه کوچک- در حرکت باشد.
رشد هوش مصنوعی از حکمرانی پیشی گرفته است
چیزی که وقتی روزنامه نگاران، مقامات و برخی رهبران در اطراف مانیتورهای تلویزیون جمع شدند تا به تماشای فید استخر – و تکرارهای بی پایان – فرود هواپیمای زلنسکی در روز شنبه بپردازند، گام های تا حدودی خشک و آزمایشی دموکراسی های پیشرو جهان در جهت پرداختن به آنچه برخی توصیف کرده اند برداشته شد. به عنوان بحران وجودی بزرگتر: ظهور ماشین ها از طریق هوش مصنوعی (AI).
G7 خواستار اتخاذ استانداردهای فنی برای “قابل اعتماد” نگه داشتن هوش مصنوعی شد. هشدارها مبنی بر اینکه حاکمیت این فناوری با رشد آن همگام نبوده است، چه در داخل و چه در خارج از جامعه فناوری کر کننده شده است.
اورسولا فون در لاین، رئیس کمیسیون اروپا در اوایل اجلاس گفت: ما میخواهیم سیستمهای هوش مصنوعی دقیق، قابل اعتماد، ایمن و بدون تبعیض باشند، صرف نظر از منشأشان.
کانون توجه رهبران به اصطلاح “هوش مصنوعی مولد” است که زیرمجموعه ای از فناوری است که توسط برنامه ChatGPT که توسط شرکت OpenAI توسعه یافته است، رایج شده است.
پیشرفت های سریع در این فناوری باعث شد 1000 کارآفرین فناوری مانند ایلان ماسک و کسانی که این فناوری را توسعه می دهند، نامه ای سرگشاده را در ماه مارس امضا کنند که در آن خواستار توقف شش ماهه توسعه سیستم های قدرتمندتر شده بود و خطرات احتمالی را برای جامعه ذکر کردند. آن نامه اکنون 27000 امضا دارد.
در ماه آوریل، قانونگذاران اتحادیه اروپا از رهبران جهان خواستند راه هایی برای کنترل فناوری های هوش مصنوعی بیابند.
اتحادیه اروپا به تصویب جامع ترین قانون جهان برای تنظیم هوش مصنوعی نزدیک است، چیزی که سایر اقتصادهای پیشرفته به دقت دنبال می کنند.
ایالات متحده تاکنون رویکردی منتظر و منتظر را در پیش گرفته است و جو بایدن، رئیس جمهور این کشور گفت که باید دید آیا هوش مصنوعی خطرناک است یا خیر.
صرف نظر از این، رهبران G7 در بیانیه خود گفتند که قوانین مربوط به فناوری های دیجیتال مانند هوش مصنوعی باید “همراستا با ارزش های دموکراتیک مشترک ما باشد.”
در حالی که گروه هفت ممکن است در تلاش باشد تا اعضای خود را در یک مسیر قرار دهد، سایر کشورهای پیشرفته که لزوماً دارای ارزشهای دموکراتیک نیستند، مانند چین، برای توسعه همان فناوری پیشرفته عجله دارند.
و در حالی که در G7 فراخوانی برای استانداردهای بینالمللی وجود داشت، به نظر میرسید که رهبران دستور ایجاد یک مجمع وزیران برای بحث در مورد مسائل مربوط به هوش مصنوعی مولد را از طریق پنجره باریک حق چاپ و اطلاعات نادرست، تا پایان سال 2019 بدون فوریت مشخص کرده بودند. امسال.
تعدادی از کارشناسان هشدار داده اند که پتانسیل هوش مصنوعی برای اختلالات اقتصادی و اجتماعی – از طریق جابجایی کارگران و حتی تعصبات تبعیض آمیز – به خوبی درک نشده است.
پدرخوانده هوش مصنوعی هشدار می دهد که برخی از چت ربات ها “بسیار ترسناک” هستند
رهبران همچنین از سازمانهای بینالمللی مانند سازمان همکاری و توسعه اقتصادی خواستند تا تحلیلهایی را در مورد تأثیر تحولات سیاستی در نظر بگیرند.
درست مانند جی رابرت اوپنهایمر، فیزیکدان نظری آمریکایی که از ساخت بمب اتمی پشیمان شد، مردی که به طور گسترده پدرخوانده هوش مصنوعی، جفری هینتون، اخیراً از گوگل استعفا داد و هشدار داد که برخی از چت رباتهای هوش مصنوعی که اکنون ساخته شدهاند «بسیار ترسناک» هستند.
تحقیقات پیشگام هینتون بر روی شبکه های عصبی و یادگیری عمیق بود.
در هوش مصنوعی، شبکه های عصبی سیستم هایی هستند که شبیه مغز انسان هستند. آنها هوش را قادر می سازند تا از تجربه یاد بگیرد، همانطور که مردم انجام می دهند. به آن یادگیری عمیق می گویند.
هینتون در 2 می به بی بی سی گفت: “در حال حاضر، تا آنجا که من می توانم بگویم، آنها از ما باهوش تر نیستند. اما فکر می کنم به زودی ممکن است این کار را انجام دهند.”
در سال 2016، در پای گنبد گنباکو، باراک اوباما در پیامی از “بیداری اخلاقی” صحبت کرد که امروز می تواند به عنوان هشداری گسترده تر تعبیر شود.
او گفت: «علم به ما اجازه میدهد تا در میان دریاها ارتباط برقرار کنیم و بر فراز ابرها پرواز کنیم، بیماریها را درمان کنیم و کیهان را درک کنیم، اما همین اکتشافات را میتوان به ماشینهای کشتار کارآمدتر تبدیل کرد.»
“جنگ های عصر مدرن این حقیقت را می آموزد. هیروشیما این حقیقت را آموزش می دهد. پیشرفت فناوری بدون پیشرفتی معادل در نهادهای انسانی می تواند ما را به هلاکت برساند.”