زومیت نوشت: هوش مصنوعی ظاهرا بهزودی تمام ابعاد زندگی ما را فرا میگیرد. اما آیا آخرالزمان هوش مصنوعی نیز در راه خواهد بود؟ چه کسی واقعا میتواند پیشبینی کند؟
در سال ۱۹۴۵، درست پیش از آزمایش اولین بمب هستهای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که در ساخت این بمب همکاری کرده بود، با دانشمندان همکارش شرطبندی کرد. آیا گرمای بیسابقه ناشی از انفجار، باعث ایجاد آتشسوزی هستهای در جو میشود؟ اگر چنین شود، آیا طوفان آتش فقط نیومکزیکو را از بین میبرد یا تمام دنیا را به ورطهی نابودی میکشاند؟ البته آن آزمایش آنقدرها هم که از شرطبندی شیطنتآمیز فرمی برداشت میشود، بیپروایانه نبود. هانس بته، فیزیکدان دیگر، محاسبه کرده بود که بهوجود آمدن چنین دوزخی تقریباً غیرممکن است.
این روزها، نگرانی در مورد «خطرات وجودی»، یعنی آنهایی که برای تمام نسل بشر بهعنوان یک گونه (نه برای انسانها به صورت فردی) تهدیدی جدی بهشمار میرود، به دانشمندان نظامی محدود نمیشود. جنگ هستهای، زمستان هستهای، بیماریهای دنیاگیر (چه طبیعی مانند کووید ۱۹ یا مهندسی شده)، برخورد سیارک با زمین و موارد بیشمار دیگر، میتواند بیشتر انسانها یا حتی تمامی نسل بشر را از بین ببرد.
بهنقل از اکونومیست ، امروزه جدیدترین تهدید آخرالزمانی برای آینده بشریت، هوش مصنوعی (AI) و پایان دنیا و نسل بشر بهدست این فناوری است. در ماه مه، گروهی از افراد برجسته در حوزهی هوش مصنوعی نامهی سرگشادهای را امضا کردند که در آن آمده بود: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای دنیاگیر و جنگ هستهای، یک اولویت جهانی باشد.»
اما چقدر منطقی است که دراینباره نگران باشیم؟ ۱۰ ژوئیه (۱۹ تیر) گروهی از محققان از جمله ازرا کارگر، اقتصاددان از فدرال رزرو شیکاگو، و فیلیپ تتلاک، دانشمند علوم سیاسی از دانشگاه پنسیلوانیا، مقالهای را منتشر کردند که سعی میکند با بررسی نظاممند دو گروه مختلف از کارشناسان، به پاسخ این پرسش دست پیدا کند.
در یک سوی پژوهش، متخصصان حوزهی مورد بحث یا «حیطهی خاص» در جنگ هستهای، سلاحهای زیستی، هوش مصنوعی و حتی خود مبحث «انقراض» قرار داشتند و در سوی دیگر، گروهی از «اَبَرپیشبینیکنندگان حرفهای» یا پیشگویان همهمنظوره با پیشبینیهای دقیق در مورد انواع مباحث مختلف، از نتایج انتخابات گرفته تا شروع جنگهای مختلف.
محققان درمجموع ۸۹ اَبَرپیشبینیکننده، ۶۵ متخصص حوزه و ۱۵ متخصص «خطر انقراض» را انتخاب کردند. دو نوع فاجعهی متفاوت برای سنجش به داوطلبان گردآمده ارائه شد. یک فاجعه بهعنوان «بلای طبیعی ناگهانی» تعریف شد که باعث کشته شدن فقط ۱۰ درصد از انسانهای جهان یا حدود ۸۰۰ میلیون نفر میشود. برای مقایسه، تخمین زده میشود که جنگ جهانی دوم در زمان خود باعث مرگ حدود ۳ درصد از جمعیت ۲ میلیاردی جهان شد. در سوی دیگر «انقراض» به عنوان واقعهای تعریف شد که همهی انسانها را، با شانس استثنا قائل شدن برای حداکثر ۵۰۰۰ نفر خوششانس (یا بدشانس)، از بین ببرد.
اگر قرار بر رفتن باشد، همه با هم میرویم
از دو گروه خواسته شد که دربارهی احتمال وقوع همه چیز، از رویدادهای پایانی مانند انقراض ناشی از هوش مصنوعی یا جنگ هستهای تا سؤالات کوچکتر، ازجمله اینکه چه پیشرفتهای نگرانکنندهای در تواناییهای هوش مصنوعی ممکن است رخ بدهد و بهعنوان تابلوی راهنما در مسیر یک فاجعه در آینده عمل کند، پیشبینیهایی ارائه کنند.
بارزترین نتیجهی مطالعه بود که متخصصان حوزه که معمولا بر گفتگوهای عمومی درمورد خطرات وجود تسلط دارند، درمقایسه با ابرپیشبینیکنندگان آینده را بسیار تیرهتر میبینند. متخصصان تخمین زدند که احتمال وقوع فاجعهی بلای طبیعی تا سال ۲۱۰۰ حدود ۲۰ درصد و احتمال انقراض بشر حدود ۶ درصد است. اَبَرپیشبینیکنندگان برای این رویدادها، احتمالات ۹ و ۱ درصد را در نظر گرفتند.
این شکاف گسترده، جزئیات جالبی را در خود پنهان کرده است. درهنگام تشخیص خطرات ناشی از هوش مصنوعی دو گروه بیشترین تفاوت نظر را داشتند. پیشبینیکنندگان بهطور متوسط تخمین زدند که تا پایان قرن، احتمال وقوع فاجعهای ناشی از هوش مصنوعی ۲٫۱ درصد و احتمال انقراض ناشی از هوش مصنوعی، ۰/۳۸ درصد است. در مقابل، متخصصان حوزهی هوش مصنوعی، بهترتیب احتمال ۱۲ و ۳ درصد را به این دو واقعه اختصاص دادند. وقتی نوبت به دنیاگیریها رسید، ابرپیشبینیکنندگان درمقایسه با متخصصان حوزه نسبتبه خطرات ناشی از بیماریهای طبیعی بدبین بودند.
مقایسه نتایج دو گروه ابرپیشبینیکنندگان و متخصصان
شاید جالبترین نتیجه این بود که هرچند دو گروه درمورد میزان دقیق خطر اختلاف نظر داشتند، اما هر دو هنگام فکر کردن به فاجعه یا انقراض، هوش مصنوعی را بزرگترین نگرانی میدانستند. دن مریلند، ابرپیشبینیکنندهای که در مطالعه شرکت کرد، معتقد است که یکی از دلایل خطرناکتر بودن هوش مصنوعی این است که بهعنوان «افزایندهی نیرو» در خطرات دیگر مانند سلاحهای هستهای عمل میکند.
در مورد جنگ هستهای یا اصابت سیارک، هوش مصنوعی (مثلاً بهشکل رباتهای مسلح) میتواند انسانها را مستقیماً بهکام مرگ بفرستد. همچنین، میتواند در تیز کردن تبر جلادهای دیگر نیز دست داشته باشد. برای مثال، اگر انسانها از هوش مصنوعی برای طراحی سلاحهای زیستی قویتر استفاده کنند، به طور اساسی، هرچند غیرمستقیم، هوش مصنوعی در فاجعه دخیل میشود.
ابرپیشبینیکنندگان در عین بدبینی نسبت به هوش مصنوعی، در مورد آن تا حدودی نامطمئن بودند. نزدیک به ۸۰ سال است که جهان با سلاحهای هستهای درگیر است. اینکه تاکنون هنوز یک جنگ هستهای تمام و کمال اتفاق نیفتاده است، دادههای ارزشمندی را شکل میدهد که میتواند در پیشبینیهای آینده دربارهی احتمال وقوع آن مفید واقع شود. اصطلاح هوش مصنوعی دستکم در معنای کنونی بسیار جدیدتر است. ظهور مدلهای امروزی و قدرتمند یادگیری ماشین به سالهای اولیهی دهه ۲۰۱۰ باز میگردد. این حوزه همچنان بهسرعت در حال توسعه و گسترش است؛ اتفاقی که دادههای بسیار کمتری را برای پیشبینی بر جای میگذارد.
دکتر تتلاک بهطور خاص کارهای زیادی را در مورد بررسی مشکل پیشبینی آینده انجام داده است. او اولین کسی بود که «ابرپیشبینیکنندگان» را شناسایی و نامگذاری کرد؛ افرادی که به نظر میرسید به طور غیرعادی در پیشبینی آینده موفقیتآمیز عمل میکنند. چنین افرادی دارای چندین ویژگی مشترک هستند، ویژگیهایی مانند تفکر دقیق بر اساس آمار و ارقام و آگاهی از سوگیریهای شناختی که البته ممکن است آنها را گیج و گمراه کند. ابرپیشبینیکنندگان با وجود فقدان تخصص خاص، در بسیاری از زمینههای فنی دیگر، از امور مالی گرفته تا ژئوپولیتیک، عملکرد و سابقهای بهتر از متخصصان همان دارند.
به نظر میرسد تفاوت نظر بین گروهها تا حدودی منعکسکنندهی تفاوت در مدلهای آنها از نحوهی عملکرد جهان است. خطرات فاجعهبار نه تنها به پیچیده یا قدرتمند بودن یک فناوری، بلکه به نحوهی واکنش انسانها نسبتبه آن نیز بستگی دارد. برای مثال، پس از هراس از جنگ هستهای در اوایل جنگ سرد، آمریکا و اتحاد جماهیر شوروی، دو قدرت هستهای بزرگ جهان همکاری با یکدیگر را آغاز کردند. ایندو قدرت جهانی با ابتکاراتی مانند ایجاد «خطوط تماس مستقیم» بین مسکو و واشنگتن، توافقنامههایی برای بازرسی تسلیحات یکدیگر، و معاهدات طراحیشده برای محدود کردن حجم ذخایر، به کاهش خطرات جنگ هستهای کمک کردند.
اما ابرپیشبینیکنندگان و متخصصان هوش مصنوعی ظاهرا دیدگاههای بسیار متفاوتی درمورد نحوهی واکنش جوامع به آسیبهای کوچک ناشی از هوش مصنوعی داشتند. ابرپیشبینیکنندگان فکر میکردند که چنین آسیبهایی باعث بررسی دقیقتر و وضع مقررات جدیتر برای رفع مشکلات بزرگتر آتی میشود. در مقابل، متخصصان حوزه تمایل داشتند فکر کنند که انگیزههای تجاری و سیاستهای جغرافیایی ممکن است حتی پس از ایجاد آسیب واقعی، مهمتر از نگرانیهای ایمنی باشند.
ابرپیشبینیکنندگان و متخصصان درمورد محدودیتهای هوش نیز دیدگاههای متفاوتی داشتند. کریستی مورل، یکی دیگر از ابرپیشبینیکنندگان شرکتکننده در پژوهش، بهسادگی معتقد است که «کشتن همهی انسانها آنقدرها هم آسان نیست.» وی خاطرنشان میکند که احتمالاً انجام اینکار مستلزم داشتن «میزان خاصی از توانایی برای تعامل با دنیای فیزیکی است. احتمالاً قبل از رسیدن به این مرحله، به پیشرفت بسیار زیادی در دنیای رباتیک نیاز داریم.»
البته مشکل اساسی این نوع پیشبینی، این است که برخلاف رویدادهای مکرر و با ریسک پایین (مانند پیشبینی حرکت قیمت سهام در بازار بورس یا نتیجهی انتخابات)، هرگز راهی برای دانستن اینکه کدام طرف به تشخیص سطح واقعی خطر نزدیکتر است، وجود نخواهد داشت. اما اگر ابرپیشبینیکنندگان در پیشبینی آنقدر خوب عمل کنند و متخصصان در حوزهی تخصصی خود دانش موضوعی کافی داشته باشند، حداقل میتوانیم انتظار داشته باشیم که این دو گروه بر باورهای یکدیگر تأثیر بگذارند.
پیشگویی آینده
مطالعهی پژوهشگران تلاش کرد تا ازطریق ایجاد هماندیشیهای گروهی، انگیزههای مالی برای استدلالهای بهتر و موارد دیگر، گروهها را به «اقناع متقابل» ترغیب کند. بااینحال، شاید باعث تعجب باشد که هر دو طرف قاطعانه بر نظرات خود پافشاری کردند. یکیاز متخصصان هوش مصنوعی «درماندگی از تعمق و تبادل نظر» را بهعنوان مشکل اصلی در نظر داشت. بهعبارت دیگر، هر دو طرف بهسادگی از تمام پیشبینیهایی که از آنها خواسته شده بود، خسته شده بودند.
تغییر ذهن یا آنطور که پیشبینیکنندگان «بهروزرسانی پیشفرضها» مینامند، ممکن است با شواهد جدید آسانتر باشد. درنتیجه، دکتر کارگر و تتلاک امیدوار به جمعآوری برخی شواهد هستند. آنها از شرکتکنندگان در مطالعهی خود خواستند به پرسشهایی دربارهی مجموعهای از «شاخصهای هشدار اولیه» پاسخ دهند؛ معیارهایی که نشان میدهند آیا جهان در مسیری به سوی سناریویی فاجعهبار قرار دارد یا خیر.
بهعنوان مثال، میزان قدرت کامپیوتری که در برنامههای بزرگ آموزش هوش مصنوعی استفاده میشود، ممکن است در ردیابی پیشرفت کلی این حوزه مفید باشد. عامل دیگر، ممکن است سرنوشت نهایی معاهدات کنترل تسلیحات هستهای باشد. امید است که این پرسشهای کوتاهمدت، که بعضی از آنها تا سالهای ۲۰۲۴ و ۲۰۳۰ پاسخ داده میشوند، این حس را به ما بدهند که کدام گروه جدیتر هستند و درنتیجه چقدر باید نگران باشیم.