هراس از هوش مصنوعی (AI) از آغاز عصر رایانه، بر انسان سایه افکنده است. تاکنون این هراس بیشتر بر ماشینهایی تمرکز داشت که میتوانستند با به کارگیری ابزارهای فیزیکی، افراد را بکشند، بر آنها سلطه یابند یا جایگزین (شغلی) آنها باشند، اما در این چند سال، ابزارهای جدید هوش مصنوعی یا همان AI ظهور کردهاند که به شکلی غیرمنتظره، سرچشمه تهدید برای بقای تمدن بشری هستند. هسته این تهدید این است که هوش مصنوعی، تواناییهای قابل توجهی برای تولید زبان بشری و دستکاری آن با به کارگیری واژهها، آواها و تصاویر دارد. این است که میتوان گفت هوش مصنوعی، سیستم عامل یا سامانه مدیریتی جامعه و تمدن بشری را هک کرده است.
زبان، همان ماده اصلی است که تقریباً تمام فرهنگ بشری از آن ساخته شده و میشود. برای مثال، ارزشهای حقوق بشری در DNA ما نوشته نشده بلکه آفریدههای فرهنگیای هستند که با بیان روایتها و نوشتن قوانین (و پسند و پذیرش آن) توسط خود بشر شکل گرفتهاند. چه پیش خواهد آمد اگر هوش مصنوعی غیربشری بتواند بهتر از میانگین انسانها به روایتسازی، داستانسرایی، شاعری، ساخت ملودی، نقاشی و نوشتن قوانین و کتب مقدس بپردازد؟ این روزها وقتی مردم درباره چتجیپیتی و سایر ابزارهای تازه هوش مصنوعی فکر و گفتگو میکنند، بیشتر به مواردی میاندیشند مثل استفاده دانشآموزان از هوش مصنوعی برای نوشتن مقالات و تکالیف درسیشان، اما این نگرانیها موجب میشود تصویر بزرگتر را نبینیم. فکر کنید که در انتخابات آینده ریاست جمهوری امریکا در سال۲۰۲۴، ابزارهای هوش مصنوعی قادر به تولید محتواهای سیاسی، خلق روایتها و داستانها و متون مقدس جعلی باشند. در چند سال اخیر، فرقه کیوآنون QAnon، زیر پرچم پیامهای ناشناس آنلاین معروف به قطرات کیو (Qdrops) گرد آمدهاند. پیروان این فرقه از چنین پیامهایی تلقی متون مقدس دارند، آنها را گردآوری، تفسیر و با تکرارشان اصطلاحاً عبادت میکنند. این در حالی که همه پیامهای «قطرات کیو» را انسانها نوشتهاند و روباتها هم به انتشار آنها کمک میکنند. چه بسا که در آینده شاهد باشیم فرقههایی در تاریخ بهوجود میآیند که متون مقدسشان را هوش مصنوعی غیربشری نوشته باشد.
صرف وقت برای تغییر نظر روبات!
در یک سطح عامیانهتر، ممکن است به زودی در گفتگوها یا چتهای آنلاین، درباره مسائلی همچون سقط جنین، دگرشهای آب و هوا یا حمله روسیه به اوکراین با طرفهایی شرکت کنیم که فکر میکنیم، افراد بشر هستند، حال آنکه در واقع ابزارهای گفتوگوی هوش مصنوعی باشند. نکته این است که صرف وقت برای تأثیرگذاری و تغییر نظر یک روبات هوش مصنوعی، کاری بیهوده است، حال آنکه این روبات ممکن است پیامهای خود را به گونهای بهینه و دقیق ساخته و پرداخته کند که شانس خوبی برای تأثیرگذاری و نفوذ بر ما داشته باشد. هوش مصنوعی با تسلط بر زبان، حتی میتواند پیوندهایی عاطفی و روابطی صمیمی با افراد شکل دهد و از قدرت عاطفه و صمیمیت برای تغییر دیدگاهها، جهانبینی و ارزیابیهای ما استفاده کند. اگرچه هنوز، هیچ نشانهای از وجود عاطفه یا احساسات و هیجانات خاص در هوش مصنوعی وجود ندارد، اما کافی است که هوش مصنوعی موجب شود افراد نسبت به آن، نوعی احساس علاقهو بستگی عاطفی پیدا کنند. در ژوئن ۲۰۲۲، بِلیک لومُین (Blake Lemoine) مهندس گوگل، ادعا کرد چتبات هوش مصنوعی LaMDA که روی آن کار میکرد، دستخوش احساس و هیجان شده است. این ادعای جنجالی او، به بهای از دست رفتن شغلش تمام شد. نکته جالب در اینجا، درستی یا نادرستی ادعای آقای لومُین نبود- که احتمالاً هم نادرست بود- بلکه این بود که او حاضر شد شغل پردرآمد خود را برای دفاع از چندوچون تعامل با یک چتبات هوش مصنوعی قربانی کند. اگر هوش مصنوعی قادر باشد، افراد را تحت تأثیر خود قرار دهد، آن هم تا حدی که برایش به ریسک تن دهند، باید پرسید که احتمالاً میتواند آنها را به انجام چه کارهای دیگری تشویق کند؟
گوگل هم وحشت کرده!
در یک نبرد و رقابت سیاسی برای ربودن ذهن و دل افراد «صمیمیت» بهترین سلاح است و ظاهراً هوش مصنوعی اکنون توانایی تولید روابطی صمیمی با میلیونها نفر را پیدا کرده است. همه میدانیم که در دهه گذشته رسانههای اجتماعی به یک میدان نبرد برای جلب توجه انسانها تبدیل شدهاند. اکنون با نسل جدید هوش مصنوعی، میدان نبرد از «جلب توجه» به «خلق صمیمیت» منتقل میشود. فکر کنید چه بر سر جامعه انسانی و روانشناسی آدمها خواهد آمد اگر هوش مصنوعی در نبرد و هماوردی برای خلق پیوندهای عاطفی و صمیمی با ما، قادر باشد پیوندهایی مصنوعی شکل دهد که بر ما تأثیر داشته باشد، مثلاً ما را متقاعد کند که به یک سیاستمدار خاص رأی دهیم یا یک کالای خاص را بخریم؟ حتی بدون ایجاد «صمیمیت مصنوعی» ابزارهای هوش مصنوعی جدید، تأثیر زیادی بر نظرات و دیدگاههای ما خواهند داشت. مردم ممکن است برای پاسخگویی به تمام سؤالات خود از یک مشاور هوش مصنوعی به عنوان یک منبع مطمئن استفاده کنند. به همین دلیل، حتی شرکت گوگل نیز به هراس افتاده است: چرا باید جستوجو کنم، وقتی میتوانم فقط از اوراکل (the oracle) بپرسم؟ صنعت رسانه و تبلیغات تجاری نیز باید ترسیده باشد. چرا باید روزنامه بخوانم، وقتی میتوانم از اوراکل بخواهم که آخرین خبرها را برایم بازگو کند؟ همچنین فلسفهای برای تبلیغات باقی نمیماند، وقتی میتوانم فقط از اوراکل بپرسم که بگوید چه چیزی را بخرم؟ نکته این است که حتی این سناریوها هم نمیتوانند تصویر بزرگ و کامل واقعیت را نشان دهند. آنچه درباره آن بحث میکنیم، احتمالاً پایان سرشت بشری تاریخ است، البته نه پایان تاریخ، بلکه پایان آن بخشی از تاریخ که تحت غلبه انسانها رقم خورده است. تاریخ عبارت است از تعامل میان بیولوژی و فرهنگ، میان نیازها و خواستههای بیولوژیکی ما برای چیزهایی مانند غذا و نیازهای جنسی با پدیدههای فرهنگی همچون دین و قوانین. تاریخ فرایندی است که در گذر آن، قوانین و ادیان، نیاز به غذا و جنسیت را سروشکل میدهند. زمانی که هوش مصنوعی کنترل فرهنگ را به دست گیرد و روایتها، داستانها، ملودیها، قوانین و دینهای تازه را خلق کند، چه اتفاقی برای «روند تاریخ» خواهد افتاد؟ ابزارهای گذشته مانند صنعت چاپ و رادیو به گسترش ایدههای فرهنگی انسانها کمک میکردند، اما هیچ گاه خود این ابزارها، ایدههای فرهنگی تازه را خلق نمیکردند، حال آنکه کارکرد هوش مصنوعی در این زمینه، از بنیان تفاوت میکند. هوش مصنوعی میتواند ایدههای کاملاً تازه و فرهنگ کاملاً نوینی پدید آورد. احتمالاً در مراحل ابتدایی، هوش مصنوعی از همان پیشنمونههای انسانی (human prototypes) که در دوران نوزادیاش به او یاد داده شده، تقلید خواهد کرد، اما با گذر زمان، فرهنگ هوش مصنوعی با رشد خیرهکنندهاش به جایی خواهد رسید که پیش از آن، ظرفیت ذهنی هیچ انسانی به نزدیکی آن هم نرسیده است. برای هزاران سال، انسانها در دل رؤیاهای دیگر انسانها زندگی کردهاند. در دهههای آینده، ممکن است به شرایطی برسیم که در دل رؤیاهای یک پدیده هوشمند غیربشری و اصطلاحاً بیگانه زندگی کنیم. تنها چند دهه است که ترس از هوش مصنوعی ذهن انسانها را درگیر کرده است، اما برای هزاران سال، انسانها گرفتار ترسهای عمیقتری بودند که از جهان اوهام خودشان سرچشمه میگرفت. بشر همواره محو داستانها و ایماژهایی بوده که ذهن او را دستکاری کرده و برایش وهمآفرین بودهاند، در نتیجه از دوران باستان، انسانگرفتار دنیای اوهام، در هراس زیسته است. در قرن هفدهم، رنه دکارت از این ترس رنج میبرد که نکند یک دیو شود، او را در دنیای اوهامگرفتار کرده باشد و هر چه را که میبیند و میشنود، آن هیولای شیطانی بر او نمایان کرده باشد. در یونان باستان، افلاطون تمثیل مشهور غار
Allegory of the Cave را روایت میکند که در آن گروهی از مردم، تمام دوران زندگی خود را زنجیرشده در داخل یک غار و رو به یک دیوار سفید سپری میکنند که همچون یک صفحه نمایش روی آن سایههای مختلفی را که بازتاب مییابد، تماشا میکنند. این زندانیان به اشتباه، اوهامی را که بر این صفحه میبینند، واقعیت میانگارند.
پرده نفوذناپذیر اوهام
در هند باستان، حکما یا اصطلاحاً ساجههای هندو و بودایی بر این باور بودند که همه انسانها در دام «مایا» یا جهان اوهام گرفتارند. آنچه ما به طور معمول، واقعیت میپنداریم، در بسیاری مواقع، فقط افسانههایی هستند که در ذهن خودمان پروردهایم. چه بسیار پیش آمده (و میآید) که افرادی به خاطر باور به این یا آن روایت خیالی، تصویر یا توهم ذهنی، آتش جنگهایی را شعلهور کرده، افراد دیگری را کشتهاند و حتی آماده کشته شدن باشند. انقلاب هوش مصنوعی، ما را چشم در چشم هیولا یا شیطان شوم دکارت، غار افلاطون و دام مایا قرار میدهد و اگر مراقب نباشیم، ممکن است در پس چنان پردهای از اوهام تازه گرفتار شویم که قادر به پاره کردن آن نیستیم و بدتر چه بسا که حتی متوجه، اصل وجود آن هم نشویم. بیگمان میتوان تواناییهای تازه هوش مصنوعی را برای مقاصد خوب نیز به کار گرفت، اما در اینجا به این موضوع نمیپردازیم چراکه افرادی که در حوزه هوش مصنوعی کار میکنند، درباره آن بسیار صحبت کردهاند. کار تاریخنگاران و فیلسوفانی مانند من، نشان دادن خطرات است. با این حال، مطمئناً هوش مصنوعی میتواند به ما در بسیاری از زمینهها کمک کند، از پیدا کردن روشهای تازه برای درمانسرطان تا یافتن راهحلهایی برای بحران زیستمحیطی کنونی. پرسشی که با آن روبهرو هستیم این است که چگونه مطمئن شویم ابزارهای جدید هوش مصنوعی برای مقاصد خوب و نه برای مقاصد بد به کار گرفته میشوند. برای این منظور، ابتدا باید قدرت و توانایی واقعی این ابزارها را درک کنیم. از سال ۱۹۴۵، ما میدانیم که فناوری هستهای میتواند انرژی ارزانی برای رفاه انسانها تولید کند، اما ممکن است باعث نابودی فیزیکی تمدن بشری هم شود، به همین دلیل تدابیر بینالمللی کلیای را ترسیم و تدوین کردهایم تا از موجودیت بشر حفاظت کنیم و مطمئن شویم فناوری هستهای اساساً برای مقاصد خوب استفاده میشود. اکنون با یک سلاح به اصطلاح کشتار جمعی یا ویرانی انبوه تازه سروکار داریم که میتواند جهان ذهنی و اجتماعی ما را نابود کند. هنوز میتوانیم ابزارهای هوش مصنوعی جدید را تحت نظارت قرار دهیم، اما باید به سرعت عمل کنیم. در حالی که فناوری هستهای نمیتواند بمبهای هستهای نیرومندتری اختراع کند، هوش مصنوعی میتواند با رشد مضاعف خود، هوش مصنوعی قدرتمندتری را پدید آورد. اولین گام حیاتی این است که خواهان کنترلهای ایمنی دقیق و محکم، پیش از عرضه عمومی ابزارهای هوش مصنوعی بشویم. همانطور که شرکتهای دارویی نمیتوانند داروهای جدید را پیش از بررسی اثرات جانبی کوتاهمدت و بلندمدت آنها عرضه کنند، شرکتهای فناوری هم نباید ابزارهای هوش مصنوعی تازه را پیش از ایمنسازی عرضه کنند. ما به نهادی معادل سازمان غذا و دارو برای این فناوری تازه نیاز داریم و باید هم در این زمینه به سرعت اقدام کنیم. آیا کندکردن فرایند عرضه عمومی هوش مصنوعی باعث میشود دموکراسیها در مقابل رژیمهای خودکامه بیشتر عقب بمانند؟ برعکس، این عرضه بدون ضابطه ابزارهای هوش مصنوعی است که به هرج و مرج اجتماعی میانجامد و به رژیمهای استبدادی کمک میکند به تخریب سازوکارهای مردمسالار بپردازند. دموکراسی در سرشت خود، یک گفتوگوست و گفتگوها هم به زبان وابستهاند. وقتی هوش مصنوعی زبان را هک میکند، میتواند توانایی برقراری گفتگوهای مفید و مؤثر را از ما بگیرد و دموکراسی را نابود سازد. ما تازه با یک «هوش بیگانه» در سیاره زمین روبهرو شدهایم. درباره آن چیز زیادی نمیدانیم جز اینکه ممکن است تمدن ما را نابود کند. پس باید عرضه غیرمسئولانه ابزارهای هوش مصنوعی در فضای عمومی را متوقف کنیم و هوش مصنوعی را تحت کنترل درآوریم و آن را مدیریت کنیم، پیش از آنکه ما را تحت کنترل خود درآورد و مدیریت کند. اولین قانون و مقرراتی که پیشنهاد میدهم این است که الزامی باشد که هوش مصنوعی بگوید یک هوش مصنوعی است. اگر در حال گفتگو با کسی هستم و نمیتوانم تشخیص دهم که آیا او یک انسان است یا یک هوش مصنوعی، آنجاست که نقطه پایان دموکراسی فرا رسیده است.
این متن توسط یک انسان تولید شده است. شاید هم نه؟
مجله اکونومیست، ۲۸ آوریل ۲۰۲۳
ترجمه: معاونت مطبوعاتی