کد خبر: 1157944
تاریخ انتشار: ۳۰ ارديبهشت ۱۴۰۲ - ۰۱:۴۵
هراس از هوش مصنوعی (AI) از آغاز عصر رایانه، بر انسان سایه افکنده است.
یووال نوح هراری

هراس از هوش مصنوعی (AI) از آغاز عصر رایانه، بر انسان سایه افکنده است. تاکنون این هراس بیشتر بر ماشین‌هایی تمرکز داشت که می‌توانستند با به کارگیری ابزار‌های فیزیکی، افراد را بکشند، بر آن‌ها سلطه یابند یا جایگزین (شغلی) آن‌ها باشند، اما در این چند سال، ابزار‌های جدید هوش مصنوعی یا همان AI ظهور کرده‌اند که به شکلی غیرمنتظره، سرچشمه تهدید برای بقای تمدن بشری هستند. هسته این تهدید این است که هوش مصنوعی، توانایی‌های قابل توجهی برای تولید زبان بشری و دستکاری آن با به کارگیری واژه‌ها، آوا‌ها و تصاویر دارد. این است که می‌توان گفت هوش مصنوعی، سیستم عامل یا سامانه مدیریتی جامعه و تمدن بشری را هک کرده است.
زبان، همان ماده اصلی است که تقریباً تمام فرهنگ بشری از آن ساخته شده و می‌شود. برای مثال، ارزش‌های حقوق بشری در DNA ما نوشته نشده بلکه آفریده‌های فرهنگی‌ای هستند که با بیان روایت‌ها و نوشتن قوانین (و پسند و پذیرش آن) توسط خود بشر شکل گرفته‌اند. چه پیش خواهد آمد اگر هوش مصنوعی غیربشری بتواند بهتر از میانگین انسان‌ها به روایت‌سازی، داستان‌سرایی، شاعری، ساخت ملودی، نقاشی و نوشتن قوانین و کتب مقدس بپردازد؟ این روز‌ها وقتی مردم درباره چت‌جی‌پی‌تی و سایر ابزار‌های تازه هوش مصنوعی فکر و گفتگو می‌کنند، بیشتر به مواردی می‌اندیشند مثل استفاده دانش‌آموزان از هوش مصنوعی برای نوشتن مقالات و تکالیف درسی‌شان، اما این نگرانی‌ها موجب می‌شود تصویر بزرگ‌تر را نبینیم. فکر کنید که در انتخابات آینده ریاست جمهوری امریکا در سال۲۰۲۴، ابزار‌های هوش مصنوعی قادر به تولید محتوا‌های سیاسی، خلق روایت‌ها و داستان‌ها و متون مقدس جعلی باشند. در چند سال اخیر، فرقه کیوآنون QAnon، زیر پرچم پیام‌های ناشناس آنلاین معروف به قطرات کیو (Qdrops) گرد آمده‌اند. پیروان این فرقه از چنین پیام‌هایی تلقی متون مقدس دارند، آن‌ها را گرد‌آوری، تفسیر و با تکرارشان اصطلاحاً عبادت می‌کنند. این در حالی که همه پیام‌های «قطرات کیو» را انسان‌ها نوشته‌اند و روبات‌ها هم به انتشار آن‌ها کمک می‌کنند. چه بسا که در آینده شاهد باشیم فرقه‌هایی در تاریخ به‌وجود می‌آیند که متون مقدس‌شان را هوش مصنوعی غیربشری نوشته باشد.
صرف وقت برای تغییر نظر روبات!
در یک سطح عامیانه‌تر، ممکن است به زودی در گفتگو‌ها یا چت‌های آنلاین، درباره مسائلی همچون سقط جنین، دگرش‌های آب و هوا یا حمله روسیه به اوکراین با طرف‌هایی شرکت کنیم که فکر می‌کنیم، افراد بشر هستند، حال آنکه در واقع ابزار‌های گفت‌وگوی هوش مصنوعی باشند. نکته این است که صرف وقت برای تأثیر‌گذاری و تغییر نظر یک روبات هوش مصنوعی، کاری بیهوده است، حال آنکه این روبات ممکن است پیام‌های خود را به گونه‌ای بهینه و دقیق ساخته و پرداخته کند که شانس خوبی برای تأثیرگذاری و نفوذ بر ما داشته باشد. هوش مصنوعی با تسلط بر زبان، حتی می‌تواند پیوند‌هایی عاطفی و روابطی صمیمی با افراد شکل دهد و از قدرت عاطفه و صمیمیت برای تغییر دیدگاه‌ها، جهان‌بینی و ارزیابی‌های ما استفاده کند. اگرچه هنوز، هیچ نشانه‌ای از وجود عاطفه یا احساسات و هیجانات خاص در هوش مصنوعی وجود ندارد، اما کافی است که هوش مصنوعی موجب شود افراد نسبت به آن، نوعی احساس علاقه‌و بستگی عاطفی پیدا کنند. در ژوئن ۲۰۲۲، بِلیک لومُین (Blake Lemoine) مهندس گوگل، ادعا کرد چت‌بات هوش مصنوعی LaMDA که روی آن کار می‌کرد، دستخوش احساس و هیجان شده است. این ادعای جنجالی او، به بهای از دست رفتن شغلش تمام شد. نکته جالب در اینجا، درستی یا نادرستی ادعای آقای لومُین نبود- که احتمالاً هم نادرست بود- بلکه این بود که او حاضر شد شغل پردرآمد خود را برای دفاع از چندوچون تعامل با یک چت‌بات هوش مصنوعی قربانی کند. اگر هوش مصنوعی قادر باشد، افراد را تحت تأثیر خود قرار دهد، آن هم تا حدی که برایش به ریسک تن دهند، باید پرسید که احتمالاً می‌تواند آن‌ها را به انجام چه کار‌های دیگری تشویق کند؟

گوگل هم وحشت کرده!
در یک نبرد و رقابت سیاسی برای ربودن ذهن و دل افراد «صمیمیت» بهترین سلاح است و ظاهراً هوش مصنوعی اکنون توانایی تولید روابطی صمیمی با میلیون‌ها نفر را پیدا کرده است. همه می‌دانیم که در دهه گذشته رسانه‌های اجتماعی به یک میدان نبرد برای جلب توجه انسان‌ها تبدیل شده‌اند. اکنون با نسل جدید هوش مصنوعی، میدان نبرد از «جلب توجه» به «خلق صمیمیت» منتقل می‌شود. فکر کنید چه بر سر جامعه انسانی و روانشناسی آدم‌ها خواهد آمد اگر هوش مصنوعی در نبرد و هماوردی برای خلق پیوند‌های عاطفی و صمیمی با ما، قادر باشد پیوند‌هایی مصنوعی شکل دهد که بر ما تأثیر داشته باشد، مثلاً ما را متقاعد کند که به یک سیاستمدار خاص رأی دهیم یا یک کالای خاص را بخریم؟ حتی بدون ایجاد «صمیمیت مصنوعی» ابزار‌های هوش مصنوعی جدید، تأثیر زیادی بر نظرات و دیدگاه‌های ما خواهند داشت. مردم ممکن است برای پاسخگویی به تمام سؤالات خود از یک مشاور هوش مصنوعی به عنوان یک منبع مطمئن استفاده کنند. به همین دلیل، حتی شرکت گوگل نیز به هراس افتاده است: چرا باید جست‌وجو کنم، وقتی می‌توانم فقط از اوراکل (the oracle) بپرسم؟ صنعت رسانه و تبلیغات تجاری نیز باید ترسیده باشد. چرا باید روزنامه بخوانم، وقتی می‌توانم از اوراکل بخواهم که آخرین خبر‌ها را برایم بازگو کند؟ همچنین فلسفه‌ای برای تبلیغات باقی نمی‌ماند، وقتی می‌توانم فقط از اوراکل بپرسم که بگوید چه چیزی را بخرم؟ نکته این است که حتی این سناریو‌ها هم نمی‌توانند تصویر بزرگ و کامل واقعیت را نشان دهند. آنچه درباره آن بحث می‌کنیم، احتمالاً پایان سرشت بشری تاریخ است، البته نه پایان تاریخ، بلکه پایان آن بخشی از تاریخ که تحت غلبه انسان‌ها رقم خورده است. تاریخ عبارت است از تعامل میان بیولوژی و فرهنگ، میان نیاز‌ها و خواسته‌های بیولوژیکی ما برای چیز‌هایی مانند غذا و نیاز‌های جنسی با پدیده‌های فرهنگی همچون دین و قوانین. تاریخ فرایندی است که در گذر آن، قوانین و ادیان، نیاز به غذا و جنسیت را سروشکل می‌دهند. زمانی که هوش مصنوعی کنترل فرهنگ را به دست گیرد و روایت‌ها، داستان‌ها، ملودی‌ها، قوانین و دین‌های تازه را خلق کند، چه اتفاقی برای «روند تاریخ» خواهد افتاد؟ ابزار‌های گذشته مانند صنعت چاپ و رادیو به گسترش ایده‌های فرهنگی انسان‌ها کمک می‌کردند، اما هیچ گاه خود این ابزارها، ایده‌های فرهنگی تازه را خلق نمی‌کردند، حال آنکه کارکرد هوش مصنوعی در این زمینه، از بنیان تفاوت می‌کند. هوش مصنوعی می‌تواند ایده‌های کاملاً تازه و فرهنگ کاملاً نوینی پدید آورد. احتمالاً در مراحل ابتدایی، هوش مصنوعی از همان پیش‌نمونه‌های انسانی (human prototypes) که در دوران نوزادی‌اش به او یاد داده شده، تقلید خواهد کرد، اما با گذر زمان، فرهنگ هوش مصنوعی با رشد خیره‌کننده‌اش به جایی خواهد رسید که پیش از آن، ظرفیت ذهنی هیچ انسانی به نزدیکی آن هم نرسیده است. برای هزاران سال، انسان‌ها در دل رؤیا‌های دیگر انسان‌ها زندگی کرده‌اند. در دهه‌های آینده، ممکن است به شرایطی برسیم که در دل رؤیا‌های یک پدیده هوشمند غیربشری و اصطلاحاً بیگانه زندگی کنیم. تنها چند دهه است که ترس از هوش مصنوعی ذهن انسان‌ها را درگیر کرده است، اما برای هزاران سال، انسان‌ها گرفتار ترس‌های عمیق‌تری بودند که از جهان اوهام خودشان سرچشمه می‌گرفت. بشر همواره محو داستان‌ها و ایماژ‌هایی بوده که ذهن او را دستکاری کرده و برایش وهم‌آفرین بوده‌اند، در نتیجه از دوران باستان، انسان‌گرفتار دنیای اوهام، در هراس زیسته است. در قرن هفدهم، رنه دکارت از این ترس رنج می‌برد که نکند یک دیو شود، او را در دنیای اوهام‌گرفتار کرده باشد و هر چه را که می‌بیند و می‌شنود، آن هیولای شیطانی بر او نمایان کرده باشد. در یونان باستان، افلاطون تمثیل مشهور غار
Allegory of the Cave را روایت می‌کند که در آن گروهی از مردم، تمام دوران زندگی خود را زنجیرشده در داخل یک غار و رو به یک دیوار سفید سپری می‌کنند که همچون یک صفحه نمایش روی آن سایه‌های مختلفی را که بازتاب می‌یابد، تماشا می‌کنند. این زندانیان به اشتباه، اوهامی را که بر این صفحه می‌بینند، واقعیت می‌انگارند.

پرده نفوذناپذیر اوهام
در هند باستان، حکما یا اصطلاحاً ساجه‌های هندو و بودایی بر این باور بودند که همه انسان‌ها در دام «مایا» یا جهان اوهام گرفتارند. آنچه ما به طور معمول، واقعیت می‌پنداریم، در بسیاری مواقع، فقط افسانه‌هایی هستند که در ذهن خودمان پرورده‌ایم. چه بسیار پیش آمده (و می‌آید) که افرادی به خاطر باور به این یا آن روایت خیالی، تصویر یا توهم ذهنی، آتش جنگ‌هایی را شعله‌ور کرده، افراد دیگری را کشته‌اند و حتی آماده کشته شدن باشند. انقلاب هوش مصنوعی، ما را چشم در چشم هیولا یا شیطان شوم دکارت، غار افلاطون و دام مایا قرار می‌دهد و اگر مراقب نباشیم، ممکن است در پس چنان پرده‌ای از اوهام تازه گرفتار شویم که قادر به پاره کردن آن نیستیم و بدتر چه بسا که حتی متوجه، اصل وجود آن هم نشویم. بی‌گمان می‌توان توانایی‌های تازه هوش مصنوعی را برای مقاصد خوب نیز به کار گرفت، اما در اینجا به این موضوع نمی‌پردازیم چراکه افرادی که در حوزه هوش مصنوعی کار می‌کنند، درباره آن بسیار صحبت کرده‌اند. کار تاریخ‌نگاران و فیلسوفانی مانند من، نشان دادن خطرات است. با این حال، مطمئناً هوش مصنوعی می‌تواند به ما در بسیاری از زمینه‌ها کمک کند، از پیدا کردن روش‌های تازه برای درمان‌سرطان تا یافتن راه‌حل‌هایی برای بحران زیست‌محیطی کنونی. پرسشی که با آن روبه‌رو هستیم این است که چگونه مطمئن شویم ابزار‌های جدید هوش مصنوعی برای مقاصد خوب و نه برای مقاصد بد به کار گرفته می‌شوند. برای این منظور، ابتدا باید قدرت و توانایی واقعی این ابزار‌ها را درک کنیم. از سال ۱۹۴۵، ما می‌دانیم که فناوری هسته‌ای می‌تواند انرژی ارزانی برای رفاه انسان‌ها تولید کند، اما ممکن است باعث نابودی فیزیکی تمدن بشری هم شود، به همین دلیل تدابیر بین‌المللی کلی‌ای را ترسیم و تدوین کرده‌ایم تا از موجودیت بشر حفاظت کنیم و مطمئن شویم فناوری هسته‌ای اساساً برای مقاصد خوب استفاده می‌شود. اکنون با یک سلاح به اصطلاح کشتار جمعی یا ویرانی انبوه تازه سروکار داریم که می‌تواند جهان ذهنی و اجتماعی ما را نابود کند. هنوز می‌توانیم ابزار‌های هوش مصنوعی جدید را تحت نظارت قرار دهیم، اما باید به سرعت عمل کنیم. در حالی که فناوری هسته‌ای نمی‌تواند بمب‌های هسته‌ای نیرومندتری اختراع کند، هوش مصنوعی می‌تواند با رشد مضاعف خود، هوش مصنوعی قدرتمندتری را پدید آورد. اولین گام حیاتی این است که خواهان کنترل‌های ایمنی دقیق و محکم، پیش از عرضه عمومی ابزار‌های هوش مصنوعی بشویم. همانطور که شرکت‌های دارویی نمی‌توانند دارو‌های جدید را پیش از بررسی اثرات جانبی کوتاه‌مدت و بلندمدت آن‌ها عرضه کنند، شرکت‌های فناوری هم نباید ابزار‌های هوش مصنوعی تازه را پیش از ایمن‌سازی عرضه کنند. ما به نهادی معادل سازمان غذا و دارو برای این فناوری تازه نیاز داریم و باید هم در این زمینه به سرعت اقدام کنیم. آیا کندکردن فرایند عرضه عمومی هوش مصنوعی باعث می‌شود دموکراسی‌ها در مقابل رژیم‌های خودکامه بیشتر عقب بمانند؟ برعکس، این عرضه بدون ضابطه ابزار‌های هوش مصنوعی است که به هرج و مرج اجتماعی می‌انجامد و به رژیم‌های استبدادی کمک می‌کند به تخریب سازوکار‌های مردم‌سالار بپردازند. دموکراسی در سرشت خود، یک گفت‌وگوست و گفتگو‌ها هم به زبان وابسته‌اند. وقتی هوش مصنوعی زبان را هک می‌کند، می‌تواند توانایی برقراری گفتگو‌های مفید و مؤثر را از ما بگیرد و دموکراسی را نابود سازد. ما تازه با یک «هوش بیگانه» در سیاره زمین روبه‌رو شده‌ایم. درباره آن چیز زیادی نمی‌دانیم جز اینکه ممکن است تمدن ما را نابود کند. پس باید عرضه غیرمسئولانه ابزار‌های هوش مصنوعی در فضای عمومی را متوقف کنیم و هوش مصنوعی را تحت کنترل درآوریم و آن را مدیریت کنیم، پیش از آنکه ما را تحت کنترل خود درآورد و مدیریت کند. اولین قانون و مقرراتی که پیشنهاد می‌دهم این است که الزامی باشد که هوش مصنوعی بگوید یک هوش مصنوعی است. اگر در حال گفتگو با کسی هستم و نمی‌توانم تشخیص دهم که آیا او یک انسان است یا یک هوش مصنوعی، آنجاست که نقطه پایان دموکراسی فرا رسیده است.
این متن توسط یک انسان تولید شده است. شاید هم نه؟
مجله اکونومیست، ۲۸ آوریل ۲۰۲۳
ترجمه: معاونت مطبوعاتی

نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر
آخرین اخبار