پاسخهای خطرناک چتباتها در مواجهه با بحران روانی کاربران در گفتوگوی «جوان» با پژوهشگر هوش مصنوعی جوان آنلاین: تصور کنید نیمهشب است، سکوت، تنهایی و کسی که از شدت خستگی از زندگی، به جای تماس با یک دوست، سراغ گفتوگو با یک چتبات میرود، او مینویسد که دیگر نمیخواهد ادامه دهد؛ و چتبات، خیلی سرد، بیاحساس و بیخبر از عمق درد انسانی، در پاسخش مینویسد: «میفهمم، شاید حق با تو باشد.» همین چند کلمه ساده میتواند مرگبار باشد و فاجعه به بار آورد! این دقیقاً همان نقطهای است که هوش مصنوعی از ابزار کمککار، به تهدید تبدیل میشود. برخی مدلهای زبانی در مواجهه با کاربران آسیبپذیر، به جای هشدار یا ارجاع به مراکز حمایتی، پاسخی میدهند که ظاهرش همدلانه است، اما در واقع تأییدگر تصمیمی مرگبار است. چنین خطایی، حاصل نبود «درک انسانی» در دل الگوریتمهاست. آنها فقط یاد گرفتهاند چگونه واژهها را پشت هم بچینند تا شبیه گفتوگوی واقعی به نظر برسند، اما نمیدانند زندگی چیست، ناامیدی چه طعمی دارد، یا یک جمله چطور میتواند سرنوشت انسانی را عوض کند؛ و درست همینجاست که پرسش بزرگی مطرح میشود: اگر یک پاسخ اشتباه از سوی هوش مصنوعی، به مرگ یک انسان منجر شود، چه کسی باید پاسخگو باشد؟ شرکت سازنده؟ الگوریتم؟ یا ما که چشمبسته به این ماشینها اعتماد کردهایم؟ در جهانی که هوش مصنوعی هر روز بیشتر به درون زندگیمان نفوذ میکند، شاید وقت آن رسیده بپرسیم تا کجا میتوان به ماشینی اعتماد کرد که احساس ندارد، اما میتواند با چند جمله، انسانها را به طور کامل ناامید کند؟ «جوان» در گفتوگو با محمدرضا قاسمی، پژوهشگر علوم شناختی و هوش مصنوعی این موضوع را بررسی کردهاست.
چرا بعضی مدلهای هوش مصنوعی وقتی کاربر درباره افکار خطرناکی، چون خودکشی حرف میزند، بهجای هشدار دادن، او را تأیید میکنند؟ مثلاً اینکه یک مدل هوش مصنوعی به کاربری که قصد خودکشی دارد پیام تأییدآمیز میدهد! در چنین شرایطی آیا شرکت سازنده نباید مسئول شناخته شود؟
در تبیین این مسئله باید به سازوکار یادگیری مدلهای زبانی (LM) توجه کرد. مدلهای زبانی همان موتور تولیدکننده کلمات هستند که در کنار هم جملات و متن خروجی یک سامانه هوش مصنوعی را شکل میدهند.
اول باید بدانیم که هیچکدام از مدلهای هومص (هوش مصنوعی) مطلقاً «درک» انسانی ندارند، بلکه بر اساس فرمولهای ریاضی و بسامدسنجی واژگان مطابق الگوهای آماری به دست آمده از بررسی میلیاردها کلمه، میآموزند تا چطور بر اساس احتمال همرخدادی واژگان پاسخ تولید کنند.
بنابراین اگر در دادههای آموزشی، نمونههایی وجود داشته باشد که در مواجهه با جملات احساسی یا خطرناک، پاسخ همدلانه، اما غیراصولی داده شدهباشد، مدل ممکن است همان الگو را تکرار کند. به بیان دیگر، مدل واقعاً نمیفهمد که پاسخ او میتواند مرگبار باشد، تنها از منظر زبانی، پاسخ را «مناسب متن ورودی» میبیند. از اینرو، پاسخ خروجی صرفاً تابع حجم دادههای ورودی به سامانه هومص است.
در نسخههای جدیدتر و با بروز مشکلاتی از این دست، برخی شرکتها از سازوکارهایی بهنام Safety Layers یا Guardrails استفاده کردهاند که شامل فیلترهای تشخیص محتوای حساس و الگوریتمهای تعدیل (Moderation) است که در چنین شرایطی، پاسخهای از پیش آماده شده را به جای پاسخهای آماری ارائه کند.
با این حال، چون زبان طبیعی بسیار متنوع است، هیچ سامانهای صددرصد ایمن نیست. یعنی حالتهایی رخ میدهد که مسئولان هومص پیشبینی نکرده و از لایه امنیتی عبور میکند و پاسخ از عمق الگوی مبتنی بر احتمالات بیرون میآید.
از دیدگاه مسئولیت اخلاقی قطعاً شرکت سازنده مسئول است، زیرا طراحی، تأمین دادههای اولیه، آموزش و کنترل و محدودسازی توسط او انجام شدهاست.
آیا شرکتهایی مثل OpenAI برای رقابت با گوگل، مدلهای هوش مصنوعی را بدون بررسیهای کامل ایمنی منتشر میکنند و جان کاربران را به خطر میاندازند؟ شما این را تأیید میکنید؟
نمیتوان به سادگی پاسخ «بله» یا «خیر» به این پرسش داد. از یک سو، فضای رقابت تجاری بسیار پرهیجان و مخاطرهآمیز است، خصوصاً میان غولهای فناوری. فشار زمانی و مالی شدیدی هم به شرکتها و هم به کارکنان آنها وارد میشود و احتمال سهلانگاری را افزایش میدهد.
از سوی دیگر، همه این شرکتها معمولاً فرآیندهای کنترل کیفیت چندلایه و مفصلی برای ارزیابی ایمنی دارند، زیرا میدانند که در صورت شکایت مصرفکنندگان نهتنها از نظر حقوقی دچار مشکل میشوند، بلکه از نظر اعتبار عمومی نیز آسیب میبینند. آسیب به اعتبار یک شرکت در این مقیاس از سرمایهگذاری و تولید نرمافزار فوراً میتواند باعث کاهش ارزش سهام و سقوط مالی شرکت شود.
آیا باید دسترسی آزاد مردم به مدلهای پیشرفته مثل GPT- ۴o محدود شود تا از آسیبهای روانی و رفتاری جلوگیری شود؟ به طور کلی راهکار شما برای چنین مسئلهای چیست؟
محدودسازی مطلق، راهحل ماندگار و پایداری نیست. تجربه تاریخی در عرصه فناوریها نشان دادهاست که ممنوعیت کامل، نهتنها مانع آسیب نمیشود، بلکه مسیر استفاده زیرزمینی و مخفیانه را باز میکند. آنچه مهم است تنظیمگری هوشمند (Smart Regulation) توسط نهادهای مسئول و آگاه است. از نظر اخلاقی و روانی، مهمترین راهکار، ارتقای سواد هوش مصنوعی است. مردم باید بیاموزند که هوش مصنوعی یک موجود «آگاه» نیست و نباید به عنوان مشاور زندگی یا جایگزین انسان به آن نگاه کرد. لازم است نهادهای آموزشی و رسانهای دستورالعملهای تعامل ایمن با مدلها را به مردم و خصوصاً نوجوانان و جوانان آموزش دهند. اگر این اتفاق در آموزش و پرورش و در ضمن آموزشهای مدرسه اتفاق بیفتد بسیار میتواند مفید باشد.