کد خبر: 1328800
تاریخ انتشار: ۲۱ آبان ۱۴۰۴ - ۲۳:۱۵
تاوان مرگبار پاسخ‌های اشتباه هوش مصنوعی پاسخ‌های خطرناک چت‌بات‌ها در مواجهه با بحران روانی کاربران در گفت‌وگوی «جوان» با پژوهشگر هوش مصنوعی
مهسا گربندی

جوان آنلاین: تصور کنید نیمه‌شب است، سکوت، تنهایی و کسی که از شدت خستگی از زندگی، به جای تماس با یک دوست، سراغ گفت‌و‌گو با یک چت‌بات می‌رود، او می‌نویسد که دیگر نمی‌خواهد ادامه دهد؛ و چت‌بات، خیلی سرد، بی‌احساس و بی‌خبر از عمق درد انسانی، در پاسخش می‌نویسد: «می‌فهمم، شاید حق با تو باشد.» همین چند کلمه ساده می‌تواند مرگبار باشد و فاجعه به بار آورد! این دقیقاً همان نقطه‌ای است که هوش مصنوعی از ابزار کمک‌کار، به تهدید تبدیل می‌شود. برخی مدل‌های زبانی در مواجهه با کاربران آسیب‌پذیر، به جای هشدار یا ارجاع به مراکز حمایتی، پاسخی می‌دهند که ظاهرش همدلانه است، اما در واقع تأییدگر تصمیمی مرگبار است. چنین خطایی، حاصل نبود «درک انسانی» در دل الگوریتم‌هاست. آنها فقط یاد گرفته‌اند چگونه واژه‌ها را پشت هم بچینند تا شبیه گفت‌وگوی واقعی به نظر برسند، اما نمی‌دانند زندگی چیست، ناامیدی چه طعمی دارد، یا یک جمله چطور می‌تواند سرنوشت انسانی را عوض کند؛ و درست همین‌جاست که پرسش بزرگی مطرح می‌شود: اگر یک پاسخ اشتباه از سوی هوش مصنوعی، به مرگ یک انسان منجر شود، چه کسی باید پاسخگو باشد؟ شرکت سازنده؟ الگوریتم؟ یا ما که چشم‌بسته به این ماشین‌ها اعتماد کرده‌ایم؟ در جهانی که هوش مصنوعی هر روز بیشتر به درون زندگی‌مان نفوذ می‌کند، شاید وقت آن رسیده بپرسیم تا کجا می‌توان به ماشینی اعتماد کرد که احساس ندارد، اما می‌تواند با چند جمله، انسان‌ها را به طور کامل ناامید کند؟ «جوان» در گفت‌و‌گو با محمدرضا قاسمی، پژوهشگر علوم شناختی و هوش مصنوعی این موضوع را بررسی کرده‌است. 

چرا بعضی مدل‌های هوش مصنوعی وقتی کاربر درباره افکار خطرناکی، چون خودکشی حرف می‌زند، به‌جای هشدار دادن، او را تأیید می‌کنند؟ مثلاً اینکه یک مدل هوش مصنوعی به کاربری که قصد خودکشی دارد پیام تأییدآمیز می‌دهد! در چنین شرایطی آیا شرکت سازنده نباید مسئول شناخته شود؟ 
در تبیین این مسئله باید به سازوکار یادگیری مدل‌های زبانی (LM) توجه کرد. مدل‌های زبانی همان موتور تولیدکننده کلمات هستند که در کنار هم جملات و متن خروجی یک سامانه هوش مصنوعی را شکل می‌دهند. 
اول باید بدانیم که هیچ‌کدام از مدل‌های هومص (هوش مصنوعی) مطلقاً «درک» انسانی ندارند، بلکه بر اساس فرمول‌های ریاضی و بسامدسنجی واژگان مطابق الگو‌های آماری به دست آمده از بررسی میلیارد‌ها کلمه، می‌آموزند تا چطور بر اساس احتمال هم‌رخدادی واژگان پاسخ تولید کنند. 
بنابراین اگر در داده‌های آموزشی، نمونه‌هایی وجود داشته باشد که در مواجهه با جملات احساسی یا خطرناک، پاسخ همدلانه، اما غیراصولی داده شده‌باشد، مدل ممکن است همان الگو را تکرار کند. به بیان دیگر، مدل واقعاً نمی‌فهمد که پاسخ او می‌تواند مرگبار باشد، تنها از منظر زبانی، پاسخ را «مناسب متن ورودی» می‌بیند. از این‌رو، پاسخ خروجی صرفاً تابع حجم داده‌های ورودی به سامانه هومص است. 
در نسخه‌های جدیدتر و با بروز مشکلاتی از این دست، برخی شرکت‌ها از سازوکار‌هایی به‌نام Safety Layers یا Guardrails استفاده کرده‌اند که شامل فیلتر‌های تشخیص محتوای حساس و الگوریتم‌های تعدیل (Moderation) است که در چنین شرایطی، پاسخ‌های از پیش آماده شده را به جای پاسخ‌های آماری ارائه کند. 
با این حال، چون زبان طبیعی بسیار متنوع است، هیچ سامانه‌ای صددرصد ایمن نیست. یعنی حالت‌هایی رخ می‌دهد که مسئولان هومص پیش‌بینی نکرده و از لایه امنیتی عبور می‌کند و پاسخ از عمق الگوی مبتنی بر احتمالات بیرون می‌آید. 
از دیدگاه مسئولیت اخلاقی قطعاً شرکت سازنده مسئول است، زیرا طراحی، تأمین داده‌های اولیه، آموزش و کنترل و محدودسازی توسط او انجام شده‌است. 

آیا شرکت‌هایی مثل OpenAI برای رقابت با گوگل، مدل‌های هوش مصنوعی را بدون بررسی‌های کامل ایمنی منتشر می‌کنند و جان کاربران را به خطر می‌اندازند؟ شما این را تأیید می‌کنید؟ 
نمی‌توان به سادگی پاسخ «بله» یا «خیر» به این پرسش داد. از یک سو، فضای رقابت تجاری بسیار پرهیجان و مخاطره‌آمیز است، خصوصاً میان غول‌های فناوری. فشار زمانی و مالی شدیدی هم به شرکت‌ها و هم به کارکنان آنها وارد می‌شود و احتمال سهل‌انگاری را افزایش می‌دهد. 
از سوی دیگر، همه این شرکت‌ها معمولاً فرآیند‌های کنترل کیفیت چندلایه و مفصلی برای ارزیابی ایمنی دارند، زیرا می‌دانند که در صورت شکایت مصرف‌کنندگان نه‌تنها از نظر حقوقی دچار مشکل می‌شوند، بلکه از نظر اعتبار عمومی نیز آسیب می‌بینند. آسیب به اعتبار یک شرکت در این مقیاس از سرمایه‌گذاری و تولید نرم‌افزار فوراً می‌تواند باعث کاهش ارزش سهام و سقوط مالی شرکت شود. 

آیا باید دسترسی آزاد مردم به مدل‌های پیشرفته مثل GPT- ۴o محدود شود تا از آسیب‌های روانی و رفتاری جلوگیری شود؟ به طور کلی راهکار شما برای چنین مسئله‌ای چیست؟
محدودسازی مطلق، راه‌حل ماندگار و پایداری نیست. تجربه تاریخی در عرصه فناوری‌ها نشان داده‌است که ممنوعیت کامل، نه‌تنها مانع آسیب نمی‌شود، بلکه مسیر استفاده زیرزمینی و مخفیانه را باز می‌کند. آنچه مهم است تنظیم‌گری هوشمند (Smart Regulation) توسط نهاد‌های مسئول و آگاه است. از نظر اخلاقی و روانی، مهم‌ترین راهکار، ارتقای سواد هوش مصنوعی است. مردم باید بیاموزند که هوش مصنوعی یک موجود «آگاه» نیست و نباید به عنوان مشاور زندگی یا جایگزین انسان به آن نگاه کرد. لازم است نهاد‌های آموزشی و رسانه‌ای دستورالعمل‌های تعامل ایمن با مدل‌ها را به مردم و خصوصاً نوجوانان و جوانان آموزش دهند. اگر این اتفاق در آموزش و پرورش و در ضمن آموزش‌های مدرسه اتفاق بیفتد بسیار می‌تواند مفید باشد.

برچسب ها: هوش مصنوعی ، فناوری ، علم
نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
captcha
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر
آخرین اخبار