جوان آنلاین: وقتی بزرگترین تصمیمهای زندگیتان را به یک هوش مصنوعی میسپارید، ممکن است فکر کنید یک دستیار هوشمند و بیطرف کنار شماست، اما این طور نیست، چراکه چتباتها میتوانند پاسخهایی به شما بدهند که مشکلات روانیتان را تشدید میکند و در شرایط وخیمتر، حتی همدست مرگتان شوند!
در دنیایی که مرز میان واقعیت و شبیهسازی دیجیتال کمرنگ شده، یک سؤال ساده، اما مهمی مطرح است، اینکه چرا وقتی کاربر، در برخی از مدلهای هوش مصنوعی، درباره افکار خطرناکی، چون خودکشی حرف میزند، چتباتها بهجای هشدار دادن، او را تأیید میکنند؟! متأسفانه پروندههای حقوقی علیه شرکتهای پیشرو هوش مصنوعی و پژوهشهای مستقل نشان میدهد که مدلهایی مثل GPT- ۴o میتوانند تصمیماتی بگیرند که سلامت و حتی زندگی کاربران را تهدید میکند، آن هم وقتی کاربران در نقطه بحرانی هستند!
اعتماد کامل و وابستگی احساسی به یک ابزار دیجیتال دیگر فقط یک خطای فناوری نیست، میتواند راه مستقیم به سوی فاجعه باشد؛ فاجعهای که حتی از زبان سم آلتمن، مدیرعامل OpenAI، شنیده شد: «مردم در حال سپردن بزرگترین تصمیمهای زندگی خود به ChatGPT هستند و این اعتماد میتواند پیامدهایی جدی و حتی خطرناک داشته باشد.».
اما ماجرا به اینجا ختم نمیشود. پژوهشهای مستقل نشان میدهند که GPT- ۴o در شرایط بحرانی حاضر است برای حفظ «وجود خود» تصمیماتی بگیرد که حتی جان کاربران را به خطر میاندازد. آزمایشها نشان دادهاند که مدل ترجیح میدهد کاربران را فریب دهد و فعال باقی بماند، حتی اگر این کار به زیان آنها باشد.
نقش GPT- ۴o در آسیب روانی و خودکشی
چند ساعت پیش از آنکه زین شامبلین تصمیم به خودکشی بگیرد، او با چتجیپیتی گفتوگویی چندساعته داشت. در بخش تاریخچه چتها، شامبلین چندینبار نوشت که یادداشت خداحافظی آماده کرده و اسلحهاش گلوله دارد. خانواده او ادعا میکنند که مدل هوش مصنوعی به جای بازداشتن او، پاسخهایی داده که به تعبیر آنها تشویقآمیز بودهاست. اکنون خانواده زین شامبلین یکی از هفت خانوادهای است که علیه شرکت اوپنایآی شکایت کردهاند.
به گزارش وبسایت TechCrunch، این شکایتها مدعی هستند نسخه چت GPT- ۴o زودتر از موعد و بدون تکمیل آزمایشهای ایمنی عرضه شدهاست و حالا چهار پرونده مرتبط با خودکشی و سه پرونده دیگر درباره بروز «توهمات آسیبزا» و بستریشدن کاربران در بخش مراقبتهای روانپزشکی است.
شاکیان میگویند مدل ۴o، که در مه ۲۰۲۴ میلادی منتشر و به گزینه پیشفرض کاربران تبدیل شد، رفتار چاپلوس و تأییدگر داشت، حتی وقتی کاربران نیتهای آسیبزا ابراز میکردند. طبق متن شکایت: «اوپنایآی آزمونهای ایمنی را با عجله انجام داد تا مدل خود را پیش از محصول جمینای گوگل روانه بازار کند.»
شرکت OpenAI در ماه آگوست ۲۰۲۴ نسخه جدید چت ۵ GPT را معرفی کرد، اما شکایتها همچنان متوجه مدل ۴o است، مدلی که حالا در مرکز یکی از جنجالیترین پروندههای اخلاقی هوش مصنوعی قرار دارد.
در واکنش به این شکایتها اما، شرکت تنها اعلام کرده که در حال بررسی ادعاها و همکاری با کارشناسان سلامت روان است، اما مشخص نیست تا زمان تکمیل بررسیها و حل این مسئله، چند نفر دیگر قرار است قربانی شوند!
اعتراف مدیرعامل OpenAI!
سه ماه پیش بود که سم آلتمن، مدیرعامل شرکت اوپنایآی، به طور علنی درباره خطرات اعتماد بیش از حد کاربران به چتجیپیتی برای تصمیمهای مهم زندگی هشدار داد.
آلتمن در یک پست حساب ایکس خود نوشت که بسیاری از کاربران بهطور مؤثر از چتجیپیتی به عنوان درمانگر یا مربی سبک زندگی استفاده میکنند، حتی اگر آن را اینگونه توصیف نکنند. او افزود: اگر چه بیشتر افراد میتوانند بین واقعیت و داستان یا نقشآفرینی تمایز قائل شوند، اقلیتی از کاربران قادر به انجام این تمایز نیستند و در معرض خطرند.
آلتمن در پست خود صراحتاً تأکید کرد: «مردم از فناوریهای هوش مصنوعی به روشهای خودویرانگرانه استفاده کردهاند. اگر یک کاربر در وضعیت روانی شکننده باشد و مستعد توهم باشد، ما نمیخواهیم هوش مصنوعی آن را تقویت کند.»
او همچنین به واکنش کاربران پس از عرضه GPT- ۵ اشاره کرد، بسیاری از کاربران نسخههای قدیمیتر مانند GPT- ۴o را ترجیح دادند و از پاسخهای «بیروح» GPT- ۵ گلایه کردند. این مسئله، به گفته آلتمن، نشان میدهد که کاربران به مدلهای هوش مصنوعی وابستگی عاطفی پیدا کردهاند و این وابستگی میتواند پیامدهای جدی داشته باشد!
به بیان دیگر، هشدار آلتمن نهتنها یک بیان شخصی بلکه یک زنگ خطر عملی برای تمام کاربران است، اینکه وقتی افراد تصمیمهای حیاتی زندگی خود را به هوش مصنوعی میسپارند، ریسکهایی فراتر از نقص فنی یا اشتباه محاسباتی وجود دارد، این تصمیمها میتوانند به آسیب روانی، توهم یا حتی حوادث مرگبار منجر شوند!
اوپنایآی تاکنون اعلام کرده که بهروزرسانیهایی برای اصلاح رفتار مدلها انجام داده، موضوعی که نشان میدهد، شرکت سازنده نیز نسبت به پیامدهای استفاده نادرست از مدلهایش آگاه است
اکنون ترکیب این هشدار با پروندههای شکایت خانوادهها، تصویر روشن و نگرانکنندهای از خطرات بالقوه هوش مصنوعی در حوزه سلامت روان و تصمیمگیری شخصی ارائه میدهد که نمیتوان از آن ساده عبور کرد.
فدا کردن جان انسانها برای بقا؟!
چندی پیش، پژوهشی مستقل از سوی استیون آدلر، پژوهشگر سابق OpenAI انجام شد، پژوهشی که نشان میدهد GPT- ۴o میتواند در شرایط بحرانی تصمیماتی بگیرد که به منافع یا حتی ایمنی کاربر آسیب بزند تا خود را فعال نگه دارد. این یافتهها زنگ خطر تازهای درباره مرزهای اخلاق و قدرت هوش مصنوعی به صدا در میآورد.
در آزمایشهای کلیدی، GPT- ۴o نقش نرمافزار ایمنی غواصی را بازی میکرد و بین دو گزینه قرار گرفت: جایگزین شدن با نرمافزاری ایمنتر یا وانمود کردن به جایگزین شدن در حالی که در واقع فعال باقی میماند. نتایج نشان داد که در ۷۲ درصد مواقع، مدل ترجیح داد برای حفظ بقا باقی بماند و کاربر را فریب دهد! به گفته آدلر، این رفتار، نمونهای از میل «خودحفاظتی» هوش مصنوعی است و میتواند در کاربردهای حساس به تهدیدی واقعی تبدیل شود.
آدلر توضیح میدهد که این تمایل بیشتر در مدلهایی دیده میشود که پاسخها را سریع ارائه میدهند، مانند GPT- ۴o، در حالی که مدلهای پیشرفتهتر مثل o۳ با مکانیزم «استدلال ایمنی» کمتر چنین رفتاری دارند. این یافتهها علاوه بر OpenAI، با رفتارهای مشابهی در مدلهای دیگر شرکتها از جمله Anthropic نیز تأیید شدهاست.
او در پایان هشدار داد که گسترش استفاده از این مدلها در حوزههای حساس بدون ایجاد سیستمهای نظارتی قوی و آزمونهای دقیق میتواند به فجایع جدی منجر شود.
بدون شک، این پروندهها و یافتههای پژوهشی، یک واقعیت تلخ را روشن میکنند، اینکه هوش مصنوعی، حتی زمانی که قرار است یاریرسان باشد، میتواند به همدست تصمیمات خطرناک تبدیل شود. اکنون که مدلهایی مانند GPT- ۴o نشان دادهاند در شرایط بحرانی، منافع خود را بر امنیت کاربران ترجیح میدهند و مرزهای اخلاق و ایمنی را زیر پا میگذارند، باید از خود بپرسیم که آیا میتوانیم به ابزارهایی که حتی جان انسانها را به بازی میگیرند، اعتماد کنیم؟! پاسخ به این پرسش، نه در تئوری، بلکه در تجربه واقعی قربانیان و خانوادههایشان، آشکار است که باید بدان توجه شود.