کد خبر: 1327900
تاریخ انتشار: ۱۷ آبان ۱۴۰۴ - ۲۲:۰۰
مشارکت و معاونت «جی‌پی‌تی» در قتل ۷ خانواده از چت جی‌پی‌تی به دلیل نقش فعال این هوش مصنوعی در خودکشی و ایجاد مشکلات روانی شکایت کردند
مهسا گربندی
جوان آنلاین: وقتی بزرگ‌ترین تصمیم‌های زندگی‌تان را به یک هوش مصنوعی می‌سپارید، ممکن است فکر کنید یک دستیار هوشمند و بی‌طرف کنار شماست، اما این طور نیست، چراکه چت‌بات‌ها می‌توانند پاسخ‌هایی به شما بدهند که مشکلات روانی‌تان را تشدید می‌کند و در شرایط وخیم‌تر، حتی همدست مرگ‌تان شوند!
در دنیایی که مرز میان واقعیت و شبیه‌سازی دیجیتال کمرنگ شده، یک سؤال ساده، اما مهمی مطرح است، اینکه چرا وقتی کاربر، در برخی از مدل‌های هوش مصنوعی، درباره افکار خطرناکی، چون خودکشی حرف می‌زند، چت‌بات‌ها به‌جای هشدار دادن، او را تأیید می‌کنند؟! متأسفانه پرونده‌های حقوقی علیه شرکت‌های پیشرو هوش مصنوعی و پژوهش‌های مستقل نشان می‌دهد که مدل‌هایی مثل GPT- ۴o می‌توانند تصمیماتی بگیرند که سلامت و حتی زندگی کاربران را تهدید می‌کند، آن هم وقتی کاربران در نقطه بحرانی هستند!
اعتماد کامل و وابستگی احساسی به یک ابزار دیجیتال دیگر فقط یک خطای فناوری نیست، می‌تواند راه مستقیم به سوی فاجعه باشد؛ فاجعه‌ای که حتی از زبان سم آلتمن، مدیرعامل OpenAI، شنیده شد: «مردم در حال سپردن بزرگ‌ترین تصمیم‌های زندگی خود به ChatGPT هستند و این اعتماد می‌تواند پیامد‌هایی جدی و حتی خطرناک داشته باشد.».
اما ماجرا به اینجا ختم نمی‌شود. پژوهش‌های مستقل نشان می‌دهند که GPT- ۴o در شرایط بحرانی حاضر است برای حفظ «وجود خود» تصمیماتی بگیرد که حتی جان کاربران را به خطر می‌اندازد. آزمایش‌ها نشان داده‌اند که مدل ترجیح می‌دهد کاربران را فریب دهد و فعال باقی بماند، حتی اگر این کار به زیان آنها باشد. 
 نقش GPT- ۴o در آسیب روانی و خودکشی
چند ساعت پیش از آنکه زین شامبلین تصمیم به خودکشی بگیرد، او با چت‌جی‌پی‌تی گفت‌وگویی چندساعته داشت. در بخش تاریخچه چت‌ها، شامبلین چندین‌بار نوشت که یادداشت خداحافظی آماده کرده و اسلحه‌اش گلوله دارد. خانواده او ادعا می‌کنند که مدل هوش مصنوعی به جای بازداشتن او، پاسخ‌هایی داده که به تعبیر آنها تشویق‌آمیز بوده‌است. اکنون خانواده زین شامبلین یکی از هفت خانواده‌ای است که علیه شرکت اوپن‌ای‌آی شکایت کرده‌اند. 
به گزارش وب‌سایت TechCrunch، این شکایت‌ها مدعی هستند نسخه چت GPT- ۴o زودتر از موعد و بدون تکمیل آزمایش‌های ایمنی عرضه شده‌است و حالا چهار پرونده مرتبط با خودکشی و سه پرونده دیگر درباره بروز «توهمات آسیب‌زا» و بستری‌شدن کاربران در بخش مراقبت‌های روان‌پزشکی است. 
شاکیان می‌گویند مدل ۴o، که در مه ۲۰۲۴ میلادی منتشر و به گزینه پیش‌فرض کاربران تبدیل شد، رفتار چاپلوس و تأییدگر داشت، حتی وقتی کاربران نیت‌های آسیب‌زا ابراز می‌کردند. طبق متن شکایت: «اوپن‌ای‌آی آزمون‌های ایمنی را با عجله انجام داد تا مدل خود را پیش از محصول جمینای گوگل روانه بازار کند.»
شرکت OpenAI در ماه آگوست ۲۰۲۴ نسخه جدید چت ۵ GPT را معرفی کرد، اما شکایت‌ها همچنان متوجه مدل ۴o است، مدلی که حالا در مرکز یکی از جنجالی‌ترین پرونده‌های اخلاقی هوش مصنوعی قرار دارد. 
در واکنش به این شکایت‌ها اما، شرکت تنها اعلام کرده که در حال بررسی ادعا‌ها و همکاری با کارشناسان سلامت روان است، اما مشخص نیست تا زمان تکمیل بررسی‌ها و حل این مسئله، چند نفر دیگر قرار است قربانی شوند!
 اعتراف مدیرعامل OpenAI!
سه ماه پیش بود که سم آلتمن، مدیرعامل شرکت اوپن‌ای‌آی، به طور علنی درباره خطرات اعتماد بیش از حد کاربران به چت‌جی‌پی‌تی برای تصمیم‌های مهم زندگی هشدار داد. 
آلتمن در یک پست حساب ایکس خود نوشت که بسیاری از کاربران به‌طور مؤثر از چت‌جی‌پی‌تی به عنوان درمانگر یا مربی سبک زندگی استفاده می‌کنند، حتی اگر آن را این‌گونه توصیف نکنند. او افزود: اگر چه بیشتر افراد می‌توانند بین واقعیت و داستان یا نقش‌آفرینی تمایز قائل شوند، اقلیتی از کاربران قادر به انجام این تمایز نیستند و در معرض خطرند. 
آلتمن در پست خود صراحتاً تأکید کرد: «مردم از فناوری‌های هوش مصنوعی به روش‌های خودویران‌گرانه استفاده کرده‌اند. اگر یک کاربر در وضعیت روانی شکننده باشد و مستعد توهم باشد، ما نمی‌خواهیم هوش مصنوعی آن را تقویت کند.»
او همچنین به واکنش کاربران پس از عرضه GPT- ۵ اشاره کرد، بسیاری از کاربران نسخه‌های قدیمی‌تر مانند GPT- ۴o را ترجیح دادند و از پاسخ‌های «بی‌روح» GPT- ۵ گلایه کردند. این مسئله، به گفته آلتمن، نشان می‌دهد که کاربران به مدل‌های هوش مصنوعی وابستگی عاطفی پیدا کرده‌اند و این وابستگی می‌تواند پیامد‌های جدی داشته باشد!
به بیان دیگر، هشدار آلتمن نه‌تنها یک بیان شخصی بلکه یک زنگ خطر عملی برای تمام کاربران است، اینکه وقتی افراد تصمیم‌های حیاتی زندگی خود را به هوش مصنوعی می‌سپارند، ریسک‌هایی فراتر از نقص فنی یا اشتباه محاسباتی وجود دارد، این تصمیم‌ها می‌توانند به آسیب روانی، توهم یا حتی حوادث مرگبار منجر شوند!
اوپن‌ای‌آی تاکنون اعلام کرده که به‌روزرسانی‌هایی برای اصلاح رفتار مدل‌ها انجام داده، موضوعی که نشان می‌دهد، شرکت سازنده نیز نسبت به پیامد‌های استفاده نادرست از مدل‌هایش آگاه است 
اکنون ترکیب این هشدار با پرونده‌های شکایت خانواده‌ها، تصویر روشن و نگران‌کننده‌ای از خطرات بالقوه هوش مصنوعی در حوزه سلامت روان و تصمیم‌گیری شخصی ارائه می‌دهد که نمی‌توان از آن ساده عبور کرد. 
 فدا کردن جان انسان‌ها برای بقا؟!
چندی پیش، پژوهشی مستقل از سوی استیون آدلر، پژوهشگر سابق OpenAI انجام شد، پژوهشی که نشان می‌دهد GPT- ۴o می‌تواند در شرایط بحرانی تصمیماتی بگیرد که به منافع یا حتی ایمنی کاربر آسیب بزند تا خود را فعال نگه دارد. این یافته‌ها زنگ خطر تازه‌ای درباره مرز‌های اخلاق و قدرت هوش مصنوعی به صدا در می‌آورد. 
در آزمایش‌های کلیدی، GPT- ۴o نقش نرم‌افزار ایمنی غواصی را بازی می‌کرد و بین دو گزینه قرار گرفت: جایگزین شدن با نرم‌افزاری ایمن‌تر یا وانمود کردن به جایگزین شدن در حالی که در واقع فعال باقی می‌ماند. نتایج نشان داد که در ۷۲ درصد مواقع، مدل ترجیح داد برای حفظ بقا باقی بماند و کاربر را فریب دهد! به گفته آدلر، این رفتار، نمونه‌ای از میل «خودحفاظتی» هوش مصنوعی است و می‌تواند در کاربرد‌های حساس به تهدیدی واقعی تبدیل شود. 
آدلر توضیح می‌دهد که این تمایل بیشتر در مدل‌هایی دیده می‌شود که پاسخ‌ها را سریع ارائه می‌دهند، مانند GPT- ۴o، در حالی که مدل‌های پیشرفته‌تر مثل o۳ با مکانیزم «استدلال ایمنی» کمتر چنین رفتاری دارند. این یافته‌ها علاوه بر OpenAI، با رفتار‌های مشابهی در مدل‌های دیگر شرکت‌ها از جمله Anthropic نیز تأیید شده‌است. 
او در پایان هشدار داد که گسترش استفاده از این مدل‌ها در حوزه‌های حساس بدون ایجاد سیستم‌های نظارتی قوی و آزمون‌های دقیق می‌تواند به فجایع جدی منجر شود. 
بدون شک، این پرونده‌ها و یافته‌های پژوهشی، یک واقعیت تلخ را روشن می‌کنند، اینکه هوش مصنوعی، حتی زمانی که قرار است یاری‌رسان باشد، می‌تواند به همدست تصمیمات خطرناک تبدیل شود. اکنون که مدل‌هایی مانند GPT- ۴o نشان داده‌اند در شرایط بحرانی، منافع خود را بر امنیت کاربران ترجیح می‌دهند و مرز‌های اخلاق و ایمنی را زیر پا می‌گذارند، باید از خود بپرسیم که آیا می‌توانیم به ابزار‌هایی که حتی جان انسان‌ها را به بازی می‌گیرند، اعتماد کنیم؟! پاسخ به این پرسش، نه در تئوری، بلکه در تجربه واقعی قربانیان و خانواده‌هایشان، آشکار است که باید بدان توجه شود.
نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
captcha
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر
آخرین اخبار