چرا ترکیب اخبار جعلی و هوش مصنوعی خطرناک است؟
کد خبر: 1030219
لینک کوتاه: https://www.Javann.ir/004K0R
تاریخ انتشار: ۱۶ آذر ۱۳۹۹ - ۲۲:۱۴
دکتر مارک ون رایمنام عضو هیئت علمی مؤسسه تحقیقات بلاکچین کانادا
ما در زمان عجیبی زندگی می‌کنیم! چراکه به نظر می‌رسد اساساً همه چیز آن چیزی نیست که به نظر می‌رسد باید باشد! در این نوشتار بناست به یکی از همین چیز‌هایی که به نظر می‌رسد نباید اینطور باشد، می‌پردازم.

اخبار جعلی که هم به یکی از بزرگ‌ترین تهدید‌های دموکراسی و آزادی بیان بدل گشته‌است! به راستی چه چیزی اخبار جعلی را شکل می‌دهد و این چه مقدار مشکل بزرگی تلقی می‌شود؟ در این‌باره اختلاف‌نظر بسیاری وجود دارد و این خود یکی از موارد خطرناکی است که در نوع خود عجیب نیز به نظر می‌رسد.

هر روز اخبار جعلی بیشتر در حوزه‌های مختلف نشر داده می‌شود و به نظر می‌رسد دشوارترین کار، متوقف کردن همین انتشار باشد!

از زمان پیدایش مفهوم «اخبار جعلی (fake news)» فناوری نیز به مراتب پیشرفت شگرفی داشته و از این‌رو باید بیان داشت که هم اکنون با نمونه‌هایی از اخبار جعلی روبه‌رو هستیم که تا چندی پیش حتی قابل تصور نبود. بسی باعث ترس مضاعف است، دانستن آنکه Motherboard توانست یک بازطراح به نام «جعل عمیق (deepfakes)» را کشف کند و برای خود بدین وسیله سرگرمی بسازد که پیامد‌های وحشتناکی را می‌تواند به بار بیاورد. با استفاده از این فناوری که با کمک هوش مصنوعی برای همگان قابل دسترس است، می‌توان روی بدن بازیگران فیلم‌های پورن، از چهره هر شخصی که ادیتور بخواهد استفاده کرد. درست است که Reddit چند روز بعد از آن بخش جعل عمیق را تعطیل کرد و بسیاری از سایت‌های نمایش فیلم پورن نیز، نمایش این دسته از فیلم‌ها را ممنوع کردند، اما این فناوری ترسناک به صورت کامل از دسترس عمومی خارج نشد!

هماهنگ کردن صدا با تصویر (Lip- synced) جزو مواردی است که برای آن پیشتر دوره‌هایی برگزار می‌شد تا دوبلور‌ها بتوانند به صورت حرفه‌ای فعالیت کنند، اما این فناوری ترسناک به یاری محققان دانشگاه واشنگتن در سال ۲۰۱۷ دیگر می‌تواند فیلم‌هایی با صدا و تصویر هماهنگ به شما نمایش دهد؛ به این صورت که هر صدایی روی هر تصویری می‌تواند بنشیند و مخاطب متوجه تقلب صورت گرفته نخواهد‌شد! پس هر شخصی با استفاده از جعل عمیق می‌تواند فیلمی را ترکیب و منتشر کند و برای این کار نیازی نیست که اصلاً شخص مورد نظر جمله‌ای ادا یا در مکان خاصی حضور پیدا کند. Ovadya ارتشی از ربات‌های بسیار هوشمند با هوش مصنوعی را تجهیز می‌کند تا بتواند سره را از ناسره و به دیگر سخن واقعیت را از جعل تشخیص دهد و در گام نخست، این ربات‌ها برای خواندن نامه‌های مردمی به سناتور‌های ایالات‌متحده مورد استفاده قرار گرفت تا بتواند پیام‌هایی را که حقیقتاً توسط مردم نوشته شده‌است از پیام‌های جعلی جداکند. این ربات‌ها که قابلیت یادگیرندگی نیز دارند، هر چقدر بیشتر با مردم و داده‌ها آشنا بشوند بیشتر می‌توانند مؤثر عمل کنند. هر چند که همین ویژگی جزو نقاط ضعف این ربات‌ها نیز محسوب می‌شود، بدین شکل که با تقلید ربات‌ها از لحن صدای مردم، انکار چیزی که ننوشتند یا بیان نکردند نیز به مراتب دشوارتر خواهد شد.

اخبار جعلی عادی در حال حاضر خطرناک است و همانطور که در مورد Brexit و انتخابات ایالات متحده شاهد بودیم، می‌تواند بر انتخابات تأثیر بگذارد، اما اخبار جعلی که به هوش مصنوعی نیز تجهیز شده‌اند به مراتب خطرناک‌تر خواهند بود؛ چراکه تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر می‌شود.

دلایل بسیاری را نیز می‌توان برای این خطرناک بودن بیان داشت که مهم‌ترین آن‌ها عبارت است از:

۱. اطلاعات و اخبار معتبر و موثق برای اداره جامعه بسیار مهم است؛ چراکه یکی از عوامل پیشگیرانه تبدیل دموکراسی به دیکتاتوری با کنترل روی افراد قدرت نیز تلقی می‌شود. رسانه باید بتواند افراد را نسبت به عملکرد خود مسئول‌پذیر کند، ولی چنانچه نتواند تشخیص دهد که واقعیت چیست و جعل کدام است، انجام این وظیفه بسیار دشوار می‌شود. در نقطه مقابل نیز، دیکتاتور‌ها می‌توانند تمامی مخالفان خود را ساکت کنند و با استفاده از جعل عمیق منکر هر چیزی شوند. پس بسیار حائز اهمیت است که بدانیم چنانچه دیگر نتوانیم واقعیت را تشخیص دهیم وارد شرایط بسیار خطرناکی خواهیم شد.

۲. جعل عمیق علاوه بر آنکه تهدیدی برای دموکراسی است، عامل تهدیدی برای بازار‌های مالی و سرمایه نیز تلقی می‌شود؛ چراکه به سادگی می‌تواند روایت‌های ساختگی نسبت به شرکت‌ها ایجاد کرده و روی قیمت‌های بازار سهام تأثیر بگذارد. امری که هم اکنون نیز با استفاده از اخبار جعلی عادی شاهدش هستیم و می‌بینیم که با یک خبر چگونه بازار‌های مالی دچار تشنج می‌شوند.

۳. جدی‌ترین عامل نیز «بی‌علاقگی نسبت به واقعیت (Reality Apathy)» است که بر این اساس، مردم دیگر خسته‌شده و به اخبار هیچ‌توجهی نمی‌کنند؛ چراکه می‌دانند به هر حال بیشترین چیزی که مشاهده می‌کنند، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود.

به یقین با مشکلی بزرگ مواجه هستیم! و هرچه اخبار جعلی به همراه هوش مصنوعی پیشرفته‌تر شود، رفع این مشکل نیز به مراتب دشوارتر خواهد بود. از همین رو تنها کاری که می‌توان پیشنهاد داد این است که یک همت جمعی ایجاد شود و با عاملان برجسته جعل عمیق مقابله صورت پذیرد! چراکه بحران دیپ فیک، به قدری عظیم است که هرکسی با یک رایانه می‌تواند به انتشار انواع و اقسام اخبار جعلی بپردازد. با این وجود، اینگونه نیست که ما هیچ راه‌حلی نیز نداریم و چند مورد را می‌توان نام برد که یاریگر مناسبی برای حل مشکل اخبار جعلی مجهز به هوش مصنوعی هستند:

۱. ما باید با کمک هوش مصنوعی و جامعه با اخبار جعلی مجهز به هوش مصنوعی مقابله کنیم؛ همانطور که توانستیم با کمک یک همبستگی جهانی، اطلاعات قابل‌توجهی در ویکی پدیا منتشر کنیم، می‌توانیم با یاری جُستن از مردم و بهره‌مندی از فناوری، به مبارزه با جعل عمیق اقدام کنیم.

۲. باید یک نهاد حاکم جهانی برای قانون‌گذاری در خصوص هوش مصنوعی ایجاد شود؛ این نهاد می‌تواند توسط سازمان ملل تأسیس شود تا با سطح مدیریتی بالایی اداره شود. نسبت به این تأسیس البته می‌توان امیدوار و خوشبین بود؛ چراکه مؤسسه تحقیقات بین‌المللی جرم و عدالت سازمان ملل (UNICRI) نیز مرکز اطلاعات هوش مصنوعی و رباتیک را راه‌اندازی کرده که قرار است به عنوان یک مرکز بین‌المللی در امور مربوط به هوش مصنوعی و رباتیک خدمت کند. هر چند که این کافی نیست.

۳. باید اخلاق هوش مصنوعی بیش از پیش جدی گرفته‌شود! تا جایی که ضرورت دارد برنامه‌نویسان، دانشمندان علم داده و توسعه‌دهندگان هوش مصنوعی نوعی سوگند بقراط را به مانند پزشکان امضا کنند و در این راستا باید پیش از شروع فعالیت، به دوره‌هایی که به اخلاق هوش مصنوعی می‌پردازد، وارد شوند. دوره‌هایی که هم اکنون نیز به طور مشترک توسط دانشگاه هاروارد و مؤسسه فناوری ماساچوست در زمینه اخلاق و هوش مصنوعی برگزار می‌شود. نیک مبرهن است که صرفاً یک سوگند یا شرکت در دوره منجر به فساد و اخلاق‌گریزی نخواهد شد، اما حداقل یک مسیر درست به توسعه‌دهندگان نشان داده خواهد شد تا در نهایت آن‌ها بمانند و وجدانشان!

به عنوان پایان نوشتار لازم است ذکر شود که اگر به مشکلات هوش مصنوعی توجه نشود، به مراتب مقابله با آن دشوار‌تر و مشکلات نیز بسیار بیشتر خواهد شد. بنابراین مطلوب آن است که عوارض جانبی این فناوری درخشان هرچه زودتر برطرف شود و از یاد نبریم که استفاده مسئولانه از هوش مصنوعی می‌تواند به دموکراتیزه شدن یک جامعه کمک شایان‌توجهی کند.

* مترجم: سینا تفنگ چی، مدرس علوم ارتباطات دانشگاه پیام‌نور
نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
نام:
ایمیل:
* نظر:
پربازدید ها
عناوین پیشنهادی
آخرین اخبار