کد خبر: 1042018
تاریخ انتشار: ۲۶ اسفند ۱۳۹۹ - ۰۳:۰۰
آیا فناوری از آدم‌شناسی غریزی ما پیشی خواهد گرفت؟
این روز‌ها وقتی برای استخدام در شرکتی درخواست بدهید، احتمالاً همان ابتدا نامتان را در گوگل جست‌وجو می‌کنند. کارفرما‌ها اینستاگرام، توئیتر و شبکه‌های اجتماعی دیگری که در آن عضو هستید را نگاه می‌کنند و سابقه کاری و نحوه تعاملات با دیگران را ارزیابی می‌کنند، اما چند شرکت فناوری به چیزی بسیار فراتر از این اندیشیده‌اند: نرم‌افزار‌های جست‌وجوگر قدرتمندی که بتوانند تمام زندگی‌تان را برای کارفرما عیان کنند. آیا ممکن است روزی برسد که دیگر خودمان نتوانیم برای دیگران توضیح دهیم که چطور آدم‌هایی هستیم؟

سرویس سبک زندگی جوان آنلاین: اولین درسی که درباره خطرات اعتماد به غریبه‌ها آموختم به سال ۱۹۸۳ برمی‌گردد، تازه پنج سالم شده بود که زن ناشناسی وارد خانه‌مان شد. دوریس، زنی اهل گلاسگو و در آستانه ۳۰ سالگی که به تازگی پرستار ما شده بود. مادرم او را از مجله باکلاسی به نام د لیدی پیدا کرده بود. دوریس درحالی‌که کلاه مخصوص و یونیفرم یک انجمن خیریه مذهبی موسوم به سپاه رستگاری را به تن داشت از راه رسید. مادرم می‌گوید: «لهجه زمخت اسکاتلندی‌اش خاطرم است. به من گفت که قبلاً تجربه کار با بچه‌هایی در این سن و سال را داشته و، چون از کمک به مردم لذت می‌برد، عضو سپاه رستگاری شده است.

صادقانه بگویم، از همان نگاه اول به دلم نشست.» دوریس ۱۰ ماه با ما زندگی کرد. در کل پرستار خوبی بود؛ خوش‌رو، قابل‌اعتماد و دست به کمک. هیچ چیز غیرعادی‌ای در او وجود نداشت، البته به‌جز غیبت‌های بی‌دلیلش در بعضی از آخر هفته‌ها. همان موقع‌ها، همسایه‌مان، خانواده لوکزامبورگ، زن خدمتکاری داشتند که دوریس زمان زیادی را با او می‌گذراند. یک روز بعدازظهر، آقای لوکزامبورگ به خانه ما آمد و گفت که متوجه شده که خدمتکارشان با یک شبکه فروش موادمخدر در ارتباط است. «آن‌ها حتی در یک سرقت مسلحانه هم دست داشته‌اند.» پدرم بعد‌ها فهمید که «دوریس هم راننده فرارشان بود.» بعدتر کاشف به عمل آمد که برای ماشین فرار هم از وُلوو - استیشن خانوادگی ما استفاده کرده بودند. والدینم تصمیم گرفتند اتاق دوریس را بگردند. یک جعبه کفش زیرتختش پیدا کردند که پر بود از دسته‌های ارز خارجی که از دفتر کار خانگی والدینم دزدیده بود. پدرم تمام شب درحالی‌که کمی هم ترسیده بود، با یک چوب بیس‌بال پشت در کشیک می‌داد تا دوریس برگردد. شکر خدا هیچ‌وقت پیش ما برنگشت. مادرم می‌گوید: «حتی یادآوری این ماجرا هم حالم را بد می‌کند. من شما را به یک مجرم خطرناک سپرده بودم و خیلی طول کشید تا بفهمیم که او واقعاً کیست.» اگر به گذشته برمی‌گشتید چه کار می‌کردید؟ «ای کاش بیشتر درباره او تحقیق می‌کردم.» والدین من در کل آدم‌های منطقی و باهوشی بودند. آیا اگر امروز بود، باز هم آن‌ها در این دنیای به هم متصل دیجیتالی، آن اشتباه را مرتکب می‌شدند؟ احتمالاً نه. دسته جدید و روبه‌رشدی از شرکت‌های فناورانه هستند که قرار است به ما کمک کنند تا تصمیم بگیریم به چه‌کسی می‌توان و به چه‌کسی نمی‌توان اعتماد کرد: یک پرستار بچه را استخدام کنیم یا نه، خانه‌مان را به فردی اجاره بدهیم یا نه، یا سوار یک تاکسی بشویم یا نه. فناوری امروزه بیش از هر زمان دیگری می‌تواند تشخیص دهد که ما چگونه کسانی هستیم. آیا الگوریتمی هست که بتواند بهتر از ما تشخیص دهد که چه کسی آدم‌حسابی و چه کسی غیرقابل اعتماد است؟ در یک صبح سرد پاییزی، به دفترکار ساده شرکت ترولی در لوس‌آلتوس سری زدم. ساوی باوجا، مدیرعامل ترولی، درحالی‌که سعی داشت به من نشان دهد که این اعتمادسنج‌های جدید تا چه حد توانمند هستند، با لبخند ترغیب‌کننده‌ای گفت: «نظرت چیست که یک‌بار نرم‌افزار ترولی را روی خود تو اجرا کنیم تا ببینیم چه نشانمان می‌دهد؟»

همین‌طور که سرخ شده بودم، تمام کار‌های زشت یا شرم‌آوری را که تا به حال مرتکب شده بودم با خودم مرور کردم. جریمه‌های متعدد توقف ممنوع و سرعت غیرمجاز! وب‌سایت‌های ناجوری که در آن وقت گذرانده بودم (البته منظورم برای اهداف پژوهشی است!) یا عکس‌های قدیمی! خنده عصبی‌ام را که دید گفت: «نگران نباش. اگر بخواهی می‌توانیم برنامه را روی آن نمایشگر بزرگ بیندازیم تا مراحل کار را به‌طور همزمان ببینی.»

پیشنهادش خیلی هم اعتماد جلب کن نبود. آنیش داس سارما، معاون فنی ترولی و پژوهشگر ارشد سابق گوگل، نام و نام‌خانوادگی و سپس ایمیل من را در نرم‌افزاری به نام «اینستنت تراست» وارد کرد؛ و تمام. نه تاریخ تولد، نه شماره موبایل، نه شغل و نه نشانی. باوجا برایم توضیح داد: «الان نرم‌افزار یادگیری ماشینی، داده‌کاوی را روی سه منبع مختلف از داده‌های عمومی و مجوزدار انجام خواهد داد. در ابتدا، رکورد‌های عمومی مثل گواهی‌های تولد و ازدواج، فهرست افراد تحت تعقیب برای پولشویی و فهرست متجاوزان جنسی بررسی می‌شوند. ما به تمام اطلاعات ثبت شده سراسری که دسترسی عمومی داشته و دیجیتالی شده باشند، دسترسی داریم.» بعد از آن نوبت به یک خزنده فوق متمرکز می‌رسد که جست‌وجو در وب پنهان را برعهده دارد: «وب پنهان هم بخشی از اینترنت است، اما مخفی است و صفحات آن به‌وسیله موتور‌های جست‌وجوی عادی نمایه‌گذاری نمی‌شود.» پس چه کسی از آن استفاده می‌کند؟ «انجمن‌های نفرت‌پراکنی، پدوفیل‌ها و قاچاقچیان اسلحه. آن بخش از اینترنت، محل زندگی آدم‌های ناجور است.» آخرین منبع هم رسانه‌های اجتماعی مثل فیسبوک و اینستاگرام هستند. به رکورد‌های رسمی پزشکی هم دسترسی نداریم. با این حال، اگر در توئیتر بنویسید «عمل سختی روی کمرم انجام دادم»، این مورد هم از لحاظ قانونی داده مجاز تلقی شده و ما از آن استفاده می‌کنیم. باوجا و تیمش ۹ ماه را صرف سبک سنگین کردن داده‌های مختلف کردند تا تصمیم بگیرند کدامشان را باید و کدامشان را نباید به کار بگیرند. داده‌های مربوط به افراد زیر سن قانونی هم کنار گذاشته می‌شود. او می‌گوید: «در بعضی از کشور‌ها تفاوت میان اطلاعات «خصوصی» و اطلاعات «خصوصی حساس» در قانون مشخص شده است. این دومی مواردی، چون اطلاعات پزشکی، نژادی، مذهبی، عضویت در اتحادیه‌ها و مواردی از این دست را شامل می‌شود. ما به‌طور جدی حواسمان به این اطلاعات حساسیت‌برانگیز است و آن را خط قرمز خود می‌دانیم.» بعد از حدود ۳۰ ثانیه، نامه اعمال من آماده شد. «اینجا را ببین، تو یک شدی!» پرونده‌ها را از یک تا پنج رتبه‌دهی می‌کنند که یک به معنی قابل‌اعتماد‌ترین است. «فقط حدود ۱۵درصد از مردم یک می‌شوند. این‌ها «فوق خوب‌ها» هستند.» ترولی، برای محاسبه نمره اعتمادپذیری من، در کمتر از ۳۰ ثانیه بیش از ۳ میلیارد صفحه را از حدود ۸ هزار وب‌سایت زیر و رو کرد. داده‌ها در سه دسته گردآوری شدند. دسته اول که پایه‌ای‌ترین دسته است، هویت من را بررسی کرد. آیا من همانی هستم که ادعا می‌کنم؟ کار جالبی که برای این منظور انجام می‌دهند این است که مندرجات وب‌سایت شخصی‌ام را با پرونده دانشگاهی‌ام مقایسه می‌کنند. دسته دوم داده‌هایی است که فعالیت‌های غیرقانونی، پرخطر یا کلاهبرداری‌ها را غربال می‌کند، اما سومین دسته از همه جالب‌تر است. داده‌هایی که «سه‌گانه سیاه» را در من اندازه‌گیری می‌کنند، سه صفت شخصیتی سنگ‌دلانه که در افراد کلاهبردار دیده می‌شود: خودشیفتگی (خودخواهی به‌همراه ولع زیاد برای جلب‌توجه)، شخصیت ضداجتماعی (فقدان حس همدردی و عذاب وجدان) و ماکیاولیسم (زورگویی همراه با بی‌اخلاقی).


آیا ما باید از این الگوریتم‌های جدید استقبال کنیم؟ باوجا و شاپیرو مسئولتشان را درقبال تصمیم‌گیری‌های اخلاقی پذیرفته‌اند و آن‌ها را به کد‌های کامپیوتری تبدیل کرده‌اند. حاضریم چه میزان از داده‌های شخصیمان برای این منظور زیر و رو شود؟ و چقدر می‌توانیم با اینکه یک الگوریتم اجازه داشته باشد، درباره قابل‌اعتماد بودن آدم‌ها قضاوت کند، کنار بیاییم؟ اگر هنوز تصمیم‌گیری درباره اینکه به چه کسی می‌توان اعتماد کرد مسئله است، باید بدانیم که الان در جایگاه بهتری برای پرسیدن سؤال‌های درست و یافتن اطلاعات درست هستیم. به‌عبارت دیگر احتمالش خیلی کمتر است که یک موادفروش با سابقه سرقت از بانک را به‌جای پرستار بچه استخدام کنیم.


نقل و تلخیص از: ترجمان/ نوشته: ریچل باتسمن/ ترجمه: بابک حافظی
/ مرجع: گاردین

نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر
آخرین اخبار