کد خبر: 976627
تاریخ انتشار: ۱۸ آبان ۱۳۹۸ - ۱۵:۳۷
هنری کیسینجر:
وزیر خارجه اسبق آمریکا و یکی از استراتژیست های برجسته این کشور در سخنرانی روز سه شنبه خود در واشنگتن در مورد تغییرات ناشی از استفاده از هوش مصنوعی در دنیا سخن گفت.
سرویس دانش‌ودانشگاه جوان آنلاین: به گزارش گیزمودو، هنری کیسینجر، وزیر خارجه اسبق آمریکا در سخنرانی روز سه شنبه خود در واشنگتن گفت: متقاعد شده که هوش مصنوعی از پتانسیل لازم برای تغییر اساسی آگاهی انسان برخوردار است و درک انسان از خود و نحوه تصمیم گیری‌های استراتژیک اشخاص را متحول می‌کند. وی توسعه دهندگان هوش مصنوعی را سرزنش کرد و گفت که آن‌ها به اندازه کافی در مورد پیامد‌های تولیداتشان فکر نمی‌کنند.

کیسینجر ۹۶ ساله در کنفرانس قدرت از طریق نوآوری در واشنگتن سخن می‌گفت که توسط کمیته هوش مصنوعی کنگره با هدف ارزیابی آینده هوش مصنوعی در امریکا و جایگاه آن به منظور تامین امنیت ملی ایالات متحده برگزار شده بود.

کیسینجر در این مورد گفت: من به مقوله هوش مصنوعی به عنوان یک فرد فنی نمی‌نگرم و دغدغه من مربوط به جنبه‌های تاریخی، فلسفی و استراتژیک آن است.

وی تاثیرگذاری هوش مصنوعی را مشابه تاثیر ناشی از آغاز عصر روشنگری و رنسانس در غرب دانست و افزود: هوش مصنوعی به شکلی تغییر ناپذیر شیوه تعامل انسان‌ها و ماشین‌ها را تغییر می‌دهد و این تغییر لزوما به معنای بهتر شدن این تعامل نخواهد بود. البته من ضد هوش مصنوعی نیستم و این ابزار ممکن است بتواند ما را نجات دهد.

مشاور اسبق امنیت ملی آمریکا تصریح کرد: هوش مصنوعی ماهیت استراتژی و جنگ را تغییر می‌دهد، ولی هنوز بسیاری از تصمیم گیران و فعالان این عرصه به هوش مصنوعی تنها به مثابه یک نقطه عزیمت فنی جدید می‌نگرند. آن‌ها هنوز نفهمیده اند که هوش مصنوعی برداشت فلسفی ما را از جهان متحول می‌کند و به طور اساسی بر درک انسان تاثیر می‌گذارد.

کیسینجر با اظهار نگرانی در مورد پیامد‌های کاربرد هوش مصنوعی در عرصه نظامی گفت: ممکن است دیپلماسی در آینده دیگر نتواند برای متوقف کردن نظامی گری مبتنی بر هوش مصنوعی کارآیی داشته باشد. ماهیت مخفی و به سرعت متحول شونده هوش مصنوعی بدان معناست که بازیگران دولتی نمی‌توانند آن را به عنوان یک تهدید قطعی مانند تسلیحات هسته‌ای بر روی میز گذاشته و در موردش مذاکره کنند.

وی افزود: در حال حرکت به حوزه‌ای هستیم که با توانایی‌های خارق العاده‌ای مواجه خواهیم شد و دشمن نمی‌تواند به سرعت دریابد که تهدید از کجا فرا می‌رسد. همین سردرگمی می‌تواند به هرج و مرج در میدان نبرد یا اشتباه یک کشور در شناسایی منبع حمله منجر شود و لذا هوش مصنوعی خطر جنگ هسته‌ای را افزایش می‌دهد؛ لذا ما باید در مورد ماهیت پدیده کنترل تسلیحاتی و کاربرد آن در آینده از نو فکر کنیم.

کیسینجر با اشاره به سیستم‌های هوش مصنوعی گوگل که به عنوان مثال می‌توانند هر انسانی را در بازی شطرنج شکست دهند، گفت: ما باید درک کنیم که چنین تحولاتی در مقیاس بزرگتر چه معانی دارد و باید در زمینه تولید مخلوقاتی که توان درک ندارند، مطالعه کنیم. ما در جامعه خود هنوز در این زمینه آگاهی نداریم.

او پیش بینی کرد که الگوریتم‌های هوش مصنوعی روزی به عنوان بخشی از فرایند تصمیم گیری نظامی به کار گرفته می‌شوند. اما برنامه ریزان استراتژیک باید این موضوع را در بازی‌های جنگی و حتی در موقعیت‌های واقعی از قبل آزمایش کنند تا میزان کارآیی آن مشخص شود و ما دریابیم که آیا ما از پس استفاده از چنین الگوریتم‌هایی برمی آییم و پیامد‌های آن چیست.

وی شرایط فعلی جهان را به شرایط قبل از آغاز جنگ اول جهانی تشبیه کرد که در نهایت مجموعه‌ای از رویداد‌های به نظر منطقی پیامد‌هایی پیش بینی نشده و ناخواسته را به وجود آورد و جنگ آغاز شد. وی گفت: اگر پیامد‌های فناوری‌ها و از جمله ظرفیت‌های عاطفی و احساسی انسان‌ها را برای مدیریت پیامد‌های غیرقابل پیش بینی فناوری ها، مورد توجه قرار ندهید، در حوزه استراتژیک هم شکست می‌خورید. هنوز مشخص نیست بازیگران دولتی چگونه قادر به اعمال دیپلماسی در شرایطی خواهند بود که از طرز فکر طرف مقابل مطمئن نیستند یا حتی قادر به ارائه تضمین به آن طرف نمی‌باشند. زمانی که با استفاده از هوش مصنوعی سلاح‌های پرقدرت می‌سازیم باید به طور جدی به این موضوع فکر کنیم که چگونه می‌خواهیم در مورد آن‌ها گفتگو کنیم و چگونه می‌خواهیم برای استفاده از آن‌ها خویشتن داری پیشه کنیم؟

کیسینجر تاکید کرد: در این شرایط سلاح شما به شریک شما مبدل می‌شود و اگر این سلاح برای انجام وظیفه‌ای خاص طراحی شود، شما چگونه می‌توانید آن را تحت شرایطی خاص متحول و دستکاری کنید. باید به این سوالات پاسخداد. هوش مصنوعی چالش فلسفی آینده ماست، زیرا ما با اشیای هوشمندی تعامل خواهیم کرد که قبلا هرگز تصورش را هم نداشتیم و محدودیت‌های ما نیز بسیار وسیع است.
منبع: مهـــر
نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر