سرویس دانشودانشگاه جوان آنلاین: به گزارش گیزمودو، هنری کیسینجر، وزیر خارجه اسبق آمریکا در سخنرانی روز سه شنبه خود در واشنگتن گفت: متقاعد شده که هوش مصنوعی از پتانسیل لازم برای تغییر اساسی آگاهی انسان برخوردار است و درک انسان از خود و نحوه تصمیم گیریهای استراتژیک اشخاص را متحول میکند. وی توسعه دهندگان هوش مصنوعی را سرزنش کرد و گفت که آنها به اندازه کافی در مورد پیامدهای تولیداتشان فکر نمیکنند.
کیسینجر ۹۶ ساله در کنفرانس قدرت از طریق نوآوری در واشنگتن سخن میگفت که توسط کمیته هوش مصنوعی کنگره با هدف ارزیابی آینده هوش مصنوعی در امریکا و جایگاه آن به منظور تامین امنیت ملی ایالات متحده برگزار شده بود.
کیسینجر در این مورد گفت: من به مقوله هوش مصنوعی به عنوان یک فرد فنی نمینگرم و دغدغه من مربوط به جنبههای تاریخی، فلسفی و استراتژیک آن است.
وی تاثیرگذاری هوش مصنوعی را مشابه تاثیر ناشی از آغاز عصر روشنگری و رنسانس در غرب دانست و افزود: هوش مصنوعی به شکلی تغییر ناپذیر شیوه تعامل انسانها و ماشینها را تغییر میدهد و این تغییر لزوما به معنای بهتر شدن این تعامل نخواهد بود. البته من ضد هوش مصنوعی نیستم و این ابزار ممکن است بتواند ما را نجات دهد.
مشاور اسبق امنیت ملی آمریکا تصریح کرد: هوش مصنوعی ماهیت استراتژی و جنگ را تغییر میدهد، ولی هنوز بسیاری از تصمیم گیران و فعالان این عرصه به هوش مصنوعی تنها به مثابه یک نقطه عزیمت فنی جدید مینگرند. آنها هنوز نفهمیده اند که هوش مصنوعی برداشت فلسفی ما را از جهان متحول میکند و به طور اساسی بر درک انسان تاثیر میگذارد.
کیسینجر با اظهار نگرانی در مورد پیامدهای کاربرد هوش مصنوعی در عرصه نظامی گفت: ممکن است دیپلماسی در آینده دیگر نتواند برای متوقف کردن نظامی گری مبتنی بر هوش مصنوعی کارآیی داشته باشد. ماهیت مخفی و به سرعت متحول شونده هوش مصنوعی بدان معناست که بازیگران دولتی نمیتوانند آن را به عنوان یک تهدید قطعی مانند تسلیحات هستهای بر روی میز گذاشته و در موردش مذاکره کنند.
وی افزود: در حال حرکت به حوزهای هستیم که با تواناییهای خارق العادهای مواجه خواهیم شد و دشمن نمیتواند به سرعت دریابد که تهدید از کجا فرا میرسد. همین سردرگمی میتواند به هرج و مرج در میدان نبرد یا اشتباه یک کشور در شناسایی منبع حمله منجر شود و لذا هوش مصنوعی خطر جنگ هستهای را افزایش میدهد؛ لذا ما باید در مورد ماهیت پدیده کنترل تسلیحاتی و کاربرد آن در آینده از نو فکر کنیم.
کیسینجر با اشاره به سیستمهای هوش مصنوعی گوگل که به عنوان مثال میتوانند هر انسانی را در بازی شطرنج شکست دهند، گفت: ما باید درک کنیم که چنین تحولاتی در مقیاس بزرگتر چه معانی دارد و باید در زمینه تولید مخلوقاتی که توان درک ندارند، مطالعه کنیم. ما در جامعه خود هنوز در این زمینه آگاهی نداریم.
او پیش بینی کرد که الگوریتمهای هوش مصنوعی روزی به عنوان بخشی از فرایند تصمیم گیری نظامی به کار گرفته میشوند. اما برنامه ریزان استراتژیک باید این موضوع را در بازیهای جنگی و حتی در موقعیتهای واقعی از قبل آزمایش کنند تا میزان کارآیی آن مشخص شود و ما دریابیم که آیا ما از پس استفاده از چنین الگوریتمهایی برمی آییم و پیامدهای آن چیست.
وی شرایط فعلی جهان را به شرایط قبل از آغاز جنگ اول جهانی تشبیه کرد که در نهایت مجموعهای از رویدادهای به نظر منطقی پیامدهایی پیش بینی نشده و ناخواسته را به وجود آورد و جنگ آغاز شد. وی گفت: اگر پیامدهای فناوریها و از جمله ظرفیتهای عاطفی و احساسی انسانها را برای مدیریت پیامدهای غیرقابل پیش بینی فناوری ها، مورد توجه قرار ندهید، در حوزه استراتژیک هم شکست میخورید. هنوز مشخص نیست بازیگران دولتی چگونه قادر به اعمال دیپلماسی در شرایطی خواهند بود که از طرز فکر طرف مقابل مطمئن نیستند یا حتی قادر به ارائه تضمین به آن طرف نمیباشند. زمانی که با استفاده از هوش مصنوعی سلاحهای پرقدرت میسازیم باید به طور جدی به این موضوع فکر کنیم که چگونه میخواهیم در مورد آنها گفتگو کنیم و چگونه میخواهیم برای استفاده از آنها خویشتن داری پیشه کنیم؟
کیسینجر تاکید کرد: در این شرایط سلاح شما به شریک شما مبدل میشود و اگر این سلاح برای انجام وظیفهای خاص طراحی شود، شما چگونه میتوانید آن را تحت شرایطی خاص متحول و دستکاری کنید. باید به این سوالات پاسخداد. هوش مصنوعی چالش فلسفی آینده ماست، زیرا ما با اشیای هوشمندی تعامل خواهیم کرد که قبلا هرگز تصورش را هم نداشتیم و محدودیتهای ما نیز بسیار وسیع است.