مهدی طریقت: آییننامه جدید دولتی با عنوان «راهنمای پژوهش با هوش مصنوعی» بدون تکیه بر معیارهای دقیق، اسناد بالادستی ملی و جهانی و تجربیات عملی تدوین شدهاست؛ جامعه علمی کشور نباید نسبت به عواقب چنین سیاستهایی بیتفاوت باشد جوان آنلاین: در حالی که هوش مصنوعی روزبهروز جایگاه مهمتری در پژوهشهای علمی پیدا میکند، آییننامه تازه «راهنمای پژوهش با هوش مصنوعی» که به تصویب وزارت علوم رسیدهاست، میتواند نقطه عطفی در مسیر علمی کشور باشد، اما آیا این چارچوب واقعاً مسیر نوآوری را هموار میسازد یا کمبود تخصص و بیتوجهی به استانداردهای علمی، پژوهشگران را به مسیر اشتباه میکشاند؟ «جوان» در گفتوگو با دکتر مهدی طریقت، رئیس اندیشکده و پردیس هوش مصنوعی، این سؤالات را مورد بررسی قرار دادهاست. دکتر طریقت با انتقاد از نبود متخصصان مرتبط با هوش مصنوعی در بین تدوینکنندگان آییننامه، هشدار میدهد که این سند میتواند به جای تسهیل پژوهش، مانع پیشرفت علمی شود و بر اهمیت رعایت استانداردهای بینالمللی، امنیت دادهها و اخلاق در استفاده از هوش مصنوعی تأکید میکند. در ادامه مشروح این گفتوگو آمدهاست.
وقتی صحبت از قانونگذاری در حوزه هوش مصنوعی میشود، بسیاری از فعالان علمی و پژوهشی نگران تأثیرات آن هستند. آیا سند «راهنمای پژوهش با هوش مصنوعی» تنها یک راهنما برای استفاده از این ابزارها در پژوهشها است، یا تأثیرات عمیقتری بر آینده علمی کشور خواهد گذاشت؟
این سند تنها یک راهنما برای استفاده از ابزارهای هوش مصنوعی نیست؛ بلکه نقطه شروعی برای قانونگذاری در این حوزه است و آینده پژوهش و تولیدات علمی کشور را شکل میدهد. اگر این ریلگذاری بر پایههایی سست و ناآگاهانه بنا شود، چگونه میتوان انتظار داشت قطار علم و فناوری به مقصدی روشن برسد؟! بنابراین، این سند میتواند تأثیرات گستردهای بر روند پیشرفت علمی کشور داشته باشد. لکن متأسفانه، در حال حاضر در تدوین این سند، ضعفهای بسیاری کاملاً مشهود است.
بهعنوان کسی که سالها در مرز میان هوش مصنوعی، پژوهش و حقوقتحصیلات، مطالعات و پژوهشهای فراوانی کردم و حتی قوانین سایر کشورها را در ارتباط با هوش مصنوعی و پژوهش بررسی کردهام، به جامعه علمی کشور عرض میکنم که نباید نسبت به عواقب چنین سیاستهایی بیتفاوت ماند. کوچکترین لغزش در تدوین مقررات در این حوزه میتواند فضای علمی و پژوهشی را برای نسلهای آتی محدود یا حتی مسموم کند. اساتید و پژوهشگران محترم پیش از آنکه دیر شود، بدانند در کدام مسیر قرار گرفتهایم و چگونه میتوان از آینده علمی کشور محافظت کرد.
میتوانید به طور مشخصتر بگویید کدام بخشها برای شما نگرانکننده هستند و چرا؟
یکی از جدیترین نگرانیها درباره این آییننامه به ترکیب تیم تدوینکنندگان آن بازمیگردد. بررسی پیشینه علمی اعضای هیئت تدوین این سند نشان میدهد که بخش قابلتوجهی از آنها از حوزههایی وارد این فرآیند شدهاند که به رغم اهمیت مستقل، ارتباط مستقیم و تخصصی با هوش مصنوعی و علوم داده ندارند. حضور کارشناسانی از رشتههایی مانند شیمی، زیستشناسی، مهندسی برق یا مهندسی صنایع، در شرایطی که این حوزهها تجربه عمیق در طراحی مدلهای یادگیری ماشین یا تحلیل دادههای پیچیده ندارند، بهطور طبیعی پرسشبرانگیز است. نگرانی زمانی جدیتر میشود که مشاهده میکنیم حتی یک متخصص هوش مصنوعی، علوم داده یا یادگیری ماشینی در میان تدوینکنندگان این سند حضور ندارد.
در کنار این خلأ فنی، نبود متخصصان حقوق فناوری نیز مسئلهای اساسی است. تدوین هر متن الزامآور در حوزه فناوری مستلزم مشارکت حقوقدانانی است که با ابعاد قانونی فناوریهای نوین، از جمله مسئولیتپذیری الگوریتمی، حفاظت داده و آثار اجتماعی مقررهگذاری آشنا باشند؛ حال آنکه چنین تخصصی در فهرست تدوینکنندگان این آییننامه دیده نمیشود.
البته هیچکدام از این حوزههای علمی به خودی خود کماهمیت نیستند، اما پیچیدگیهای فنی، مفهومی، حقوقی و اجتماعی هوش مصنوعی ایجاب میکند که تدوین چنین اسنادی با مشارکت متخصصانی در حوزههایی نظیر یادگیری ماشین، علوم داده، فلسفه علم، اخلاق فناوری و حقوق مرتبط انجام شود. صرف آشنایی عملی با ابزارهای هوش مصنوعی نمیتواند جایگزین تخصص عمیق در مباحث بنیادین این حوزه باشد.
در واقع میخواهید بگویید که نبود تخصص کافی در تیم تدوین باعث میشود که این سند نتواند بهدرستی پیچیدگیهای هوش مصنوعی را درک کند و ممکن است به مشکلات جدی منجر شود. درست است؟
همینطور است. هوش مصنوعی ضمن آنکه یک رشته تخصصی و علمی نوین محسوب میشود، شامل جوانب بینرشتهای نیز میباشد، که نیاز به همکاری میان علوم مختلف مرتبط دارد. باید توجه داشته باشیم که این تنها یک فناوری نیست، بلکه تأثیرات گستردهای در اجتماع، اقتصاد و فرهنگ و حتی اخلاق دارد. برای مثال، مفاهیم پیچیدهای مانند الگوریتمهای یادگیری ماشین، شفافیت الگوریتمها، حریم خصوصی دادهها، و تأثیرات اجتماعی و حقوقی آنها باید با دقت و عمیقتر بررسی شوند. وقتی این نکات در تدوین یک سند قانونی یا اجرایی نادیده گرفته میشوند، نتیجه آن میتواند یک سیاست غلط و غیرکاربردی باشد.
روندهای بینالمللی، چه در گزارشهای OECD درباره حکمرانی هوش مصنوعی و چه در توصیهنامه اخلاقی یونسکو درباره AI تأکید میکنند که هر سند الزامآور در حوزه هوش مصنوعی باید توسط مجموعهای از متخصصان چندرشتهای شامل پژوهشگران یادگیری ماشین، متخصصان علوم داده، حقوقدانان فناوری، جامعهشناسان علم و صاحبان تخصص و تجربه در ارزیابی ریسک تدوین شود. در غیاب چنین ترکیبی، کاملاً مشخص است که سند نهایی برخی ابعاد حیاتی را نادیده بگذارد؛ از مسائل فنی مرتبط با شفافیت و ریسکسنجی مدلها گرفته تا پیامدهای حقوقی و اجتماعی استفاده از این فناوریها. این همان دغدغهای است که جامعه علمی کشور بر آن تأکید میکند.
این سند، با شعار «توانمندسازی نه محدودسازی» آغاز میشود، به نظر شما این شعار عملی است؟
این شعار، که به نظر میرسد مثبت و انگیزشی باشد، به نظر من با وجود این سند در عمل ممکن است دچار مشکلاتی شود.
به عنوان یک اصل کلی، شعار توانمندسازی قطعاً در مسیر درستی قرار دارد و همه ما میخواهیم که استفاده از هوش مصنوعی بتواند به پژوهشگران کمک و مسیر نوآوری و پیشرفت علمی را هموار کند، اما وقتی که این سند را دقیقتر بررسی میکنیم، متوجه میشویم که پشت این شعار، مقرراتی ضعیف و غیرعلمی قرار دارند که میتوانند عملاً باعث محدود شدن وحتی انحراف پژوهشها شوند.
در بسیاری از بخشها، بهویژه در زمینه تعاریف و چارچوبهای اجرایی، شفافیت لازم وجود ندارد. به طور مثال، در بخشهایی که مفاهیمی مثل «هوش مصنوعی عمومی» یا «یادگیری ماشین» تعریف شدهاند، این تعاریف خیلی مبهم و غیرعلمی هستند. این نوع تعاریف بیشتر به توضیحات لغوی شبیه هستند تا تعاریف دقیق و اجرایی که بتوانند بهطور مؤثر در فرآیندهای قانونی و پژوهشی مورد استفاده قرار گیرند. این کمبود دقت در تعاریف میتواند در آینده مشکلاتی ایجاد کند، چون عدم وضوح باعث سردرگمی خواهد شد و ممکن است، مسیر تحقیقاتی پژوهشگران را محدود کند.
این کمبود شفافیت در تعاریف آییننامه، چه مشکلاتی را ایجاد میکند؟
یکی از پیامدهای اساسی نبود شفافیت در تعاریف این آییننامه، فقدان تمایز دقیق میان انواع مختلف تعاریف مرتبط با هوش مصنوعی است. در بخش تعاریف، سند تلاش میکند مفاهیمی، چون هوش مصنوعی، یادگیری ماشین، یادگیری عمیق، پردازش زبان طبیعی و حتی اصطلاح مبهم «هوش مصنوعی عمومی» را توضیح دهد، اما این تعاریف بیشتر به توضیح لغوی شبیه است تا تعریف حقوقی و اجرایی. در تعریف هوش مصنوعی، سند صرفاً به این نکته اشاره میکند که AI عمومی میتواند اقداماتی انجام دهد که تا پیش از این فقط توسط انسان امکانپذیر بود و انواعی از اصطلاحات مانند سیستمهای یادگیری ماشین و یادگیری عمیق را برمیشمرد، اما ملاک مشخصی برای تشخیص حد و مرز AI و تمایز بین انواع سیستمها ارائه نمیشود. از این گذشته، سند اصطلاح «هوش مصنوعی عمومی» را تعریف کرده، اما رابطه آن با «هوش مصنوعی مولد»، «سیستمهای آزاد» یا «مدلهای زبانی بزرگ» مشخص نشدهاست؛ این ابهام موجب میشود که مجریان نتوانند در عمل تشخیص دهند که کدام ابزار تحت کدام مقرره قرار میگیرد که همین امر عواقب وثمرات حقوقی به دنبال دارد. نبود دستهبندی مبتنی بر ریسک (که درحال حاضر در مقررات اتحادیه اروپا و بسیاری از چارچوبهای بینالمللی وجود دارد و برای این موارد درنظر گرفته شدهاست)، باعث میشود همان مقررات برای موارد کمخطر و پرخطر اعمال شود و نتیجه آن سردرگمی و اعمال محدودیتهای غیرضروری در پژوهش است.
با توجه به اینکه در این سند ریسکها به درستی دستهبندی نشده، چگونه میتوان اطمینان حاصل کرد که ابزارهای پرخطر به درستی نظارت میشوند و دادهها در امنیت کامل باقی میمانند؟
یک از مشکلات اساسی سند، نبود طبقهبندی ریسک برای ابزارهای هوشمصنوعی است. در استانداردهای بینالمللی، سیستمهای هوشمصنوعی توسط حاکمیت، بر اساس میزان ریسک دستهبندی میشوند و هر دسته، مقررات خاص خود را دارد، اما این سند، هیچ تقسیمبندی ریسکی ندارد. نتیجه آن است که ابزارهای کمخطر، بیشازحد محدود میشوند و ابزارهای پرخطر، بدون نظارت یا باکمترین سطح نظارت باقی میمانند. در قوانین اتحادیه اروپا و اصول OECD، سیستمهای پرخطر مانند تصمیمگیری در آموزش یا استخدام، تحت ارزیابی دقیق قرار میگیرند، در حالی که ابزارهای کمخطر تنها نیازمند شفافسازی هستند.
علاوه بر این، سازوکار تأیید ونظارت بر ابزارها در سند بسیار ضعیف است. درسطح بینالمللی، تأیید شامل بررسی امنیت سایبری، شفافیت مدلها و انتشار گزارشهای نظارتی است، اما این سند هیچ اشارهای به چنین فرآیندهایی ندارد. همچنین مکانیزمی برای دریافت بازخورد کاربران و بهروزرسانی مستمر ابزارها پیشبینی نشدهاست، که میتواند زمینهساز فساد و برخورد سلیقهای باشد ونظارت را غیرقابل اعتماد سازد.
آیا در این سند به مسئله مسئولیتپذیری در استفاده از هوش مصنوعی توجه شدهاست؟
متأسفانه این سند به مسئولیتپذیری در استفاده از هوشمصنوعی، شفاف و جامع نپرداخته است. در تصمیمگیریهای حساس مانند داوری مقالات، تنها داور یا ویراستار مسئول شناخته میشوند، اما هیچ سازوکار اجرایی برای پاسخگویی یا جبران خسارت وجود ندارد. در حالی که مسئولیتپذیری باید زنجیرهای روشن شامل کاربران، تولیدکنندگان وتوسعهدهندگان باشد، در این سند توسعهدهندگان ابزارها هیچ مسئولیتی ندارند. در نظامهای حقوقی پیشرفته، بخشی از مسئولیت متوجه تولیدکننده است وقوانین ایمنی محصول، شامل هوش مصنوعی نیز میشود. همچنین، سازوکار اعتراض و جبران خسارت برای پژوهشگران در صورت خطای سیستم پیشبینی نشدهاست، که میتواند برای پژوهشگران، مشکلات جدی ایجاد کند.
شما چه پیشنهادی برای ارتقای امنیت دادهها و نظارت بر ابزارهای هوش مصنوعی در این آییننامه دارید؟
به نظرم اولین قدم این است که باید یک کمیته مستقل برای ارزیابی و تأیید امنیت ابزارهای هوش مصنوعی ایجاد شود. این کمیته باید از کارشناسان امنیت سایبری، حقوق دیجیتال، و فناوریهای نوین تشکیل شود تا بتوانند ابزارها را از جنبههای مختلف امنیتی، حریم خصوصی و شفافیت الگوریتمی بررسی کنند. بدون چنین سازوکاری، پژوهشگران نمیتوانند بهطور قطعی اعتماد کنند که ابزارهای مورد استفادهشان از استانداردهای امنیتی و حریم خصوصی لازم برخوردارند. نباید مسئولیت ارزیابی امنیت و ریسک ابزارهای هوش مصنوعی را صرفاً برعهده پژهشگر یا کاربر گذاشت در حالی که اساساً او قدرت و تخصص لازم برای سنجش و ارزیابی ندارد. افزون بر این، وجود یک نظام نظارتی دائمی ضرورت دارد تا اطمینان حاصل شود ابزارهای هوش مصنوعی در گذر زمان همچنان امن و قابل اعتماد باقی میمانند، امری که این سند باید با وضوح بیشتری به آن بپردازد. در کنار امنیت داده، مسئله اخلاق در هوش مصنوعی نیز در پژوهشهای علمی اهمیت جدی دارد، اما در این سند نادیده ماندهاست. الگوریتمها میتوانند بر تصمیمگیریها و سیاستگذاریها اثر بگذارند. این چالشها نشان میدهد که تدوین مقررات مرتبط با هوش مصنوعی باید همراه با توجه دقیق به پیامدهای کامل آن باشد و چارچوبهای روشنی برای استفاده درست از این ابزارها فراهم کند تا پژوهشگران در کنار بهرهگیری از توان فناوری، نسبت به مسئولیتهای آن نیز آگاه و متعهد باقی بمانند.
آیا استانداردهای بینالمللی در تدوین این سند درنظر گرفته شدهاست؟
متأسفانه این سند بدون تکیه بر معیارهای دقیق، اسناد بالادستی ملی و جهانی و تجربیات عملی تدوین شدهاست. این بیتوجهی به استانداردهای بینالمللی مانند اصول پنجگانه OECD (که شامل رشد فراگیر و پایدار، احترام به حقوق بشر و ارزشهای دموکراتیک، شفافیت و قابلتوضیح بودن، امنیت و پایداری، و مسئولیتپذیری است) و توصیهنامههای یونسکو درباره رعایت حقوق بشر، عدالت و حفاظت از محیطزیست، به معنای نادیده گرفتن شفافیت، مسئولیتپذیری و رعایت عدالت در استفاده از هوش مصنوعی است.
در استانداردهای جهانی معمولاً طبقهبندی ابزارها بر پایه اهداف و قابلیت توضیحپذیری و میزان مداخله انسانی صورت میگیرد و هر طبقه مقررات متفاوتی دارد؛ این نکته در این سند فراموش شدهاست. همینطور در استانداردهای اتحادیه اروپا و یونسکو، تأکید میشود که حذف نام و مکان به تنهایی برای حفاظت اطلاعات کافی نیست و باید از روشهای رمزنگاری و حذف ویژگیهای شناساییکننده بهره برد. همچنین این سند نسبت به حقوق مالکیت معنوی و ضرورت احترام به حق مؤلفان بیاعتناست؛ در حالی که ناشران بینالمللی بهطور جدی بر این موضوع تأکید میکنند. عدم وجود سازوکار کنترل دسترسی و ثبت فعالیتها برای دادههای حساس و محرمانه، در عمل میتواند منجر به سوءاستفاده از دادههای پژوهشگران و سوژههای انسانی شود. چنین رویکردی، بهجای ایجاد اعتماد و همگرایی، دلنگرانی و تردید را در دل جامعه علمی مینشاند و ضرورت بازنگری عمیق در این سند سرنوشتساز را برجسته میکند.
آیا این سند بهروزرسانی و تطبیق با پیشرفتهای سریع فناوری هوش مصنوعی را پیشبینی کردهاست؟
در حالی که این سند به بازنگری دورهای اشاره دارد، اما هیچ سازوکار مشخصی برای بهروزرسانی آن طبق تحولات سریع فناوریهای هوش مصنوعی در نظر گرفته نشدهاست. این مسئله میتواند باعث شود که این سند به سرعت منسوخ شود و از توانایی تطبیق با پیشرفتهای علمی و فناوری در این حوزه برخوردار نباشد. در حالی که فناوری AI با سرعتی سرسامآور تکامل مییابد، مدلهای جدید در بازه زمانی کوتاه منتشر میشوند و قابلیتهای آنها پیوسته در حال افزایش است. نبود یک سازوکار پویا و از پیش تعریف شده برای بهروزرسانی مقررات، تطبیق با فناوریهای جدید و جمعآوری بازخورد از اساتید دانشگاه و پژوهشگران باعث خواهد شد، که این سند ظرف مدت کوتاهی منسوخ شود. هر چند سند به بازنگری دورهای اشاره کردهاست، اما زمانبندی و نحوه انجام آن مشخص نیست و تجربه گذشته نشان دادهاست که اسناد مشابه سالها بدون اصلاح باقی میمانند. کما اینکه جامعه علمی و پژوهشی ایران سالهاست که در انتظار دیدن یک آییننامه (در ارتباط با هوش مصنوعی و پژوهش و آموزش) بودند و حالا که پس از سالها تعلل در انجام این وظیفه، این سند مملو از اشکال منتشر شد، خیال متولیان امر برای سالها راحت خواهد بود که یک سند بالادستی برای این منظور نگارش شدهاست.
چه پیشنهاداتی برای اصلاح این سند و رفع ضعفهای آن وجود دارد؟
برای رفع مشکلات موجود در آییننامه، نخستین اقدام ضروری این است که تیم تدوینکننده باید از متخصصان واقعی و متخصص در حوزههای مرتبط با هوش مصنوعی، علوم داده و حقوق فناوری تشکیل شود، نه افرادی که صرفاً با هوش مصنوعی آشنا هستند. این اقدام بهویژه برای اطمینان از دقت و جامعیت در تدوین مقررات ضروری است. تنها افراد با تخصصهای دقیق و بینرشتهای در این حوزه میتوانند ابعاد فنی، اخلاقی و قانونی هوش مصنوعی را به درستی درک کنند و مقرراتی مؤثر و معتبر تدوین کنند.
همچنین، تعاریف کلیدی مانند «هوش مصنوعی عمومی» و «هوش مصنوعی مولد» باید بهطور دقیق و علمی و با توجه به استانداردهای بینالمللی تعیین شوند. این مفاهیم باید بهگونهای روشن و اجرایی تعریف شوند تا از سوءتفاهم و تفسیرهای نادرست جلوگیری شود.
یکی از مسائل دیگر، نبود طبقهبندی ریسک برای ابزارهای هوش مصنوعی است. ابزارها باید بر اساس میزان خطرات بالقوهشان دستهبندی شوند. این طبقهبندی کمک میکند تا ابزارهای با ریسک بالا تحت نظارت و ارزیابی دقیقتری قرار گیرند و از اعمال مقررات یکسان برای تمامی ابزارها جلوگیری شود.
در کنار این، باید معیارهای شفاف و دقیقی برای تأیید ابزارهای هوش مصنوعی وجود داشته باشد. این معیارها باید شامل ارزیابیهای امنیتی، شفافیت الگوریتمی و حفاظت از دادهها باشد تا پژوهشگران با آرامش، مطمئن باشند که فقط از ابزارهای معتبر و امن استفاده میکنند.
همچنین، ارزیابی تأثیرات اخلاقی، حقوق بشری و زیستمحیطی باید برای هر پروژهای که از هوش مصنوعی استفاده میکند، ضروری باشد. این ارزیابیها باید بهطور شفاف و دقیق صورت گیرد تا اطمینان حاصل شود که استفاده از این فناوریها بهطور مسئولانه انجام میشود و هیچ آسیبی به جامعه یا محیطزیست وارد نمیشود.
توسعه مدلهای بومی و متنباز نیز باید در اولویت قرار گیرد. این اقدام علاوه بر کاهش وابستگی به ابزارهای خارجی، میتواند به افزایش امنیت و اعتماد بهدست آمده از این مدلها کمک کند. برای این منظور، حمایتهای دولتی و ایجاد برنامههای حمایتی برای توسعه این مدلها ضروری است.
در بخش آموزش، دورههای آموزشی باید برای پژوهشگران برگزار شود که نهتنها به آموزش استفاده از ابزارهای هوش مصنوعی بپردازد، بلکه بر سواد انتقادی، تشخیص سوگیریها و مسائل اخلاقی نیز تأکید داشته باشد. این آموزشها باید در راستای اصول عدم تبعیض و استانداردهای جهانی ارائه شوند.
ضمن آنکه، باید محدودیتهایی برای استفاده از هوش مصنوعی در تصمیمگیریهای حساس، مانند پذیرش دانشجو، اعطای بورسیه یا ارزیابی عملکرد، در نظر گرفته شود. این محدودیتها به حفظ مسئولیتپذیری انسانی کمک میکند و از تصمیمگیریهای غیرمنصفانه جلوگیری میکند. همچنین، برای جبران خسارات ناشی از خطاهای استفاده از هوش مصنوعی، باید سازوکارهای پاسخگویی و جبران خسارت وجود داشتهباشد.
اجرای این اصلاحات میتواند سند را به یک چارچوب مؤثر و جامع تبدیل کند که همزمان از خطرات هوش مصنوعی محافظت و امکان استفاده نوآورانه و مسئولانه از آن را برای پژوهشگران فراهم کند.