کد خبر: 1331816
تاریخ انتشار: ۰۹ آذر ۱۴۰۴ - ۲۳:۰۰
پیامد‌های یک تصمیم جدید در حوزه علم و فناوری در گفت‌وگوی «جوان» با رئیس اندیشکده و پردیس هوش مصنوعی
تهدید پژوهش با آیین‌نامه جدید هوش مصنوعی مهدی طریقت: آیین‌نامه جدید دولتی با عنوان «راهنمای پژوهش با هوش مصنوعی» بدون تکیه بر معیار‌های دقیق، اسناد بالادستی ملی و جهانی و تجربیات عملی تدوین شده‌است؛ جامعه علمی کشور نباید نسبت به عواقب چنین سیاست‌هایی بی‌تفاوت باشد
مهسا گربندی

جوان آنلاین: در حالی که هوش مصنوعی روزبه‌روز جایگاه مهم‌تری در پژوهش‌های علمی پیدا می‌کند، آیین‌نامه تازه «راهنمای پژوهش با هوش مصنوعی» که به تصویب وزارت علوم رسیده‌است، می‌تواند نقطه عطفی در مسیر علمی کشور باشد، اما آیا این چارچوب واقعاً مسیر نوآوری را هموار می‌سازد یا کمبود تخصص و بی‌توجهی به استاندارد‌های علمی، پژوهشگران را به مسیر اشتباه می‌کشاند؟ «جوان» در گفت‌و‌گو با دکتر مهدی طریقت، رئیس اندیشکده و پردیس هوش مصنوعی، این سؤالات را مورد بررسی قرار داده‌است. دکتر طریقت با انتقاد از نبود متخصصان مرتبط با هوش مصنوعی در بین تدوین‌کنندگان آیین‌نامه، هشدار می‌دهد که این سند می‌تواند به جای تسهیل پژوهش، مانع پیشرفت علمی شود و بر اهمیت رعایت استاندارد‌های بین‌المللی، امنیت داده‌ها و اخلاق در استفاده از هوش مصنوعی تأکید می‌کند. در ادامه مشروح این گفت‌و‌گو آمده‌است. 

 وقتی صحبت از قانون‌گذاری در حوزه هوش مصنوعی می‌شود، بسیاری از فعالان علمی و پژوهشی نگران تأثیرات آن هستند. آیا سند «راهنمای پژوهش با هوش مصنوعی» تنها یک راهنما برای استفاده از این ابزار‌ها در پژوهش‌ها است، یا تأثیرات عمیق‌تری بر آینده علمی کشور خواهد گذاشت؟ 
این سند تنها یک راهنما برای استفاده از ابزار‌های هوش مصنوعی نیست؛ بلکه نقطه شروعی برای قانون‌گذاری در این حوزه است و آینده پژوهش و تولیدات علمی کشور را شکل می‌دهد. اگر این ریل‌گذاری بر پایه‌هایی سست و ناآگاهانه بنا شود، چگونه می‌توان انتظار داشت قطار علم و فناوری به مقصدی روشن برسد؟! بنابراین، این سند می‌تواند تأثیرات گسترده‌ای بر روند پیشرفت علمی کشور داشته باشد. لکن متأسفانه، در حال حاضر در تدوین این سند، ضعف‌های بسیاری کاملاً مشهود است. 
به‌عنوان کسی که سال‌ها در مرز میان هوش مصنوعی، پژوهش و حقوق‌تحصیلات، مطالعات و پژوهش‌های فراوانی کردم و حتی قوانین سایر کشور‌ها را در ارتباط با هوش مصنوعی و پژوهش بررسی کرده‌ام، به جامعه علمی کشور عرض می‌کنم که نباید نسبت به عواقب چنین سیاست‌هایی بی‌تفاوت ماند. کوچک‌ترین لغزش در تدوین مقررات در این حوزه می‌تواند فضای علمی و پژوهشی را برای نسل‌های آتی محدود یا حتی مسموم کند. اساتید و پژوهشگران محترم پیش از آنکه دیر شود، بدانند در کدام مسیر قرار گرفته‌ایم و چگونه می‌توان از آینده علمی کشور محافظت کرد. 

 می‌توانید به طور مشخص‌تر بگویید کدام بخش‌ها برای شما نگران‌کننده هستند و چرا؟
یکی از جدی‌ترین نگرانی‌ها درباره این آیین‌نامه به ترکیب تیم تدوین‌کنندگان آن بازمی‌گردد. بررسی پیشینه علمی اعضای هیئت تدوین این سند نشان می‌دهد که بخش قابل‌توجهی از آنها از حوزه‌هایی وارد این فرآیند شده‌اند که به رغم اهمیت مستقل، ارتباط مستقیم و تخصصی با هوش مصنوعی و علوم داده ندارند. حضور کارشناسانی از رشته‌هایی مانند شیمی، زیست‌شناسی، مهندسی برق یا مهندسی صنایع، در شرایطی که این حوزه‌ها تجربه عمیق در طراحی مدل‌های یادگیری ماشین یا تحلیل داده‌های پیچیده ندارند، به‌طور طبیعی پرسش‌برانگیز است. نگرانی زمانی جدی‌تر می‌شود که مشاهده می‌کنیم حتی یک متخصص هوش مصنوعی، علوم داده یا یادگیری ماشینی در میان تدوین‌کنندگان این سند حضور ندارد. 
در کنار این خلأ فنی، نبود متخصصان حقوق فناوری نیز مسئله‌ای اساسی است. تدوین هر متن الزام‌آور در حوزه فناوری مستلزم مشارکت حقوق‌دانانی است که با ابعاد قانونی فناوری‌های نوین، از جمله مسئولیت‌پذیری الگوریتمی، حفاظت داده و آثار اجتماعی مقرره‌گذاری آشنا باشند؛ حال آنکه چنین تخصصی در فهرست تدوین‌کنندگان این آیین‌نامه دیده نمی‌شود. 
البته هیچ‌کدام از این حوزه‌های علمی به خودی خود کم‌اهمیت نیستند، اما پیچیدگی‌های فنی، مفهومی، حقوقی و اجتماعی هوش مصنوعی ایجاب می‌کند که تدوین چنین اسنادی با مشارکت متخصصانی در حوزه‌هایی نظیر یادگیری ماشین، علوم داده، فلسفه علم، اخلاق فناوری و حقوق مرتبط انجام شود. صرف آشنایی عملی با ابزار‌های هوش مصنوعی نمی‌تواند جایگزین تخصص عمیق در مباحث بنیادین این حوزه باشد. 

 در واقع می‌خواهید بگویید که نبود تخصص کافی در تیم تدوین باعث می‌شود که این سند نتواند به‌درستی پیچیدگی‌های هوش مصنوعی را درک کند و ممکن است به مشکلات جدی منجر شود. درست است؟
همینطور است. هوش مصنوعی ضمن آنکه یک رشته تخصصی و علمی نوین محسوب می‌شود، شامل جوانب بین‌رشته‌ای نیز می‌باشد، که نیاز به همکاری میان علوم مختلف مرتبط دارد. باید توجه داشته باشیم که این تنها یک فناوری نیست، بلکه تأثیرات گسترده‌ای در اجتماع، اقتصاد و فرهنگ و حتی اخلاق دارد. برای مثال، مفاهیم پیچیده‌ای مانند الگوریتم‌های یادگیری ماشین، شفافیت الگوریتم‌ها، حریم خصوصی داده‌ها، و تأثیرات اجتماعی و حقوقی آنها باید با دقت و عمیق‌تر بررسی شوند. وقتی این نکات در تدوین یک سند قانونی یا اجرایی نادیده گرفته می‌شوند، نتیجه آن می‌تواند یک سیاست غلط و غیرکاربردی باشد. 
روند‌های بین‌المللی، چه در گزارش‌های OECD درباره حکمرانی هوش مصنوعی و چه در توصیه‌نامه اخلاقی یونسکو درباره AI تأکید می‌کنند که هر سند الزام‌آور در حوزه هوش مصنوعی باید توسط مجموعه‌ای از متخصصان چندرشته‌ای شامل پژوهشگران یادگیری ماشین، متخصصان علوم داده، حقوقدانان فناوری، جامعه‌شناسان علم و صاحبان تخصص و تجربه در ارزیابی ریسک تدوین شود. در غیاب چنین ترکیبی، کاملاً مشخص است که سند نهایی برخی ابعاد حیاتی را نادیده بگذارد؛ از مسائل فنی مرتبط با شفافیت و ریسک‌سنجی مدل‌ها گرفته تا پیامد‌های حقوقی و اجتماعی استفاده از این فناوری‌ها. این همان دغدغه‌ای است که جامعه علمی کشور بر آن تأکید می‌کند. 

 این سند، با شعار «توانمندسازی نه محدودسازی» آغاز می‌شود، به نظر شما این شعار عملی است؟ 
این شعار، که به نظر می‌رسد مثبت و انگیزشی باشد، به نظر من با وجود این سند در عمل ممکن است دچار مشکلاتی شود. 
به عنوان یک اصل کلی، شعار توانمندسازی قطعاً در مسیر درستی قرار دارد و همه ما می‌خواهیم که استفاده از هوش مصنوعی بتواند به پژوهشگران کمک و مسیر نوآوری و پیشرفت علمی را هموار کند، اما وقتی که این سند را دقیق‌تر بررسی می‌کنیم، متوجه می‌شویم که پشت این شعار، مقرراتی ضعیف و غیرعلمی قرار دارند که می‌توانند عملاً باعث محدود شدن وحتی انحراف پژوهش‌ها شوند. 
در بسیاری از بخش‌ها، به‌ویژه در زمینه تعاریف و چارچوب‌های اجرایی، شفافیت لازم وجود ندارد. به طور مثال، در بخش‌هایی که مفاهیمی مثل «هوش مصنوعی عمومی» یا «یادگیری ماشین» تعریف شده‌اند، این تعاریف خیلی مبهم و غیرعلمی هستند. این نوع تعاریف بیشتر به توضیحات لغوی شبیه هستند تا تعاریف دقیق و اجرایی که بتوانند به‌طور مؤثر در فرآیند‌های قانونی و پژوهشی مورد استفاده قرار گیرند. این کمبود دقت در تعاریف می‌تواند در آینده مشکلاتی ایجاد کند، چون عدم وضوح باعث سردرگمی خواهد شد و ممکن است، مسیر تحقیقاتی پژوهشگران را محدود کند.

این کمبود شفافیت در تعاریف آیین‌نامه، چه مشکلاتی را ایجاد می‌کند؟
یکی از پیامد‌های اساسی نبود شفافیت در تعاریف این آیین‌نامه، فقدان تمایز دقیق میان انواع مختلف تعاریف مرتبط با هوش مصنوعی است. در بخش تعاریف، سند تلاش می‌کند مفاهیمی، چون هوش مصنوعی، یادگیری ماشین، یادگیری عمیق، پردازش زبان طبیعی و حتی اصطلاح مبهم «هوش مصنوعی عمومی» را توضیح دهد، اما این تعاریف بیشتر به توضیح لغوی شبیه است تا تعریف حقوقی و اجرایی. در تعریف هوش مصنوعی، سند صرفاً به این نکته اشاره می‌کند که AI عمومی می‌تواند اقداماتی انجام دهد که تا پیش از این فقط توسط انسان امکان‌پذیر بود و انواعی از اصطلاحات مانند سیستم‌های یادگیری ماشین و یادگیری عمیق را برمی‌شمرد، اما ملاک مشخصی برای تشخیص حد و مرز AI و تمایز بین انواع سیستم‌ها ارائه نمی‌شود. از این گذشته، سند اصطلاح «هوش مصنوعی عمومی» را تعریف کرده، اما رابطه آن با «هوش مصنوعی مولد»، «سیستم‌های آزاد» یا «مدل‌های زبانی بزرگ» مشخص نشده‌است؛ این ابهام موجب می‌شود که مجریان نتوانند در عمل تشخیص دهند که کدام ابزار تحت کدام مقرره قرار می‌گیرد که همین امر عواقب وثمرات حقوقی به دنبال دارد. نبود دسته‌بندی مبتنی بر ریسک (که درحال حاضر در مقررات اتحادیه اروپا و بسیاری از چارچوب‌های بین‌المللی وجود دارد و برای این موارد درنظر گرفته شده‌است)، باعث می‌شود همان مقررات برای موارد کم‌خطر و پرخطر اعمال شود و نتیجه آن سردرگمی و اعمال محدودیت‌های غیرضروری در پژوهش است. 

با توجه به اینکه در این سند ریسک‌ها به درستی دسته‌بندی نشده، چگونه می‌توان اطمینان حاصل کرد که ابزار‌های پرخطر به درستی نظارت می‌شوند و داده‌ها در امنیت کامل باقی می‌مانند؟
یک از مشکلات اساسی سند، نبود طبقه‌بندی ریسک برای ابزار‌های هوش‌مصنوعی است. در استاندارد‌های بین‌المللی، سیستم‌های هوش‌مصنوعی توسط حاکمیت، بر اساس میزان ریسک دسته‌بندی می‌شوند و هر دسته، مقررات خاص خود را دارد، اما این سند، هیچ تقسیم‌بندی ریسکی ندارد. نتیجه آن است که ابزار‌های کم‌خطر، بیش‌ازحد محدود می‌شوند و ابزار‌های پرخطر، بدون نظارت یا باکمترین سطح نظارت باقی می‌مانند. در قوانین اتحادیه اروپا و اصول OECD، سیستم‌های پرخطر مانند تصمیم‌گیری در آموزش یا استخدام، تحت ارزیابی دقیق قرار می‌گیرند، در حالی که ابزار‌های کم‌خطر تنها نیازمند شفاف‌سازی هستند. 
علاوه بر این، سازوکار تأیید ونظارت بر ابزار‌ها در سند بسیار ضعیف است. درسطح بین‌المللی، تأیید شامل بررسی امنیت سایبری، شفافیت مدل‌ها و انتشار گزارش‌های نظارتی است، اما این سند هیچ اشاره‌ای به چنین فرآیند‌هایی ندارد. همچنین مکانیزمی برای دریافت بازخورد کاربران و به‌روزرسانی مستمر ابزار‌ها پیش‌بینی نشده‌است، که می‌تواند زمینه‌ساز فساد و برخورد سلیقه‌ای باشد ونظارت را غیرقابل اعتماد سازد. 

آیا در این سند به مسئله مسئولیت‌پذیری در استفاده از هوش مصنوعی توجه شده‌است؟
متأسفانه این سند به مسئولیت‌پذیری در استفاده از هوش‌مصنوعی، شفاف و جامع نپرداخته است. در تصمیم‌گیری‌های حساس مانند داوری مقالات، تنها داور یا ویراستار مسئول شناخته می‌شوند، اما هیچ سازوکار اجرایی برای پاسخگویی یا جبران خسارت وجود ندارد. در حالی که مسئولیت‌پذیری باید زنجیره‌ای روشن شامل کاربران، تولیدکنندگان وتوسعه‌دهندگان باشد، در این سند توسعه‌دهندگان ابزار‌ها هیچ مسئولیتی ندارند. در نظام‌های حقوقی پیشرفته، بخشی از مسئولیت متوجه تولیدکننده است وقوانین ایمنی محصول، شامل هوش مصنوعی نیز می‌شود. همچنین، سازوکار اعتراض و جبران خسارت برای پژوهشگران در صورت خطای سیستم پیش‌بینی نشده‌است، که می‌تواند برای پژوهشگران، مشکلات جدی ایجاد کند. 

شما چه پیشنهادی برای ارتقای امنیت داده‌ها و نظارت بر ابزار‌های هوش مصنوعی در این آیین‌نامه دارید؟
به نظرم اولین قدم این است که باید یک کمیته مستقل برای ارزیابی و تأیید امنیت ابزار‌های هوش مصنوعی ایجاد شود. این کمیته باید از کارشناسان امنیت سایبری، حقوق دیجیتال، و فناوری‌های نوین تشکیل شود تا بتوانند ابزار‌ها را از جنبه‌های مختلف امنیتی، حریم خصوصی و شفافیت الگوریتمی بررسی کنند. بدون چنین سازوکاری، پژوهشگران نمی‌توانند به‌طور قطعی اعتماد کنند که ابزار‌های مورد استفاده‌شان از استاندارد‌های امنیتی و حریم خصوصی لازم برخوردارند. نباید مسئولیت ارزیابی امنیت و ریسک ابزار‌های هوش مصنوعی را صرفاً برعهده پژهشگر یا کاربر گذاشت در حالی که اساساً او قدرت و تخصص لازم برای سنجش و ارزیابی ندارد. افزون بر این، وجود یک نظام نظارتی دائمی ضرورت دارد تا اطمینان حاصل شود ابزار‌های هوش مصنوعی در گذر زمان همچنان امن و قابل اعتماد باقی می‌مانند، امری که این سند باید با وضوح بیشتری به آن بپردازد. در کنار امنیت داده، مسئله اخلاق در هوش مصنوعی نیز در پژوهش‌های علمی اهمیت جدی دارد، اما در این سند نادیده مانده‌است. الگوریتم‌ها می‌توانند بر تصمیم‌گیری‌ها و سیاست‌گذاری‌ها اثر بگذارند. این چالش‌ها نشان می‌دهد که تدوین مقررات مرتبط با هوش مصنوعی باید همراه با توجه دقیق به پیامد‌های کامل آن باشد و چارچوب‌های روشنی برای استفاده درست از این ابزار‌ها فراهم کند تا پژوهشگران در کنار بهره‌گیری از توان فناوری، نسبت به مسئولیت‌های آن نیز آگاه و متعهد باقی بمانند. 

آیا استاندارد‌های بین‌المللی در تدوین این سند درنظر گرفته شده‌است؟
متأسفانه این سند بدون تکیه بر معیار‌های دقیق، اسناد بالادستی ملی و جهانی و تجربیات عملی تدوین شده‌است. این بی‌توجهی به استاندارد‌های بین‌المللی مانند اصول پنج‌گانه OECD (که شامل رشد فراگیر و پایدار، احترام به حقوق بشر و ارزش‌های دموکراتیک، شفافیت و قابل‌توضیح بودن، امنیت و پایداری، و مسئولیت‌پذیری است) و توصیه‌نامه‌های یونسکو درباره رعایت حقوق بشر، عدالت و حفاظت از محیط‌زیست، به معنای نادیده گرفتن شفافیت، مسئولیت‌پذیری و رعایت عدالت در استفاده از هوش مصنوعی است. 
در استاندارد‌های جهانی معمولاً طبقه‌بندی ابزار‌ها بر پایه اهداف و قابلیت توضیح‌پذیری و میزان مداخله انسانی صورت می‌گیرد و هر طبقه مقررات متفاوتی دارد؛ این نکته در این سند فراموش شده‌است. همینطور در استاندارد‌های اتحادیه اروپا و یونسکو، تأکید می‌شود که حذف نام و مکان به تنهایی برای حفاظت اطلاعات کافی نیست و باید از روش‌های رمزنگاری و حذف ویژگی‌های شناسایی‌کننده بهره برد. همچنین این سند نسبت به حقوق مالکیت معنوی و ضرورت احترام به حق مؤلفان بی‌اعتناست؛ در حالی که ناشران بین‌المللی به‌طور جدی بر این موضوع تأکید می‌کنند. عدم وجود سازوکار کنترل دسترسی و ثبت فعالیت‌ها برای داده‌های حساس و محرمانه، در عمل می‌تواند منجر به سوءاستفاده از داده‌های پژوهشگران و سوژه‌های انسانی شود. چنین رویکردی، به‌جای ایجاد اعتماد و همگرایی، دل‌نگرانی و تردید را در دل جامعه علمی می‌نشاند و ضرورت بازنگری عمیق در این سند سرنوشت‌ساز را برجسته می‌کند. 

آیا این سند به‌روزرسانی و تطبیق با پیشرفت‌های سریع فناوری هوش مصنوعی را پیش‌بینی کرده‌است؟
در حالی که این سند به بازنگری دوره‌ای اشاره دارد، اما هیچ سازوکار مشخصی برای به‌روزرسانی آن طبق تحولات سریع فناوری‌های هوش مصنوعی در نظر گرفته نشده‌است. این مسئله می‌تواند باعث شود که این سند به سرعت منسوخ شود و از توانایی تطبیق با پیشرفت‌های علمی و فناوری در این حوزه برخوردار نباشد. در حالی که فناوری AI با سرعتی سرسام‌آور تکامل می‌یابد، مدل‌های جدید در بازه زمانی کوتاه منتشر می‌شوند و قابلیت‌های آنها پیوسته در حال افزایش است. نبود یک سازوکار پویا و از پیش تعریف شده برای به‌روزرسانی مقررات، تطبیق با فناوری‌های جدید و جمع‌آوری بازخورد از اساتید دانشگاه و پژوهشگران باعث خواهد شد، که این سند ظرف مدت کوتاهی منسوخ شود. هر چند سند به بازنگری دوره‌ای اشاره کرده‌است، اما زمان‌بندی و نحوه انجام آن مشخص نیست و تجربه گذشته نشان داده‌است که اسناد مشابه سال‌ها بدون اصلاح باقی می‌مانند. کما اینکه جامعه علمی و پژوهشی ایران سال‌هاست که در انتظار دیدن یک آیین‌نامه (در ارتباط با هوش مصنوعی و پژوهش و آموزش) بودند و حالا که پس از سال‌ها تعلل در انجام این وظیفه، این سند مملو از اشکال منتشر شد، خیال متولیان امر برای سال‌ها راحت خواهد بود که یک سند بالادستی برای این منظور نگارش شده‌است. 

چه پیشنهاداتی برای اصلاح این سند و رفع ضعف‌های آن وجود دارد؟
برای رفع مشکلات موجود در آیین‌نامه، نخستین اقدام ضروری این است که تیم تدوین‌کننده باید از متخصصان واقعی و متخصص در حوزه‌های مرتبط با هوش مصنوعی، علوم داده و حقوق فناوری تشکیل شود، نه افرادی که صرفاً با هوش مصنوعی آشنا هستند. این اقدام به‌ویژه برای اطمینان از دقت و جامعیت در تدوین مقررات ضروری است. تنها افراد با تخصص‌های دقیق و بین‌رشته‌ای در این حوزه می‌توانند ابعاد فنی، اخلاقی و قانونی هوش مصنوعی را به درستی درک کنند و مقرراتی مؤثر و معتبر تدوین کنند. 
همچنین، تعاریف کلیدی مانند «هوش مصنوعی عمومی» و «هوش مصنوعی مولد» باید به‌طور دقیق و علمی و با توجه به استاندارد‌های بین‌المللی تعیین شوند. این مفاهیم باید به‌گونه‌ای روشن و اجرایی تعریف شوند تا از سوءتفاهم و تفسیر‌های نادرست جلوگیری شود. 
یکی از مسائل دیگر، نبود طبقه‌بندی ریسک برای ابزار‌های هوش مصنوعی است. ابزار‌ها باید بر اساس میزان خطرات بالقوه‌شان دسته‌بندی شوند. این طبقه‌بندی کمک می‌کند تا ابزار‌های با ریسک بالا تحت نظارت و ارزیابی دقیق‌تری قرار گیرند و از اعمال مقررات یکسان برای تمامی ابزار‌ها جلوگیری شود. 
در کنار این، باید معیار‌های شفاف و دقیقی برای تأیید ابزار‌های هوش مصنوعی وجود داشته باشد. این معیار‌ها باید شامل ارزیابی‌های امنیتی، شفافیت الگوریتمی و حفاظت از داده‌ها باشد تا پژوهشگران با آرامش، مطمئن باشند که فقط از ابزار‌های معتبر و امن استفاده می‌کنند. 
همچنین، ارزیابی تأثیرات اخلاقی، حقوق بشری و زیست‌محیطی باید برای هر پروژه‌ای که از هوش مصنوعی استفاده می‌کند، ضروری باشد. این ارزیابی‌ها باید به‌طور شفاف و دقیق صورت گیرد تا اطمینان حاصل شود که استفاده از این فناوری‌ها به‌طور مسئولانه انجام می‌شود و هیچ آسیبی به جامعه یا محیط‌زیست وارد نمی‌شود. 
توسعه مدل‌های بومی و متن‌باز نیز باید در اولویت قرار گیرد. این اقدام علاوه بر کاهش وابستگی به ابزار‌های خارجی، می‌تواند به افزایش امنیت و اعتماد به‌دست آمده از این مدل‌ها کمک کند. برای این منظور، حمایت‌های دولتی و ایجاد برنامه‌های حمایتی برای توسعه این مدل‌ها ضروری است. 
در بخش آموزش، دوره‌های آموزشی باید برای پژوهشگران برگزار شود که نه‌تنها به آموزش استفاده از ابزار‌های هوش مصنوعی بپردازد، بلکه بر سواد انتقادی، تشخیص سوگیری‌ها و مسائل اخلاقی نیز تأکید داشته باشد. این آموزش‌ها باید در راستای اصول عدم تبعیض و استاندارد‌های جهانی ارائه شوند. 
ضمن آنکه، باید محدودیت‌هایی برای استفاده از هوش مصنوعی در تصمیم‌گیری‌های حساس، مانند پذیرش دانشجو، اعطای بورسیه یا ارزیابی عملکرد، در نظر گرفته شود. این محدودیت‌ها به حفظ مسئولیت‌پذیری انسانی کمک می‌کند و از تصمیم‌گیری‌های غیرمنصفانه جلوگیری می‌کند. همچنین، برای جبران خسارات ناشی از خطا‌های استفاده از هوش مصنوعی، باید سازوکار‌های پاسخگویی و جبران خسارت وجود داشته‌باشد. 
اجرای این اصلاحات می‌تواند سند را به یک چارچوب مؤثر و جامع تبدیل کند که همزمان از خطرات هوش مصنوعی محافظت و امکان استفاده نوآورانه و مسئولانه از آن را برای پژوهشگران فراهم کند.

برچسب ها: هوش مصنوعی ، فناوری ، علم
نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
captcha
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر
آخرین اخبار