تحلیل دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهشهای علمی در ایران؛ مقایسه با استانداردهای بینالمللی
📝 در تاریخ ۲۹ شهریور ۱۴۰۴، «بنیاد ملی علم ایران (INSF)» نخستین نسخه از «دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهشهای علمی» را به تصویب رساند. این سند در قالب یک فایل PDF در وبسایت رسمی بنیاد قرار گرفت و قرار است هر شش ماه یکبار مورد بازبینی قرار گیرد.
🌐 https://insf.org/fa/news/1216
▪️ هدف اصلی از تدوین این دستورالعمل، تنظیم و هدایت استفاده از ابزارهای هوش مصنوعی در تمامی مراحل چرخه پژوهش — از طراحی پروپوزال و گردآوری داده تا نگارش و داوری علمی — با حفظ اصول اخلاقی و استانداردهای علمی اعلام شده است.
▪️ انتشار این سند را میتوان نقطه عطفی در مواجهه نظام علمی کشور با فناوریهای نوین دانست؛ با این حال، بررسی دقیقتر آن در مقایسه با چارچوبها و دستورالعملهای بینالمللی (مانند استانداردهای NIST، راهنمای FUTURE-AI، چارچوبهای NSF، و مقررات اتحادیه اروپا) نشان میدهد که در کنار نقاط قوت اولیه، نقایص قابل ذکری نیز در این دستورالعمل دیده میشود که میتواند بر کارآمدی و همراستایی آن با نظام پژوهشی جهانی تأثیرگذار باشد.
در ادامه، مقایسهای از این دستورالعمل با نمونههای بینالمللی ارائه میشود 👇
📝 خلاصهای از محتوای اصلی دستورالعمل INSF
▫️ تأکید بر شفافیت در اعلام نوع، نسخه و نقش ابزارهای هوش مصنوعی در فرآیند پژوهش.
▫️ الزام به ذکر استفاده از AI در پروپوزال و گزارش نهایی.
▫️ تأکید بر مسئولیت انسانی پژوهشگر و ممنوعیت واگذاری قضاوت علمی به ماشین.
▫️ پیشبینی نقش داوران در بررسی استفاده از AI در طرحها.
▫️ تعیین موارد منع، از جمله تولید داده یا یافته بدون بازبینی انسانی، تحلیل آماری بدون تسلط بر روشها، و نقض حریم خصوصی.
▫️ ارائه مثالهایی از ارجاع به ابزارهایی مانند ChatGPT و Midjourney.
▫️ برنامهریزی برای بازبینی هر شش ماه یک بار.
✅ نقاط قوت دستورالعمل
▫️ تعریف صریح اصول شفافیت و مسئولیتپذیری.
▫️ تفکیک نسبتاً روشن بین استفاده کمکی و تولید محتوای اصلی.
▫️ درنظر گرفتن نقش داوران در بررسی استفاده از هوش مصنوعی.
▫️ ارائه مثالهای عملی برای ارجاعدهی به ابزارهای هوش مصنوعی.
این موارد نشان میدهد که سند مذکور از لحاظ مفاهیم کلی، گامی مثبت در جهت ساماندهی استفاده علمی از هوش مصنوعی برداشته است.
❌ نقاط ضعف و خلأها در مقایسه با استانداردهای بینالمللی
۱. نبود چکلیستهای ساختاریافته و عملیاتی
برخلاف چارچوبهایی مانند REFORMS یا CONSORT-AI که شامل پرسشها و مراحل مشخص هستند، سند ایران فقط دستورهای کلی ارائه داده و سازوکار مشخصی برای نحوه «اعتبارسنجی خروجیهای هوش مصنوعی» ندارد. این موضوع باعث میشود اجرای آن سلیقهای و غیریکپارچه باشد.
۲. ضعف در پیشبینی سناریوهای سوءاستفاده و ابزارهای کنترل
سند به ممنوعیتهایی اشاره میکند، اما هیچ سازوکار اجرایی، تنبیهی یا گزارشدهی برای کشف و مقابله با تقلب یا سوءاستفاده پیشبینی نشده است. این در حالی است که در سیاستهای NSF و NIST، بخش مفصلی به ریسکهای سوءاستفاده اختصاص یافته است.
۳. پوشش سطحی مسائل حریم خصوصی و مالکیت فکری
اشارهای کلی به عدم استفاده از داده حساس شده، اما تعریفی از داده حساس، نحوه ناشناسسازی یا الزامات قانونی مرتبط ارائه نشده است. همچنین، هیچ بحثی در مورد حقوق مالکیت فکری هنگام استفاده از مدلهای خارجی وجود ندارد؛ موضوعی که در چارچوبهای اروپا و NIST کاملاً تفصیلی بیان میشود.
۴. نبود تقسیمبندی میان رشتهها و سطحبندی ریسک
سند برای همه رشتهها یکسان است، در حالی که ریسک استفاده از AI در پزشکی یا علوم انسانی بسیار متفاوت است. در راهنماهای بینالمللی، برای حوزههای پرریسک مانند سلامت، دستورالعملهای جداگانه ارائه میشود.
۵. فقدان نهاد نظارتی مستقل
نظارت صرفاً به پژوهشگر و داور واگذار شده است و هیچ کمیته یا هیئت نظارتی مشخصی تعریف نشده. استانداردهای NIST و OECD معمولاً نهاد مستقلی را برای نظارت و رسیدگی به تخلفات پیشبینی میکنند.
۶. ساختار کند بازبینی در برابر تحولات سریع فناوری
بازبینی ششماهه برای حوزهای که مدلهای جدید تقریباً ماهانه منتشر میشوند ناکافی است. بسیاری از نهادهای بینالمللی از «living documents» یا اصلاحیههای سریع استفاده میکنند.
۷. فقدان برنامه آموزشی و ظرفیتسازی
در متن هیچ اشارهای به آموزش پژوهشگران، کارگاهها یا منابع راهنما نشده است. این در حالی است که FUTURE-AI آموزش را یکی از ارکان اصلی اجرای مؤثر دستورالعمل میداند.
۸. نبود ارجاع صریح به چارچوبهای جهانی
در مقدمه تنها به الهام از تجربه اروپا اشاره شده، اما هیچ استاندارد یا سند مشخصی (NIST، EU AI Act، OECD) ارجاع نشده است؛ این موضوع باعث میشود قابلیت همپذیری بینالمللی سند کاهش یابد.
۹. نبود مشوق برای استفاده صحیح و نوآورانه
رویکرد سند عمدتاً کنترلی است و هیچ مشوقی برای پژوهشگرانی که به شکل شفاف و اصولی از AI استفاده میکنند در نظر گرفته نشده است. در برخی کشورها، چنین استفادههایی امتیاز مثبت تلقی میشود.
۱۰. نپرداختن به مرحله پس از انتشار
هیچ سازوکاری برای نظارت و بازبینی استفاده از AI پس از انتشار مقاله یا گزارش وجود ندارد، در حالی که این مرحله در استانداردهای بینالمللی بخش مهمی از نظارت به شمار میرود.
✍️ جمعبندی
دستورالعمل INSF را میتوان گامی مهم اما اولیه در جهت تنظیم استفاده پژوهشی از هوش مصنوعی در ایران دانست. این سند از نظر اصول کلی (شفافیت، اخلاق، مسئولیت انسانی) همسو با روندهای جهانی است، اما از نظر ساختار اجرایی، نظارتی، حقوقی و بینالمللی هنوز فاصله قابل توجهی با چارچوبهای پیشرو دارد.
اگر قرار باشد این دستورالعمل به ابزاری کارآمد برای ارتقای کیفیت پژوهش و همگرایی علمی بینالمللی تبدیل شود، لازم است در نسخههای بعدی مواردی چون چکلیستهای دقیق، آموزش، نهاد نظارتی مستقل، تطبیق با استانداردهای NIST/EU، و پوشش حوزههای پرریسک به شکل جدی گنجانده شود.
📝 انتشار مطالب وبلاگ بدون ذکر منبع آن برخلاف رضایت مولفان میباشد
🏷 لینک کوتاه این مطلب: https://blog.impactfactor.ir/?p=128