دو طرف طیف هوش مصنوعی از نویسندگی تا بازبینی
از زمان انتشار چتجیپیتی در سال گذشته، ناشران با ظهور مدلهای زبان بزرگ (LLM) و تدوین خطمشیهای استفاده اخلاقی آنها توسط محققان در زمینهی نویسندگی و بازبینی، با چالشی جدی مواجه شدهاند. بسیاری از ناشران رویکرد اولیهای را اتخاذ کردهاند که مرزهای مشخصی برای آنچه مجاز است و نیست تعیین میکند. در عین حال فضایی قابل توجه و مبهم را برای محققان باقی میگذارد تا به طور مستقل در آن کاوش کنند.
در یک انتهای طیف، اجماع گستردهای وجود دارد که از ورود هوش مصنوعی تولیدکننده تا حد امکان به فرآیند نویسندگی جلوگیری شود تا مسئولیت سنگین نویسندگان هنگام انتشار اثرشان خدشهدار نشود (و در عین حال، مسئولیت ناشران در قبال انتشار و نشر یافتهها محدود شود). به موازات آن، ناشران محدودهای دیگر را تعریف کردهاند که در آن استفاده از هوش مصنوعی برای بازبینی/ویرایش/تصحیح متون را برای نویسندگان با انگلیسی به عنوان زبان دوم (EAL) تحمل میکنند (و گاهی حتی تشویق میکنند) تا زبان دستنوشتههای خود را قبل از انتشار بهبود بخشند.
آنچه این سیاستها به آن نمیپردازند، بیشمار موارد استفادهای است که در جایی بین دو انتهای این طیف قرار میگیرند، جایی که محققان میخواهند برای سادهسازی نگارش تحقیقات خود (آنچه نویسنده این مقاله آن را “ماده تاریک” مینامد) از این ابزارها به شیوهای خلاقانه و مسئولانه بیشترین بهره را ببرند.
به عقیده او: «قلب تلاش علمی، خودِ تحقیق است و نه شکل نوشتاری آن (به جز چند حوزه خاص مانند مطالعات ادبی). قالبی که نتایج تحقیق از طریق آن منتقل می شود نقش بسیار مهمی در پیشبرد ارتباط موثر تحقیق ایفا می کند، اما نباید با تمرکز اصلی کار، یعنی خود تحقیق، اشتباه گرفته شود. در نتیجه، محدود کردن و ممنوع کردن بیش از حد شیوه ها و ابزارهای نوشتن مسئولانه، اگر موجب تسهیل در هدف انتشار تحقیق شوند، از نظر من غیرمنطقی به نظر می رسد.»
فضای خاکستری
در عمل، اکثر محققان آزمایش خود را در هیچ کدام از دو انتهای طیف انجام نمی دهند، بلکه در جایی در میانه آن قرار می گیرند. در این بخش، شکافی در سیاست گذاری وجود دارد که در حال حاضر با درخواست از نویسندگان برای افشاگری، افشاگری و باز هم افشاگری پر می شود (جزئیات بیشتر را در ادامه گفته میشود).
نمونههای عملی از موارد استفاده از هوش مصنوعی که با آنها مواجه شدهایم:
- استفاده از Quillbot، ابزاری برای بازنویسی، برای تغییر دادن کلمات منابع در بررسی ادبیات بدون هشدار سرقت ادبی.
- نوشتن پیشنویس اول تحقیق با استفاده از ChatGPT و سپس ویرایش یا تکمیل آن پس از ویرایش نهایی.
- نوشتن پیشنویس و سپس بازنویسی بخشهایی از آن توسط ChatGPT.
- استفاده از ابزارهای هوش مصنوعی مانند Scite یا ScholarAI برای پیشنهاد استنادات احتمالی که ممکن است نویسنده از دست داده باشد.
- استفاده از مدلهای زبان بزرگ توسط داوران برای بررسی پیشنویس مقالات یا پیشنهادهای کمک هزینه جهت ایدهپردازی در فرآیند بازبینی همتا.
پژوهشگرانی که با آنها صحبت میکنم مشتاقاند با ابزارهای نوشتاری هوش مصنوعی بازی کنند، اما مطمئن نیستند که ناشران چه چیزی را مجاز میدانند و چگونه میتوانند به شیوهای مسئولانه از آنها استفاده کنند بدون اینکه مزایای بالقوه آنها را از بین ببرند. برای شفافسازی، من به مواردی میپردازم که پژوهشگران سعی نمیکنند به طور کامل فرآیند نگارش یا بررسی تحقیق را خودکار کنند و از مسئولیت خود دور شوند، بلکه به جای آن از فناوریهای هوش مصنوعی برای تقویت کار خود و ایفای نقش یک بازبین منتقد استفاده میکنند. در حالی که چند مورد ناگوار وجود داشته که محققان به سادگی متن را از ChatGPT کپی و جایگذاری کردهاند، تصور میکنم اکثر پژوهشگران هنگام استفاده از ابزارهای هوش مصنوعی، بهدقت بازبینی، اصلاح و رفع مشکلات احتمالی را انجام میدهند.
عبور از پرتگاه مبهم
با توجه به سختی در پیشبینی تمام موارد استفادهی بالقوه هوش مصنوعی در فرآیند تحقیق، منطقی است که ناشران به جای تلاش برای دیکته کردن سیاست برای هر ابزار خاصی که به بازار میآید، رهنمودهای کلیتری را توسعه دهند (با در نظر گرفتن این واقعیت که حتی رسیدن به اجماع در مورد تعریف هوش مصنوعی هم چالشی بسیار بزرگ است). با این حال، این چالشها ناشران را از مسئولیت خود در قبال نویسندگان جهت تعریف و انتقال واضح سیاستهایشان معاف نمیکند. STM با انتشار یک مقاله سفید جدید در مورد ارتباطات دانشگاهی هوش مصنوعی تولیدکننده، گام مهمی در این راستا برداشته است.
رویکردی که STM و بسیاری از ناشران برای این چالش در پیش گرفتهاند را میتوان با یک کلمه خلاصه کرد: افشاگری. به طور خلاصه، ناشران نویسندگان را تشویق میکنند و حتی ملزم میکنند که استفاده از فناوریهای هوش مصنوعی در تحقیق و نگارش خود را افشا کنند.
افشا، افشا و باز هم افشا
زمان و نحوه انجام این افشاگری بسته به ناشر و حتی مجله متفاوت است، اما اصل کلی یکسان است. با این حال، شفافیت و افشاگری تنها زمانی موثر خواهند بود که نویسندگان به طور واضح بدانند چه باید بکنند و چه نباید بکنند. در غیر این صورت، نویسندگان به سرعت در مورد اینکه چه چیزی را، چه زمانی و چرا باید افشا کنند، دچار سردرگمی میشوند.
علاوه بر این، اتکا صرف به اصل اعلامیه با چالشهای عملی متعددی روبرو است.
افشا به تنهایی کافی نیست
بدون یک تعریف دقیق از هوش مصنوعی، نمیتوانیم از پژوهشگران بخواهیم که هر زمان از آن استفاده کردهاند، اعلام کنند بسیاری از ابزارها بدون اطلاع کاربران از هوش مصنوعی استفاده میکنند. آیا نویسندگان میدانند چه زمانی از هوش مصنوعی استفاده میکنند؟
حتی ابزارهای ویرایش ساده مانند گرامرلی از هوش مصنوعی برای آموزش مدلهای زبان خود استفاده میکنند. آیا ناشران انتظار دارند نویسندگان استفاده از ابزارهای زبان را اعلام کنند؟
ابزارهای هوش مصنوعی تولیدی مانند بینگ در حال حاضر به طور یکپارچه در موتورهای جستجو ادغام میشوند. به زودی درخواست از نویسندگان برای اعلام استفاده از هوش مصنوعی تقریباً معادل پرسیدن چگونگی استفاده از گوگل برای تحقیقات آنها خواهد بود.
حتی اگر اعلانها انجام شود، هدف از این اعلانها مشخص نیست. اگر هدف اطمینان از صحت اطلاعات یا روش استفاده شده باشد، اعلامها تأثیر زیادی بر قابلیت تکرار ندارند زیرا خروجیهای LLM از یک پرس و جو به پرس و جو دیگر متفاوت است. اگر هدف محدود کردن مسئولیت یا پاسخگویی در قبال خروجی است، باید از خود بپرسیم که آیا اصلاً باید از این ابزارها استفاده شود یا نویسندگان چگونه صحت خروجیهای هوش مصنوعی را تأیید کرده و مسئولیت آنها را بر عهده بگیرند. افشا کردن به تنهایی، نویسندگان را ملزم نمیکند که نشان دهند چگونه قابلیت اطمینان خروجیها را تأیید میکنند.
مسئولیتپذیری و نویسندگی
نگرانی پژوهشگران تنها محدود به سیاستهای ناشران نیست، بلکه شامل دیدگاه همکارانِ محقق آنها نیز میشود که سرنوشت انتشار مقاله یا تأمین بودجه را تعیین میکنند. آیا استفاده از هوش مصنوعی تأثیر منفی بر قضاوت همکاران خواهد داشت؟ راهنمودهای ارزیابان چه هستند؟ اگر ارزیابان هیچ دانشی درباره فناوریهای مختلف هوش مصنوعی و نحوه عملکرد آنها نداشته باشند، چه؟ آیا به خاطر ترس از مجازات توسط ارزیابان که نگاه تحقیرآمیزی به استفاده از این ابزارها دارند، ممکن است نویسندگان استفاده از هوش مصنوعی را پنهان کنند؟
در سطح کاملاً عملی، بسیاری از این سیاستها در حال حاضر با افزودن (یک اعلامیه دیگر) از طرف ناشران برای تکمیل توسط نویسندگان، به مرحله اجرا درآمدهاند. به احتمال زیاد، وضعیتی را ایجاد خواهیم کرد که در آن محققان را مجبور کنیم گام دیگری را به فرآیند اضافه کنند یا از زبانی قالبی استفاده کنند که به درستی درک یا عمل نشده است.
مسئولیتپذیری نویسندگی هوش مصنوعی
همچنین باید بپرسیم که تعدیل دقیق حق تالیف هوش مصنوعی، تاثیر آن بر چگونگی درکِ هوش مصنوعی و نقشی را که در مقالات تحقیقی ایفا میکند، تعیین میکند. استدلال اصلی علیه نویسندگی هوش مصنوعی این است که هوش مصنوعی نمیتواند مسئولیت کاری که منتشر میکند به عهده بگیرد. در نتیجه، ناشرین به طور کلی فهرست کردن هوش مصنوعی به صورت نویسنده را ممنوع کردهاند. اما آنها میتوانستند رویکرد متفاوتی در پیش بگیرند: همانگونه که نویسندگان مختلف یک مقاله نقشهای متفاوتی در فرآيند تحقیق و نگارش ایفا میکنند، به هوش مصنوعی هم میتوان با در نظر گرفتن مسئولیت مؤلفان انسانی برای خروجی، نقشی یا جایگاهی در نویسندگی یا کمکنویسندگی اختصاص داد. شاید پیشرفتهای هوش مصنوعی نیازمند تجدید نظر در معیارهای نویسندگی تاکسونومى CRediT باشد (بیایید خودمان را گول نزنیم که هر پژوهشگری که روی یک مقاله عظیم کار میکند، آماده و مایل است مسئولیت کامل خروجی را بر عهده بگیرد).
با تابو کردن استفاده از ابزارهای هوش مصنوعی (حتی با وجود ممنوع نبودن)، خطر میکنیم که سیاست «اعلامیه» نتیجه معکوس دهد و نویسندگان از هوش مصنوعی استفاده کرده و آن را به کار خودشان نسبت دهند تا با «ننگ» برچسبخورده نشوند. چنانچه این نویسندگان پیامدهای احتمالی را درک نکنند، میتواند لکهی سیاهی بر صحت سوابق علمی شده و منجر به پسگرفتن مقالات و تضعیف اعتماد به علوم شود.
بازگشت از نویسنده به پژوهشگر
استفاده از صفت «نویسنده» برای کسانی که لقب «پژوهشگر» یا «دانشمند» بسیار طبیعیتر به نظر میرسد، عجیب است. و این فقط یک موضوع معنایی نیست. با تبدیل کردن پژوهشگرانمان به نویسنده، خطر کم اهمیت جلوه دادن تحقیقاتی را که انجام میدهند و تاکید بیش از حد بر اهمیت نقش نویسندگی به وجود میآید.
پیشنهاد این است که حداقل در مورد نوشتن، تمرکز ما کمتر روی ابزارهای استفاده شده و بیشتر بر نمایش اعتبار، راستیآزمایی و تازگی تحقیقات توسط نویسندگان، در کنار روشهای به دست آوردن نتایج باشد. وقت آن رسیده است که دوباره با اساتید دانشگاهی به عنوان پژوهشگر و نه نویسنده رفتار کنیم.
اگر پژوهشگران میخواهند از GPT برای دریافت پیشنویس مقاله خود استفاده کنند و سپس خودشان روی بازنگری و ویرایش آن کار کنند، اشکالی ندارد. اگر ترجیح میدهند خودشان پیشنویسی بنویسند و سپس آن را برای دریافت بازخورد، نقد، ویرایش و بازنگری به LLM وارد کنند، به آنها اختیار بدهید. ما باید بهجای بالا انداختن دستهایمان و به عهدهی خود پژوهشگر گذاشتن اعلام اینکه چه زمانی و به چه روشی استفاده از ابزار مناسب میدانند، آنها را برای انجام مسئولانه کارشان راهنمایی کنیم.
چارچوب جدید برای سیاستهای هوش مصنوعی
پیشبینی این است که صنعت نشر نخستین مخالفت خود را با این رویکرد ابراز کند، زیرا به عقیده آنها چنین چارچوبی راه را برای سوءاستفاده از سوی بازیگران مخرب یا کارخانههای تولید مقالات باز میگذارد. در نگاه اول، این نگرانی واقعی و منطقی است، زیرا به نظر میرسد تقلب در تحقیقات به طور تصاعدی در حال افزایش است. با این حال، این ابهام یک سوال جداگانه را مطرح میکند: آیا ما دستورالعملها را برای بازیگران خوب مینویسیم یا برای بازیگران بد؟ آیا رویکرد ما باید به نظارت بر تمام نویسندگان برای حذف افراد نالایق معطوف باشد، یا به پژوهشگران معمولی که قصد کار با حسن نیت را دارند اما دقیقا نمیدانند چگونه این کار را انجام دهند؟ احتمالا افراد ناشایست بیانیههای اخلاقمدار موجود در وبسایتهای ناشران را به دقت نخواهند خواند، در حالی که پژوهشگران صادق که مدام به آنها گفته میشود «اعلام، اعلام، اعلام» سردرگم میشوند.
پیشنهاد من سه وجه دارد. اول، ناشران باید نقش خود را آموزشی ببینند و به پژوهشگرانشان مزایا و معایب ابزارهای هوش مصنوعی تولیدکننده در فرآیند نگارش تحقیق را آموزش دهند (مانند نقطه شروع خوبی که انجمن شیمی آمریکا ACS در اینجا ارائه میکند). دوم، ناشران باید بدون نیاز به اعلامیه، لیستی از ابزارهای تایید شده یا موارد استفاده را تهیه کنند. اگر یک ابزار هوش مصنوعی میتواند با ایجاد یک کتابشناسی از نقل قولهای درون متنی که نویسنده میتواند آنها را تأیید کند، به پژوهشگر کمک کند، آیا واقعاً نیاز داریم بدانیم از چه نرمافزاری استفاده کرده است؟ در نهایت، ما فقط زمانی پیشنهاد اعلامیه میدهیم که استفاده از ابزار هوش مصنوعی پتانسیل محدودیت برای تحقیق داشته باشد. نویسندگان باید به جای اعلامهای پیدرپی، به اشتراکگذاری و تأیید دادههای بیشتر بپردازند.
با تبدیل شدن هوش مصنوعی به بخش هر روز بزرگتر از جریان تحقیقات، پذیرش ابزارهای مسئولانه و تشویق نویسندگان به ادامه آزمایش، در عین حال نظارت مداوم بر صحت، قابلیت تکرار و صداقت تحقیق، اهمیت زیادی دارد.