همکار یابش - جباری۱۴۰۲-۱۱-۱۸بازدید ۳۷۷
Posted on

ماده تاریک: کمبودهای سیاست ناشران درباره نویسندگی هوش مصنوعی مولد!

دو طرف طیف هوش مصنوعی از نویسندگی تا بازبینی

از زمان انتشار چت‌جی‌پی‌تی در سال گذشته، ناشران با ظهور مدل‌های زبان بزرگ (LLM) و تدوین خط‌‌مشی‌های استفاده اخلاقی آن‌ها توسط محققان در زمینه‌ی نویسندگی و بازبینی، با چالشی جدی مواجه شده‌اند. بسیاری از ناشران رویکرد اولیه‌ای را اتخاذ کرده‌اند که مرزهای مشخصی برای آنچه مجاز است و نیست تعیین می‌کند. در عین حال فضایی قابل توجه و مبهم را برای محققان باقی می‌گذارد تا به طور مستقل در آن کاوش کنند.

سیاست ناشران درباره نویسندگی هوش مصنوعی مولد

در یک انتهای طیف، اجماع گسترده‌ای وجود دارد که از ورود هوش مصنوعی تولیدکننده تا حد امکان به فرآیند نویسندگی جلوگیری شود تا مسئولیت سنگین نویسندگان هنگام انتشار اثرشان خدشه‌دار نشود (و در عین حال، مسئولیت ناشران در قبال انتشار و نشر یافته‌ها محدود شود). به موازات آن، ناشران محدوده‌ای دیگر را تعریف کرده‌اند که در آن استفاده از هوش مصنوعی برای بازبینی/ویرایش/تصحیح متون را برای نویسندگان با انگلیسی به عنوان زبان دوم (EAL) تحمل می‌کنند (و گاهی حتی تشویق می‌کنند) تا زبان دست‌نوشته‌های خود را قبل از انتشار بهبود بخشند.

آنچه این سیاست‌ها به آن نمی‌پردازند، بی‌شمار موارد استفاده‌ای است که در جایی بین دو انتهای این طیف قرار می‌گیرند، جایی که محققان می‌خواهند برای ساده‌سازی نگارش تحقیقات خود (آنچه نویسنده این مقاله آن را “ماده تاریک” می‌نامد) از این ابزارها به شیوه‌ای خلاقانه و مسئولانه بیشترین بهره را ببرند.

به عقیده او: «قلب تلاش علمی، خودِ تحقیق است و نه شکل نوشتاری آن (به جز چند حوزه خاص مانند مطالعات ادبی). قالبی که نتایج تحقیق از طریق آن منتقل می شود نقش بسیار مهمی در پیشبرد ارتباط موثر تحقیق ایفا می کند، اما نباید با تمرکز اصلی کار، یعنی خود تحقیق، اشتباه گرفته شود. در نتیجه، محدود کردن و ممنوع کردن بیش از حد شیوه ها و ابزارهای نوشتن مسئولانه، اگر موجب تسهیل در هدف انتشار تحقیق شوند، از نظر من غیرمنطقی به نظر می رسد.»

فضای خاکستری

در عمل، اکثر محققان آزمایش خود را در هیچ کدام از دو انتهای طیف انجام نمی دهند، بلکه در جایی در میانه آن قرار می گیرند. در این بخش، شکافی در سیاست گذاری وجود دارد که در حال حاضر با درخواست از نویسندگان برای افشاگری، افشاگری و باز هم افشاگری پر می شود (جزئیات بیشتر را در ادامه گفته می‌شود).

نمونه‌های عملی از موارد استفاده‌ از هوش مصنوعی که با آن‌ها مواجه شده‌ایم:

  • استفاده از Quillbot، ابزاری برای بازنویسی، برای تغییر دادن کلمات منابع در بررسی ادبیات بدون هشدار سرقت ادبی.
  • نوشتن پیش‌نویس اول تحقیق با استفاده از ChatGPT و سپس ویرایش یا تکمیل آن پس از ویرایش نهایی.
  • نوشتن پیش‌نویس و سپس بازنویسی بخش‌هایی از آن توسط ChatGPT.
  • استفاده از ابزارهای هوش مصنوعی مانند Scite یا ScholarAI برای پیشنهاد استنادات احتمالی که ممکن است نویسنده از دست داده باشد.
  • استفاده از مدل‌های زبان بزرگ توسط داوران برای بررسی پیش‌نویس مقالات یا پیشنهادهای کمک هزینه جهت ایده‌پردازی در فرآیند بازبینی همتا.

پژوهشگرانی که با آن‌ها صحبت می‌کنم مشتاق‌اند با ابزارهای نوشتاری هوش مصنوعی بازی کنند، اما مطمئن نیستند که ناشران چه چیزی را مجاز می‌دانند و چگونه می‌توانند به شیوه‌ای مسئولانه از آن‌ها استفاده کنند بدون اینکه مزایای بالقوه آن‌ها را از بین ببرند. برای شفاف‌سازی، من به مواردی می‌پردازم که پژوهشگران سعی نمی‌کنند به طور کامل فرآیند نگارش یا بررسی تحقیق را خودکار کنند و از مسئولیت خود دور شوند، بلکه به جای آن از فناوری‌های هوش مصنوعی برای تقویت کار خود و ایفای نقش یک بازبین منتقد استفاده می‌کنند. در حالی که چند مورد ناگوار وجود داشته که محققان به سادگی متن را از ChatGPT کپی و جایگذاری کرده‌اند، تصور می‌کنم اکثر پژوهشگران هنگام استفاده از ابزارهای هوش مصنوعی، به‌دقت بازبینی، اصلاح و رفع مشکلات احتمالی را انجام می‌دهند.

عبور از پرتگاه مبهم

با توجه به سختی در پیش‌بینی تمام موارد استفاده‌ی بالقوه هوش مصنوعی در فرآیند تحقیق، منطقی است که ناشران به جای تلاش برای دیکته کردن سیاست برای هر ابزار خاصی که به بازار می‌آید، رهنمودهای کلی‌تری را توسعه دهند (با در نظر گرفتن این واقعیت که حتی رسیدن به اجماع در مورد تعریف هوش مصنوعی هم چالشی بسیار بزرگ است). با این حال، این چالش‌ها ناشران را از مسئولیت خود در قبال نویسندگان جهت تعریف و انتقال واضح سیاست‌هایشان معاف نمی‌کند. STM با انتشار یک مقاله سفید جدید در مورد ارتباطات دانشگاهی هوش مصنوعی تولیدکننده، گام مهمی در این راستا برداشته است.

رویکردی که STM و بسیاری از ناشران برای این چالش در پیش گرفته‌اند را می‌توان با یک کلمه خلاصه کرد: افشاگری. به طور خلاصه، ناشران نویسندگان را تشویق می‌کنند و حتی ملزم می‌کنند که استفاده از فناوری‌های هوش مصنوعی در تحقیق و نگارش خود را افشا کنند.

افشا، افشا و باز هم افشا

زمان و نحوه انجام این افشاگری بسته به ناشر و حتی مجله متفاوت است، اما اصل کلی یکسان است. با این حال، شفافیت و افشاگری تنها زمانی موثر خواهند بود که نویسندگان به طور واضح بدانند چه باید بکنند و چه نباید بکنند. در غیر این صورت، نویسندگان به سرعت در مورد اینکه چه چیزی را، چه زمانی و چرا باید افشا کنند، دچار سردرگمی می‌شوند.

علاوه بر این، اتکا صرف به اصل اعلامیه با چالش‌های عملی متعددی روبرو است.

افشا به تنهایی کافی نیست

بدون یک تعریف دقیق از هوش مصنوعی، نمی‌توانیم از پژوهشگران بخواهیم که هر زمان از آن استفاده کرده‌اند، اعلام کنند بسیاری از ابزارها بدون اطلاع کاربران از هوش مصنوعی استفاده می‌کنند. آیا نویسندگان می‌دانند چه زمانی از هوش مصنوعی استفاده می‌کنند؟

حتی ابزارهای ویرایش ساده مانند گرامرلی از هوش مصنوعی برای آموزش مدل‌های زبان خود استفاده می‌کنند. آیا ناشران انتظار دارند نویسندگان استفاده از ابزارهای زبان را اعلام کنند؟

ابزارهای هوش مصنوعی تولیدی مانند بینگ در حال حاضر به طور یکپارچه در موتورهای جستجو ادغام می‌شوند. به زودی درخواست از نویسندگان برای اعلام استفاده از هوش مصنوعی تقریباً معادل پرسیدن چگونگی استفاده از گوگل برای تحقیقات آن‌ها خواهد بود.

حتی اگر اعلان‌ها انجام شود، هدف از این اعلان‌ها مشخص نیست. اگر هدف اطمینان از صحت اطلاعات یا روش استفاده شده باشد، اعلام‌ها تأثیر زیادی بر قابلیت تکرار ندارند زیرا خروجی‌های LLM از یک پرس و جو به پرس و جو دیگر متفاوت است. اگر هدف محدود کردن مسئولیت یا پاسخگویی در قبال خروجی است، باید از خود بپرسیم که آیا اصلاً باید از این ابزارها استفاده شود یا نویسندگان چگونه صحت خروجی‌های هوش مصنوعی را تأیید کرده و مسئولیت آن‌ها را بر عهده بگیرند. افشا کردن به تنهایی، نویسندگان را ملزم نمی‌کند که نشان دهند چگونه قابلیت اطمینان خروجی‌ها را تأیید می‌کنند.

مسئولیت‌پذیری و نویسندگی

نگرانی پژوهشگران تنها محدود به سیاست‌های ناشران نیست، بلکه شامل دیدگاه همکارانِ محقق آنها نیز می‌شود که سرنوشت انتشار مقاله یا تأمین بودجه را تعیین می‌کنند. آیا استفاده از هوش مصنوعی تأثیر منفی بر قضاوت همکاران خواهد داشت؟ راهنمودهای ارزیابان چه هستند؟ اگر ارزیابان هیچ دانشی درباره فناوری‌های مختلف هوش مصنوعی و نحوه عملکرد آنها نداشته باشند، چه؟ آیا به خاطر ترس از مجازات توسط ارزیابان که نگاه تحقیرآمیزی به استفاده از این ابزارها دارند، ممکن است نویسندگان استفاده از هوش مصنوعی را پنهان کنند؟

در سطح کاملاً عملی، بسیاری از این سیاست‌ها در حال حاضر با افزودن (یک اعلامیه دیگر) از طرف ناشران برای تکمیل توسط نویسندگان، به مرحله اجرا درآمده‌اند. به احتمال زیاد، وضعیتی را ایجاد خواهیم کرد که در آن محققان را مجبور کنیم گام دیگری را به فرآیند اضافه کنند یا از زبانی قالبی استفاده کنند که به درستی درک یا عمل نشده است.

مسئولیت‌پذیری نویسندگی هوش مصنوعی

همچنین باید بپرسیم که تعدیل دقیق حق تالیف هوش مصنوعی، تاثیر آن بر چگونگی درکِ هوش مصنوعی و نقشی را که در مقالات تحقیقی ایفا می‌کند، تعیین می‌کند. استدلال اصلی علیه نویسندگی هوش مصنوعی این است که هوش مصنوعی نمی‌تواند مسئولیت کاری که منتشر می‌کند به عهده بگیرد. در نتیجه، ناشرین به طور کلی فهرست کردن هوش مصنوعی به صورت نویسنده را ممنوع کرده‌اند. اما آن‌ها می‌توانستند رویکرد متفاوتی در پیش بگیرند: همان‌گونه که نویسندگان مختلف یک مقاله نقش‌های متفاوتی در فرآيند تحقیق و نگارش ایفا می‌کنند، به هوش مصنوعی هم می‌توان با در نظر گرفتن مسئولیت مؤلفان انسانی برای خروجی، نقشی یا جایگاهی در نویسندگی یا کمک‌نویسندگی اختصاص داد. شاید پیشرفت‌های هوش مصنوعی نیازمند تجدید نظر در معیارهای نویسندگی تاکسونومى CRediT باشد (بیایید خودمان را گول نزنیم که هر پژوهشگری که روی یک مقاله عظیم کار می‌کند، آماده و مایل است مسئولیت کامل خروجی را بر عهده بگیرد).

 

با تابو کردن استفاده از ابزارهای هوش مصنوعی (حتی با وجود ممنوع نبودن)، خطر می‌کنیم که سیاست «اعلامیه» نتیجه معکوس دهد و نویسندگان از هوش مصنوعی استفاده کرده و آن را به کار خودشان نسبت دهند تا با «ننگ» برچسب‌خورده نشوند. چنانچه این نویسندگان پیامدهای احتمالی را درک نکنند، می‌تواند لکه‌ی سیاهی بر صحت سوابق علمی شده و منجر به پس‌گرفتن مقالات و تضعیف اعتماد به علوم شود.

بازگشت از نویسنده به پژوهشگر

استفاده از صفت «نویسنده» برای کسانی که لقب «پژوهشگر» یا «دانشمند» بسیار طبیعی‌تر به نظر می‌رسد، عجیب است. و این فقط یک موضوع معنایی نیست. با تبدیل کردن پژوهشگرانمان به نویسنده، خطر کم اهمیت جلوه دادن تحقیقاتی را که انجام می‌دهند و تاکید بیش از حد بر اهمیت نقش نویسندگی به وجود می‌آید.

پیشنهاد این است که حداقل در مورد نوشتن، تمرکز ما کمتر روی ابزارهای استفاده شده و بیشتر بر نمایش اعتبار، راستی‌آزمایی و تازگی تحقیقات توسط نویسندگان، در کنار روش‌های به دست آوردن نتایج باشد. وقت آن رسیده است که دوباره با اساتید دانشگاهی به عنوان پژوهشگر و نه نویسنده رفتار کنیم.

 

اگر پژوهشگران می‌خواهند از GPT برای دریافت پیش‌نویس مقاله خود استفاده کنند و سپس خودشان روی بازنگری و ویرایش آن کار کنند، اشکالی ندارد. اگر ترجیح می‌دهند خودشان پیش‌نویسی بنویسند و سپس آن را برای دریافت بازخورد، نقد، ویرایش و بازنگری به LLM وارد کنند، به آن‌ها اختیار بدهید. ما باید به‌جای بالا انداختن دست‌هایمان و به عهده‌ی خود پژوهشگر گذاشتن اعلام اینکه چه زمانی و به چه روشی استفاده از ابزار مناسب می‌دانند، آن‌ها را برای انجام مسئولانه کارشان راهنمایی کنیم.

چارچوب جدید برای سیاست‌های هوش مصنوعی

پیش‌بینی این است که صنعت نشر نخستین مخالفت خود را با این رویکرد ابراز کند، زیرا به عقیده آن‌ها چنین چارچوبی راه را برای سوءاستفاده از سوی بازیگران مخرب یا کارخانه‌های تولید مقالات باز می‌گذارد. در نگاه اول، این نگرانی واقعی و منطقی است، زیرا به نظر می‌رسد تقلب در تحقیقات به طور تصاعدی در حال افزایش است. با این حال، این ابهام یک سوال جداگانه را مطرح می‌کند: آیا ما دستورالعمل‌ها را برای بازیگران خوب می‌نویسیم یا برای بازیگران بد؟ آیا رویکرد ما باید به نظارت بر تمام نویسندگان برای حذف افراد نالایق معطوف باشد، یا به پژوهشگران معمولی که قصد کار با حسن نیت را دارند اما دقیقا نمی‌دانند چگونه این کار را انجام دهند؟ احتمالا افراد ناشایست بیانیه‌های اخلاق‌مدار موجود در وب‌سایت‌های ناشران را به دقت نخواهند خواند، در حالی که پژوهشگران صادق که مدام به آن‌ها گفته می‌شود «اعلام، اعلام، اعلام» سردرگم می‌شوند.

 

پیشنهاد من سه وجه دارد. اول، ناشران باید نقش خود را آموزشی ببینند و به پژوهشگرانشان مزایا و معایب ابزارهای هوش مصنوعی تولیدکننده در فرآیند نگارش تحقیق را آموزش دهند (مانند نقطه شروع خوبی که انجمن شیمی آمریکا ACS در اینجا ارائه می‌کند). دوم، ناشران باید بدون نیاز به اعلامیه، لیستی از ابزارهای تایید شده یا موارد استفاده را تهیه کنند. اگر یک ابزار هوش مصنوعی می‌تواند با ایجاد یک کتابشناسی از نقل قول‌های درون متنی که نویسنده می‌تواند آن‌ها را تأیید کند، به پژوهشگر کمک کند، آیا واقعاً نیاز داریم بدانیم از چه نرم‌افزاری استفاده کرده است؟ در نهایت، ما فقط زمانی پیشنهاد اعلامیه می‌دهیم که استفاده از ابزار هوش مصنوعی پتانسیل محدودیت برای تحقیق داشته باشد. نویسندگان باید به جای اعلام‌های پی‌درپی، به اشتراک‌گذاری و تأیید داده‌های بیشتر بپردازند.

 

با تبدیل شدن هوش مصنوعی به بخش هر روز بزرگتر از جریان تحقیقات، پذیرش ابزارهای مسئولانه و تشویق نویسندگان به ادامه آزمایش، در عین حال نظارت مداوم بر صحت، قابلیت تکرار و صداقت تحقیق، اهمیت زیادی دارد.

 

منبع: https://www.digital-science.com/tldr/article/dark-matter-whats-missing-from-publishers-policies-on-ai-generative-writing/

این پست چقدر برای شما مفید بود؟

روی یک ستاره کلیک کنید تا به آن امتیاز دهید!

میانگین امتیاز ۰ / ۵٫ تعداد امتیاز: ۰

اولین نفری باشید که به این پست امتیاز می دهید.

اشتراک گذاری این مطلب:
مطالب مرتبط:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *