باشگاه خبرنگاران جوان - چه سهمی از متون علمی بهوسیله هوش مصنوعی تولید میشود؟ پاسخ آنچنان ساده و در دسترس نیست. نخستین مطالعاتی که اندازه نفوذ هوش مصنوعی را در مجلات علمی، مخازن پیشچاپ و گزارشهای داوری علمی بررسی کردهاند، پاسخهای متفاوتی ارائه میدهند. اما در عین حال یک نکته مهم مشترک دارند؛ اینکه وضعیت بهسرعت در حال تغییر است و بهسختی میتوان تصویر دقیقی از آن به دست آورد.
همین امر هم موجب شده تا بسیاری از دغدغهمندان جامعه علمی نگران پژوهشهای کمکیفیت یا حتی کاملاً ساختگی توسط «مدلهای زبانی بزرگ» یا همان LLMها باشند؛ آن هم در برههای که افزایش تولید این جنس از مستندات علمی میتواند نظامهای راستیآزمایی و بررسی کیفیت را تحت فشار قرار دهد و فضای علمی را آلوده کند. «ماریا آنتونیاک» دانشمند علوم رایانه در «دانشگاه کلرادو بولدر» در گفتوگو با مجله نیچر میگوید: «زمینی که زیر پای ماست در حال تغییر است، آن هم به شیوهای که ما اصلاً برای آن آماده نیستیم.»
«ریچارد شی»، زیستشناس سلولهای بنیادی در «دانشگاه فنی نانیانگ» سنگاپور هم معتقد است: ما در جریان یک رقابت جدی و در حال تشدید زندگی میکنیم؛ بین افرادی که از هوش مصنوعی بهصورت نادرست استفاده میکنند و کسانی که در تلاشند آن را مهار یا شناسایی کنند. نگرانیها درباره میزان محتوای تولیدشده توسط هوش مصنوعی در ادبیات علمی، بازتابی از روندهای گستردهتر در فضای آنلاین است. بر اساس تحلیلی از شرکت خصوصی «گرافیت» (Graphite) که ۵۵ هزار صفحه وب را بررسی و نتایج کار را در اواخر ماه مارس (فروردین) منتشر کرده، تعداد مقالات نوشتهشده توسط هوش مصنوعی در اینترنت از مقالات نوشتهشده توسط انسان پیشی گرفته است.
تعداد مقالات ارسالی به یک مجله معتبر علمی از زمان ظهور ChatGPT ۴۰ درصد افزایش یافته است.
هوش مصنوعی میتواند کاربردهای مشروعی در تولید متون علمی داشته باشد و حتی روند پژوهش را تسریع کند. اما در عین حال، محتوای تولیدشده توسط آن میتواند مشکلساز باشد، زیرا امکان تولید مقالات جعلی یا کمکیفیت را فراهم میکند. این کاربری دوگانه شبیه به چاقو، باعث شده تا پژوهشگران به ابزارهای شناسایی هوش مصنوعی روی آوردهاند تا ابعاد نحوه و میزان استفاده از هوش مصنوعی در تولیدات علمی را اندازهگیری کنند. با این حال، برخی از این ابزارها نمیتوانند میان متنی که صرفاً با کمک هوش مصنوعی ویرایش شده و متنی که کاملاً توسط آن تولید شده تمایز قائل شوند.
همچنین، تعریفها از متن تولیدشده توسط هوش مصنوعی در این سامانهها متفاوت است و گاهی متون نوشتهشده توسط انسان را نیز بهاشتباه در این دسته قرار میدهند. البته با وجود این محدودیتها، این ابزارها میتوانند تصویری کلی از روندهای استفاده از هوش مصنوعی ارائه دهند.
در مطالعهای که در ۲۷ آوریل منتشر شد، پژوهشگران با استفاده از ابزاری که توسط «پانگرام لبز» (Pangram Labs) در «نیویورک» توسعه یافته، نزدیک به ۷ هزار چکیده مقاله و حدود ۸ هزار گزارش داوری ارسالی به نشریه «اورگنایزیشن ساینس» (Organization Science) را بین ژانویه ۲۰۲۱ تا فوریه ۲۰۲۶ بررسی کردند. پژوهشگران این مطالعه معتقدند این نخستین مطالعهای است که میزان کلی محتوای تولیدشده توسط هوش مصنوعی را در فرایند داوری یک مجله علمی برآورد میکند.
این مطالعه نشان داد که از نوامبر ۲۰۲۲ که «چتجیپیتی» بهعنوان نخستین مدل زبانی بزرگ در دسترس عموم قرار گرفته، ارسال مقالات ۴۲ درصد افزایش یافته و این افزایش عمدتاً ناشی از استفاده از هوش مصنوعی بوده است. همچنین برآورد شد که تا فوریه (اوایل اسفندماه گذشته)، تعداد مقالاتی که بیش از ۷۰ درصد متن آنها توسط هوش مصنوعی تولید شده، نسبت به اوایل ۲۰۲۴ بیش از دوبرابر شده است. افزون بر این، بیش از ۳۰ درصد گزارشهای داوری نیز حاوی مقداری متن تولیدشده توسط هوش مصنوعی بودهاند.
پژوهشگران دیگری از جمله «ریچارد شی» و «ماریا آنتونیاک» نیز تلاش کردهاند میزان کل محتوای پژوهشی تولیدشده توسط هوش مصنوعی در فضای آنلاین را اندازهگیری کنند؛ کاری که به دلیل حجم عظیم مقالات، تقریباً غیرممکن است. «شی» با استفاده از ابزار تشخیص «پانگرام»، حدود ۵ هزار مقاله علوم زیستپزشکی منتشرشده در سال گذشته در نشریاتی مانند «ساینس» ، «نیچر» و «سل» را بررسی کرد. نتایج تحلیل او که در یک preprint یا پیش چاپ در ژانویه (دیماه) منتشر شده، نشان داد از هر هشت مقاله، یک مورد حاوی بخشی از متن تولیدشده توسط هوش مصنوعی بوده است؛ همچنین که شش مقاله بهطور کامل توسط هوش مصنوعی نوشته شدهاند.
او پیشبینی میکند این نسبت در سالهای آینده افزایش یابد و به مجله نیچر میگوید: «ما در ابتدای یک دوره کاملاً جدید هستیم.
آنچه اکنون میبینیم، نخستین قطرههای طوفانی است که در راه است.»در پیشچاپ دیگری که در ژانویه منتشر شد، «آنتونیاک» و همکارش با استفاده از دو روش تشخیص هوش مصنوعی، بیش از ۱۲۴ هزار مقاله بارگذاریشده در مخزن «آرکایو» (arXiv) بین سالهای ۲۰۲۰ تا ۲۰۲۵ را بررسی کردند. آنها دریافتند که در حوزه علوم رایانه، سهم پیشچاپهای مروری حاوی متن تولیدشده توسط هوش مصنوعی از حدود ۷ درصد در سال ۲۰۲۳ به ۴۳ درصد در سال ۲۰۲۵ رسیده است. در همین بازه، مقالات غیرمروری در این حوزه که شامل چنین متنی بودند، از حدود ۳ درصد به ۲۳ درصد افزایش یافتهاند. البته این مطالعه میان مقالات کاملاً تولیدشده توسط هوش مصنوعی و مقالاتی که فقط بخشی از آنها توسط این فناوری نوشته شده تمایز قائل نشده است.
مسئله مهمتر، نبود روشهای دقیق و قابل اعتماد برای تعیین این است که چه مقدار از کل ادبیات علمی واقعاً توسط هوش مصنوعی تولید شده است. آنتونیاک میگوید: «این موضوع بسیار پیچیده است؛ هم از نظر کمیسازی و هم به این دلیل که شیوههای استفاده از هوش مصنوعی بسیار متنوع هستند.»به گفته «ریچارد شی»، ابزارهای شناسایی باید پیشرفتهتر شوند تا بتوانند با مدلهای روبهبهبود هوش مصنوعی همگام شوند: «مکانیسمهای بیشتری برای انسانی جلوه دادن متن و دور زدن این ابزارها ایجاد خواهد شد.»
در کنار این ابزارها، روشهایی مانند «واترمارکگذاری» نیز میتوانند در آینده به شناسایی استفاده اعلامنشده از هوش مصنوعی کمک کنند. برای نمونه، در یک کنفرانس بزرگ هوش مصنوعی اخیراً از فناوری نوآورانهای برای شناسایی متنهای تولیدشده توسط هوش مصنوعی در گزارشهای داوری استفاده شد که به رد ۴۹۷ مقاله انجامید. با این حال، این ابزارها هنوز در مراحل اولیه توسعه قرار دارند. محمد حسینی پژوهشگر ایرانی دانشگاه نورثوسترن در «شیکاگو» معتقد است: «تا زمانی که این ابزارها نتوانند بهروشنی میان متن تولیدشده توسط هوش مصنوعی و متنی که صرفاً با کمک آن بهبود یافته تمایز بگذارند، باید نسبت به مطالعاتی که میکوشند سهم هوش مصنوعی در ادبیات علمی یا اینترنت را برآورد کنند، با دیده تردید نگریست.»
منبع: فرهیختگان