نخستین مطالعاتی که اندازه نفوذ هوش مصنوعی را در مجلات علمی، مخازن پیش‌چاپ و گزارش‌های داوری علمی بررسی کرده‌اند، پاسخ‌های متفاوتی ارائه می‌دهند.

باشگاه خبرنگاران جوان - چه سهمی از متون علمی به‌وسیله هوش مصنوعی تولید می‌شود؟ پاسخ آن‌چنان ساده و در دسترس نیست. نخستین مطالعاتی که اندازه نفوذ هوش مصنوعی را در مجلات علمی، مخازن پیش‌چاپ و گزارش‌های داوری علمی بررسی کرده‌اند، پاسخ‌های متفاوتی ارائه می‌دهند. اما در عین حال یک نکته مهم مشترک دارند؛ اینکه وضعیت به‌سرعت در حال تغییر است و به‌سختی می‌توان تصویر دقیقی از آن به دست آورد.

همین امر هم موجب شده تا بسیاری از دغدغه‌مندان جامعه علمی نگران پژوهش‌های کم‌کیفیت یا حتی کاملاً ساختگی توسط «مدل‌های زبانی بزرگ» یا همان LLM‌ها باشند؛ آن هم در برهه‌ای که افزایش تولید این جنس از مستندات علمی می‌تواند نظام‌های راستی‌آزمایی و بررسی کیفیت را تحت فشار قرار دهد و فضای علمی را آلوده کند. «ماریا آنتونیاک» دانشمند علوم رایانه در «دانشگاه کلرادو بولدر» در گفت‌وگو با مجله نیچر می‌گوید: «زمینی که زیر پای ماست در حال تغییر است، آن هم به شیوه‌ای که ما اصلاً برای آن آماده نیستیم.»

«ریچارد شی»، زیست‌شناس سلول‌های بنیادی در «دانشگاه فنی نانیانگ» سنگاپور هم معتقد است: ما در جریان یک رقابت جدی و در حال تشدید زندگی می‌کنیم؛ بین افرادی که از هوش مصنوعی به‌صورت نادرست استفاده می‌کنند و کسانی که در تلاشند آن را مهار یا شناسایی کنند. نگرانی‌ها درباره میزان محتوای تولیدشده توسط هوش مصنوعی در ادبیات علمی، بازتابی از روند‌های گسترده‌تر در فضای آنلاین است. بر اساس تحلیلی از شرکت خصوصی «گرافیت» (Graphite) که ۵۵ هزار صفحه وب را بررسی و نتایج کار را در اواخر ماه مارس (فروردین) منتشر کرده، تعداد مقالات نوشته‌شده توسط هوش مصنوعی در اینترنت از مقالات نوشته‌شده توسط انسان پیشی گرفته است.

تعداد مقالات ارسالی به یک مجله معتبر علمی از زمان ظهور ChatGPT ۴۰ درصد افزایش یافته است.

هوش مصنوعی می‌تواند کاربرد‌های مشروعی در تولید متون علمی داشته باشد و حتی روند پژوهش را تسریع کند. اما در عین حال، محتوای تولیدشده توسط آن می‌تواند مشکل‌ساز باشد، زیرا امکان تولید مقالات جعلی یا کم‌کیفیت را فراهم می‌کند. این کاربری دوگانه شبیه به چاقو، باعث شده تا پژوهشگران به ابزار‌های شناسایی هوش مصنوعی روی آورده‌اند تا ابعاد نحوه و میزان استفاده از هوش مصنوعی در تولیدات علمی را اندازه‌گیری کنند. با این حال، برخی از این ابزار‌ها نمی‌توانند میان متنی که صرفاً با کمک هوش مصنوعی ویرایش شده و متنی که کاملاً توسط آن تولید شده تمایز قائل شوند. 

همچنین، تعریف‌ها از متن تولیدشده توسط هوش مصنوعی در این سامانه‌ها متفاوت است و گاهی متون نوشته‌شده توسط انسان را نیز به‌اشتباه در این دسته قرار می‌دهند. البته با وجود این محدودیت‌ها، این ابزار‌ها می‌توانند تصویری کلی از روند‌های استفاده از هوش مصنوعی ارائه دهند.

در مطالعه‌ای که در ۲۷‌ آوریل منتشر شد، پژوهشگران با استفاده از ابزاری که توسط «پانگرام لبز» (Pangram Labs) در «نیویورک» توسعه یافته، نزدیک به ۷ هزار چکیده مقاله و حدود ۸ هزار گزارش داوری ارسالی به نشریه «اورگنایزیشن ساینس» (Organization Science) را بین ژانویه ۲۰۲۱ تا فوریه ۲۰۲۶ بررسی کردند. پژوهشگران این مطالعه معتقدند این نخستین مطالعه‌ای است که میزان کلی محتوای تولیدشده توسط هوش مصنوعی را در فرایند داوری یک مجله علمی برآورد می‌کند.

این مطالعه نشان داد که از نوامبر ۲۰۲۲ که «چت‌جی‌پی‌تی» به‌عنوان نخستین مدل زبانی بزرگ در دسترس عموم قرار گرفته، ارسال مقالات ۴۲ درصد افزایش یافته و این افزایش عمدتاً ناشی از استفاده از هوش مصنوعی بوده است. همچنین برآورد شد که تا فوریه (اوایل اسفندماه گذشته)، تعداد مقالاتی که بیش از ۷۰ درصد متن آن‌ها توسط هوش مصنوعی تولید شده، نسبت به اوایل ۲۰۲۴ بیش از دوبرابر شده است. افزون بر این، بیش از ۳۰ درصد گزارش‌های داوری نیز حاوی مقداری متن تولیدشده توسط هوش مصنوعی بوده‌اند.

پژوهشگران دیگری از جمله «ریچارد شی» و «ماریا آنتونیاک» نیز تلاش کرده‌اند میزان کل محتوای پژوهشی تولیدشده توسط هوش مصنوعی در فضای آنلاین را اندازه‌گیری کنند؛ کاری که به دلیل حجم عظیم مقالات، تقریباً غیرممکن است. «شی» با استفاده از ابزار تشخیص «پانگرام»، حدود ۵ هزار مقاله علوم زیست‌پزشکی منتشرشده در سال گذشته در نشریاتی مانند «ساینس» ، «نیچر» و «سل» را بررسی کرد. نتایج تحلیل او که در یک preprint یا پیش چاپ در ژانویه (دی‌ماه) منتشر شده، نشان داد از هر هشت مقاله، یک مورد حاوی بخشی از متن تولیدشده توسط هوش مصنوعی بوده است؛ همچنین که شش مقاله به‌طور کامل توسط هوش مصنوعی نوشته شده‌اند.

او پیش‌بینی می‌کند این نسبت در سال‌های آینده افزایش یابد و به مجله نیچر می‌گوید: «ما در ابتدای یک دوره کاملاً جدید هستیم.

 آنچه اکنون می‌بینیم، نخستین قطره‌های طوفانی است که در راه است.»در پیش‌چاپ دیگری که در ژانویه منتشر شد، «آنتونیاک» و همکارش با استفاده از دو روش تشخیص هوش مصنوعی، بیش از ۱۲۴ هزار مقاله بارگذاری‌شده در مخزن «آرکایو» (arXiv) بین سال‌های ۲۰۲۰ تا ۲۰۲۵ را بررسی کردند. آن‌ها دریافتند که در حوزه علوم رایانه، سهم پیش‌چاپ‌های مروری حاوی متن تولیدشده توسط هوش مصنوعی از حدود ۷ درصد در سال ۲۰۲۳ به ۴۳ درصد در سال ۲۰۲۵ رسیده است. در همین بازه، مقالات غیرمروری در این حوزه که شامل چنین متنی بودند، از حدود ۳ درصد به ۲۳ درصد افزایش یافته‌اند. البته این مطالعه میان مقالات کاملاً تولیدشده توسط هوش مصنوعی و مقالاتی که فقط بخشی از آن‌ها توسط این فناوری نوشته شده تمایز قائل نشده است.

چالش‌های نبود ابزار‌های دقیق  در بررسی‌ها

مسئله مهم‌تر، نبود روش‌های دقیق و قابل اعتماد برای تعیین این است که چه مقدار از کل ادبیات علمی واقعاً توسط هوش مصنوعی تولید شده است. آنتونیاک می‌گوید: «این موضوع بسیار پیچیده است؛ هم از نظر کمی‌سازی و هم به این دلیل که شیوه‌های استفاده از هوش مصنوعی بسیار متنوع هستند.»به گفته «ریچارد شی»، ابزار‌های شناسایی باید پیشرفته‌تر شوند تا بتوانند با مدل‌های رو‌به‌بهبود هوش مصنوعی همگام شوند: «مکانیسم‌های بیشتری برای انسانی جلوه دادن متن و دور زدن این ابزار‌ها ایجاد خواهد شد.» 

در کنار این ابزار‌ها، روش‌هایی مانند «واترمارک‌گذاری» نیز می‌توانند در آینده به شناسایی استفاده اعلام‌نشده از هوش مصنوعی کمک کنند. برای نمونه، در یک کنفرانس بزرگ هوش مصنوعی اخیراً از فناوری نوآورانه‌ای برای شناسایی متن‌های تولیدشده توسط هوش مصنوعی در گزارش‌های داوری استفاده شد که به رد ۴۹۷ مقاله انجامید. با این حال، این ابزار‌ها هنوز در مراحل اولیه توسعه قرار دارند. محمد حسینی پژوهشگر ایرانی دانشگاه نورث‌وسترن در «شیکاگو» معتقد است: «تا زمانی که این ابزار‌ها نتوانند به‌روشنی میان متن تولیدشده توسط هوش مصنوعی و متنی که صرفاً با کمک آن بهبود یافته تمایز بگذارند، باید نسبت به مطالعاتی که می‌کوشند سهم هوش مصنوعی در ادبیات علمی یا اینترنت را برآورد کنند، با دیده تردید نگریست.»

منبع: فرهیختگان 

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
captcha
آخرین اخبار