کد خبر: ۶۰۸۱۶
تاریخ انتشار: ۲۶ دی ۱۴۰۱ - ۱۱:۴۳
روش‌های نوین تقلب!
یک چت بات هوش مصنوعی می‌تواند چنان چکیده‌های مقاله تحقیقاتی جعلی قانع‌کننده‌ای بنویسد که دانشمندان اغلب قادر به شناسایی آنها نیستند.

 آوای نشاط: چت بات ChatGPT، یک متن واقع بینانه و هوشمند در پاسخ به درخواست های کاربر ایجاد می کند. ChatGPT سیستمی مبتنی بر شبکه‌های عصبی است که یاد می‌گیرند با هضم مقادیر عظیمی از متن‌های تولید شده توسط انسان، درخواست مورد نظر را تولید کند. شرکت نرم افزاری OpenAI مستقر در سانفرانسیسکو، کالیفرنیا، این ابزار را در 30 نوامبر منتشر کرد و استفاده از آن رایگان است.

 اکنون، گروهی به سرپرستی کاترین گائو در دانشگاه نورث وسترن در شیکاگو، از ChatGPT برای تولید چکیده‌های مقاله تحقیقاتی برای آزمایش اینکه آیا دانشمندان می‌توانند آنها را تشخیص دهند یا خیر استفاده کرده‌اند. محققان از چت بات خواستند تا 50 چکیده تحقیقاتی پزشکی را بر اساس منتخبی که در JAMA، The New England Journal of Medicine، BMJ، The Lancet و Nature Medicine منتشر شده بنویسد. سپس از طریق نرم افزار تشخیص سرقت ادبی و یک آشکارساز خروجی هوش مصنوعی، موارد تولید شده را با چکیده های اصلی مقایسه کردند و از محققان پزشکی خواستند تا چکیده های ساخته شده را شناسایی کنند.

چکیده های ایجاد شده توسط ChatGPT در جستجوگر سرقت ادبی میانگین امتیاز اصالت 100درصد گرفتند؛ که نشان می دهد هیچ سرقت ادبی شناسایی نشده است.

 آشکارساز خروجی هوش مصنوعی 66درصد چکیده های تولید شده را شناسایی کرد. اما بازبینان انسانی بهتر عمل نکردند؛ آنها تنها 68درصد از چکیده های تولید شده و 86 درصد از چکیده های واقعی را به درستی شناسایی کردند. آنها به اشتباه 32درصد از چکیده های تولید شده را واقعی و 14 درصد از چکیده های واقعی را به عنوان تولید شده شناسایی کردند.

ساندرا واچر که در دانشگاه آکسفورد انگلستان در زمینه فناوری و مقررات تحصیل می کند گفت: «من بسیار نگران هستم. اگر اکنون در شرایطی هستیم که کارشناسان نتوانند تشخیص دهند که چه چیزی درست است یا غلط، واسطه ای را که برای راهنمایی در زمینه موضوعات پیچیده علمی نیاز داریم از دست خواهیم داد.»

وی افزود: اگر دانشمندان نتوانند صحت تحقیق را تعیین کنند، عواقب وحشتناکی در پی دارد. علاوه بر مشکل‌ساز بودن برای محققان، پیامدهایی برای جامعه هم هست؛ زیرا تحقیقات علمی نقش بزرگی در جامعه ما ایفا می‌کند. برای مثال، می تواند به این معنی باشد که تصمیمات سیاستی مبتنی بر تحقیق نادرست هستند.

 آرویند نارایانان دانشمند کامپیوتر در دانشگاه پرینستون در نیوجرسی معتقد است که دانشمندان حقیقی از ChatGPT برای تولید چکیده استفاده نخواهند کرد و سوال اینجاست که آیا این ابزار می‌تواند چکیده‌ای درست و قانع‌کننده ایجاد کند یا خیر.

برچسب ها: ربات ، تقلب ، هوش مصنوعی
نظرات بینندگان
نام:
ایمیل:
* نظر: