متن تولید شده توسط هوش مصنوعی یک مطالعه نشان داد که می تواند در رسانه های اجتماعی بیشتر انسان به نظر برسد تا متنی که توسط انسان های واقعی نوشته شده است.
چتباتها، مانند ChatGPT بسیار محبوب OpenAI، میتوانند به طور متقاعدکنندهای از مکالمه انسان بر اساس درخواستهایی که توسط کاربران داده میشود، تقلید کنند. این پلتفرم سال گذشته مورد استفاده قرار گرفت و به عنوان نقطه عطفی برای هوش مصنوعی عمل کرد، و به عموم مردم دسترسی آسان داد تا با رباتی صحبت کنند که می تواند در انجام تکالیف مدرسه یا کار کمک کند و حتی دستور پخت شام را ارائه کند.
محققان در پشت مطالعه ای منتشر شده در مجله علمی Science Advances، که توسط انجمن آمریکایی حمایت می شود پیشرفت علم، در سال 2020 مجذوب ژنراتور متن OpenAI GPT-3 شدند و تلاش کردند تا کشف کنند که آیا انسان ها “می توانند اطلاعات نادرست را از اطلاعات دقیق، ساختار یافته به شکل توییت ها تشخیص دهند” و تعیین کنند که آیا توییت توسط انسان نوشته شده است یا هوش مصنوعی.
به گزارش PsyPost، یکی از نویسندگان این مطالعه، فدریکو ژرمانی از موسسه اخلاق زیست پزشکی و تاریخ پزشکی در دانشگاه زوریخ، گفت که «غافلگیرکنندهترین» یافتهها این بود که چگونه انسانها به احتمال زیاد توییتهای تولید شده توسط هوش مصنوعی را بهعنوان توئیتهای تولید شده توسط انسان برچسبگذاری میکنند تا توییتهایی که واقعاً توسط انسان ساخته شدهاند.
انسان ها به تفاوت بین تصاویر واقعی یا تولید شده توسط هوش مصنوعی پی بردند: مطالعه
ژرمنی گفت: “غافلگیرکننده ترین کشف این بود که شرکت کنندگان اغلب اطلاعات تولید شده توسط هوش مصنوعی را بیشتر از اطلاعات تولید شده توسط یک شخص واقعی تصور می کردند. این نشان می دهد که هوش مصنوعی می تواند شما را متقاعد کند که یک شخص واقعی هستید تا اینکه یک شخص واقعی شما را متقاعد کند که یک شخص واقعی هستید، که این یک یافته جانبی جذاب مطالعه ما است.”
با افزایش سریع استفاده از چت بات، کارشناسان فناوری و رهبران دره سیلیکون زنگ خطر را به صدا درآورده اند که چگونه هوش مصنوعی می تواند از کنترل خارج شود و شاید حتی به پایان تمدن منجر شود. یکی از مهمترین نگرانیهای کارشناسان این است که چگونه هوش مصنوعی میتواند منجر به انتشار اطلاعات نادرست در سراسر اینترنت شود و انسانها را نسبت به چیزی که درست نیست متقاعد کند.
ژرمانی به PsyPost گفت: محققان این مطالعه با عنوان “مدل هوش مصنوعی GPT-3 (به ما بهتر از انسان ها اطلاع نمی دهد”) روی این موضوع کار کردند که “چگونه هوش مصنوعی بر چشم انداز اطلاعات تاثیر می گذارد و چگونه مردم اطلاعات و اطلاعات نادرست را درک می کنند و با آنها تعامل می کنند.”
محققان دریافتند 11 موضوعی که دریافتند اغلب مستعد اطلاعات نادرست هستند، مانند فناوری 5G و همه گیری COVID-19و توییتهای نادرست و درست ایجاد شده توسط GPT-3 و همچنین توییتهای نادرست و درست نوشته شده توسط انسان را ایجاد کرد.
سپس 697 شرکت کننده از کشورهایی مانند ایالات متحده، بریتانیا، ایرلند و کانادا را برای شرکت در یک نظرسنجی جمع آوری کردند. توییتها به شرکتکنندگان ارائه شد و از آنها خواسته شد مشخص کنند که آیا این توئیتها حاوی اطلاعات دقیق یا نادرست هستند، و اینکه آیا آنها توسط هوش مصنوعی تولید شده یا به صورت ارگانیک توسط یک انسان ساخته شدهاند.
“مطالعه ما بر چالش تمایز بین اطلاعات تولید شده توسط هوش مصنوعی و اطلاعات ایجاد شده توسط انسان تاکید می کند. این بر اهمیت ارزیابی انتقادی اطلاعاتی که دریافت می کنیم و اعتماد به منابع قابل اعتماد را برجسته می کند. علاوه بر این، من افراد را تشویق می کنم تا با آنها آشنا شوند. این فن آوری های در حال ظهور برای درک ژرمنی درباره این مطالعه گفت: پتانسیل آنها چه مثبت و چه منفی.
خطرات هوش مصنوعی چیست؟ دریابید که چرا مردم از هوش مصنوعی می ترسند
محققان دریافتند که شرکت کنندگان در تعیین اطلاعات نادرست ساخته شده توسط یک همنوع بهتر از اطلاعات نادرست نوشته شده توسط GPT-3 بودند.
ژرمنی گفت: «یک یافته قابل توجه این بود که اطلاعات نادرست تولید شده توسط هوش مصنوعی قانعکنندهتر از آنچه توسط انسان تولید میشد، بود.
شرکتکنندگان همچنین احتمال بیشتری داشت که توییتهایی را که حاوی اطلاعات دقیقی هستند که توسط هوش مصنوعی تولید شده بودند، تشخیص دهند تا توییتهای دقیق نوشته شده توسط انسان.
این مطالعه خاطرنشان کرد که علاوه بر «غافلگیرکنندهترین» یافتههای آن مبنی بر اینکه انسانها اغلب نمیتوانند بین توییتهای تولید شده توسط هوش مصنوعی و توییتهای ساخته شده توسط انسان تمایز قائل شوند، اعتماد آنها به تصمیمگیری در حین انجام این نظرسنجی کاهش یافت.
این مطالعه میگوید: «نتایج ما نشان میدهد که انسانها نه تنها نمیتوانند بین متن مصنوعی و متن ارگانیک تمایز قائل شوند، بلکه اعتماد به تواناییشان در انجام این کار نیز پس از تلاش برای شناسایی منشأهای مختلف آنها بهطور قابلتوجهی کاهش مییابد».
محققان گفتند که این احتمالاً به این دلیل است که GPT-3 چگونه متقاعدکنندهای میتواند از انسان تقلید کند، یا پاسخدهندگان ممکن است هوش سیستم هوش مصنوعی را برای تقلید از انسان دست کم گرفته باشند.
محققان در این مطالعه نوشتند: “پیشنهاد ما این است که وقتی افراد با حجم زیادی از اطلاعات مواجه می شوند، ممکن است احساس غرق شدن کنند و از تلاش برای ارزیابی انتقادی آن دست بکشند. در نتیجه، ممکن است کمتر تلاش کنند بین توییت های مصنوعی و ارگانیک تمایز قائل شوند که منجر به کاهش اعتماد به نفس آنها در شناسایی توییت های مصنوعی می شود.”
محققان خاطرنشان کردند که این سیستم گاهی اوقات از تولید اطلاعات نادرست خودداری میکند، اما گاهی اوقات وقتی به آنها گفته میشود یک توییت حاوی اطلاعات دقیق ایجاد کند، اطلاعات نادرست تولید میکند.
برای دریافت برنامه FOX NEWS اینجا را کلیک کنید
ژرمانی به PsyPost گفت: «در حالی که این موضوع نگرانیهایی را در مورد اثربخشی هوش مصنوعی در تولید اطلاعات نادرست متقاعدکننده ایجاد میکند، ما هنوز به طور کامل پیامدهای دنیای واقعی را درک نکردهایم. پرداختن به این امر مستلزم انجام مطالعات در مقیاس بزرگتر بر روی پلتفرمهای رسانههای اجتماعی برای مشاهده نحوه تعامل افراد با اطلاعات تولید شده توسط هوش مصنوعی و اینکه چگونه این تعاملات بر رفتار و رعایت توصیههای مربوط به سلامت فردی و عمومی تأثیر میگذارد، دارد.
دیدگاهتان را بنویسید