هوش مصنوعی در رسانه های اجتماعی بیشتر از انسان های واقعی انسانی به نظر می رسد: مطالعه

متن تولید شده توسط هوش مصنوعی یک مطالعه نشان داد که می تواند در رسانه های اجتماعی بیشتر انسان به نظر برسد تا متنی که توسط انسان های واقعی نوشته شده است.

چت‌بات‌ها، مانند ChatGPT بسیار محبوب OpenAI، می‌توانند به طور متقاعدکننده‌ای از مکالمه انسان بر اساس درخواست‌هایی که توسط کاربران داده می‌شود، تقلید کنند. این پلتفرم سال گذشته مورد استفاده قرار گرفت و به عنوان نقطه عطفی برای هوش مصنوعی عمل کرد، و به عموم مردم دسترسی آسان داد تا با رباتی صحبت کنند که می تواند در انجام تکالیف مدرسه یا کار کمک کند و حتی دستور پخت شام را ارائه کند.

محققان در پشت مطالعه ای منتشر شده در مجله علمی Science Advances، که توسط انجمن آمریکایی حمایت می شود پیشرفت علم، در سال 2020 مجذوب ژنراتور متن OpenAI GPT-3 شدند و تلاش کردند تا کشف کنند که آیا انسان ها “می توانند اطلاعات نادرست را از اطلاعات دقیق، ساختار یافته به شکل توییت ها تشخیص دهند” و تعیین کنند که آیا توییت توسط انسان نوشته شده است یا هوش مصنوعی.

به گزارش PsyPost، یکی از نویسندگان این مطالعه، فدریکو ژرمانی از موسسه اخلاق زیست پزشکی و تاریخ پزشکی در دانشگاه زوریخ، گفت که «غافلگیرکننده‌ترین» یافته‌ها این بود که چگونه انسان‌ها به احتمال زیاد توییت‌های تولید شده توسط هوش مصنوعی را به‌عنوان توئیت‌های تولید شده توسط انسان برچسب‌گذاری می‌کنند تا توییت‌هایی که واقعاً توسط انسان ساخته شده‌اند.

انسان ها به تفاوت بین تصاویر واقعی یا تولید شده توسط هوش مصنوعی پی بردند: مطالعه

تصویر هوش مصنوعی

در این عکس تصویری، تصاویر هوش مصنوعی روی یک لپ‌تاپ با کتاب‌هایی در پس‌زمینه دیده می‌شوند. (گتی ایماژ)

ژرمنی گفت: “غافلگیرکننده ترین کشف این بود که شرکت کنندگان اغلب اطلاعات تولید شده توسط هوش مصنوعی را بیشتر از اطلاعات تولید شده توسط یک شخص واقعی تصور می کردند. این نشان می دهد که هوش مصنوعی می تواند شما را متقاعد کند که یک شخص واقعی هستید تا اینکه یک شخص واقعی شما را متقاعد کند که یک شخص واقعی هستید، که این یک یافته جانبی جذاب مطالعه ما است.”

با افزایش سریع استفاده از چت بات، کارشناسان فناوری و رهبران دره سیلیکون زنگ خطر را به صدا درآورده اند که چگونه هوش مصنوعی می تواند از کنترل خارج شود و شاید حتی به پایان تمدن منجر شود. یکی از مهم‌ترین نگرانی‌های کارشناسان این است که چگونه هوش مصنوعی می‌تواند منجر به انتشار اطلاعات نادرست در سراسر اینترنت شود و انسان‌ها را نسبت به چیزی که درست نیست متقاعد کند.

آلتمن رئیس OPENAI توضیح داد که هوش مصنوعی “ترسناک” برای او چه معنایی دارد، اما CHATGPT نمونه های خاص خود را دارد.

ژرمانی به PsyPost گفت: محققان این مطالعه با عنوان “مدل هوش مصنوعی GPT-3 (به ما بهتر از انسان ها اطلاع نمی دهد”) روی این موضوع کار کردند که “چگونه هوش مصنوعی بر چشم انداز اطلاعات تاثیر می گذارد و چگونه مردم اطلاعات و اطلاعات نادرست را درک می کنند و با آنها تعامل می کنند.”

محققان دریافتند 11 موضوعی که دریافتند اغلب مستعد اطلاعات نادرست هستند، مانند فناوری 5G و همه گیری COVID-19و توییت‌های نادرست و درست ایجاد شده توسط GPT-3 و همچنین توییت‌های نادرست و درست نوشته شده توسط انسان را ایجاد کرد.

CHATGPT چیست؟

لوگوی هوش مصنوعی را باز کنید

نشان‌واره OpenAI در وب‌سایت که بر روی صفحه تلفن نمایش داده می‌شود و ChatGPT در AppStore که روی صفحه تلفن نمایش داده می‌شود، در این عکس تصویری که در کراکوف، لهستان در 8 ژوئن 2023 گرفته شده است، دیده می‌شود. (Jakub Porzycki/NurPhoto از طریق گتی ایماژ)

سپس 697 شرکت کننده از کشورهایی مانند ایالات متحده، بریتانیا، ایرلند و کانادا را برای شرکت در یک نظرسنجی جمع آوری کردند. توییت‌ها به شرکت‌کنندگان ارائه شد و از آنها خواسته شد مشخص کنند که آیا این توئیت‌ها حاوی اطلاعات دقیق یا نادرست هستند، و اینکه آیا آنها توسط هوش مصنوعی تولید شده یا به صورت ارگانیک توسط یک انسان ساخته شده‌اند.

“مطالعه ما بر چالش تمایز بین اطلاعات تولید شده توسط هوش مصنوعی و اطلاعات ایجاد شده توسط انسان تاکید می کند. این بر اهمیت ارزیابی انتقادی اطلاعاتی که دریافت می کنیم و اعتماد به منابع قابل اعتماد را برجسته می کند. علاوه بر این، من افراد را تشویق می کنم تا با آنها آشنا شوند. این فن آوری های در حال ظهور برای درک ژرمنی درباره این مطالعه گفت: پتانسیل آنها چه مثبت و چه منفی.

خطرات هوش مصنوعی چیست؟ دریابید که چرا مردم از هوش مصنوعی می ترسند

محققان دریافتند که شرکت کنندگان در تعیین اطلاعات نادرست ساخته شده توسط یک همنوع بهتر از اطلاعات نادرست نوشته شده توسط GPT-3 بودند.

ژرمنی گفت: «یک یافته قابل توجه این بود که اطلاعات نادرست تولید شده توسط هوش مصنوعی قانع‌کننده‌تر از آنچه توسط انسان تولید می‌شد، بود.

شرکت‌کنندگان همچنین احتمال بیشتری داشت که توییت‌هایی را که حاوی اطلاعات دقیقی هستند که توسط هوش مصنوعی تولید شده بودند، تشخیص دهند تا توییت‌های دقیق نوشته شده توسط انسان.

این مطالعه خاطرنشان کرد که علاوه بر «غافلگیرکننده‌ترین» یافته‌های آن مبنی بر اینکه انسان‌ها اغلب نمی‌توانند بین توییت‌های تولید شده توسط هوش مصنوعی و توییت‌های ساخته شده توسط انسان تمایز قائل شوند، اعتماد آنها به تصمیم‌گیری در حین انجام این نظرسنجی کاهش یافت.

کامپیوتر هوش مصنوعی

در این عکس تصویری در 18 ژوئیه 2023، تصاویر هوش مصنوعی روی یک لپ‌تاپ با کتاب‌هایی در پس‌زمینه دیده می‌شوند. (گتی ایماژ )

این مطالعه می‌گوید: «نتایج ما نشان می‌دهد که انسان‌ها نه تنها نمی‌توانند بین متن مصنوعی و متن ارگانیک تمایز قائل شوند، بلکه اعتماد به توانایی‌شان در انجام این کار نیز پس از تلاش برای شناسایی منشأهای مختلف آنها به‌طور قابل‌توجهی کاهش می‌یابد».

هوش مصنوعی چیست؟

محققان گفتند که این احتمالاً به این دلیل است که GPT-3 چگونه متقاعدکننده‌ای می‌تواند از انسان تقلید کند، یا پاسخ‌دهندگان ممکن است هوش سیستم هوش مصنوعی را برای تقلید از انسان دست کم گرفته باشند.

هوش مصنوعی

هوش مصنوعی در آینده نزدیک داده ها را هک می کند. (iStock)

محققان در این مطالعه نوشتند: “پیشنهاد ما این است که وقتی افراد با حجم زیادی از اطلاعات مواجه می شوند، ممکن است احساس غرق شدن کنند و از تلاش برای ارزیابی انتقادی آن دست بکشند. در نتیجه، ممکن است کمتر تلاش کنند بین توییت های مصنوعی و ارگانیک تمایز قائل شوند که منجر به کاهش اعتماد به نفس آنها در شناسایی توییت های مصنوعی می شود.”

محققان خاطرنشان کردند که این سیستم گاهی اوقات از تولید اطلاعات نادرست خودداری می‌کند، اما گاهی اوقات وقتی به آنها گفته می‌شود یک توییت حاوی اطلاعات دقیق ایجاد کند، اطلاعات نادرست تولید می‌کند.

برای دریافت برنامه FOX NEWS اینجا را کلیک کنید

ژرمانی به PsyPost گفت: «در حالی که این موضوع نگرانی‌هایی را در مورد اثربخشی هوش مصنوعی در تولید اطلاعات نادرست متقاعدکننده ایجاد می‌کند، ما هنوز به طور کامل پیامدهای دنیای واقعی را درک نکرده‌ایم. پرداختن به این امر مستلزم انجام مطالعات در مقیاس بزرگتر بر روی پلتفرم‌های رسانه‌های اجتماعی برای مشاهده نحوه تعامل افراد با اطلاعات تولید شده توسط هوش مصنوعی و اینکه چگونه این تعاملات بر رفتار و رعایت توصیه‌های مربوط به سلامت فردی و عمومی تأثیر می‌گذارد، دارد.

منبع

امتیاز به این post
ری اکشن شما چیست ؟
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *