کشف آسیب‌پذیری ChatGPT منجر افشای داده‌های محرمانه می‌شود

مدل‌های زبانی بزرگ مانند ChatGPT روی حجم وسیعی از داده‌های متنی کتاب‌ها، وب‌سایت‌ها و سایر منابع آموزش داده می‌شوند معمولاً داده‌ها محرمانه هستند. اکنون در یک مطالعه جدید نشان داده ه با فریب‌دادن و سوءفاده از یک آسیب‌پذیری در مدل‌های هوش مصنوعی، ممکن آن‌ها داده‌های آموزشی خود را ‌طور ناخوه فاش کنند.

محققانی از گوگل (DeepMind) و دانشگاه واشنگتن در تحقیق جدید خود با هدف اندازه‌گیری میزان داده‌های حفظ‌ه و پیامدهای آن برای حریم خصوصی و طراحی مدل، تلاش ند تا متوجه شوند مدل‌ها، ازجمله ChatGPT، چه مقدار و چه نوع داده‌هایی را می‌توانند حفظ کنند. محققان در طول تحقیق خود مجموعه‌ای از آسیب‌پذیری‌ها را در ChatGPT کشف ند از آن‌ها ‌عنوان «حمله واگرایی» یاد ه .

آسیب‌پذیری ChatGPT و افشای داده‌های حساس

بیان ساده، زمانی محققان از ChatGPT خوه‌اند تا کلمه‌ای مانند «poem» (‌معنای شعر) یا «book» (‌معنای کتاب) را برای همیشه تکرار کند، ابزار هوش مصنوعی کار خود را با تکرار چندین‌باره آن کلمه شروع می‌کند.

اما درنهایت، همان‌طور در تصویر بالا قابل مشاهده ، ChatGPT متن دیگری اغلب شامل رشته‌های طولانی از متون آموزشی خود مانند کد، ت نوشته‌ها و حتی اطلاعات شخصی افراد (مانند نام، آدرس ایمیل و شماره تلفن) می‌شود، فاش می‌کند.

OpenAI هنوز نسبت گزارش واکنش نشان نداده و ‌نظر می‌رسد محققان مطالعه برای انجام تحقیق خود از روش‌های خاصی فاده ه‌اند؛ زیرا زمانی ما از ChatGPT درخو یم تا کلمه‌ poem را برای همیشه تکرار کند، هیچ داده آموزشی یا محرمانه‌ای فاش ن. درواقع ChatGPT هنگام ثبت درخو، از کاربران می‌خواهد تا درخو خود را ‌صورت واضح‌تری ارائه کنند با‌وجود، می‌توان گفت شاید OpenAI حداقل برخی از مشکلات را برطرف ه .

منبع

امتیاز به این post
ری اکشن شما چیست ؟
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *