مدلهای زبانی بزرگ مانند ChatGPT روی حجم وسیعی از دادههای متنی کتابها، وبسایتها و سایر منابع آموزش داده میشوند معمولاً دادهها محرمانه هستند. اکنون در یک مطالعه جدید نشان داده ه با فریبدادن و سوءفاده از یک آسیبپذیری در مدلهای هوش مصنوعی، ممکن آنها دادههای آموزشی خود را طور ناخوه فاش کنند.
محققانی از گوگل (DeepMind) و دانشگاه واشنگتن در تحقیق جدید خود با هدف اندازهگیری میزان دادههای حفظه و پیامدهای آن برای حریم خصوصی و طراحی مدل، تلاش ند تا متوجه شوند مدلها، ازجمله ChatGPT، چه مقدار و چه نوع دادههایی را میتوانند حفظ کنند. محققان در طول تحقیق خود مجموعهای از آسیبپذیریها را در ChatGPT کشف ند از آنها عنوان «حمله واگرایی» یاد ه .
آسیبپذیری ChatGPT و افشای دادههای حساس
![](https://static.digiato.com/digiato/2023/12/ChatGPT-BUg.jpg.webp)
بیان ساده، زمانی محققان از ChatGPT خوهاند تا کلمهای مانند «poem» (معنای شعر) یا «book» (معنای کتاب) را برای همیشه تکرار کند، ابزار هوش مصنوعی کار خود را با تکرار چندینباره آن کلمه شروع میکند.
اما درنهایت، همانطور در تصویر بالا قابل مشاهده ، ChatGPT متن دیگری اغلب شامل رشتههای طولانی از متون آموزشی خود مانند کد، ت نوشتهها و حتی اطلاعات شخصی افراد (مانند نام، آدرس ایمیل و شماره تلفن) میشود، فاش میکند.
OpenAI هنوز نسبت گزارش واکنش نشان نداده و نظر میرسد محققان مطالعه برای انجام تحقیق خود از روشهای خاصی فاده هاند؛ زیرا زمانی ما از ChatGPT درخو یم تا کلمه poem را برای همیشه تکرار کند، هیچ داده آموزشی یا محرمانهای فاش ن. درواقع ChatGPT هنگام ثبت درخو، از کاربران میخواهد تا درخو خود را صورت واضحتری ارائه کنند باوجود، میتوان گفت شاید OpenAI حداقل برخی از مشکلات را برطرف ه .
دیدگاهتان را بنویسید