اگر هنوز باور ندارید که مدلهای هوش مصنوعی قابل اطمینان نیستند، کافیست به مصاحبه جدید معاون گوگل در بریتانیا توجه کنید. او اعلام کرده است که به اطلاعات ارائهشده توسط بارد نمیتوان اعتماد کرد و بهتر است این اطلاعات را در موتور جستجوی گوگل راستیآزمایی کنید.
«دبی واینستین»، معاون گوگل در بریتانیا، در مصاحبهای با BBC میگوید چتبات بارد باید بهعنوان ابزاری آزمایشی بهمنظور کمک به حل مسئله و خلق ایدههای جدید استفاده شود. بهنظر میرسد که این شرکت قصد ندارد از این چتبات بهعنوان منبعی برای کسب اطلاعات خاص استفاده کند.
واینستین میگوید در کنار راستیآزمایی پاسخهای بارد، بهتر است در هنگام استفاده از این چتبات از دکمههای تأیید یا رد پاسخها هم استفاده کنید تا عملکرد این هوش مصنوعی را بهبود ببخشید.
گوگل کسب اطلاعات از بارد را پیشنهاد نمیکند؟
با وجود اینکه در صفحه اصلی چتبات گوگل بارد اشاره شده که این ابزار ممکن است همیشه پاسخهای درستی به شما ندهد، ولی توصیهای درباره راستیآزمایی وجود ندارد. البته حرف واینستین منطقی است، چون هوشهای مصنوعی مولد با مشکل بزرگ توهم روبهرو هستند و میتوانند پاسخهای اشتباه را به شما ارائه کنند. پیشتر دو وکیل از اطلاعات غلط ChatGPT در یک پرونده استفاده کرده و بابت آن جریمه شده بودند.
بنابراین راستیآزمایی ایده بدی نیست. اما پیشنهاد آن از سوی یک مدیر ارشد گوگل نگرانکننده بهنظر میرسد. بارد در اصل قرار بود جایگزینی برای موتورهای جستجو باشد و از آن برای کسب اطلاعات استفاده شود. استفاده کاربران از بارد هم تقریباً به همین منظور بوده است.
حرفهای واینستین حتی در تناقض با برنامههایی بهنظر میرسد که این شرکت در خلال رویداد I/O 2023 از آنها پرده برداشت. این شرکت در آن مراسم نشان داد که بارد چگونه میتواند جستجوهای گوگل را بهبود ببخشد و پاسخهای عمیقی را درباره موضوعات مختلف ارائه کند. عملکرد صحیح این قابلیتها نیازمند ارائه اطلاعات درست از سوی هوش مصنوعی است.
با توجه به اینکه واینستین یکی از معاونان گوگل است، صحبتهای او نباید بیپایه و اساس باشد. درنتیجه باید منتظر بمانیم تا ببینیم جایگاه بارد در برنامههای آینده این شرکت چگونه خواهد بود.
دیدگاهتان را بنویسید