تعهدات هوش مصنوعی کاخ سفید چگونه جمع می شود؟

این هفته، کاخ سفید اعلام کرد این شرکت «تعهدات داوطلبانه» را از هفت شرکت پیشرو هوش مصنوعی برای مدیریت خطرات ناشی از هوش مصنوعی تضمین کرده است.

موافقت شرکت‌ها – آمازون، آنتروپیک، گوگل، Inflection، Meta، مایکروسافت و OpenAI – با هر چیزی یک گام رو به جلو است. آنها شامل رقبای سرسخت با تفاوت‌های ظریف اما مهم در روش‌های نزدیک شدن به تحقیق و توسعه هوش مصنوعی هستند.

به عنوان مثال، متا آنقدر مشتاق است که مدل های هوش مصنوعی خود را به دست توسعه دهندگان برساند بسیاری از آنها منبع باز هستند، کد خود را در معرض دید همه قرار می دهند تا بتوانند از آن استفاده کنند. آزمایشگاه های دیگر، مانند آنتروپیک، الف محتاط تر رویکرد، انتشار فناوری خود به روش های محدودتر.

اما این تعهدات واقعاً به چه معناست؟ و آیا با توجه به اینکه قانون از آنها حمایت نمی‌کند، احتمالاً در نحوه عملکرد شرکت‌های هوش مصنوعی تغییرات زیادی ایجاد خواهند کرد؟

با توجه به خطرات بالقوه مقررات هوش مصنوعی، جزئیات مهم هستند. بنابراین بیایید نگاهی دقیق‌تر به آنچه در اینجا بر سر آن توافق شده است بیندازیم و تأثیر بالقوه را اندازه‌گیری کنیم.

تعهد 1: شرکت‌ها متعهد می‌شوند که سیستم‌های هوش مصنوعی خود را قبل از انتشار آزمایش‌های امنیتی داخلی و خارجی انجام دهند.

هر یک از این شرکت‌های هوش مصنوعی در حال حاضر آزمایش‌های امنیتی – چیزی که اغلب «تیم قرمز» نامیده می‌شود – مدل‌های خود را قبل از عرضه انجام می‌دهند. در یک سطح، این واقعا یک تعهد جدید نیست. و این یک وعده مبهم است. این با جزئیات زیادی در مورد نوع آزمایش مورد نیاز، یا اینکه چه کسی این آزمایش را انجام خواهد داد، ارائه نمی شود.

که در بیانیه ای همراه با تعهداتکاخ سفید تنها گفت که آزمایش مدل‌های هوش مصنوعی «تا حدی توسط کارشناسان مستقل انجام خواهد شد» و بر خطرات هوش مصنوعی «مانند امنیت زیستی و امنیت سایبری و همچنین اثرات اجتماعی گسترده‌تر آن» تمرکز خواهد شد.

این ایده خوبی است که شرکت‌های هوش مصنوعی را به طور عمومی متعهد به ادامه انجام این نوع آزمایش‌ها و تشویق شفافیت بیشتر در فرآیند آزمایش کنند. و انواع مختلفی از خطرات هوش مصنوعی وجود دارد – مانند خطر استفاده از مدل‌های هوش مصنوعی برای توسعه سلاح‌های زیستی – که مقامات دولتی و نظامی احتمالاً مناسب‌تر از شرکت‌ها برای ارزیابی هستند.

من دوست دارم ببینم صنعت هوش مصنوعی در مورد باتری استاندارد تست های ایمنی، مانند آزمایش های “تکثیر خودکار” که مرکز تحقیقات تراز بر روی مدل های از پیش منتشر شده توسط OpenAI و Anthropic انجام می شود. همچنین می‌خواهم دولت فدرال این نوع آزمایش‌ها را تأمین مالی کند، آزمایش‌هایی که می‌توانند گران باشند و به مهندسانی با تخصص فنی قابل توجه نیاز دارند. در حال حاضر، بسیاری از تست‌های ایمنی توسط شرکت‌ها تامین مالی و نظارت می‌شوند، که سوالات آشکار تضاد منافع را ایجاد می‌کند.

تعهد 2: شرکت ها متعهد می شوند که اطلاعات را در سراسر صنعت و با دولت ها، جامعه مدنی و دانشگاه ها در مورد مدیریت ریسک های هوش مصنوعی به اشتراک بگذارند.

این تعهد نیز کمی مبهم است. تعدادی از این شرکت‌ها در حال حاضر اطلاعات مربوط به مدل‌های هوش مصنوعی خود را منتشر می‌کنند – معمولاً در مقالات دانشگاهی یا پست‌های وبلاگ شرکت‌ها. تعدادی از آنها، از جمله OpenAI و Anthropic، اسنادی به نام «کارت‌های سیستم» را نیز منتشر می‌کنند که مراحلی را که برای ایمن‌تر کردن آن مدل‌ها انجام داده‌اند، تشریح می‌کنند.

اما آنها همچنین اطلاعات خود را در مواردی با استناد به نگرانی های ایمنی دریغ کرده اند. هنگامی که OpenAI آخرین مدل هوش مصنوعی خود، GPT-4 را در سال جاری منتشر کرد، آن را منتشر کرد با آداب و رسوم صنعت شکست و تصمیم گرفت فاش نکند که بر روی چه مقدار داده آموزش دیده است، یا اینکه مدل چقدر بزرگ است (متریکی به نام «پارامترها»). این شرکت اعلام کرد به دلیل نگرانی در مورد رقابت و ایمنی از انتشار این اطلاعات خودداری کرده است. همچنین اتفاقاً از نوع داده هایی است که شرکت های فناوری دوست دارند از رقبا دور نگه دارند.

تحت این تعهدات جدید، آیا شرکت‌های هوش مصنوعی مجبور خواهند شد این نوع اطلاعات را عمومی کنند؟ اگر انجام این کار باعث تسریع مسابقه تسلیحاتی هوش مصنوعی شود، چه؟

من گمان می‌کنم که هدف کاخ سفید کمتر در مورد اجبار شرکت‌ها به افشای تعداد پارامترهای خود و بیشتر تشویق آنها به مبادله اطلاعات با یکدیگر در مورد خطراتی است که مدل‌های آنها دارند (یا نمی‌کنند).

اما حتی این نوع به اشتراک گذاری اطلاعات می تواند مخاطره آمیز باشد. اگر تیم هوش مصنوعی گوگل از استفاده از یک مدل جدید برای مهندسی یک سلاح زیستی مرگبار در طول آزمایش پیش از انتشار جلوگیری کند، آیا باید آن اطلاعات را خارج از گوگل به اشتراک بگذارد؟ آیا این خطر می‌تواند به بازیگران بد ایده بدهد که چگونه می‌توانند یک مدل کمتر محافظت شده برای انجام همان کار پیدا کنند؟

تعهد 3: شرکت ها متعهد به سرمایه گذاری در امنیت سایبری و حفاظت از تهدیدات داخلی برای محافظت از وزن مدل های اختصاصی و منتشر نشده هستند.

این یکی بسیار ساده است، و در میان خودی های هوش مصنوعی که من با آنها صحبت کرده ام بحث برانگیز است. “وزن مدل” یک اصطلاح فنی برای دستورالعمل های ریاضی است که به مدل های هوش مصنوعی توانایی عملکرد را می دهد. وزن ها همان چیزی است که اگر نماینده یک دولت خارجی (یا یک شرکت رقیب) بودید که می خواست نسخه خود ChatGPT یا یک محصول هوش مصنوعی دیگر را بسازد، می خواهید بدزدید. و این چیزی است که شرکت‌های هوش مصنوعی علاقه خاصی به کنترل شدید دارند.

قبلاً مسائلی به خوبی در مورد نشت وزن مدل منتشر شده است. برای مثال، وزن‌های مدل اصلی زبان LLaMA متا عبارت بودند از در 4chan لو رفت و وب سایت های دیگر تنها چند روز پس از انتشار عمومی این مدل. با توجه به خطرات نشت بیشتر – و علاقه ای که سایر کشورها ممکن است به سرقت این فناوری از شرکت های آمریکایی داشته باشند – درخواست از شرکت های هوش مصنوعی برای سرمایه گذاری بیشتر در امنیت خود به نظر می رسد بی فکر است.

تصویر

آدام سلیپسکی از آمازون، گرگ براکمن از OpenAI، نیک کلگ از متا، مصطفی سلیمان از Inflection، داریو آمودی از Anthropic، کنت واکر از گوگل و براد اسمیت از مایکروسافت از سمت چپ به آقای بایدن گوش دادند.اعتبار…آنا مانی میکر/گتی ایماژ

تعهد 4: شرکت‌ها متعهد می‌شوند که کشف و گزارش شخص ثالث آسیب‌پذیری‌ها در سیستم‌های هوش مصنوعی خود را تسهیل کنند.

من واقعاً مطمئن نیستم که این به چه معنی است. هر شرکت هوش مصنوعی پس از انتشار، آسیب‌پذیری‌هایی را در مدل‌های خود کشف کرده است، معمولاً به این دلیل که کاربران سعی می‌کنند کارهای بدی با مدل‌ها انجام دهند یا گاردریل‌های آن‌ها را دور بزنند (عملی به نام «جیل بریک») به روش‌هایی که شرکت‌ها پیش‌بینی نکرده بودند.

تعهد کاخ سفید از شرکت‌ها می‌خواهد که یک «مکانیسم گزارش‌دهی قوی» برای این آسیب‌پذیری‌ها ایجاد کنند، اما مشخص نیست که چه معنایی می‌تواند داشته باشد. دکمه بازخورد درون برنامه ای، شبیه به دکمه هایی که به کاربران فیس بوک و توییتر اجازه می دهد تا پست های نقض کننده قوانین را گزارش کنند؟ یک برنامه پاداش باگ، مانند آن OpenAI امسال آغاز شد برای پاداش دادن به کاربرانی که نقص هایی در سیستم های آن پیدا می کنند؟ یک چیز دیگر؟ باید منتظر جزئیات بیشتر باشیم.

تعهد 5: شرکت‌ها متعهد به توسعه مکانیسم‌های فنی قوی هستند تا اطمینان حاصل کنند که کاربران از زمانی که محتوا تولید می‌شود، مانند سیستم واترمارکینگ، می‌دانند.

این ایده جالبی است اما جای زیادی برای تفسیر باقی می گذارد. تاکنون، شرکت‌های هوش مصنوعی برای ابداع ابزارهایی تلاش کرده‌اند که به مردم اجازه می‌دهد بفهمند که آیا به محتوای تولید شده توسط هوش مصنوعی نگاه می‌کنند یا نه. دلایل فنی خوبی برای این وجود دارد، اما زمانی که مردم می‌توانند کارهای تولید شده توسط هوش مصنوعی را به عنوان کارهای خود واگذار کنند، یک مشکل واقعی است. (از هر معلم دبیرستانی بپرسید.) و بسیاری از ابزارهایی که در حال حاضر به عنوان توانایی تشخیص خروجی های هوش مصنوعی تبلیغ می شوند. واقعا نمی تواند این کار را انجام دهد با هر درجه دقت

من خوشبین نیستم که این مشکل به طور کامل قابل رفع باشد. اما خوشحالم که شرکت ها متعهد می شوند روی آن کار کنند.

تعهد 6: شرکت ها متعهد می شوند که قابلیت ها، محدودیت ها و زمینه های استفاده مناسب و نامناسب سیستم های هوش مصنوعی خود را به صورت عمومی گزارش دهند.

یکی دیگر از تعهدات معقول با فضای زیاد. هر چند وقت یک‌بار شرکت‌ها ملزم به گزارش در مورد قابلیت‌ها و محدودیت‌های سیستم‌های خود خواهند بود؟ این اطلاعات چقدر باید دقیق باشد؟ و با توجه به اینکه بسیاری از شرکت‌هایی که سیستم‌های هوش مصنوعی می‌سازند بعد از این واقعیت از قابلیت‌های سیستم‌های خود شگفت‌زده شده‌اند، واقعاً چقدر می‌توان انتظار داشت که آنها را از قبل توصیف کنند؟

تعهد 7: شرکت‌ها متعهد می‌شوند تحقیقات در مورد خطرات اجتماعی که سیستم‌های هوش مصنوعی می‌توانند ایجاد کنند، از جمله در مورد اجتناب از سوگیری و تبعیض مضر و حفاظت از حریم خصوصی، اولویت‌بندی کنند.

تعهد به “اولویت بندی تحقیقات” به همان اندازه که یک تعهد مبهم است. با این حال، من مطمئن هستم که این تعهد مورد استقبال بسیاری از اعضای گروه اخلاق هوش مصنوعی قرار خواهد گرفت، زیرا از شرکت‌های هوش مصنوعی می‌خواهند که پیشگیری از آسیب‌های کوتاه‌مدت مانند تعصب و تبعیض را به جای نگرانی در مورد سناریوهای روز قیامت اولویت دهند، همانطور که افراد ایمنی هوش مصنوعی انجام می‌دهند.

اگر تفاوت بین «اخلاق هوش مصنوعی» و «ایمنی هوش مصنوعی» گیج شده‌اید، فقط بدانید که دو جناح متخاصم در جامعه تحقیقاتی هوش مصنوعی وجود دارد، که هر کدام فکر می‌کنند دیگری بر جلوگیری از انواع نادرست آسیب‌ها متمرکز است.

تعهد 8: شرکت ها متعهد به توسعه و استقرار سیستم های هوش مصنوعی پیشرفته برای کمک به رسیدگی به بزرگترین چالش های جامعه هستند.

من فکر نمی کنم بسیاری از مردم استدلال کنند که هوش مصنوعی پیشرفته باید این کار را انجام دهد نه برای کمک به مقابله با بزرگترین چالش های جامعه استفاده شود. کاخ سفید «پیشگیری از سرطان» و «کاهش تغییرات آب و هوایی» را به عنوان دو مورد از مواردی که می‌خواهد شرکت‌های هوش مصنوعی تلاش‌های خود را متمرکز کنند، فهرست می‌کند و در آنجا هیچ اختلاف نظری از سوی من نخواهد شد.

با این حال، آنچه این هدف را تا حدودی پیچیده می‌کند این است که در تحقیقات هوش مصنوعی، آنچه که بی‌اهمیت به نظر می‌رسد اغلب پیامدهای جدی‌تری دارد. برخی از فناوری‌هایی که در DeepMind’s AlphaGo – یک سیستم هوش مصنوعی که برای انجام بازی رومیزی Go آموزش داده شده است- وارد شد. معلوم شد مفید است در پیش‌بینی ساختارهای سه‌بعدی پروتئین‌ها، کشف بزرگی که تحقیقات علمی پایه را تقویت کرد.

به طور کلی، معامله کاخ سفید با شرکت های هوش مصنوعی بیشتر نمادین به نظر می رسد تا اساسی. هیچ مکانیسم اجرایی برای اطمینان از اینکه شرکت ها از این تعهدات پیروی می کنند وجود ندارد و بسیاری از آنها منعکس کننده اقدامات احتیاطی هستند که شرکت های هوش مصنوعی در حال حاضر انجام می دهند.

با این حال، این یک قدم اول معقول است. و موافقت با پیروی از این قوانین نشان می‌دهد که شرکت‌های هوش مصنوعی از شکست‌های شرکت‌های فناوری قبلی که منتظر بودند تا با دولت درگیر شوند، درس گرفته‌اند. در واشنگتن، حداقل در مواردی که به مقررات فنی مربوط می شود، زودتر ظاهر شدن مفید است.

منبع

امتیاز به این post
ری اکشن شما چیست ؟
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *