این هفته، کاخ سفید اعلام کرد این شرکت «تعهدات داوطلبانه» را از هفت شرکت پیشرو هوش مصنوعی برای مدیریت خطرات ناشی از هوش مصنوعی تضمین کرده است.
موافقت شرکتها – آمازون، آنتروپیک، گوگل، Inflection، Meta، مایکروسافت و OpenAI – با هر چیزی یک گام رو به جلو است. آنها شامل رقبای سرسخت با تفاوتهای ظریف اما مهم در روشهای نزدیک شدن به تحقیق و توسعه هوش مصنوعی هستند.
به عنوان مثال، متا آنقدر مشتاق است که مدل های هوش مصنوعی خود را به دست توسعه دهندگان برساند بسیاری از آنها منبع باز هستند، کد خود را در معرض دید همه قرار می دهند تا بتوانند از آن استفاده کنند. آزمایشگاه های دیگر، مانند آنتروپیک، الف محتاط تر رویکرد، انتشار فناوری خود به روش های محدودتر.
اما این تعهدات واقعاً به چه معناست؟ و آیا با توجه به اینکه قانون از آنها حمایت نمیکند، احتمالاً در نحوه عملکرد شرکتهای هوش مصنوعی تغییرات زیادی ایجاد خواهند کرد؟
با توجه به خطرات بالقوه مقررات هوش مصنوعی، جزئیات مهم هستند. بنابراین بیایید نگاهی دقیقتر به آنچه در اینجا بر سر آن توافق شده است بیندازیم و تأثیر بالقوه را اندازهگیری کنیم.
تعهد 1: شرکتها متعهد میشوند که سیستمهای هوش مصنوعی خود را قبل از انتشار آزمایشهای امنیتی داخلی و خارجی انجام دهند.
هر یک از این شرکتهای هوش مصنوعی در حال حاضر آزمایشهای امنیتی – چیزی که اغلب «تیم قرمز» نامیده میشود – مدلهای خود را قبل از عرضه انجام میدهند. در یک سطح، این واقعا یک تعهد جدید نیست. و این یک وعده مبهم است. این با جزئیات زیادی در مورد نوع آزمایش مورد نیاز، یا اینکه چه کسی این آزمایش را انجام خواهد داد، ارائه نمی شود.
که در بیانیه ای همراه با تعهداتکاخ سفید تنها گفت که آزمایش مدلهای هوش مصنوعی «تا حدی توسط کارشناسان مستقل انجام خواهد شد» و بر خطرات هوش مصنوعی «مانند امنیت زیستی و امنیت سایبری و همچنین اثرات اجتماعی گستردهتر آن» تمرکز خواهد شد.
این ایده خوبی است که شرکتهای هوش مصنوعی را به طور عمومی متعهد به ادامه انجام این نوع آزمایشها و تشویق شفافیت بیشتر در فرآیند آزمایش کنند. و انواع مختلفی از خطرات هوش مصنوعی وجود دارد – مانند خطر استفاده از مدلهای هوش مصنوعی برای توسعه سلاحهای زیستی – که مقامات دولتی و نظامی احتمالاً مناسبتر از شرکتها برای ارزیابی هستند.
من دوست دارم ببینم صنعت هوش مصنوعی در مورد باتری استاندارد تست های ایمنی، مانند آزمایش های “تکثیر خودکار” که مرکز تحقیقات تراز بر روی مدل های از پیش منتشر شده توسط OpenAI و Anthropic انجام می شود. همچنین میخواهم دولت فدرال این نوع آزمایشها را تأمین مالی کند، آزمایشهایی که میتوانند گران باشند و به مهندسانی با تخصص فنی قابل توجه نیاز دارند. در حال حاضر، بسیاری از تستهای ایمنی توسط شرکتها تامین مالی و نظارت میشوند، که سوالات آشکار تضاد منافع را ایجاد میکند.
تعهد 2: شرکت ها متعهد می شوند که اطلاعات را در سراسر صنعت و با دولت ها، جامعه مدنی و دانشگاه ها در مورد مدیریت ریسک های هوش مصنوعی به اشتراک بگذارند.
این تعهد نیز کمی مبهم است. تعدادی از این شرکتها در حال حاضر اطلاعات مربوط به مدلهای هوش مصنوعی خود را منتشر میکنند – معمولاً در مقالات دانشگاهی یا پستهای وبلاگ شرکتها. تعدادی از آنها، از جمله OpenAI و Anthropic، اسنادی به نام «کارتهای سیستم» را نیز منتشر میکنند که مراحلی را که برای ایمنتر کردن آن مدلها انجام دادهاند، تشریح میکنند.
اما آنها همچنین اطلاعات خود را در مواردی با استناد به نگرانی های ایمنی دریغ کرده اند. هنگامی که OpenAI آخرین مدل هوش مصنوعی خود، GPT-4 را در سال جاری منتشر کرد، آن را منتشر کرد با آداب و رسوم صنعت شکست و تصمیم گرفت فاش نکند که بر روی چه مقدار داده آموزش دیده است، یا اینکه مدل چقدر بزرگ است (متریکی به نام «پارامترها»). این شرکت اعلام کرد به دلیل نگرانی در مورد رقابت و ایمنی از انتشار این اطلاعات خودداری کرده است. همچنین اتفاقاً از نوع داده هایی است که شرکت های فناوری دوست دارند از رقبا دور نگه دارند.
تحت این تعهدات جدید، آیا شرکتهای هوش مصنوعی مجبور خواهند شد این نوع اطلاعات را عمومی کنند؟ اگر انجام این کار باعث تسریع مسابقه تسلیحاتی هوش مصنوعی شود، چه؟
من گمان میکنم که هدف کاخ سفید کمتر در مورد اجبار شرکتها به افشای تعداد پارامترهای خود و بیشتر تشویق آنها به مبادله اطلاعات با یکدیگر در مورد خطراتی است که مدلهای آنها دارند (یا نمیکنند).
اما حتی این نوع به اشتراک گذاری اطلاعات می تواند مخاطره آمیز باشد. اگر تیم هوش مصنوعی گوگل از استفاده از یک مدل جدید برای مهندسی یک سلاح زیستی مرگبار در طول آزمایش پیش از انتشار جلوگیری کند، آیا باید آن اطلاعات را خارج از گوگل به اشتراک بگذارد؟ آیا این خطر میتواند به بازیگران بد ایده بدهد که چگونه میتوانند یک مدل کمتر محافظت شده برای انجام همان کار پیدا کنند؟
تعهد 3: شرکت ها متعهد به سرمایه گذاری در امنیت سایبری و حفاظت از تهدیدات داخلی برای محافظت از وزن مدل های اختصاصی و منتشر نشده هستند.
این یکی بسیار ساده است، و در میان خودی های هوش مصنوعی که من با آنها صحبت کرده ام بحث برانگیز است. “وزن مدل” یک اصطلاح فنی برای دستورالعمل های ریاضی است که به مدل های هوش مصنوعی توانایی عملکرد را می دهد. وزن ها همان چیزی است که اگر نماینده یک دولت خارجی (یا یک شرکت رقیب) بودید که می خواست نسخه خود ChatGPT یا یک محصول هوش مصنوعی دیگر را بسازد، می خواهید بدزدید. و این چیزی است که شرکتهای هوش مصنوعی علاقه خاصی به کنترل شدید دارند.
قبلاً مسائلی به خوبی در مورد نشت وزن مدل منتشر شده است. برای مثال، وزنهای مدل اصلی زبان LLaMA متا عبارت بودند از در 4chan لو رفت و وب سایت های دیگر تنها چند روز پس از انتشار عمومی این مدل. با توجه به خطرات نشت بیشتر – و علاقه ای که سایر کشورها ممکن است به سرقت این فناوری از شرکت های آمریکایی داشته باشند – درخواست از شرکت های هوش مصنوعی برای سرمایه گذاری بیشتر در امنیت خود به نظر می رسد بی فکر است.
تعهد 4: شرکتها متعهد میشوند که کشف و گزارش شخص ثالث آسیبپذیریها در سیستمهای هوش مصنوعی خود را تسهیل کنند.
من واقعاً مطمئن نیستم که این به چه معنی است. هر شرکت هوش مصنوعی پس از انتشار، آسیبپذیریهایی را در مدلهای خود کشف کرده است، معمولاً به این دلیل که کاربران سعی میکنند کارهای بدی با مدلها انجام دهند یا گاردریلهای آنها را دور بزنند (عملی به نام «جیل بریک») به روشهایی که شرکتها پیشبینی نکرده بودند.
تعهد کاخ سفید از شرکتها میخواهد که یک «مکانیسم گزارشدهی قوی» برای این آسیبپذیریها ایجاد کنند، اما مشخص نیست که چه معنایی میتواند داشته باشد. دکمه بازخورد درون برنامه ای، شبیه به دکمه هایی که به کاربران فیس بوک و توییتر اجازه می دهد تا پست های نقض کننده قوانین را گزارش کنند؟ یک برنامه پاداش باگ، مانند آن OpenAI امسال آغاز شد برای پاداش دادن به کاربرانی که نقص هایی در سیستم های آن پیدا می کنند؟ یک چیز دیگر؟ باید منتظر جزئیات بیشتر باشیم.
تعهد 5: شرکتها متعهد به توسعه مکانیسمهای فنی قوی هستند تا اطمینان حاصل کنند که کاربران از زمانی که محتوا تولید میشود، مانند سیستم واترمارکینگ، میدانند.
این ایده جالبی است اما جای زیادی برای تفسیر باقی می گذارد. تاکنون، شرکتهای هوش مصنوعی برای ابداع ابزارهایی تلاش کردهاند که به مردم اجازه میدهد بفهمند که آیا به محتوای تولید شده توسط هوش مصنوعی نگاه میکنند یا نه. دلایل فنی خوبی برای این وجود دارد، اما زمانی که مردم میتوانند کارهای تولید شده توسط هوش مصنوعی را به عنوان کارهای خود واگذار کنند، یک مشکل واقعی است. (از هر معلم دبیرستانی بپرسید.) و بسیاری از ابزارهایی که در حال حاضر به عنوان توانایی تشخیص خروجی های هوش مصنوعی تبلیغ می شوند. واقعا نمی تواند این کار را انجام دهد با هر درجه دقت
من خوشبین نیستم که این مشکل به طور کامل قابل رفع باشد. اما خوشحالم که شرکت ها متعهد می شوند روی آن کار کنند.
تعهد 6: شرکت ها متعهد می شوند که قابلیت ها، محدودیت ها و زمینه های استفاده مناسب و نامناسب سیستم های هوش مصنوعی خود را به صورت عمومی گزارش دهند.
یکی دیگر از تعهدات معقول با فضای زیاد. هر چند وقت یکبار شرکتها ملزم به گزارش در مورد قابلیتها و محدودیتهای سیستمهای خود خواهند بود؟ این اطلاعات چقدر باید دقیق باشد؟ و با توجه به اینکه بسیاری از شرکتهایی که سیستمهای هوش مصنوعی میسازند بعد از این واقعیت از قابلیتهای سیستمهای خود شگفتزده شدهاند، واقعاً چقدر میتوان انتظار داشت که آنها را از قبل توصیف کنند؟
تعهد 7: شرکتها متعهد میشوند تحقیقات در مورد خطرات اجتماعی که سیستمهای هوش مصنوعی میتوانند ایجاد کنند، از جمله در مورد اجتناب از سوگیری و تبعیض مضر و حفاظت از حریم خصوصی، اولویتبندی کنند.
تعهد به “اولویت بندی تحقیقات” به همان اندازه که یک تعهد مبهم است. با این حال، من مطمئن هستم که این تعهد مورد استقبال بسیاری از اعضای گروه اخلاق هوش مصنوعی قرار خواهد گرفت، زیرا از شرکتهای هوش مصنوعی میخواهند که پیشگیری از آسیبهای کوتاهمدت مانند تعصب و تبعیض را به جای نگرانی در مورد سناریوهای روز قیامت اولویت دهند، همانطور که افراد ایمنی هوش مصنوعی انجام میدهند.
اگر تفاوت بین «اخلاق هوش مصنوعی» و «ایمنی هوش مصنوعی» گیج شدهاید، فقط بدانید که دو جناح متخاصم در جامعه تحقیقاتی هوش مصنوعی وجود دارد، که هر کدام فکر میکنند دیگری بر جلوگیری از انواع نادرست آسیبها متمرکز است.
تعهد 8: شرکت ها متعهد به توسعه و استقرار سیستم های هوش مصنوعی پیشرفته برای کمک به رسیدگی به بزرگترین چالش های جامعه هستند.
من فکر نمی کنم بسیاری از مردم استدلال کنند که هوش مصنوعی پیشرفته باید این کار را انجام دهد نه برای کمک به مقابله با بزرگترین چالش های جامعه استفاده شود. کاخ سفید «پیشگیری از سرطان» و «کاهش تغییرات آب و هوایی» را به عنوان دو مورد از مواردی که میخواهد شرکتهای هوش مصنوعی تلاشهای خود را متمرکز کنند، فهرست میکند و در آنجا هیچ اختلاف نظری از سوی من نخواهد شد.
با این حال، آنچه این هدف را تا حدودی پیچیده میکند این است که در تحقیقات هوش مصنوعی، آنچه که بیاهمیت به نظر میرسد اغلب پیامدهای جدیتری دارد. برخی از فناوریهایی که در DeepMind’s AlphaGo – یک سیستم هوش مصنوعی که برای انجام بازی رومیزی Go آموزش داده شده است- وارد شد. معلوم شد مفید است در پیشبینی ساختارهای سهبعدی پروتئینها، کشف بزرگی که تحقیقات علمی پایه را تقویت کرد.
به طور کلی، معامله کاخ سفید با شرکت های هوش مصنوعی بیشتر نمادین به نظر می رسد تا اساسی. هیچ مکانیسم اجرایی برای اطمینان از اینکه شرکت ها از این تعهدات پیروی می کنند وجود ندارد و بسیاری از آنها منعکس کننده اقدامات احتیاطی هستند که شرکت های هوش مصنوعی در حال حاضر انجام می دهند.
با این حال، این یک قدم اول معقول است. و موافقت با پیروی از این قوانین نشان میدهد که شرکتهای هوش مصنوعی از شکستهای شرکتهای فناوری قبلی که منتظر بودند تا با دولت درگیر شوند، درس گرفتهاند. در واشنگتن، حداقل در مواردی که به مقررات فنی مربوط می شود، زودتر ظاهر شدن مفید است.
دیدگاهتان را بنویسید