کاخ سفید روز جمعه اعلام کرد، هفت شرکت پیشرو هوش مصنوعی در ایالات متحده با پادمانهای داوطلبانه در مورد توسعه این فناوری موافقت کردهاند و متعهد شدند که خطرات ابزارهای جدید را حتی در شرایطی که بر سر پتانسیل هوش مصنوعی رقابت میکنند، مدیریت کنند.
هفت شرکت – آمازون، آنتروپیک، گوگل، فلکشن، متا، مایکروسافت و OpenAI – به طور رسمی در نشستی با رئیس جمهور بایدن در کاخ سفید بعدازظهر جمعه به استانداردهای جدید برای ایمنی، امنیت و اعتماد متعهد شدند.
آقای بایدن در اظهارات کوتاهی از اتاق روزولت در کاخ سفید گفت: «ما باید در مورد تهدیدات ناشی از فناوریهای نوظهور که میتوانند برای دموکراسی و ارزشهای ما ایجاد کنند، آگاه و هوشیار باشیم.
«این یک مسئولیت جدی است. ما باید آن را به درستی انجام دهیم.» او در کنار مدیران این شرکت ها گفت. “و همچنین پتانسیل عظیم و عظیمی وجود دارد.”
این اعلامیه در حالی منتشر میشود که شرکتها در حال رقابت برای پیشی گرفتن از یکدیگر با نسخههایی از هوش مصنوعی هستند که راههای جدید قدرتمندی برای ایجاد متن، عکس، موسیقی و ویدیو بدون دخالت انسان ارائه میدهند. اما جهش های تکنولوژیکی باعث ترس از انتشار اطلاعات نادرست و هشدارهای وحشتناک در مورد “خطر انقراض” شده است زیرا هوش مصنوعی پیچیده تر و شبیه انسان می شود.
پادمان های داوطلبانه تنها یک گام اولیه و آزمایشی است زیرا واشنگتن و دولت های سراسر جهان به دنبال ایجاد چارچوب های قانونی و نظارتی برای توسعه هوش مصنوعی هستند. این توافقنامه ها شامل آزمایش محصولات برای خطرات امنیتی و استفاده از واترمارک برای اطمینان از اینکه مصرف کنندگان می توانند مواد تولید شده توسط هوش مصنوعی را تشخیص دهند، می شود.
اما قانونگذاران برای تنظیم رسانههای اجتماعی و سایر فناوریها به شیوههایی که با فناوری بهسرعت در حال تکامل همگام باشند، تلاش کردهاند.
کاخ سفید هیچ جزئیاتی از فرمان اجرایی آتی ریاست جمهوری ارائه نکرد که هدف آن مقابله با مشکل دیگری است: چگونگی کنترل توانایی چین و سایر رقبا برای دستیابی به برنامه های جدید هوش مصنوعی یا اجزای مورد استفاده برای توسعه آنها.
انتظار میرود این دستور شامل محدودیتهای جدید در نیمهرساناهای پیشرفته و محدودیتهایی در صادرات مدلهای زبان بزرگ باشد. ایمن کردن آنها سخت است – بسیاری از نرمافزارها میتوانند روی یک درایو انگشت شست، فشرده شوند.
یک فرمان اجرایی میتواند بیش از تعهدات داوطلبانه روز جمعه، که به گفته کارشناسان در رویههای شرکتهای درگیر منعکس شده بود، مخالفتهای صنعت را برانگیزد. این وعده ها برنامه های شرکت های هوش مصنوعی را محدود نمی کند و مانع توسعه فناوری های آنها نمی شود. و به عنوان تعهدات داوطلبانه، آنها توسط تنظیم کننده های دولتی اجرا نمی شوند.
نیک کلگ، رئیس امور جهانی در متا، شرکت مادر فیس بوک، در بیانیه ای گفت: «ما از انجام این تعهدات داوطلبانه در کنار سایرین در این بخش خرسندیم. آنها اولین گام مهم در حصول اطمینان از ایجاد حفاظ های مسئول برای هوش مصنوعی هستند و الگویی را برای سایر دولت ها ایجاد می کنند تا از آن پیروی کنند.
به عنوان بخشی از پادمانها، شرکتها با آزمایش امنیتی، تا حدی توسط کارشناسان مستقل موافقت کردند. تحقیق در مورد تعصب و نگرانی های حفظ حریم خصوصی؛ به اشتراک گذاری اطلاعات در مورد خطرات با دولت ها و سایر سازمان ها؛ توسعه ابزار برای مبارزه با چالش های اجتماعی مانند تغییرات آب و هوا؛ و اقدامات شفافیت برای شناسایی مواد تولید شده توسط هوش مصنوعی.
دولت بایدن در بیانیه ای که این توافقنامه ها را اعلام کرد، گفت: شرکت ها باید اطمینان حاصل کنند که «نوآوری به ضرر حقوق و امنیت آمریکایی ها تمام نمی شود».
دولت در بیانیهای گفت: «شرکتهایی که در حال توسعه این فناوریهای نوظهور هستند، مسئولیت دارند که از ایمن بودن محصولات خود اطمینان حاصل کنند.
برد اسمیت، رئیس مایکروسافت و یکی از مدیران شرکت کننده در جلسه کاخ سفید، گفت که شرکت او از پادمان های داوطلبانه حمایت می کند.
آقای اسمیت گفت: «تعهدات کاخ سفید با حرکت سریع، پایهای را ایجاد میکند تا اطمینان حاصل شود که وعده هوش مصنوعی جلوتر از خطراتش میماند».
آنا ماکانجو، معاون امور جهانی در OpenAI، این اعلامیه را بخشی از همکاری مداوم ما با دولتها، سازمانهای جامعه مدنی و سایرین در سراسر جهان برای پیشبرد حکمرانی هوش مصنوعی توصیف کرد.
برای این شرکتها، استانداردهای توصیفشده روز جمعه دو هدف را دنبال میکنند: تلاشی برای جلوگیری یا شکلدهی به حرکتهای قانونی و نظارتی با نظارت بر خود، و سیگنالی مبنی بر اینکه آنها با فناوری جدید به طور متفکرانه و پیشگیرانه برخورد میکنند.
اما قوانینی که آنها در مورد آنها توافق کردند تا حد زیادی کمترین مخرج مشترک هستند و هر شرکتی می تواند آن را متفاوت تفسیر کند. به عنوان مثال، شرکتها متعهد به اقدامات سختگیرانه امنیت سایبری در مورد دادههای مورد استفاده برای ساخت مدلهای زبانی هستند که برنامههای هوش مصنوعی مولد بر اساس آن توسعه مییابند. اما هیچ مشخصه ای در مورد معنای آن وجود ندارد و شرکت ها به هر حال علاقه مند به حفاظت از مالکیت معنوی خود هستند.
و حتی مراقب ترین شرکت ها نیز آسیب پذیر هستند. مایکروسافت، یکی از شرکتهایی که با آقای بایدن در مراسم کاخ سفید شرکت کرد، هفته گذشته برای مقابله با هک سازماندهی شده توسط دولت چین در ایمیل های خصوصی مقامات آمریکایی که با چین سروکار داشتند. اکنون به نظر می رسد که چین یک “کلید خصوصی” را که توسط مایکروسافت نگهداری می شود و کلید احراز هویت ایمیل ها است – یکی از دقیق ترین کدهای این شرکت – به سرقت برده یا به نوعی به دست آورده است.
با توجه به چنین خطراتی، بعید به نظر میرسد که توافق تلاشها برای تصویب قوانین و اعمال مقررات بر فناوری نوظهور را کند کند.
پل بارت، معاون مرکز استرن برای تجارت و حقوق بشر در دانشگاه نیویورک، گفت که برای محافظت در برابر خطراتی که هوش مصنوعی برای جامعه ایجاد می کند، باید اقدامات بیشتری انجام شود.
آقای بارت در بیانیه ای گفت: «تعهدات داوطلبانه اعلام شده امروز قابل اجرا نیستند، به همین دلیل ضروری است که کنگره، همراه با کاخ سفید، به سرعت قوانینی را تدوین کنند که نیازمند شفافیت، حفاظت از حریم خصوصی، و تحقیقات بیشتر در مورد طیف وسیعی از خطرات ناشی از هوش مصنوعی مولد است.
قانونگذاران اروپایی در اواخر سال جاری قوانین هوش مصنوعی را تصویب میکنند، که باعث شده بسیاری از شرکتها مقررات ایالات متحده را تشویق کنند. چندین قانونگذار لوایحی را ارائه کرده اند که شامل صدور مجوز برای شرکت های هوش مصنوعی برای انتشار فناوری های خود، ایجاد یک آژانس فدرال برای نظارت بر صنعت و الزامات حفظ حریم خصوصی داده ها می شود. اما اعضای کنگره از توافق بر سر قوانین فاصله زیادی دارند.
قانونگذاران با چگونگی رسیدگی به رشد فناوری هوش مصنوعی دست و پنجه نرم می کنند، برخی از آنها بر خطرات برای مصرف کنندگان تمرکز کرده اند و برخی دیگر به شدت نگران عقب ماندن از دشمنان، به ویژه چین، در رقابت برای تسلط در این زمینه هستند.
این هفته، کمیته رقابت با چین مجلس نمایندگان، نامههای دو حزبی را به شرکتهای سرمایهگذاری خطرپذیر مستقر در ایالات متحده ارسال کرد و خواستار محاسبه سرمایهگذاریهایی شد که در شرکتهای هوش مصنوعی و نیمهرساناهای چینی انجام دادهاند. برای ماهها، گروههای مختلف مجلس نمایندگان و سنا از تأثیرگذارترین کارآفرینان و منتقدان صنعت هوش مصنوعی سؤال میکردند تا مشخص کنند کنگره باید چه نوع محافظهای قانونی و مشوقهایی را بررسی کند.
بسیاری از آن شاهدان، از جمله سم آلتمن از OpenAI، از قانونگذاران درخواست کرده اند تا صنعت هوش مصنوعی را تنظیم کنند و به پتانسیل این فناوری جدید برای ایجاد آسیب های ناروا اشاره کنند. اما این مقررات در کنگره به کندی اجرا میشود، جایی که بسیاری از قانونگذاران هنوز در تلاش برای درک دقیق فناوری هوش مصنوعی هستند.
در تلاش برای بهبود درک قانونگذاران، سناتور چاک شومر، دموکرات نیویورک و رهبر اکثریت، مجموعهای از جلسات را تابستان امسال آغاز کرد تا از مقامات دولتی و کارشناسان درباره مزیتها و خطرات هوش مصنوعی در تعدادی از زمینهها بشنود.
کارون دمیرجیان گزارشی از واشنگتن ارائه کرد.
دیدگاهتان را بنویسید