تحت فشار بایدن، شرکت‌های هوش مصنوعی با حفاظ ابزارهای جدید موافقت کردند

کاخ سفید روز جمعه اعلام کرد، هفت شرکت پیشرو هوش مصنوعی در ایالات متحده با پادمان‌های داوطلبانه در مورد توسعه این فناوری موافقت کرده‌اند و متعهد شدند که خطرات ابزارهای جدید را حتی در شرایطی که بر سر پتانسیل هوش مصنوعی رقابت می‌کنند، مدیریت کنند.

هفت شرکت – آمازون، آنتروپیک، گوگل، فلکشن، متا، مایکروسافت و OpenAI – به طور رسمی در نشستی با رئیس جمهور بایدن در کاخ سفید بعدازظهر جمعه به استانداردهای جدید برای ایمنی، امنیت و اعتماد متعهد شدند.

آقای بایدن در اظهارات کوتاهی از اتاق روزولت در کاخ سفید گفت: «ما باید در مورد تهدیدات ناشی از فناوری‌های نوظهور که می‌توانند برای دموکراسی و ارزش‌های ما ایجاد کنند، آگاه و هوشیار باشیم.

«این یک مسئولیت جدی است. ما باید آن را به درستی انجام دهیم.» او در کنار مدیران این شرکت ها گفت. “و همچنین پتانسیل عظیم و عظیمی وجود دارد.”

این اعلامیه در حالی منتشر می‌شود که شرکت‌ها در حال رقابت برای پیشی گرفتن از یکدیگر با نسخه‌هایی از هوش مصنوعی هستند که راه‌های جدید قدرتمندی برای ایجاد متن، عکس، موسیقی و ویدیو بدون دخالت انسان ارائه می‌دهند. اما جهش های تکنولوژیکی باعث ترس از انتشار اطلاعات نادرست و هشدارهای وحشتناک در مورد “خطر انقراض” شده است زیرا هوش مصنوعی پیچیده تر و شبیه انسان می شود.

پادمان های داوطلبانه تنها یک گام اولیه و آزمایشی است زیرا واشنگتن و دولت های سراسر جهان به دنبال ایجاد چارچوب های قانونی و نظارتی برای توسعه هوش مصنوعی هستند. این توافقنامه ها شامل آزمایش محصولات برای خطرات امنیتی و استفاده از واترمارک برای اطمینان از اینکه مصرف کنندگان می توانند مواد تولید شده توسط هوش مصنوعی را تشخیص دهند، می شود.

اما قانون‌گذاران برای تنظیم رسانه‌های اجتماعی و سایر فناوری‌ها به شیوه‌هایی که با فناوری به‌سرعت در حال تکامل همگام باشند، تلاش کرده‌اند.

کاخ سفید هیچ جزئیاتی از فرمان اجرایی آتی ریاست جمهوری ارائه نکرد که هدف آن مقابله با مشکل دیگری است: چگونگی کنترل توانایی چین و سایر رقبا برای دستیابی به برنامه های جدید هوش مصنوعی یا اجزای مورد استفاده برای توسعه آنها.

انتظار می‌رود این دستور شامل محدودیت‌های جدید در نیمه‌رساناهای پیشرفته و محدودیت‌هایی در صادرات مدل‌های زبان بزرگ باشد. ایمن کردن آن‌ها سخت است – بسیاری از نرم‌افزارها می‌توانند روی یک درایو انگشت شست، فشرده شوند.

یک فرمان اجرایی می‌تواند بیش از تعهدات داوطلبانه روز جمعه، که به گفته کارشناسان در رویه‌های شرکت‌های درگیر منعکس شده بود، مخالفت‌های صنعت را برانگیزد. این وعده ها برنامه های شرکت های هوش مصنوعی را محدود نمی کند و مانع توسعه فناوری های آنها نمی شود. و به عنوان تعهدات داوطلبانه، آنها توسط تنظیم کننده های دولتی اجرا نمی شوند.

تصویرلوگوی شرکت متا، یک علامت بی نهایت آبی، روی بیلبورد بیرون یک پارک اداری.
متا، شرکت مادر فیس بوک، از جمله شرکت هایی است که با استانداردهای داوطلبانه موافقت کرده است.اعتبار…جیم ویلسون / نیویورک تایمز

نیک کلگ، رئیس امور جهانی در متا، شرکت مادر فیس بوک، در بیانیه ای گفت: «ما از انجام این تعهدات داوطلبانه در کنار سایرین در این بخش خرسندیم. آنها اولین گام مهم در حصول اطمینان از ایجاد حفاظ های مسئول برای هوش مصنوعی هستند و الگویی را برای سایر دولت ها ایجاد می کنند تا از آن پیروی کنند.

به عنوان بخشی از پادمان‌ها، شرکت‌ها با آزمایش امنیتی، تا حدی توسط کارشناسان مستقل موافقت کردند. تحقیق در مورد تعصب و نگرانی های حفظ حریم خصوصی؛ به اشتراک گذاری اطلاعات در مورد خطرات با دولت ها و سایر سازمان ها؛ توسعه ابزار برای مبارزه با چالش های اجتماعی مانند تغییرات آب و هوا؛ و اقدامات شفافیت برای شناسایی مواد تولید شده توسط هوش مصنوعی.

دولت بایدن در بیانیه ای که این توافقنامه ها را اعلام کرد، گفت: شرکت ها باید اطمینان حاصل کنند که «نوآوری به ضرر حقوق و امنیت آمریکایی ها تمام نمی شود».

دولت در بیانیه‌ای گفت: «شرکت‌هایی که در حال توسعه این فناوری‌های نوظهور هستند، مسئولیت دارند که از ایمن بودن محصولات خود اطمینان حاصل کنند.

برد اسمیت، رئیس مایکروسافت و یکی از مدیران شرکت کننده در جلسه کاخ سفید، گفت که شرکت او از پادمان های داوطلبانه حمایت می کند.

آقای اسمیت گفت: «تعهدات کاخ سفید با حرکت سریع، پایه‌ای را ایجاد می‌کند تا اطمینان حاصل شود که وعده هوش مصنوعی جلوتر از خطراتش می‌ماند».

آنا ماکانجو، معاون امور جهانی در OpenAI، این اعلامیه را بخشی از همکاری مداوم ما با دولت‌ها، سازمان‌های جامعه مدنی و سایرین در سراسر جهان برای پیشبرد حکمرانی هوش مصنوعی توصیف کرد.

برای این شرکت‌ها، استانداردهای توصیف‌شده روز جمعه دو هدف را دنبال می‌کنند: تلاشی برای جلوگیری یا شکل‌دهی به حرکت‌های قانونی و نظارتی با نظارت بر خود، و سیگنالی مبنی بر اینکه آنها با فناوری جدید به طور متفکرانه و پیشگیرانه برخورد می‌کنند.

اما قوانینی که آنها در مورد آنها توافق کردند تا حد زیادی کمترین مخرج مشترک هستند و هر شرکتی می تواند آن را متفاوت تفسیر کند. به عنوان مثال، شرکت‌ها متعهد به اقدامات سختگیرانه امنیت سایبری در مورد داده‌های مورد استفاده برای ساخت مدل‌های زبانی هستند که برنامه‌های هوش مصنوعی مولد بر اساس آن توسعه می‌یابند. اما هیچ مشخصه ای در مورد معنای آن وجود ندارد و شرکت ها به هر حال علاقه مند به حفاظت از مالکیت معنوی خود هستند.

و حتی مراقب ترین شرکت ها نیز آسیب پذیر هستند. مایکروسافت، یکی از شرکت‌هایی که با آقای بایدن در مراسم کاخ سفید شرکت کرد، هفته گذشته برای مقابله با هک سازماندهی شده توسط دولت چین در ایمیل های خصوصی مقامات آمریکایی که با چین سروکار داشتند. اکنون به نظر می رسد که چین یک “کلید خصوصی” را که توسط مایکروسافت نگهداری می شود و کلید احراز هویت ایمیل ها است – یکی از دقیق ترین کدهای این شرکت – به سرقت برده یا به نوعی به دست آورده است.

با توجه به چنین خطراتی، بعید به نظر می‌رسد که توافق تلاش‌ها برای تصویب قوانین و اعمال مقررات بر فناوری نوظهور را کند کند.

پل بارت، معاون مرکز استرن برای تجارت و حقوق بشر در دانشگاه نیویورک، گفت که برای محافظت در برابر خطراتی که هوش مصنوعی برای جامعه ایجاد می کند، باید اقدامات بیشتری انجام شود.

آقای بارت در بیانیه ای گفت: «تعهدات داوطلبانه اعلام شده امروز قابل اجرا نیستند، به همین دلیل ضروری است که کنگره، همراه با کاخ سفید، به سرعت قوانینی را تدوین کنند که نیازمند شفافیت، حفاظت از حریم خصوصی، و تحقیقات بیشتر در مورد طیف وسیعی از خطرات ناشی از هوش مصنوعی مولد است.

قانون‌گذاران اروپایی در اواخر سال جاری قوانین هوش مصنوعی را تصویب می‌کنند، که باعث شده بسیاری از شرکت‌ها مقررات ایالات متحده را تشویق کنند. چندین قانونگذار لوایحی را ارائه کرده اند که شامل صدور مجوز برای شرکت های هوش مصنوعی برای انتشار فناوری های خود، ایجاد یک آژانس فدرال برای نظارت بر صنعت و الزامات حفظ حریم خصوصی داده ها می شود. اما اعضای کنگره از توافق بر سر قوانین فاصله زیادی دارند.

قانونگذاران با چگونگی رسیدگی به رشد فناوری هوش مصنوعی دست و پنجه نرم می کنند، برخی از آنها بر خطرات برای مصرف کنندگان تمرکز کرده اند و برخی دیگر به شدت نگران عقب ماندن از دشمنان، به ویژه چین، در رقابت برای تسلط در این زمینه هستند.

این هفته، کمیته رقابت با چین مجلس نمایندگان، نامه‌های دو حزبی را به شرکت‌های سرمایه‌گذاری خطرپذیر مستقر در ایالات متحده ارسال کرد و خواستار محاسبه سرمایه‌گذاری‌هایی شد که در شرکت‌های هوش مصنوعی و نیمه‌رساناهای چینی انجام داده‌اند. برای ماه‌ها، گروه‌های مختلف مجلس نمایندگان و سنا از تأثیرگذارترین کارآفرینان و منتقدان صنعت هوش مصنوعی سؤال می‌کردند تا مشخص کنند کنگره باید چه نوع محافظ‌های قانونی و مشوق‌هایی را بررسی کند.

بسیاری از آن شاهدان، از جمله سم آلتمن از OpenAI، از قانونگذاران درخواست کرده اند تا صنعت هوش مصنوعی را تنظیم کنند و به پتانسیل این فناوری جدید برای ایجاد آسیب های ناروا اشاره کنند. اما این مقررات در کنگره به کندی اجرا می‌شود، جایی که بسیاری از قانون‌گذاران هنوز در تلاش برای درک دقیق فناوری هوش مصنوعی هستند.

در تلاش برای بهبود درک قانون‌گذاران، سناتور چاک شومر، دموکرات نیویورک و رهبر اکثریت، مجموعه‌ای از جلسات را تابستان امسال آغاز کرد تا از مقامات دولتی و کارشناسان درباره مزیت‌ها و خطرات هوش مصنوعی در تعدادی از زمینه‌ها بشنود.

کارون دمیرجیان گزارشی از واشنگتن ارائه کرد.

منبع

امتیاز به این post
ری اکشن شما چیست ؟
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *