OpenAI، سازنده ChatGPT در حال تشکیل یک تیم جدید برای کاهش «خطرات فاجعه آمیز» مرتبط با هوش مصنوعی . گفته شرکت، تیم جدید آمادگی «ردیابی، ارزیابی، پیشبینی و محافظت» مشکلات ناشیه از هوشمصنوعی را خواهد .
همانطور OpenAI در پست خود توضیح میدهد، تیم همچنین برای کاهش «تهدیدات شیمیایی، بیولوژیکی و رادیولوژیکی» و همچنین «تکثیر خودکار» یا عمل تکراری یک هوش مصنوعی کار خواهد . خطرات دیگی گی آنها جزء مسئولیتهای تیم محسوب میشود شامل توانایی هوش مصنوعی در فریب انسانها و همچنین تهدیدات امنیت سایبری میشود.
![](https://static.digiato.com/digiato/2023/10/Open-AI-1024x512.jpg)
OpenAI در پست مینویسد:
«معتقدیم مدلهای هوش مصنوعی پیشتاز قابلیت آنها از پیشرفتهترین مدلهای موجود فراتر خواهد رفت، پتانسیل را دارند برای تمام بشریت مفید باشند. اما آنها همچنین خطرات یدتری را همراه دارند.»
«الکساندر مادری» اکنون از سمت خود عنوان مدیر مرکز یادگیری ماشینی MIT کنارهگیری ه ، تیم را مدیریت میکند. OpenAI همچنین اشاره میکند تیم یک «سی توسعه مبتنی بر ریسک» را توسعه خواهد داد کارهای شرکت برای ارزیابی و نظارت بر مدلهای هوش مصنوعی را تشریح میکند.
«سم آلتمن»، مدیرعامل OpenAI تاکنون بارها درباره احتمال وقوع اتفاقات خطرناک از طریق هوشمصنوعی هار داده . در ماه مه، او همراه محققان دیگری یک بیانیه 22 کلمهای صادر ند میگوید «خطر انقراض توسط هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای اولویت جهانی تبدیل شود». او همچنین در جریان مصاحای گفته دولتها باید با هوش مصنوعی اندازه سلاحهای هستهای «جدی» رفتار کنند.
دیدگاهتان را بنویسید