هشدار رهبران صنعت هوش مصنوعی: این فناوری ممکن است بشر را به خطر انقراض بیاندازد
گروهی از رهبران بزرگترین شرکتهای فعال در حوزه هوش مصنوعی، با همکاری و هماهنگی، در یک هشدار مشترک به خطراتی که این فناوری ممکن است برای بشریت ایجاد کند، اشاره کردند. آنها با توجه به پیامدهایی که هوش مصنوعی میتواند در آینده داشته باشد، به شدت به وجود آمدن تهدیدی برای بشریت هشدار دادند. این تهدید ممکن است به اندازه گسترش همهگیریهای جهانی یا جنگهای هستهای باشد. نیاز است تا از این ریسک بزرگ با اقداماتی مانند راهاندازی برنامه هایی برای کنترل هوش مصنوعی و تضمین امنیت آن، پیشگیری شود. در این راستا، رهبران هوش مصنوعی نیز باید مسئولیت خود را در این زمینه به عهده بگیرند و با همکاری سایر صنایع و سازمانها، به طور جدی به این مسئله پرداخته و راهحلهای لازم را به کار گیرند.
به گزارش نیویورک تایمز، سازمان غیرانتفاعی Center for AI Safety بیانیهای را در قالب یک نامه سرگشاده یکجملهای منتشر کرده است که میگوید: «کاهش ریسک انقراض توسط هوش مصنوعی باید در کنار سایر ریسکهای بزرگ اجتماعی ازجمله همهگیریها و جنگ هستهای، بهعنوان یک اولویت جهانی در نظر گرفته شود.» این بیانیه توسط بیش از 350 مدیر، محقق و مهندس فعال درزمینه هوش مصنوعی امضا شده است (مشاهده فهرست کامل).
در میان امضاکنندگان این بیانیه میتوان به «سم آلتمن»، مدیرعامل شرکت OpenAI، «دمیس هاسابیس»، مدیرعامل دیپمایند گوگل و «داریو آمودی»، مدیرعامل شرکت Anthropic اشاره کرد. «جفری هینتون» و «یوشوئا بنجیو» که دو برنده جایزه تورینگ درزمینه شبکههای عصبی هستند و اغلب بهعنوان پدرخواندگان هوش مصنوعی مدرن شناخته میشوند نیز این بیانیه را امضا کردهاند.
«دنی هندریکس»، مدیر مرکز ایمنی هوش مصنوعی، میگوید این نامه سرگشاده بالاخره نشان میدهد که چه کسانی واقعاً نگران آینده این فناوری هستند و تاکنون فقط در خفا در این مورد صحبت میکردهاند. او توضیح میدهد: «حتی در خود جامعه هوش مصنوعی، این برداشت اشتباه عمومی وجود دارد که افرادِ نگران فقط جمع کوچکی از افراد بدبین هستند. ولی درواقع خیلی از افراد بهطور خصوصی همین نگرانیها را مطرح میکنند.»
سم آلتمن و دیگر مدیران OpenAI هفته گذشته در مطلبی در وبلاگ این شرکت اعلام کردند که به سازمانی بینالمللی شبیه به آژانس انرژی اتمی نیاز است تا بتواند هوش مصنوعی را در سطح جهانی کنترل کرد. پیشتر نامه سرگشاده دیگری توسط سازمان غیرانتفاعی Future of Life با امضای افرادی مثل ایلان ماسک منتشر شده بود که درخواست توقف توسعه مدلهای پیشرفته هوش مصنوعی را داشت.
همه فعالان هوش مصنوعی از بابت خطرات این فناوری نگرانند
تفاوت این نامه در اینجاست که تنها در یک جمله به بیان یک نگرانی عمومی درباره فناوری هوش مصنوعی پرداخته و از ورود به جزئیاتی که ممکن است بر سر آنها اختلافاتی وجود داشته باشد، خودداری کرده است.
این نامه در شرایطی منتشر میشود که بسیاری از کارشناسان نگران پتانسیلهای خطرناک هوش مصنوعی هستند. پیشرفتهای اخیر درزمینه مدلهای زبانی بزرگ بهویژه از زمان عرضه عمومی چتبات ChatGPT خیلیها را درباره قابلیتهای این نرمافزارها در نشر اطلاعات نادرست یا تهدید مشاغل نگران کرده است.
همین مسئله باعث شده بسیاری از رهبران صنعت هوش مصنوعی با یکدیگر همصدا شوند و درخواست قانونگذاری در این حوزه را مطرح کنند. آلتمن، هاسابیس و آمودی چندی قبل با «جو بایدن»، رئیسجمهور و «کاملا هریس»، معاون اول رئیسجمهور آمریکا، دیدار و پیرامون قانونگذاری در این صنعت صحبت کردند. آلتمن همچنین به کنگره رفت تا درباره همین موضوع با نمایندگان ایالاتمتحده حرف بزند.
منبع:
نظر شما :