هشدار رهبران صنعت هوش مصنوعی: این فناوری ممکن است بشر را به خطر انقراض بیاندازد

۱۰ خرداد ۱۴۰۲ | ۰۸:۴۵ کد : ۲۱۹۴۵ تازه های فناوری اطلاعات
تعداد بازدید:۵۴۸
رهبران حوزه هوش مصنوعی در نامه‌ای سرگشاده هشدار داده‌اند که این فناوری می‌تواند ما را با ریسک انقراض مواجه کند.
هشدار رهبران صنعت هوش مصنوعی: این فناوری ممکن است بشر را به خطر انقراض بیاندازد

گروهی از رهبران بزرگ‌ترین شرکت‌های فعال در حوزه هوش مصنوعی، با همکاری و هماهنگی، در یک هشدار مشترک به خطراتی که این فناوری ممکن است برای بشریت ایجاد کند، اشاره کردند. آن‌ها با توجه به پیامدهایی که هوش مصنوعی می‌تواند در آینده داشته باشد، به شدت به وجود آمدن تهدیدی برای بشریت هشدار دادند. این تهدید ممکن است به اندازه گسترش همه‌گیری‌های جهانی یا جنگ‌های هسته‌ای باشد. نیاز است تا از این ریسک بزرگ با اقداماتی مانند راه‌اندازی برنامه هایی برای کنترل هوش مصنوعی و تضمین امنیت آن، پیشگیری شود. در این راستا، رهبران هوش مصنوعی نیز باید مسئولیت خود را در این زمینه به عهده بگیرند و با همکاری سایر صنایع و سازمان‌ها، به طور جدی به این مسئله پرداخته و راه‌حل‌های لازم را به کار گیرند.

به گزارش نیویورک تایمز، سازمان غیرانتفاعی Center for AI Safety بیانیه‌ای را در قالب یک نامه سرگشاده یک‌جمله‌ای منتشر کرده است که می‌گوید: «کاهش ریسک انقراض توسط هوش مصنوعی باید در کنار سایر ریسک‌های بزرگ اجتماعی ازجمله همه‌گیری‌ها و جنگ هسته‌ای، به‌عنوان یک اولویت جهانی در نظر گرفته شود.» این بیانیه توسط بیش از 350 مدیر، محقق و مهندس فعال درزمینه هوش مصنوعی امضا شده است (مشاهده فهرست کامل).

در میان امضاکنندگان این بیانیه می‌توان به «سم آلتمن»، مدیرعامل شرکت OpenAI، «دمیس هاسابیس»، مدیرعامل دیپ‌مایند گوگل و «داریو آمودی»، مدیرعامل شرکت Anthropic اشاره کرد. «جفری هینتون» و «یوشوئا بنجیو» که دو برنده جایزه تورینگ در‌زمینه شبکه‌های عصبی هستند و اغلب به‌عنوان پدرخواندگان هوش مصنوعی مدرن شناخته می‌شوند نیز این بیانیه را امضا کرده‌اند.

«دنی هندریکس»، مدیر مرکز ایمنی هوش مصنوعی، می‌گوید این نامه سرگشاده بالاخره نشان می‌دهد که چه کسانی واقعاً نگران آینده این فناوری هستند و تاکنون فقط در خفا در این مورد صحبت می‌کرده‌اند. او توضیح می‌دهد: «حتی در خود جامعه هوش مصنوعی، این برداشت اشتباه عمومی وجود دارد که افرادِ نگران فقط جمع کوچکی از افراد بدبین هستند. ولی درواقع خیلی از افراد به‌طور خصوصی همین نگرانی‌ها را مطرح می‌کنند.»

هوش مصنوعی دانشگاه علامه طباطبایی

سم آلتمن و دیگر مدیران OpenAI هفته گذشته در مطلبی در وبلاگ این شرکت اعلام کردند که به سازمانی بین‌المللی شبیه به آژانس انرژی اتمی نیاز است تا بتواند هوش مصنوعی را در سطح جهانی کنترل کرد. پیش‌تر نامه سرگشاده دیگری توسط سازمان غیرانتفاعی Future of Life با امضای افرادی مثل ایلان ماسک منتشر شده بود که درخواست توقف توسعه مدل‌های پیشرفته هوش مصنوعی را داشت.

همه فعالان هوش مصنوعی از بابت خطرات این فناوری نگرانند

تفاوت این نامه در اینجاست که تنها در یک جمله به بیان یک نگرانی عمومی درباره فناوری هوش مصنوعی پرداخته و از ورود به جزئیاتی که ممکن است بر سر آن‌ها اختلافاتی وجود داشته باشد، خودداری کرده است.

این نامه در شرایطی منتشر می‌شود که بسیاری از کارشناسان نگران پتانسیل‌های خطرناک هوش مصنوعی هستند. پیشرفت‌های اخیر در‌زمینه مدل‌های زبانی بزرگ به‌ویژه از زمان عرضه عمومی چت‌بات ChatGPT خیلی‌ها را درباره قابلیت‌های این نرم‌افزارها در نشر اطلاعات نادرست یا تهدید مشاغل نگران کرده است.

همین مسئله باعث شده بسیاری از رهبران صنعت هوش مصنوعی با یکدیگر هم‌صدا شوند و درخواست قانون‌گذاری در این حوزه را مطرح کنند. آلتمن، هاسابیس و آمودی چندی قبل با «جو بایدن»، رئیس‌جمهور و «کاملا هریس»، معاون اول رئیس‌جمهور آمریکا، دیدار و پیرامون قانون‌گذاری در این صنعت صحبت کردند. آلتمن همچنین به کنگره رفت تا درباره همین موضوع با نمایندگان ایالات‌متحده حرف بزند.

منبع:

دیجیاتو

نیویورک تایمز

کلیدواژه‌ها: هوش مصنوعی openAI chatgpt


( ۴ )

نظر شما :