هشدار درباره خطر فوری که حیات بشر را تهدید می‌کند

هوش مصنوعی می‌تواند تهدیدی فوری‌تر از تغییرات آب و هوایی برای بشریت باشد.

هشدار درباره خطر فوری که حیات بشر را تهدید می‌کند

پیشگام هوش مصنوعی می‌گوید تهدید فناوری هوش مصنوعی برای جهان ممکن است «فوری‌تر و خطرناک‌تر» از تغییرات آب و هوایی باشد و گفت که می‌خواهد در مورد خطرات هوش مصنوعی صحبت کند

به نقل از رویترز، «جفری هینتون»، پیشگام هوش مصنوعی در مصاحبه‌ای با رویترز گفت که هوش مصنوعی می‌تواند تهدیدی فوری‌تر از تغییرات آب و هوایی برای بشریت باشد.

بیشتر بخوانید: با «ReMemory‌» با مردگان خود تلفنی صحبت کنید! + عکس

جفری هینتون، که به طور گسترده به عنوان یکی از پیشگامان و پدران هوش مصنوعی شناخته می‌شود، اخیراً اعلام کرد که پس از یک دهه کار، شرکت آلفابت (GOOGL.O) را ترک کرده است و گفت که می‌خواهد در مورد خطرات این فناوری صحبت کند بدون اینکه این فناوری بر سابقه‌اش تأثیر بگذارد.

کار هینتون برای توسعه سیستم‌های هوش مصنوعی معاصر قابل توجه است. در سال ۱۹۸۶، او مقاله مهمی را با عنوان «یادگیری بازنمایی با خطاهای پس از انتشار» نوشت که نقطه عطفی در توسعه شبکه‌های عصبی زیربنای فناوری هوش مصنوعی بود. در سال ۲۰۱۸، جایزه تورینگ را به خاطر موفقیت‌های تحقیقاتی خود دریافت کرد.

اما او اکنون در میان تعداد فزاینده‌ای از رهبران فناوری است که علناً از نگرانی در مورد تهدید احتمالی هوش مصنوعی سخن می‌گوید و هشدار داده است که ممکن است ماشین‌ها به هوشی بالاتر از انسان دست یابند و کنترل سیاره زمین را در دست بگیرند.

این کارشناس و مبتکر توسعه هوش مصنوعی گفت: «من دوست ندارم تغییرات آب و هوایی را بی ارزش کنم. نمی‌خواهم بگویم شما نباید نگران تغییرات آب و هوایی باشید، اما من فکر می‌کنم هوش مصنوعی ممکن است در نهایت فوریت و خطر بیشتری داشته باشد.»

او افزود: «با تغییرات آب و هوایی، توصیه کردن کارهایی که باید انجام دهید بسیار آسان است: فقط سوزاندن کربن را متوقف کنید. اگر این کار را انجام دهید، در نهایت همه چیز درست می‌شود. اما برای هوش مصنوعی اصلاً مشخص نیست که چه کاری باید انجام دهید.»

پیشتر در ماه آوریل، ایلان ماسک، مدیر عامل توئیتر، به هزاران نفر در امضای نامه‌ای سرگشاده پیوست که در آن خواستار توقف شش ماهه توسعه سیستم‌هایی قدرتمندتر از GPT-۴ است که اخیراً راه اندازی شده است.

امضاءکنندگان شامل عماد مستاک، مدیر عامل هوش مصنوعی پایدار، محققان DeepMind متعلق به آلفابت، و یوشوا بنجیو و استوارت راسل از پیشگامان هوش مصنوعی بودند.

در حالی که هینتون با امضاءکنندگان این نامه موافق است که هوش مصنوعی ممکن است یک تهدید وجودی برای بشریت باشد، اما او با توقف تحقیقات نیز مخالفت کرد. او گفت: «اکنون هوش مصنوعی یک خطر وجودی است و به اندازه‌ای نزدیک است که ما باید در حال حاضر بسیار سخت کار کنیم و منابع زیادی را برای کشف آنچه می‌توانیم در مورد آن انجام دهیم، اختصاص دهیم.»

در اتحادیه اروپا، کمیته‌ای از قانون‌گذاران اروپایی به نامه مورد حمایت ماسک پاسخ دادند و از جو بایدن، رئیس‌جمهور ایالات متحده خواستند تا با «اورسولا فون در لاین»، رئیس کمیسیون اروپا، یک نشست جهانی درباره جهت‌گیری آینده فناوری تشکیل دهد.

در همین حال، بایدن با تعدادی از رهبران شرکت‌های هوش مصنوعی، از جمله ساندار پیچای، مدیرعامل آلفابت و سام آلتمن، مدیر عامل OpenAI در کاخ سفید گفتگو کرد و قول داد که یک «بحث صریح و سازنده» در مورد نیاز شرکت‌ها به شفاف‌تر بودن سیستم‌های خود داشته باشند.

هینتون گفت: «رهبران فناوری بهترین درک را از خطرات هوش مصنوعی دارند و سیاستمداران نیز باید در این مباحث مشارکت داشته باشند، بنابراین همه ما باید در مورد آن فکر کنیم.»

منبع: مهر

دیگر رسانه ها

کدخبر: 85679

ارسال نظر