دوره رایگان کریپتو از صفر

معنا و پیامد AGI برای بشر از نگاه دِمیس هَسابیس برنده جایزه نوبل ۲۰۲۴

  • نویسنده موضوع زهرا قربانی
  • تاریخ شروع
برای مشاهده تصاویر، باید ابتدا وارد سایت شوید، یا در سایت ثبت نام رایگان کنید.


گزارش پیش‌ِرو خلاصه‌ای و تحلیلی از گفت‌وگوی
برای دیدن محتوای پنهان، ابتدا ورود کنید، یا در سایت ثبت‌نام رایگان کنید!
با دِمیس هَسابیس، مدیرعامل Google DeepMind و برنده نوبل شیمی ۲۰۲۴ برای پروژه AlphaFold است؛ گفت‌وگویی درباره وضعیت امروز هوش مصنوعی، چشم‌انداز هوش مصنوعی عمومی (AGI)، ریسک‌ها و فرصت‌ها، و آن‌چه این تحولات برای اقتصاد، نیروی کار و حکمرانی فناوری معنا می‌کند. هَسابیس می‌گوید گذارِ هوش مصنوعی تدریجی است، اما عمیق: مشاغل حذف می‌شوند، بهره‌وری اوج می‌گیرد و عدالت در تقسیم منابع، مهم‌ترین مسئله پیشِ‌رو خواهد بود.


هَسابیس و افق AGI​



دِمیس هَسابیس جایزه نوبل شیمی ۲۰۲۴ را به‌دلیل AlphaFold دریافت می‌کند؛ سیستمی که ساختار سه‌بعدی پروتئین‌ها را پیش‌بینی می‌کند و اثر عمیقی بر زیست‌پزشکی می‌گذارد. سرعت پیشرفت‌های اخیر باعث شده بسیاری از پژوهشگران تحقق AGI را در همین دهه ممکن بدانند. دستیابی به AGI به منابع محاسباتی عظیم نیاز دارد؛ زیرساختی که فعلاً تنها در اختیار چند شرکت بزرگ مانند گوگل است. همین تمرکز زیرساخت، کنترل بیشتری به این شرکت‌ها می‌دهد. تعهد اولیه دیپ‌مایند به منع استفاده نظامی، امروز دیگر برقرار نیست و بخشی از فناوری‌های هوش مصنوعی گوگل including ابزارهای دیپ‌مایند به ارتش ایالات متحده و رژیم صهیونیستی ارائه می‌شود.

هَسابیس تأکید می‌کند اگر AGI با مسئولیت ساخته شود، می‌تواند سودمندترین فناوری تاریخ باشد: از درمان گستره بزرگی از بیماری‌ها تا جهش در انرژی‌های نو (همجوشی، باتری‌های پیشرفته، ابررساناها). او چشم‌انداز خوش‌بینانه ده‌ساله‌ای ترسیم می‌کند که در آن انسان‌ها در اوج شکوفایی‌اند و حتی سفرهای میان‌ستاره‌ای ممکن می‌شود. به‌باور او، حل چالش‌هایی چون تغییرات اقلیمی بدون فناوری‌های نواز جمله راهکارهای مبتنی بر AIدشوار است و AGI می‌تواند همان «نیروی کمکی در لحظه حساس» باشد.


ریسک‌ها و بدترین سناریوها​



هَسابیس دو ریسک محوری را در خصوص خطرات احتمالیِ
برای دیدن محتوای پنهان، ابتدا ورود کنید، یا در سایت ثبت‌نام رایگان کنید!
عمومی (AGI)برجسته می‌کند:

  • سوءاستفاده از فناوری: امکان به‌کارگیری قدرت AI برای تولید سلاح یا حتی عوامل زیستی جدید. مسئله کلیدی، مدیریت دسترسی است تا هم از منافع بهره‌مند شویم و هم جلوی سوءاستفاده گرفته شود.
  • ریسک خودِ AGI خودمختاری/همسویی: هرچه سیستم‌ها خودمختارتر می‌شوند، تصمیم‌های بیشتری بدون نظارت انسان می‌گیرند. پرسش‌های اساسی درباره درک ارزش‌های انسانی و نهاد ناظر مطرح است.

او بدترین حالت را به‌کارگیری وسیع AI در مسیرهای ضدانسانی می‌داند مثلاً استفاده از همان دانش برای سلاح‌های زیستی و بر استانداردها و قوانین بین‌المللی تأکید می‌کند، چون تبعات هر سامانه قدرتمندی ماهیتاً جهانی است.


کنترل یا آزادی؟​



در پاسخ به بحث طراحی سیستم‌ها از «دکمه خاموش دائمی» تا نگرانی از محدودسازیِ افراطی هَسابیس می‌گوید هر دو سر طیف ریسک‌های ناشناخته دارند. او راه میانه را توصیه می‌کند: «نه کنترل مطلق، نه آزادی مطلق. بزرگ‌ترین دغدغه‌اش استانداردها و همکاری بین‌المللی میان دولت‌ها، پژوهشگران و شرکت‌هاست.» برآورد او از زمان‌بندی ۵ تا ۱۰ سال برای رسیدن به AGI کامل است (با احتمال زودتر)، اما معتقد است جامعه هنوز آماده نیست و باید از همین امروز برای حکمرانی، شیوه استفاده و دسترسی عادلانه برنامه‌ریزی شود.


دانش در برابر فناوری: شکافِ علمیِ AI​



به باور هَسابیس، دانشمند مرزهای دانش را جلو می‌برد و فناور همان دانش را در مقیاس به‌کار می‌گیرد تا کارها سریع‌تر و ارزان‌تر انجام شوند. هر دو برای جامعه ضروری‌اند، اما در AI امروز، هسته علمیِ عمیق جایی که فرضیه‌های بزرگ ساخته و سخت‌آزمون می‌شودکم‌رنگ‌تر از حد لازم است. او معتقد است که دانشمند در پیِ فهم و پیشبرد دانش است؛ فناور همان دانش را به کاربرد و مقیاس تبدیل می‌کند تا کارها سریع‌تر و ارزان‌تر انجام شوند. هر دو برای جامعه ضروری‌اند؛ علم مسیر را روشن می‌کند و فناوری راه را هموار.


فاصله دنیا تا دستیار خودکارِ واقعاً​



هَسابیس می‌گوید تا دستیار خودکارِ واقعاً مشارکت‌کننده در تحقیق چند سال فاصله داریم. دستیارهای کدنویس امروز خوب‌اند و سال آینده بهتر می‌شوند، اما تمرکز اصلی باید بر بعد علمی باشد، نه صرفاً ابزار برنامه‌نویسی. سیستم‌های فعلی در ایجاد فرضیه‌های نو مثلاً در سطح طراحی الگوریتم‌های پایه سیستم‌عامل هنوز ضعیف‌اند.

برای دیدن محتوای پنهان، ابتدا ورود کنید، یا در سایت ثبت‌نام رایگان کنید!


هَسابیس همچنین در خصوص چند وجهی بودن هوش مصنوعی می‌گوید: «برای رسیدن به هوش عمومی، مدل باید جهان فیزیکی و فضا زمان را بفهمد. وقتی مدلی نه فقط متن، که محیط و اشیا را هم بفهمد، یادگیری‌اش عمیق‌تر می‌شود و حتی مدل‌های زبانی هم بهتر می‌شوند. او توضیح می‌دهد: «ما انسان‌ها چندوجهی هستیم می‌بینیم، می‌شنویم، لمس می‌کنیم پس اگر قرار است AI واقعاً شبیه ما شود، باید با همین گستره از ورودی‌ها تعامل کند.» هدف کاربردی او «دستیار دیجیتال شخصی» است که بهره‌وری کاربر را در زندگی روزمره بالا ببرد روی گوشی، عینک یا هر وسیله همراه و برای این کار باید دنیا را ببیند و درک کند.


نیروی کار، عدالت و فلسفه نو​



او تأکید می‌کند گذار شغلی تدریجی است و حضور فعال اقتصاددانان و سیاست‌گذاران ضروری. AI فقط شغل‌های قدیمی را حذف نمی‌کند؛ فرصت‌های تازه و خلاقانه هم می‌آفریند (شبیه ظهور برق یا اینترنت). پرسش اصلی اما تقسیم عادلانه منافع است. به‌زعم او، بحث صرفاً اقتصادی نیست؛ فلسفی هم هست درباره معنا و نقش انسان در جهانی که ماشین‌ها هم فکر می‌کنند: «وقت آن است که فیلسوفان بزرگ دوباره وارد میدان شوند.»

برای دیدن محتوای پنهان، ابتدا ورود کنید، یا در سایت ثبت‌نام رایگان کنید!

هَسابیس مفهوم «وفور رادیکال» را جهانی می‌داند که در آن انرژی تقریباً بی‌هزینه و تجدیدپذیر است (همجوشی، ابررساناهای کارآمد و …). او می‌گوید اگر با کمک AI به این فناوری‌ها برسیم، هزینه انرژی نزدیک صفر می‌شود، بحران آب با آب‌شیرین‌کن‌ها کاهش می‌یابد و حتی ساخت موشک ارزان‌تر می‌شود (استخراج مستقیم هیدروژن و اکسیژن از دریا). در چنین شرایطی، بسیاری از ساختارهای فعلی مانند مالکیت بر منابع محدودمعنای پیشین خود را از دست می‌دهند. بااین‌حال، ایجاد زیرساخت‌های لازم چند دهه زمان می‌برد و دگرگونی اقتصادی واقعی از آن‌جا آغاز می‌شود. او می‌پذیرد که حتی با وفور، برخی حوزه‌ها محدود می‌مانند و اقتصاد امروز هنوز شبیه بازی جمع صفر عمل می‌کند. هدفش جهانی است که این منطق کمرنگ شود؛ هرچند برخی عرصه‌ها همچنان به راه‌حل‌های سیاسی و فلسفی نیاز دارند. اگر انرژی، غذا و منابع پایه حل شوند، دامنه نابرابری‌ها و تعارضات به شکل معناداری کوچک‌تر می‌شود حتی اگر به صفر نرسد.

برای دیدن محتوای پنهان، ابتدا ورود کنید، یا در سایت ثبت‌نام رایگان کنید!


منبع: راه پرداخت
 
دوره‌های تالاربورس
عقب
بالا