هوش مصنوعی در مقایسه با انسان عملکرد بهتری در توزیع ثروت دارد

تحقیقات جدید نشان می‌دهد که روش‌های ابداع‌شده با هوش مصنوعی (AI) برای توزیع ثروت محبوب‌تر از سیستم‌های طراحی‌شده توسط افراد است. این یافته‌ها که توسط تیمی از محققان شرکت هوش مصنوعی مستقر در بریتانیای دیپ‌مایند انجام شده، نشان می‌دهد که سیستم‌های یادگیری ماشینی نه‌تنها در حل مسائل پیچیده‌ی فیزیکی و زیست شناسی دارای عملکرد خوبی هستند، بلکه ممکن است به تحقق بهتر و بهینه‌تر اهداف اجتماعی بازتر و قابل‌ تنظیم‌تر نیز کمک کنند؛ اهدافی همچون داشتن یک جامعه‌ی عادلانه و سعادتمند.مقاله‌ی مرتبط:البته کار فوق به‌هیچ‌روی کار آسانی نیست. ساختن ماشینی که بتواند نتایج مفید و واقعاً باب میل انسان‌ها ارائه دهد دشوار است. در تحقیقات هوش مصنوعی از این همسانی و باب میل بودن با تعبیر «همسویی ارزش» یاد می‌کنند.شاید پیچیدگی حاکم بر اوضاع را هنگامی درک کنیم که به یاد آوریم افراد مختلف اغلب بر سر بهترین روش برای حل همه‌ چیز، به‌ویژه مسائل اجتماعی، اقتصادی و سیاسی با همدیگر اختلاف نظر دارند. گروهی از محققان در مقاله‌ی جدیدی به سرپرستی رافائل کوستر، نویسنده‌ی اول و دانشمند بخش پژوهشی شرکت دیپ‌مایند توضیح می‌دهند:یک مانع کلیدی واقع بر سر راه همسویی ارزش این است که جامعه‌ی بشری دیدگاه‌های متعددی را می‌پذیرد؛ و این موضوع باعث می‌شود تا هوش مصنوعی در انتخاب اینکه بایستی از اولویت‌های کدام گروه پیروی کند، دچار سردرگمی شود.به‌عنوان مثال، دانشمندان علوم سیاسی و اقتصاددانان اغلب بر سر اینکه چه مکانیسم‌هایی جوامع ما را عادلانه‌تر یا کارآمدتر عمل می‌کنند، اختلاف دارند.محققان برای کمک به پر کردن شکاف حاکم، عاملی برای توزیع ثروت ایجاد کردند. این عامل، تعاملات افراد (اعم از واقعی و مجازی) را در داده‌های آموزشی خود برای هوش مصنوعی لحاظ کرده بود. به‌تعبیر ساده‌تر، عامل دخیل‌شده در این پژوهش، هوش مصنوعی را به سمت نتایج ترجیحی انسان (و با فرضی کلی، عادلانه‌تر) سوق می‌داد.درحالی‌که همه‌ی ما می‌دانیم هوش مصنوعی گاهی می‌تواند نتایج واقعاً شگفت‌انگیزی درزمینه‌های مختلف به دست آورد؛ اما از سویی زمانی که هوش مصنوعی به حال خود رها شود، این امکان وجود خواهد داشت که به نتایج اجتماعی دور از حد و کیفیت مطلوب انسان برسند. بازخورد انسانی در چنین مواردی می‌تواند به هدایت شبکه‌های عصبی در جهت بهتر کمک کند. محققان می‌نویسند:در تحقیقات هوش مصنوعی، درک روزافزونی پیرامون اینکه ما برای ساختن سیستم‌های سازگار با انسان، به روش‌های تحقیقاتی جدیدی نیاز داریم در حال شکل گرفتن است؛ روش‌هایی که در آن انسان‌ها و عوامل دخیل تعامل داشته باشند. همچنین تلاش بیشتری برای یادگیری ارزش‌ها به‌طور مستقیم از انسان‌ به‌منظور ساخت هوش مصنوعی همسو با ارزش‌های انسانی در حال انجام است.در طی آزمایش‌هایی که در مجموع دربردارنده‌ی هزاران شرکت‌کننده‌ی انسانی بودند، عامل هوش مصنوعی پیشنهادی از سوی تیم پژوهشی که به نام «هوش مصنوعی دموکراتیک» از آن یاد شده، یک فعالیت تمرینی سرمایه‌گذاری با عنوان بازی کالاهای عمومی را مورد بررسی قرار داد. در این بازی، بازیکنان مقادیر متفاوتی پول دریافت می‌کنند و می‌توانند پول خود را به یک صندوق عمومی تحویل دهند و سپس بازدهی متناسب با سطح سرمایه‌گذاری خود از صندوق دریافت کنند.در شماری از سبک‌های مختلف بازی، ثروت ازطریق سه پارادایم یا نمونه‌ی عالی بازتوزیع سنتی بین بازیکنان توزیع شد و هر کدام از آن‌ها به‌طور متفاوتی به سرمایه‌گذاری شرکت‌کنندگان در بازی پاداش می‌دادند:برابری‌‌گرای سختگیرانه و مشخصلیبرتارین (وابسته به مشی اختیارگرایی)برابری‌گرای از نوع لیبرالروش چهارمی هم به نام مکانیسم توزیع مجدد انسان‌محور (HCRM) آزمایش شد. این روش با استفاده از یادگیری تقویتی عمیق و با کمک گرفتن از داده‌های بازخورد از بازیکنان انسانی و عوامل مجازی طراحی‌شده برای تقلید از رفتار انسان، توسعه یافته است.آزمایش‌ها بعدی نشان داد که سیستم HCRM برای بازپرداخت پول یا دریافت سود سرمایه‌گذاری در بین بازیکنان محبوب‌تر از استانداردهای توزیع مجدد سنتی و همچنین محبوب‌تر از سیستم‌های توزیع مجدد جدید طراحی‌شده توسط داوران انسانی عمل می‌کند؛ مورد دوم درواقع توسط داوران انسانی طراحی می‌شود و عامل مشوق برای آن‌ها نیز دریافت مقادیر کوچکی از پاداش‌ها به‌ازای هر یک رأی دریافتی از سوی بازیکنان بود.بنابر توضیح محققان، هوش مصنوعی در این بررسی‌ها، مکانیسمی را کشف کرده که عدم تعادل اولیه ثروت را اصلاح و خودداری‌کنندگان از پرداخت را تحریم می‌کند و درنهایت با موفقیت آرای اکثریت را هم کسب کرد. پژوهشگران می‌نویسند:ما نشان می‌دهیم که می‌توان از همان ابزارهای دموکراتیک برای دستیابی به اجماعی استفاده کرد که در جامعه‌ی بشری گسترده‌تر برای انتخاب نمایندگان، تصمیم‌گیری در مورد سیاست‌های عمومی یا قضاوت‌های قانونی استفاده می‌شود.محققان اذعان می‌کنند که سیستم آن‌ها تعدادی سؤال درخور تامل را پیش روی ما می‌گذارد. سؤال‌ها عمدتاً پیرامون این موضوع هستند که همسویی ارزش در هوش مصنوعی پیشنهادی آن‌ها حول تصمیمات دموکراتیک می‌چرخد، به این معنی که عامل درواقع می‌تواند نابرابری‌ها یا سوگیری‌ها را در جامعه تشدید کند؛ به شرطی که به‌اندازه‌ی کافی محبوب باشند و اکثریت مردم به آن رأی دهند.مقاله‌ی مرتبط:بحث اعتماد هم در اینجا به میان می‌آید. در طی آزمایش‌ها، بازیکنان شرکت‌کننده، هویت واقع در پس مدل توزیع مجدد ثروت را که برای آن پول پرداخت می‌کردند، نمی‌دانستند. آیا اگر می‌دانستند که آن تصمیم مالی خاص، به جای یک انسان توسط هوش مصنوعی اتخاذ شده، بازهم قرار بود همان راه پیشنهادی توزیع را ترجیح دهند یا خیر؟ پاسخ این سؤال هنوز مشخص نیست.در نهایت، تیم پژوهشی بر این باورند که تحقیقاتشان نباید به‌عنوان یک پیشنهاد تکنوکراتیک رادیکال برای برچیدن نظم مستقر فعلی پیرامون چگونگی توزیع مجدد ثروت در جامعه تلقی شود؛ بلکه این یک تحقیق صرفاً ابزار پژوهشی است که می‌تواند به انسان‌ها در مهندسی و طراحی راه‌حل‌های بالقوه‌ی بهتر نسبت به آنچه‌ که هم‌اکنون داریم کمک کند. پژوهشگران می‌نویسند:نتایج ما به معنای حمایت از شکلی از «دولت هوش مصنوعی» نیست که در پی آن عوامل مستقل تصمیمات سیاسی را بدون دخالت انسانی اتخاذ کنند. ما هوش مصنوعی دموکراتیک را یک روش تحقیق برای طراحی مکانیسم‌های بالقوه مفید می‌دانیم، نه دستور العملی برای استقرار هوش مصنوعی در حوزه‌ی عمومی.این یافته‌ها در Nature Human Behaviour منتشر شده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.