۞ امام علی (ع) می فرماید:
هر کس از خود بدگویی و انتقاد کند، خود را اصلاح کرده و هر کس خودستایی نماید، پس به تحقیق خویش را تباه نموده است.
Friday, 20 May , 2022
امروز : جمعه, ۳۰ اردیبهشت , ۱۴۰۱ - 19 شوال 1443
شناسه خبر : 405409
  پرینت تاریخ انتشار : 27 اسفند 1400 - 15:54 |

صنعت دیجیتال و چالش‌های فردای آن در پیوند ناگسستنی کامپیوتر با انسان

در ادامه‌ی عصر ارتباطات چه آینده‌ای در انتظار صنعت دیجیتال است؟ احتمالاً در پایان این مقاله بتوانیم پاسخ درخوری برای این پرسش در ذهن خود داشته باشیم. انقلاب دیجیتال علاوه بر ربات‌های شطرنج‌باز، خودروهای خودران و عصر نوین اطلاعات، چالش‌های اخلاقی بزرگی نیز با خود به ارمغان آورده است.مقاله‌ای که در حال خواندن آن هستید […]

صنعت دیجیتال و چالش‌های فردای آن در پیوند ناگسستنی کامپیوتر با انسان
زاگرس آنلاین-زاگرونا؛

در ادامه‌ی عصر ارتباطات چه آینده‌ای در انتظار صنعت دیجیتال است؟ احتمالاً در پایان این مقاله بتوانیم پاسخ درخوری برای این پرسش در ذهن خود داشته باشیم. انقلاب دیجیتال علاوه بر ربات‌های شطرنج‌باز، خودروهای خودران و عصر نوین اطلاعات، چالش‌های اخلاقی بزرگی نیز با خود به ارمغان آورده است.مقاله‌ای که در حال خواندن آن هستید در یک لپ‌تاپ نوشته و نگارش [و روی یک کامپیوتر رومیزی به فارسی ترجمه] شده است. اگر چند دهه پیش چنین وسیله‌ی تاشدنی، سبک و قابل‌حملی را به دانشمندان نشان می‌دادید سر جای خود میخکوب می‌شدند، و اگر چند دهه بیشتر در زمان به عقب برگردید لپ‌تاپ به چشم آنان یک محصول کاملاً جادویی به نظر می‌رسید. میلیاردها واحد پردازشی کوچک وظیفه‌ی پردازش میلیون‌ها خط کدهای دستوری را که حاصل تلاش افراد بی‌شماری در سراسر جهان است، برعهده دارند. این پردازنده‌ها در یک فضای کوچک در کنار یکدیگر به‌صورت فشرده قرار گرفته‌اند تا وسیله‌ای مانند لپ‌تاپ ساخته شود. کامپیوترها با سرعت غیرقابل‌تصوری کار می‌کنند، شما کافی است کلیک کنید یا چیزی تایپ کنید یا حرفی بزنید تا نتیجه‌ی کارتان را به‌صورت لحظه‌ای در نمایشگر ببینید.زمانی کامپیوترها چنان سنگین و بزرگ بودند که برای جابه‌جایی آن‌ها از جرثقیل استفاده می‌شد و یک اتاق را به‌طور کامل اشغال می‌کردند؛ اما اکنون کامپیوترها همه‌ جا حضور دارند، آن‌ها را می‌توان در ساعت‌ها، موتور خودروها، دوربین‌های عکاسی، تلویزیون و اسباب‌بازی‌ها پیدا کرد. در کنترل شبکه‌های برق، تحلیل داده‌های علمی و پیش‌بینی آب‌و‌هوا از کامپیوترها استفاده می‌شود. تصور یک دنیای مدرن بدون کامپیوتر ممکن نیست.دانشمندان همواره در تلاشند کامپیوترهای سریع‌تر و برنامه‌های هوشمندتری بسازند و هم‌زمان از فناوری خود با احترام به ارزش‌های اخلاقی استفاده کنند. تلاش‌های دانشمندان امروزی مرهون بیش از یک قرن ابداعات و نوآوری در حوزه‌های مختلف فناوری و علوم محض است.در سال ۱۸۳۳ یک ریاضی‌دان انگلیسی به نام چارلز بابج طرح‌های اولیه‌ی یک ماشین قابل‌برنامه‌ریزی را در ذهن خود می‌پروراند. این وسیله با داشتن یک محل ذخیره برای نگه‌داری و یک واحد عملیاتی برای پردازش اعداد و معرفی یک واحد خوانش و چاپ، اولین سنگ بنای فناوری معماری کامپیوتر را بر جا نهاد. این وسیله با نام موتور تحلیل‌گر قادر به انجام عملیات منطقی (اگر X پس Y) بود. بابج تنها موفق به ساخت بخشی از ماشین محاسباتی خود شد، اما یکی از همکارانش به نام آدا لاولیس متوجه شد اعدادی که ماشین روی آن‌ها کار می‌کند می‌توانند بیان‌گر هر نوع اطلاعاتی همچون موسیقی باشند. لاولیس در جایی نوشته بود:یک زبان جدید، وسیع و قدرتمند برای به پیش بردن آینده‌ی پردازش متولد شده است.لاولیس تبدیل به یکی از اولین کارشناسان استفاده‌کننده از ماشین تحلیل‌گر شد. اغلب از او به‌عنوان اولین برنامه‌نویس تاریخ یاد می‌شود. در سال ۱۹۳۶ یک ریاضی‌دان انگلیسی دیگر به نام آلن تورینگ ایده‌ی ساخت کامپیوتری را مطرح کرد که می‌توانست دستورالعمل‌های خود را بازنویسی کند، به‌عبارت دیگر یک کامپیوتر قابل‌برنامه‌ریزی که می‌توانست استفاده‌های مختلفی از آن کرد. مفهوم ریاضی معرفی شده توسط تورینگ با استفاده از واژگان عملیاتی محدود می‌توانست کارکرد ماشین‌های محاسباتی با هر پیچیدگی را تقلید کند. برخلاف خود تورینگ که سرنوشت غم‌انگیزی داشت، کامپیوتر مکانیکی او به شهرت جهانی رسید و نام آن ماشین جهانی تورینگ گذاشته شد.مقاله‌ی مرتبط:ساخت اولین کامپیوتر الکتریکی قابل‌اطمینان جهان به نام کلوسوس در سال ۱۹۴۳ به پایان رسید. انگلستان از این کامپیوتر برای رمز‌گشایی کد‌های زمان جنگ استفاده می‌کرد. در ساخت این کامپیوتر به جای قطعات مکانیکی مانند چرخ‌دنده‌های موتور تحلیل‌گر، از تیوب‌های خلأ استفاده شده بود؛ لوله‌هایی که می‌توانستند حرکت الکترون‌ها را کنترل کنند. این کار باعث شد کلوسوس نسبت به کامپیوترها‌ی پیشین بسیار سبک‌تر باشد اما مهندسان برای استفاده از آن جهت انجام یک وظیفه‌ی دیگر باید به صورت دستی سیم‌کشی آن را تغییر می‌دادند.اولین کامپیوتر الکتریکی ایالات متحده آمریکا به نام انیاک (ENIAC) سی تن وزن داشت و در ساخت آن از ۱۹ هزار عدد لامپ خلأ استفاده شده بود، انیاک ۱۳۰ هزار وات انرژی مصرف می‌کرد؛ برای مقایسه در نظر بگیرید مصرف انرژی لپ‌تاپ‌های متداول امروزی که احتمالاً خود شما هم یکی از آن‌ها را دراختیار دارید، فقط ۵۰ وات ساعت است. تیم سازنده‌ی انیاک احتمالاً با الهام از ایده‌ی تورینگ در مورد ساخت یک کامپیوتر قابل برنامه‌ریزی، طرح ساخت یک کامپیوتر دیگر به نام ادواک (EDVAC) را توسعه دادند. در ساخت ادواک از یک معماری جدید استفاده شده بود. جان نیومن ریاضی‌دانی که در سال ۱۹۴۵ ادواک را طراحی کرده بود از سیستمی سخن گفت که ‌می‌توانست علاوه بر داده‌ها، برنامه‌ها را نیز در حافظه‌ی خود ذخیره کرده و آن‌‌ها را تغییر دهد. این کامپیوتر برخلاف انیاک که از سیستم دسیمال یا ده‌دهی استفاده می‌کرد، از سیستم اعداد باینری یا دودویی بهره می‌برد. ستاپ ابداعی نیومن که معماری نیومن نامیده می‌شود اساس الگوی عملکرد کامپیوترهای امروزی است.اولین کامپیوتر تاریخ ایالات متحده ۱۳۰ هزار وات برق مصرف می‌کرددر سال ۱۹۴۷ محققان آزمایشگاه بل (آزمایشگاهی که مؤسس آن گراهام بل مخترع تلفن بود) موفق به اختراع وسیله‌ای شدند که آینده‌ی ساخت کامپیوترها را برای همیشه دستخوش تغییر کرد. این وسیله که به نام ترازیستور شناخته می‌شد، مداری الکتریکی بود که با استفاده از ولتاژ (همان فشار الکتریکی) می‌توانست جریان الکتریکی یا حرکت الکترون‌ها بین دو نقطه را کنترل کند. ترانزیستورها در نهایت جایگزین تیوب‌های خلأ کم‌بازده و کند شدند.در سال‌های ۱۹۵۸ و ۱۹۵۹ دو شرکت آمریکایی تگزاس اینسترومنتس و صنایع نیمه‌هادی فیرچایلد به‌صورت مستقل موفق به اختراع مدارهای مجتمع شدند، وسیله‌ای که ترانزیستورها و مدارهای پشتیبانی در فرآیندی روی یک تراشه سوار می‌شوند.از زمان ساخت کامپیوترهای الکتریکی فقط کارشناسان می‌توانستند کامپیوترها را برنامه‌ریزی کنند. اما در سال ۱۹۵۷ شرکت آی‌بی‌ام محصول فورترن را معرفی کرد. فورترن یک زبان برنامه‌نویسی است که فهم و نوشتن برنامه‌های کامپیوتر‌ای را بسیار راحت می‌کند. برنامه‌ی فورترن پس از گذشت ۶۵ سال هنوز هم در مراکز آموزشی و علمی مورد استفاده قرار می‌گیرد. در سال ۱۹۸۱ آی‌بی‌ام از کامپیوتر شخصی IBM PC رونمایی کرد و هم‌زمان شرکت مایکروسافت اولین سیستم عامل خود به نام ام‌اس داس را روانه‌ بازار کرد. نتیجه‌ی معرفی این محصولات ترویج استفاد از کامپیوترهای شخصی در محیط‌های کاری و خانگی بود. اپل با معرفی سیستم عامل خود که ابتدا در سال ۱۹۸۲ در کامپیوتر لیسا و سپس در ۱۹۸۴ در مکینتاش استفاده شده بود عصر شخصی‌سازی در دنیای صنعت کامپیوتر را شروع کرد. این دو محصول شرکت اپل باعث محبوبیت استفاده از رابط کاربری تصویری یا GUI شدند، سیستم‌هایی که به جای خط‌های دستوری از نشانگر ماوس استفاده می‌کردند.Colossus، اولین کامپیوتر قابل‌برنامه‌ریزی الکترونیکی قابل اعتماد جهان، به نیروهای اطلاعاتی بریتانیا در رمزگشایی کدها در جنگ جهانی دوم کمک کرد.در این حین محققان در تلاش برای کشف راه‌های سریع‌تری برای برقراری ارتباط انسان‌ها و کامپیوترها با هم‌دیگر بودند. در سال ۱۹۴۸ ریاضی‌دان پرآوازه‌ی آمریکایی به نام کلاد شانون با انتشار مقاله‌ای با عنوان تئوری ریاضی ارتباطات، پایه و اساس نظریه‌ی اطلاعات را بنا گذاشت و باعث محبوبیت استفاده از کلمه‌ی بیت در دنیا شد. ایده‌های شانون باعث شکل‌دهی به فناوری محاسبات و البته به اشتراک ‌گذاشتن اطلاعات ازطریق سیم و هوا شد.در سال ۱۹۶۹ آژانس پروژه‌های تحقیقاتی پیشرفته‌ی ایالات متحده متعلق به وزارت دفاع این کشور از یک شبکه‌ی ارتباطی کامپیوتری به نام آرپانت ARPANET رونمایی کرد. پس از ادغام دیگر شبکه‌های ارتباطی با آرپانت اینترنت متولد شد. در سال ۱۹۹۰ دانشمندان در آزمایشگاه سرن در نزدیکی شهر ژنو، برای اولین بار قوانین انتقال اطلاعات را معرفی کردند، قوانینی که شالوده‌ی شبکه‌ی جهانی وب را تشکیل داد.پیشرفت‌های فناوری در دهه‌های گذشته راه را برای ارتباط سریع‌تر و بهتر انسان‌ها با یکدیگر هموار کرده است. صنعت دیجیتال با سرعت سرگیجه‌آوری به رشد خود ادامه می‌دهد. اما پردازنده‌ها چقدر می‌توانند سریع‌تر و قوی‌تر شوند؟ الگوریتم‌ها چقدر می‌توانند هومشمندانه‌تر شوند؟ و با پیشرفت‌ بیشتر فناوری باید انتظار چه دستاوردها و تهدیداتی را داشته باشیم؟ استوارت راسل، دانشمند علوم کامپیوتر از دانشگاه کالیفرنیا می‌گوید پیشرفت صنعت ساخت پردازنده نوید فرصت‌های جذابی را به ما می‌دهد. او می‌گوید:کامپیوترها در آینده می‌توانند به گسترش خلاقیت هنری، سرعت‌بخشیدن به تحقیقات علمی، توسعه دستیارهای شخصی دیجیتال و ساخت خودروها خودران کمک کنند؛ و البته امیدوارم ما را نکشند.در تعقیب سرعتگویی کامپیوتر به زبان بیت‌ها سخن می‌گویند. آن‌ها اطلاعات گوناگون از جمله موسیقی، برنامه یا پسووردها را به‌صورت رشته‌ای از اعداد ۰ و ۱ ذخیره می‌کنند. این اطلاعات به‌صورت باینری پردازش می‌شوند، یعنی ترانزیستورها بین دو حالت روشن و خاموش تغییر وضعیت می‌دهند. هر قدر تعداد ترانزیستور بیشتری در پردازنده‌ی یک کامپیوتر وجود داشته باشد، سرعت آن در پردازش بیت‌ها بیشتر خواهد بود و نتیجه‌ی آن اجرای سریع‌تر برنامه یا انجام بازی‌های کامپیوتری به‌صورت واقعی‌تر یا دستیابی به کنترل ترافیک هوایی ایمن‌تر خواهد بود.ترکیب ترانزیستورها باعث تشکیل یکی از اجزای سازنده‌ی مدار مجتمع به نام گیت منطقی می‌شود. نوعی از گیت منطقی که هر دو ورودی آن مثبت باشند گیت منطقی AND و اگر یکی از ورودی‌ها مثبت باشد گیت منطقی OR نامیده می‌شود. با قرار دادن مقدار زیادی از گیت‌های منطقی در کنار یکدیگر می‌توان الگوی پیچیده‌ی ترافیک الکترون‌ها را کنترل کرد. گیت‌های منطقی به نوعی تجسم فیزیکی عمل محاسبه است. یک چیپ کامپیوتر از میلیون‌ها گیت منطقی تشکیل شده است.گیت‌ منطقی تجسم فیزیکی عمل محاسبه استبنابراین هرچه تعداد گیت‌های منطقی بیشتر باشد ترانزیستورهای بیشتری در ساخت کامپیوتر به کار رفته و به همان اندازه قدرت و سرعت پردازش آن بیشتر خواهد بود. در سال ۱۹۶۵ گوردن مور یکی از بنیان‌گذاران صنایع نیمه‌هادی فیرچایلد، که بعدا شرکت اینتل را تأسیس کرد، مقاله‌ای در مورد آینده‌ی تراشه‌های کامپیوتری با عنوان کارگذاشتن اجزای بیشتر در مدارهای مجتمع به نگارش درآورد. او با اشاره به این موضوع که از سال ۱۹۵۹ تا ۱۹۶۵ تعداد اجزای سازنده‌ی مدارهای مجتمع (اغلب ترانزیستورها) در هر سال دو برابر شده است، پیش‌بینی کرد که این روند در سال‌های آینده نیز ادامه یابد.گوردن مور در سال ۱۹۷۵ در یک سخنرانی به سه مولفه‌ی اصلی رشد تصاعدی صنعت ساخت کامپیوتر اشاره کرد؛ ترانزیستورهای کوچک‌تر، چیپ‌های بزرگ‌تر و در پیش‌ گرفتن روش‌های هوشمندانه‌تر در ساخت مدارها و سایر تجهیزات مانند کاهش حجم فضای تلف شده در ساخت پردازنده‌ها. مور گفت انتظار دارد پیچیدگی مدارهای مجتمع یا در واقع تعداد تزانزیستورهای به‌کاررفته در ساخت تراشه‌ها هر دو سال یک‌بار دو برابر شود. به این روند که برای چند دهه ادامه داشته است، قانون مور می‌گویند.قانون مور بیشتر ناظر به جنبه‌ی اقتصادی ساخت کامپیوترها بوده است. برای ساخت کامپیوترهای سریع‌تر و ارزان‌تر همواره انگیزه‌های اقتصادی وجود داشته است؛ چراکه شرکت‌های سازنده همواره به‌دنبال سود بیشتر ازطریق افزایش فروش محصولات بوده‌اند. اما از یک نقطه به بعد محدودیت‌های علم فیزیک وارد صحنه می‌شود. روند توسعه‌ی ساخت چیپ نمی‌تواند تا ابد از قانون مور پیروی کند، چراکه رفته‌رفته ساخت ترانزیستورهای کوچک سخت‌تر می‌شود. طبق موضوعی که به‌شوخی از سوی برخی قانون دوم مور نامیده شده است، هزینه‌ی توسعه تراشه‌های جدید هر چند سال یک‌بار دو برابر می‌شود. طبق گزارش‌ها بزرگ‌ترین شرکت‌ سازنده‌ی محصولات نیمه‌هادی‌ در دنیا یعنی TSMC قرار است یک کارخانه‌ی ۲۵ میلیارد دلاری تأسیس کند. TSMC یک شرکت تایوانی است و کمپانی‌های بزرگی مانند AMD، اپل، انویدیا و مدیاتک از جمله مشتریان محصولات این شرکت هستند.مقاله‌ی مرتبط:اما امروزه قانون مور دیگر معتبر نیست، روند دو برابر شدن اکنون با سرعت آهسته‌تری اتفاق می‌افتد. ما در هر نسل جدید از پردازنده‌ها می‌توانیم ترانزیستورهای بیشتری در تراشه کار بگذاریم اما نسل‌های جدید سخت‌افزاری با سرعت کم‌تری از راه می‌رسند. بااین‌حال محققان به‌دنبال روش‌های نوینی برای ساخت تراشه‌های جدید هستند، روش‌هایی مانند ساخت ترانزیستورهای بهتر یا ساخت چیپ‌های مخصوص، توسعه مفاهیم پایه‌ای جدید برای ساخت تراشه‌ها و البته برنامه‌های نرم‌افزاری کاربردی‌تر.سانجی ناتاراجان، مدیر بخش طراحی تراشه در شرکت اینتل می‌گوید:ما معتقدیم در معماری فعلی ترانزیستور‌ها یعنی فین‌فت (FinFET) تا آن‌جایی که جا دارد اجزا را در داخل فضای محدود جای داده‌ایم.ناتاراجان بر این باور است که در سال‌های آینده سازندگان تراشه‌ها به ساخت نوع جدیدی از ترانزیستورها روی‌ خواهند آورد: ترانسیزتورهایی که یکی از اجزای اصلی آن به جای داشتن شباهت به بال مالی شبیه روبان خواهد بود. این تغییر ساختاری باعث افزایش سرعت ترانزیستورها و کاهش نیاز به انرژی و فضا خواهد شد.حتی اگر سخن ناتارجان درست باشد و ما به حد نهایی کوچک کردن ترانزیستورها رسیده باشیم، طبق اصل سوم مور در مورد هوشمند کردن مدارهای مجتمع، راهی طولانی برای افزایش کارآمدی کامپیوترها در پیش داریم. در ساخت تجهیزات الکترونیکی امروزی از چیزی به نام شتاب‌دهنده استفاده می‌شود. از شتاب‌دهنده‌ها برای انجام یک وظیفه‌ی مشخص مانند توسعه‌ی هوش مصنوعی، کارهای گرافیکی یا ارتباطات استفاده می‌شود. شتاب‌دهنده‌ها نسبت به واحدهای پردازشی چند منظوره در انجام یک وظیفه‌ی مشخص بسیار سریع‌تر بوده و استفاده از آن‌ها به‌صرفه‌تر است.برخی از انواع شتاب‌دهنده‌ها ممکن است در آینده از فناوری محاسبات کوانتومی استفاده کنند. در محاسبات کوانتومی از دو اصل دنیای زیراتمی بهره برده می‌شود:اصل اول: برهم‌نهیاصل دوم: درهم‌تنیدگیبرهم‌نهی به این معنی است که ذره‌ها ممکن است در یک لحظه نه در یک حالت بلکه در ترکیبی از چند حالت مختلف قرار داشته باشد، تا این که وضعیت ذره به‌طور صریح مورد اندازه‌گیری قرار بگیرد؛ در آن‌صورت ذره در یک حالت مشخص ظاهر می‌شود. بنابراین یک سیستم کوانتومی اطلاعات را به صورت کیوبیت ذخیره و پردازش می‌کند و احتمالات مربوط به وضعیت الکترون را در هنگام اندازه‌گیری به صورت ۰ یا ۱ نشان می‌دهد. اصل دوم یعنی درهم‌تنیدگی درمورد ارتباط مرموز بین دو عنصر کوانتومی فارغ از فاصله‌ی بین آن دو ذره است. طبق اصل درهم‌تنیدگی رفتار یک ذره به‌صورت هم‌زمان روی رفتار یک ذره‌ی دیگر تأثیر می‌گذارد، درحالی‌که ممکن است دو ذره در فواصل کهکشانی مانند چند سال نوری از یکدیگر قرار گرفته باشند. سرعت این نوع ارتباط هرچه که باشد بسیار بیشتر از سرعت نور است. یک سیستم متشکل از کیوبیت‌ها با استفاده از این دو ویژگی مکانیک کوانتوم با سرعت تصاعدی می‌تواند ترکیبی از احتمالات صفر و یک متعلق به مقدار زیادی از اطلاعات را ارزیابی و پردازش کند.تا حدود سال ۲۰۰۴، کوچک شدن ترانزیستورها با بهبود عملکرد کامپیوتر (رنگ سیاه نشانگر استاندارد صنعی است) و فرکانس ساعت (تعداد چرخه‌های عملیات انجام‌شده در ثانیه به رنگ سبز) همراه بود.از جایی به بعد، «مقیاس بندی دنارد» دیگر برقرار نبود و ترانزیستورهای کوچک‌شونده مزایای مشابه و متناسب با گذشته را نداشتند. کیوبیت‌ها می‌توانند اشکال مختلفی داشته باشند اما یکی از محبوب‌ترین آن‌ها در میان محققان جریان در سیم‌های ابررسانا است. این سیم‌ها باید در دمای نزدیک به صفر مطلق یعنی منفی ۲۷۳ درجه سلسیوس نگه‌داری شوند تا میزان نوسان اتم‌ها به حداقل ممکن برسد. حرکت اتم‌ها می‌تواند در برهم‌نهی و درهم‌تنیدگی کیوبیت‌ها اختلال ایجاد کند. همچنین در کامپیوترهای کوانتومی باید از کیوبیت‌های فیزیکی زیادی برای ساخت یک کیوبیت منطقی یا مؤثر استفاده شود، چراکه کیوبیت‌های اضافی به‌عنوان عامل تصحیح خطا عمل می‌کنند.کامپیوترهای کوانتومی که به عرصه‌ی رقابت کشورهای ابرقدرت تبدیل شده است، دارای کاربردهای علمی و صنعتی متنوعی است، از یادگیری ماشین و تنظیم بهتر برنامه‌ زمان‌بندی حرکت قطارها گرفته تا شبیه‌سازی مکانیک دنیای واقعی کوانتوم و علم شیمی، و البته کاربردهای پردازش اطلاعات نظامی. بااین‌حال بعید است که از کامپیوترهای کوانتومی چند‌منظوره به‌صورت گسترده و خانگی استفاده شود. مشخص نیست که آیا روزی با کامپیوتر کوانتومی خود بتوانید در خانه‌ی خود نرم‌افزار ورد را اجرا کنید یا خیر!ایده‌های مفهومی جدید برای ساخت تراشه‌‌هاراه‌های جدیدی برای افزایش سرعت شتاب‌دهنده‌های مخصوص و به‌صورت کلی پردازنده‌های چندمنظوره وجود دارد. تام کونته دانشمند علوم کامپیوتر از مؤسسه‌ی جورجیاتک در آتالانتا و رهبر گروه تحقیقاتی IEEE Rebooting به دو الگوی جدید اشاره می‌کند. مورد اول ابررسانایی است، شرایطی که در آن تراشه‌ها در دماهای بسیار پایین کار می‌کنند تا مقاومت الکتریکی ترانزیستورها به حداقل ممکن برسد. مورد دوم محاسبه‌ی معکوس است، یعنی استفاده‌ی مجدد از بیت‌ها قبل از این‌که به‌صورت حرارت از سیستم دفع شوند. در سال ۱۹۶۱ رولف لاندوئر فیزیک‌دان شرکت آی‌بی‌ام با ترکیب نظریه‌ی اطلاعات و ترمودینامیک به این نتیجه رسید وقتی که گیت منطقی دو بیت به‌صورت ورودی دریافت کرده و یک بیت خروجی تحویل می‌دهد، بیت دیگر را از بین می‌برد و آن را به صورت حرارت و افزایش آنتروپی به محیط دفع می‌کند. وقتی میلیاردها ترانزیستور به‌طور هم‌زمان میلیون‌ها پردازش در هر ثانیه انجام می‌دهند، میزان حرارت تلف‌شده به رقم قابل‌توجهی می‌رسد، و درنتیجه کامپیوتر برای پردازش بیشتر و سرد کردن خود به الکتریسیته‌ی بیشتری نیاز پیدا می‌کند که نتیجه‌ی آن تولید حرارت بیشتر است. مایکل فرنک دانشمند علوم کامپیوتر از آزمایشگاه ملی ساندیا در نیومکزیکو در مقاله‌ای در سال ۲۰۱۷ نوشت:یک کامپیوتر معمولی در اصل یک هیتر الکتریکی گران‌قیمت است که در کنار تولید حرارت زیاد کمی هم کار پردازشی انجام می‌دهد.اما در فرایند محاسبه‌ی معکوس تعداد خروجی‌ گیت‌های منطقی به اندازه‌ی ورودی‌ آن‌ها است؛ یعنی اگر از یک گیت منطقی به‌صورت معکوس استفاده کنید، برای مثال می‌توانید از سه بیت خروجی، سه بیت ورودی بگیرید. برخی از محققان در حال کار روی گیت‌های منطقی هستند که نه‌تنها از اتلاف بیت‌های اضافی جلوگیری می‌کنند بلکه از این بیت‌ها برای انجام محاسبات بیشتر استفاده‌ی مجدد می‌کنند. فیزیک‌دان نام‌آشنا ریچارد فاینمن این‌طور نتیجه‌گیری می‌کند که به جز اتلاف انرژی در انتقال داده‌ها، هیچ محدودیت تئوریک دیگری برای افزایش کارآمدی عمل پردازش وجود ندارد.کونته معتقد است با ترکیب محاسبه‌ی معکوس و ابررسانایی می‌توان با یک تیر دو نشان زد. با روش پردازش کارآمد می‌توانید عملیات بیشتری با یک تراشه‌ی مشخص انجام دهید و از طرف دیگر در مورد مصرف انرژی و اتلاف حرارت نگرانی کم‌تری داشته باشید. کونته می‌گوید یک یا هر دوی این روش‌ها ستون فقرات صنعت ساخت پردازنده در آینده خواهد بود.نوآوری‌های نرم‌افزاریمحققان مشغول کار روی چند فناوری جدید در ارتباط با ساخت ترانزیستورها و دیگر اجزای پردازنده، طراحی تراشه‌ها و الگوهای جدید ساخت سخت‌افزار هستند. فوتونیک، اسپکترونیک، مولکول‌های زیستی و نانوتیوب‌های کربنی از جمله این فناوری‌ها هستند. بااین‌حال تنها به‌وسیله‌ی تغییر در کدهای دستوری می‌توان از نسل فعلی پردازنده‌ها و معماری تراشه‌ها استفاده‌ی بیشتری به عمل آورد.برای مثال در سال ۲۰۲۰ در مقاله‌ای که در مجله‌ی ساینس منتشر شده بود، محققان به مطالعه‌ی یک مسئله‌ی ساده‌ی ریاضی یعنی ضرب دو ماتریس، یا همان شبکه‌های عددی، پرداختند. محققان با استفاده از یک زبان برنامه‌نویسی جدید و تغییر کدهایی در نرم‌افزاری که کامپیوتر از آن‌ استفاده برای پردازش اطلاعات استفاده می‌کرد، موفق شدند سرعت پردازش حاصل‌ضرب دو ماتریس را تا ۶۰ هزار برابر نسبت به زبان برنامه‌نویسی محبوب و کاربرپسند پایتون افزایش دهند.نیل تامپسون محقق مؤسسه‌ی تکنولوژی ماساچوست و یکی از نویسندگان این مقاله به‌تازگی مطالعه‌ی جدیدی درمورد تاریخچه‌ی بهبود الگوریتم‌ها انجام داده است. الگوریتم‌ دسته‌ای از دستورالعمل‌ها است که براساس قوانین تنظیم‌شده توسط کاربر به انجام وظیفه‌ی محوله‌ای همچون طبقه‌بندی اطلاعات می‌پردازد. تامپسون در مورد الگوریتم‌ها می‌گوید:برای یک دسته از الگوریتم‌ها، سرعت تقویت و افزایش کارآمدی آن‌ها طبق قانون مور و حتی بیشتر از آن بوده است.افراد زیادی از جمله خود مور پایان اعتبار قانون مور را بعد از چند دهه پیش‌بینی کرده بودند. شاید سرعت پیشرفت کند شده باشد، اما نوآوری دانشمندان باعث شده همچنان فناوری ساخت پردازنده‌ با سرعت چشم‌گیری به مسیر خود ادامه دهد.در مسیر هوشاز اولین روزهای ظهور علوم کامپیوتر دانشمندان همواره در تلاش برای پیدا کردن جایگزینی برای قوه‌ی تفکر انسان بوده‌اند. آلن تورینگ در سال ۱۹۵۰ مقاله‌ی خود با عنوان ماشین‌های محاسبه‌گر و هوش را با این جمله آغاز کرد:من پیشنهاد می‌کنم این پرسش مطرح شود که آیا ماشین‌ها می‌توانند فکر کنند؟او برای پاسخ به این سؤال یک آزمایش طراحی کرد و نام آن را بازی تقلید گذاشت. در این آزمایش که اکنون آزمایش تورینگ نام گرفته است، یک شخص با یک انسان دیگر و یک کامپیوتر ازطریق سؤال‌های کتبی تعامل می‌کند. آن شخص با رد‌و‌بدل کردن سؤال و جواب‌های کتبی باید تصمیم بگیرد که کدام یک از طرف‌های مقابلش کامپیوتر و کدام یک انسان است. اگر شخص موفق به تشخیص کامپیوتر از انسان نشد، می‌توان این طور فرض کرد که ماشین عملا توانایی فکر کردن دارد.عبارت هوش مصنوعی برای اولین بار در سال ۱۹۵۵ در جریان یک کمپ علمی تابستانه در کالج دارت‌موث مورد استفاده قرار گرفت. در پروپوزال این گردهمایی علمی آمده بود:در تلاشیم راهی پیدا کنیم تا ماشین‌ها بتوانند فکر کنند، دارای مفهومی انتزاعی بوده و ایده داشته باشند و به حل مسائلی بپردازند که پاسخ به آن‌ها فقط از دست انسان بر‌می‌آید و در طول این فرایند خود را بهبود ببخشند.سازمان‌دهندگان این همایش امیدوار بودند در طول دو ماه، ده شرکت‌کننده‌ی برجسته به نتایج قابل‌قبولی پیرامون این موضوع برسند.بعد از گذشت نزدیک به شش دهه و صرف میزان زیادی نفر-ساعت، مشخص نیست که آیا پیشرفت‌های به‌دست‌آمده در جواب به این مسئله می‌تواند ذهن‌های پرسش‌گر برگزارکنندگان آن همایش را قانع کند یا خیر. هوش مصنوعی زندگی روزمره‌ی انسان‌ها را به‌صورت محسوس و نامحسوس احاطه کرده است، از فیلتر کردن ایمیل‌های اسپم گرفته تا خودروهای خودران و شکست دادن انسان در شطرنج. اما همه‌ی این‌ها جنبه‌های ساده‌ای از توانایی‌های هوش مصنوعی است. انجام دادن یک یا دو وظیفه‌ی مشخص با آن‌چه تورینگ و دیگران از هوش جامع مصنوعی یا AGI در ذهن داشتند فاصله‌ی بسیار زیادی دارد. هوش جامع مصنوعی، بسته به تعریف افراد، تقریباً تمام کارهایی را که انسان قادر به انجام آن است، می‌تواند انجام دهد.ما شاید هیچ‌گاه به هوش جامع مصنوعی دست پیدا نکنیم، اما در مسیر رسیدن به آن نوآوری‌های مفید زیادی دست‌ پیدا کرده‌ایم. دوینا پریکاپ، دانشمند علوم کامپیوتر از دانشگاه مونترال و رئیس تیم تحقیقاتی مونترال شرکت دیپ‌مایند در این مورد می‌گوید:من فکر می‌کنم به پیشرفت‌های بزرگی دست پیدا کرده‌ایم. اما به نظر من یکی از تکه‌های گمشده بیشتر به موضوع اصول اساسی مربوط به هوش مصنوعی و به‌طور کلی خود هوش بازمی‌گردد.هوش مصنوعی در دهه‌های گذشته پیشرفت زیادی را تجربه کرده است که بخش بزرگی از آن مرهون روشی به نام یادگیری ماشین است. در گذشته کامپیوترها بیشتر براساس هوش مصنوعی نمادین کار می‌کردند، نوعی از هوش مصنوعی که براساس قوانین نوشته‌شده توسط انسان‌ها توسعه داده شده بود. برخلاف هوش مصنوعی نسل قبلی، برنامه‌های یادگیری ماشین با پردازش اطلاعات، خود به جستجوی الگوریتم‌ها می‌پردازند. یکی از انواع سیستم‌های یادگیری ماشین از روشی به نام شبکه‌های مصنوعی عصبی استفاده می‌کند که در واقع برنامه‌ای با لایه‌های مختلف پردازشی است و مبنای عملکرد آن تا حدی شبیه برخی از اصول مغزهای بیولوژیکی است. در سال‌های گذشته استفاده از نوعی از شبکه‌های عصبی چند لایه، و در برخی مواقع صدها لایه، در بین محققان محبوب شده است. به این نوع از یادگیری ماشین اصطلاحاً یادگیری عمیق گفته می‌شود.مقاله‌ی مرتبط:سیستم‌های یادگیری عمیق اکنون می‌توانند در برخی از بازی‌ها مانند شطرنج و بازی گو انسان‌ها را شکست دهند. چنین سیستم‌هایی احتمالاً بهتر از انسان‌ها می‌توانند نژاد سگ‌ها را از روی عکس تشخیص دهند. برنامه‌های هوش مصنوعی بر مبنای یادگیری عمیق می‌توانند یک نوشته را از یک زبان به زبان دیگر ترجمه کنند، کنترل حرکت ربات‌ها را به دست بگیرند، ترانه بنویسند و نحوه‌ی تاشدگی پروتئین‌ها را پیش‌بینی کنند.اما این سیستم‌ها در شرایطی که مستلزم استفاده از استدلال (یا آنچه که ما به آن عقل سلیم از آن یاد می‌کنیم) باشند، با مشکل روبه‌رو می‌شوند. هوش مصنوعی از اصول اساسی که دنیا بر آن استوار است، چه به‌صورت فیزیکی و چه از منظر اجتماعی، آگاه نیستند. تغییر جزئی تصویر یک شی به‌صورتی که ما به‌عنوان انسان به‌راحتی متوجه آن می‌شویم، می‌تواند به‌طرز عجیبی نحوه‌ی نگرش کامپیوتر به آن را تغییر دهد. محققان متوجه شده‌اند که چسباندن برچسب‌های بی‌ضرر و نامربوط به تابلوی ایست می‌تواند نرم‌افزارهای هوش مصنوعی را دچار اشتباه کند، به‌نحوی که آن را تابلوی محدودیت سرعت تفسیر کند، موضوعی که به‌طور مشخص ضعف سیستم‌ خودروهای خودران را نشان می‌دهد.انواع یادگیریشاید بپرسید هوش مصنوعی را چطور می‌توان ارتقا داد؟ دانشمندان علوم کامپیوتر در حال توسعه‌ی انواع مختلفی از یادگیری ماشین هستند، از جمله یادگیری عمیق و غیرعمیق. نوعی از یادگیری ماشین، یادگیری نظارت‌شده نام دارد که در آن مدل‌ها ازطریق داده‌های ورودی برچسب‌زده شده آموزش داده می‌شوند؛ مانند آموزش نژاد سگ‌ها به سیستم ازطریق نشان‌ دادن تصاویر سگ‌ها به همراه نام نژادهای آنان. اما توسعه‌ی چنین سیستمی دشوار است چون اطلاعات زیادی باید توسط انسان‌ها برچسب زده شود. یک روش دیگر یادگیری ماشین نظارت‌نشده یا یادگیری خود‌نظارتی نام دارد، روشی که در آن کامپیوترها بدون اتکا به هیچ‌گونه برچسب بیرونی آموزش می‌بینند، درست مانند روشی که ما برای پیش‌بینی شکل یک شی مانند صندلی از زوایای مختلف وقتی به دور آن می‌گردیم، استفاده می‌کنیم.یک انسان این تابلو را حتی با وجود برچسب‌های نشان‌داده‌شده، به‌عنوان علامت توقف تشخیص می‌دهد. اما زمانی که یک الگوریتم خودروی خودران برای تشخیص همین تابلو آزمایش شد، از پس انجام آن برنیامد.یادگیری تقویت‌شده نوع دیگری از یادگیری ماشین است که در آن مدل‌ها با تعامل مستمر با محیط اطراف خود به کشف توالی اقدامات و بررسی رابطه‌ی علت و معمولی می‌پردازند تا وظیفه‌ی تعیین شده‌ی خود را انجام دهند. استفاده از یادگیری تقویت‌شده باعث شده است تا هوش مصنوعی در انجام بازی گو و بازی کامپیوتری استارکرفت به مهارت بالایی دست پیدا کند.برای یادگیری مؤثر، ماشین‌ها و البته انسان‌ها باید مهارت تعمیم‌ دادن داشته باشند، یعنی مفاهیم و اصول انتزاعی را از تجربه‌های خود و دیگران استخراج کرده و در رفتارهای آتی خود به کار گیرند. ملانی میچل از مؤسسه‌ی سانتافه در نیومکزیکو در این مورد می‌گوید:بخش بزرگی از هوش به توانایی در استفاده از دانش دیگران و اعمال آن در شرایط مختلف باز می‌گردد.بخشی از کار میچل در حوزه‌ی هوش مصنوعی درمورد مطالعه‌ی تشابهات، یعنی پیدا کردن شباهت‌ها بین رشته‌ای از حروف است. در سال ۲۰۱۹ یکی از محققان گوگل به نام فرانسوا شوله نوعی تست هوش برای ماشین‌ها با نام مجموعه آزمایش‌های استدلال و انتزاع طراحی کرد. در این آزمایش کامپیوترها بر مبنای اصولی که از الگوهای نمونه برداشت می‌کنند، باید الگوهای تصویری دیگری را تکمیل کنند. حل چنین پازل‌هایی برای انسان‌ها راحت اما برای کامپیوترها چالش برانگیز است.نکته‌ی کنایه‌آمیز این است که بخشی از تفکر انتزاعی ما ریشه در تجربیات فیزیکی دارد. انسان‌ها براساس تجربیات فیزیکی خود به توسعه و استفاده از استعاره‌های مفهومی مانند مهم یعنی بزرگ یا بحث به معنی رویارویی نظرات متضاد می‌پردازند، پس شاید اگر بخواهیم هوش جامع مصنوعی نیز از چنین قابلیتی برخوردار باشد باید یک جسم فیزیکی مانند ربات برای هوش مصنوعی مهیا کنیم. محققان پیش از این با ترکیب روش‌های یادگیری گفتار و علم رباتیک توانسته‌اند جهان‌های مجازی ایجاد کنند، جایی که در آن ربات‌های مجازی با پیروی از دستورالعمل‌ها باید یاد بگیرند برای مثال چطور در داخل یک خانه حرکت کنند.GPT-3 نام یک مدل گفتاری آموزش داده شده است که در سال ۲۰۲۰ توسط آزمایشگاه تحقیقاتی Open AI معرفی شد. عملکرد این ماشین هوش مصنوعی به خوبی نشان می‌دهد که چرا توسعه توانایی گفتار بدون داشتن جسم فیزیکی و تجریبات فیزیکی ناشی از آن دارای نواقص بنیادی است.مقاله‌ی مرتبط:این مدل کامپیوتری می‌تواند محتواهای معنا‌داری شبیه ادبیات انسانی مانند مقاله‌ها، داستان کوتاه یا شعر تولید کند. اما در یک پیش‌نمایش سیستم GPT-3 جمله‌ی عجیبی سرهم‌بندی کرد:برای پریدن از (شهر) هاوایی به (عدد) هفده به دو رنگین‌کمان نیاز است.میچل در این مورد می‌گوید:من خیلی با این مسئله کلنجار رفته‌ام، این ماشین کارهای فوق‌العاد‌ه‌ای انجام می‌دهد، اما گاهی اشتباهات احمقانه‌ای هم می‌کند.هوش جامع مصنوعی اگر بخواهد به روش طبیعی با انسان‌ها تعامل کند به توسعه‌ی ابعاد حیوانی دیگری از طبیعت انسان مانند احساسات نیز نیاز دارد. احساسات صرفاً واکنش‌های غیرمنطقی نیستند. انسان‌ها به منظور پیشبرد انگیزه‌ها و رفتارهایشان در طول تاریخ به ابراز احساسات روی آورده‌اند. آن‌طور که ایلیا سوتسکور، دانشمند ارشد مؤسسه‌ی Open AI می‌گوید، احساسات نوعی جاذبه‌ی انسانی به منطق می‌دهد. حتی اگر هوش مصنوعی مانند انسان‌ها احساسات خودآگاهانه‌ای نداشته باشند، ممکن است کدهایی برای ابراز احساساتی شبیه به خشم یا ترس در الگوریتم‌ آن‌ها گنجانده شده باشد. هم اکنون محققان در روش یادگیری تقویت‌شده عنصری با ماهیت اکتشافی شبیه حس کنجکاوی انسان‌ها را در مدل‌های خود می‌گنجانند.انسان‌ها در بدو تولد هم‌چون صفحات سفید نیستند، ما در هنگام تولد دارای یک استعداد ازپیش‌گنجانده‌شده در مغزمان برای تشخیص چهره، یادگیری زبان و بازی کردن با اشیا هستیم. سیستم‌های یادگیری ماشین نیز باید نوعی ساختار درونی و اولیه برای یادگیری سریع برخی موضوعات مخصوص داشته باشند. اما چه نوع و چه اندازه از این ساختار موضوع بحث داغ بین دانشمندان است. سوتسکور معتقد است:نحوه‌ی تفکر ما از لحاظ هوشی اغواکننده است، بااین‌حال ما باید سفید‌ترین صفحه‌ی ممکن را برای شروع کار داشته باشیم.به‌طور کلی نوعی از ساختار شبکه‌ی عصبی که مورد پسند سوتسکور است ترانسفورمر نام دارد، روشی که در آن هوش مصنوعی بیشتر توجه خود را به روابط مهم بین عناصر ورودی سیستم معطوف می‌کند. روش ترانسفورمر روی سیستم‌هایی مانند GPT-3 پیاده شده و برای پردازش تصاویر، موسقی و ویدئو نیز به کار رفته است.ربات انسان‌نمای iCub به یک ابزار تحقیقاتی در آزمایشگاه‌های سراسر جهان برای مطالعه‌ی شناخت انسان و هوش مصنوعی تبدیل شده است.تفکر در مورد تفکرخود هوش مصنوعی ممکن است به ما در کشف انواع جدیدی از هوش مصنوعی کمک کند. مجموعه‌ای از تکنیک‌هایی به نام AutoML وجود دارند که در آن از الگوریتم‌ها برای بهینه‌سازی معماری شبکه‌های عصبی یا ابعاد دیگر هوش مصنوعی استفاده می‌شود. هوش مصنوعی همچنین به محققان کمک می‌کند تا مدار‌های مجتمع بهتری طراحی کنند. سال پیش محققان گوگل در ژورنال نیچر گزارش دادند که مدل‌ یادگیری تقویت‌شده‌ی آن‌ها در طراحی برخی از ویژگی‌های تراشه‌ی شتاب‌دهنده‌ی از خود تیم طراحی گوگل بهتر عمل کرده است.عصر هوش جامع مصنوعی شاید چند دهه‌ی بعد از راه برسد؛ چراکه هنوز ناشناخته‌های زیادی درمورد هوش مصنوعی و مفهوم هوش به‌صورت کلی وجود دارد. میچل در این مورد می‌گوید:ما حتی هوش خودمان را به‌طور کامل درک نکرده‌ایم، چراکه بخش بزرگی از آن ناخودآگاه است. به‌همین‌دلیل، نمی‌دانیم که چه کاری برای هوش مصنوعی می‌تواند سخت یا آسان باشد.در واقع چیزی که می‌تواند برای انسان‌ها ‌آسان باشد شاید برای کامپیوترها سخت باشد و برعکس، پدیده‌ای که به آن پارادوکس موراوک می‌گویند. مواروک، دانشمند فناوری رباتیک در سال ۱۹۸۸ نوشت:در مقام قیاس به‌راحتی می‌توان نشان داد که کامپیوترها در انجام کارهایی مانند حل مسئله یا انجام آزمایش هوش یا شطرنج بازی کردن که تنها از دست انسان‌های بالغ برمی‌آید مهارت بالایی از خود نشان می‌دهند، اما آموزش مهارت‌های یک کودک یک ساله مانند توانایی‌های ادراک و حرکتی به آن‌ها بی‌نهایت دشوار یا غیرممکن است.در واقع می‌توان گفت نوزادان بالفطره به نوعی باهوش هستند. پریکاپ در این مورد معتقد است:برای دستیابی به هوش جامع مصنوعی ما باید به درک بیشتری از هوش انسانی و به‌طور کلی مفهوم هوش دست پیدا کنیم.تورینگ در زمان خود نیز بین مفهوم هوش به‌طور کلی و هوش انسانی تفاوت قائل می‌شد. او در سال ۱۹۵۰ در مقاله‌ی خود در مورد آزمایش تقلید نوشت:ممکن است ماشین‌ها کاری را که ما از آن به‌عنوان فکر کردن نام می‌بریم، انجام ندهند؛ اما به چه کاری می‌توان گفت عمل غیرانسانی؟منظور تورینگ به‌تعبیر ساده‌تر این بود: لازم نیست مانند یک انسان فکر کنید تا از شما به‌عنوان نابغه‌ی باهوش یاد شود. هوشی که انسان‌ها ازطریق تفکر و اعمالشان نشان می‌دهند تنها یکی از انواع هوش می‌تواند باشد.کلنجار با ارزش‌های اخلاقیآیزک آسیموف در داستان کوتاهی که در ۱۹۴۲ نوشته بود از زبان یکی از کارکتر‌های داستان خود به سه قانون بنیادی که ربات‌ها باید از آن تبعیت کنند اشاره می‌کند. ربات‌ها باید از آسیب رساندن به انسان‌ها پرهیز یا از رسیدن آسیب به انسان‌ها جلوگیری کنند، باید از دستورها پیروی کنند و باید از خودشان محافظت کنند. ربات‌ها باید این قوانین را با توجه به درجه‌ی اهمیت آن‌ها رعایت کنند به گونه‌ای که عمل به یک قانون ناقض قانون‌های مقدم بر آن نباشد.شاید با خواندن داستان‌های علمی تخیلی ربات‌های شروری را تصور کنید که به اختیار خود تصمیم به نابودی انسان‌ها می‌گیرند؛ اما در دنیای واقعی کامپیوترها به شکل‌های دیگری روی زندگی انسان‌ها تأثیر می‌گذارند. به جای ربات‌های انسان‌‌نمای قاتل، ما الگوریتم‌هایی داریم که اشتباهات آن‌ها تبدیل به تیتر اخبار می‌شود. اکنون که کامپیوترها وارد جنبه‌های بیشتری از زندگی انسان‌ها می‌شوند وقت آن است در مورد نوع سیستم‌های کامپیوتری که باید ساخته و به کار گرفته شوند تصمیم بگیریم، و مهم‌تر از آن، در مورد مرجع تصمیم گیرنده و نظارت‌کننده بر این موارد نیز فکر کنیم.در اینجا وارد دنیای اخلاقیات می‌شویم که شاید از مسیر و هدف اصلی علوم ریاضی و مهندسی دور به نظر برسد. اما تصمیم‌گیری در مورد سؤال‌هایی که باید در مورد جهان بپرسیم و ابزارهایی که باید بسازیم همیشه به ایده‌ها و بایدها و نبایدهای اخلاقی جامعه بستگی داشته است. مطالعه در مورد یک موضوع علمی محض مانند برهم‌کنش‌های ذرات زیراتمی به وضوح تأثیر بسزایی در صنعت تولید انرژی یا ساخت سلاح جنگی دارد. باربارا گروس، دانشمند علوم کامپیوتر از دانشگاه هاروارد می‌گوید:این یک حقیقت بنیادی است که سیستم‌های کامپیوتری از لحاظ ارزشی بی‌طرف نیستند، وقتی یک مدل کامپیوتری توسعه داده می‌شود برخی از ایده‌های ارزشی از طرف سازندگان به‌طور ناخودآگاه وارد سیستم می‌شود.یکی از موضوعاتی که توجه دانشمندان و جامعه‌شناسان را به خود جلب کرده بحث بی‌طرفی و تبعیض است. مؤسسه‌ و نهادهای زیادی از الگوریتم‌ها به‌طور فزاینده برای اطلاع‌رسانی یا تصمیم‌گیری در مورد استخدام‌های شغلی، پذیرش در دانشگاه، اعطای وام‌ یا آزادی مشروط‌ استفاده می‌کنند. حتی اگر یک‌جانبه‌گرایی و غرض‌ورزی سیستم‌های کامپیوتری از انسان‌ها کم‌تر باشد، ممکن است بخش مشخصی از جامعه مورد بی‌عدالتی قرار بگیرد، نه به این دلیل که بی‌عدالتی و تعصب‌گرایی در طراحی این سیستم‌ها به صورت عامدانه گنجانده شده است، بلکه به این دلیل ساده که مدل‌های کامپیوتری ممکن است با داده‌هایی از این دست آموزش دیده باشند. برای مثال مدل‌های کامپیوتری می‌توانند رفتار مجرمانه‌ی یک فرد در آینده را براساس رفتارها و بازداشت‌های قبلی او پیش‌بینی کرده و در مورد آزادی مشروط او تصمیم بگیرند، درحالی‌که گروه‌های مختلفی از جامعه به‌میزان متفاوتی در مورد یک مقدار مشخصی از جرم بازداشت می‌شوند.چیزی که باعث سردرگمی بیشتر می‌شود این است که تعاریف مختلفی برای بی‌طرفی و عدالت وجود دارد، مانند نرخ مثبت کاذب یا نرخ منفی کاذب بین گروه‌ها. برای مثال چند سال پیش یک محقق در کنفرانسی ۲۱ تعریف مختلف برای عدالت برشمرد. بنابراین جای تعجب نیست که تصمیم‌گیری در مورد این که چه چیزی عادلانه یا غیرعادلانه است همیشه محل مناقشه باشد. در یک مطالعه محققان نشان دادند که برآورده کردن پیش‌نیازهای سه تعریف مختلف از عدالت به صورت هم‌زمان از لحاظ ریاضی غیرممکن است.برآورده کردن سه تعریف مختلف از عدالت به صورت هم‌زمان از لحاظ ریاضی غیرممکن استموضوع مهم دیگر بحث حریم خصوصی و سیستم‌های پایش افراد است، اهمیت این موضوع در سال‌های اخیر بیشتر شده؛ چراکه اکنون کامپیوترها نسبت به گذشته به شکل غیر‌قابل تصوری اطلاعات زیادی را جمع‌آوری و طبقه‌بندی می‌کنند. داده‌های مربوط به نحوه‌ی رفتار در فضای اینترنت می‌تواند به مدل‌های کامپیوتری کمک کند تا رفتارهای خصوصی از جمله رفتارهای جنسی ما را پیش‌بینی کنند. همچنین فناوری تشخیص چهره کامپیوترها را قادر می‌کند تا افراد را در دنیای واقعی تعقیب کنند، موضوعی که می‌تواند مزایایی مانند کمک به شناسایی یک مجرم توسط پلیس یا معایبی مانند نقض حقوق شهروندی توسط حکومت‌های خودکامه داشته باشد. از طرف دیگر فناوری نوظهور نوروتکنولوژی در حال آزمایش روش‌هایی برای برقراری ارتباط مستقیم بین مغز و کامپیوترها است. امنیت شخصی و اجتماعی موضوعی است که به‌طور مستقیم با حریم خصوصی ارتباط دارد. هکر‌ها اکنون می‌توانند دامنه‌ی وسیع‌تری از سیستم‌های کامپیوتری، از ضربان‌سازهای قلبی گرفته تا خودروهای خودران را هدف حمله قرار دهند.مقاله‌ی مرتبط:کامپیوترها همچنین می‌توانند موجب افزایش فریبکاری در فضای اینترنت شوند. هوش مصنوعی می‌تواند محتواهای ساختگی تولید کند؛ از جمله تصاویر و ویدیوهایی که بسیار شبیه به واقعیت هستند. از مدل‌های کامپیوتری گفتاری ممکن است برای ساخت اخبار جعلی و محتواهای تهییج‌کننده‌ی گروهای تندرو استفاده شود. شبکه‌های عصبی مولد که نوعی از سیستم‌های یادگیری عمیق هستند می‌توانند محتواهای صوتی و تصویری شبیه واقعیت یا دیپ‌فیک تولید کنند، فیلم‌ها و تصاویر ساختگی که در بیشتر موارد افراد مشهور را در انجام کارهای عجیب و غریب نشان می‌دهد.در محیط شبکه‌های اجتماعی نیز نگرانی‌هایی در مورد دوقطبی شدن نظرات سیاسی و اجتماعی افراد جامعه وجود دارد. به‌طور کلی الگوریتم‌های پیشنهاددهنده‌ی محتوا به‌جای گفتمان مدنی به‌دنبال درگیری بیشتر افراد در محیط اینترنت هستند تا ازطریق تعامل بیشتر با پلتفرم‌ها، سود تبیلغاتی بیشتری نصیب شرکت‌ها شود. ربات‌های مشاور نوعی از چت‌بات‌ها هستند که برای دادن مشاوره‌ی اقتصادی و پیشنهاد خرید محصولات برای افراد توسعه داده‌ شده‌اند. این بات‌ها ممکن است به نحوی از نیازهای ضروری و غیرضروری افراد آگاه شده و آن‌ها را به خرید بیشتر محصولات نامربوط و غیرضروری تشویق کنند.برخی کشورها به توسعه‌ی سلاح‌های خودهدایت‌شونده روی آورده‌اند، این سلاح‌ها که براساس هوش مصنوعی کار می‌کنند به‌صورت بالقوه باعث کاهش تلفات غیرنظامی شده و قدرت تصمیم‌گیری سریع‌تری نسبت به انسان‌ها برای شروع مخاصمات مؤثر دارند. قرار دادن اسلحه و موشک‌ در دست هوش مصنوعی نگرانی‌هایی از جنس فیلم‌های علمی تخیلی ترمیناتور با موضوع از بین بردن نسل انسان‌ها ایجاد می‌کند.شاید هوش مصنوعی نیت بدی در پشت تصمیمات خود نداشته باشد و فقط به اشتباه این‌طور استدلال کند که حذف نوع بشر از روی زمین، بهترین راه برای خلاص شدن از شر رفتارهای سرطان‌مانندی که انسان‌ها عامل آن‌ هستند؛ رفتارهایی مانند تخریب زمین و به خطر انداختن حیات تمام موجودات زنده یا امکان استفاده ازسلاح‌های هسته‌ای. اما آسیب‌های کوتاه‌مدت سیستم‌های هوش مصنوعی خودمختار در دنیای واقعی شکل و شمایل آخرالزمانی کم‌تری دارند، مانند سقوط ناگهانی سهام شرکت‌ها در پی تصادفات خودروهای خودران یا قیمت‌گذاری عجیب روی کتاب‌هایی که در آمازون به فروش می‌رسد. اما اگر تصمیم‌گیری در مورد مسائل مرگ و زندگی برعهده‌ی هوش مصنوعی گذاشته شود، ممکن است با مسئله‌ی اخلاقی مشهور تراموا روبه‌رو شویم، یعنی تصمیم‌گیری در مورد این‌که چه‌ کسی یا چه چیزی باید قربانی شود، در شرایطی که ممکن نیست هر دو طرف پیروز شوند. در اینجا دوباره وارد حیطه‌ی قوانین آسیموف می‌شویم.//یک الگوریتم پلیسی پیش‌بینی‌کننده که در اوکلند کالیفرنیا آزمایش شد، سیاه‌پوستان را تقریباً دو برابر سفیدپوستان (سمت چپ) هدف قرار می‌دهد. این در حالی است که حتی داده‌های مربوط به همان دوره‌ی زمانی، یعنی سال ۲۰۱۱، نشان می‌دهد که مصرف مواد مخدر در بین گروه‌های نژادی تقریباً معادل بوده است (سمت راست) .بنابراین می‌توان گفت در حال حاضر نگرانی‌های زیادی در مورد هوش مصنوعی و مسئولیت‌هایی که باید به آن سپرده شود وجود دارد. راسل از دانشگاه کالیفرنیا می‌گوید:سلاح‌های خودهدایت‌شونده‌ی کشنده موضوعی جدی و عاجل است؛ چراکه ممکن است تاکنون جان مردم به خاطر تصمیمات هوش مصنوعی به خطر افتاده باشد و این طور که از شرایط برمی‌آید وقوع یک فاجعه‌ی بزرگ حتمی است و تنها مسئله‌ی زمان وقوع آن مطرح است. بی‌عدالتی و اعتیاد به شبکه‌های اجتماعی و گرایش به تندروی در فضای مجازی نیز مثال‌های آشکاری از بی‌توجهی ما در توجه به ارزش‌های اخلاقی هنگام توسعه‌ی الگوریتم هوش مصنوعی است. این مشکلات مانند هشدارهای اولیه هستند که به ما نشان می‌دهند چطور ممکن است همه چیز به‌راحتی و سرعت از کنترل خارج شود.همچنین درمورد نحوه‌ی مدیریت تکنولوژی در جامعه نیز سوالات قانونی، سیاسی و اجتماعی مطرح است. وقتی سیستم هوش مصنوعی باعث آسیب به افراد می‌شود چه کسی باید مسئولیت آن را برعهده گیرد؟ چراکه پیش از این در مواردی خودروهای خودران باعث تصادف و مرگ افراد شده‌اند. چطور می‌توانیم از دسترسی منصفانه‌ی همه‌ی افراد جامعه به ابزار هوش مصنوعی و بهره‌مندی عادلانه از فواید استفاده از آن مطمئن شویم و اطمینان حاصل کنیم که الگوریتم‌های هوش مصنوعی در تصمیم‌گیری‌های خود علیه هیچ شخص یا گروه جمعیتی تبعیض قائل نمی‌شوند؟ چگونه ادامه‌ی روند اتوماسیون در محیط‌های کاری روی نرخ اشتغال تأثیر خواهد گذاشت؟ آیا قادر به کنترل اثرات مخرب دیتاسنتر‌ها بر محیط زیست ازطریق مصرف برق زیاد و به تبع آن تولید مقدار زیادی گازهای گلخانه‌ای خواهیم بود؟ الگوریتم‌های توضیح‌پذیر نسبت به شبکه‌های عصبی که تنها بر مبنای یادگیری عمیق توسعه داده شده‌اند و مانند جعبه‌ سیاه عمل می‌کنند، سطح عملکرد پایین‌تر و پیش‌بینی‌های ضعیف‌تری دارند، بااین‌حال آیا ما باید به خاطر اعتماد بیشتر و قابلیت اشکال‌زدایی آن‌ها ترجیحا از چنین الگوریتم‌های ضعیف‌تری استفاده کنیم؟چه باید کرد؟مایکل کرنز، دانشمند علوم کامپیوتر در دانشگاه پنسیلوانیا که کتاب الگوریتم اخلاقی را در سال ۲۰۱۹ به رشته‌ی تحریر درآورده برای توضیح این مشکل از یک طیف مدیریت‌پذیری استفاده می‌کند. در یک سمت این طیف روش حریم‌ خصوصی تفاضلی وجود دارد که از آن با نام محرمانگی آماری نیز یاد می‌شود. در این راهکار می‌توان اطلاعات مربوط به افراد مانند اطلاعات پزشکی آنان را با محققان به منظور انجام مطالعات علمی به اشتراک گذاشت بدون این که حریم خصوصی افراد نقض شده و اطلاعات شخصی آنان فاش شود. در این روش می‌توان به‌صورت ریاضی ضمانت‌هایی برای حفظ اطلاعات شخصی افراد به هنگام اشتراک‌گذاری اطلاعات ارائه کرد.موضوع عدالت در نگاه هوش مصنوعی برای همیشه محل تضاد و بحث‌های نگرشی خواهد بوددر جایی در وسط این طیف موضوع پرهیز از تبعیض در سیستم‌های یادگیری ماشین قرار دارد. محققان با تغییر یا حذف داده‌های تبعیض‌آمیزی که برای آموزش شبکه‌های عصبی به کار می‌رود موفق به توسعه‌ی روش‌هایی برای افزایش عدالت و دوری از تبعیض در سیستم‌های کامپیوتری شده‌اند، به‌نحوی که خسارت مالی ناشی از کاهش سوددهی الگوریتم‌ها به حداقل مقدار ممکن برسد. بااین‌حال برخی از انواع عدالت در جنبه‌های مختلف یک موضوع برای همیشه در تضاد با یکدیگر خواهند بود و روش‌های ریاضی محض نمی‌تواند به ما در تصمیم‌گیری کمک کند.توضیح‌پذیری در سمت دیگر این طیف قرار دارد. برخلاف عدالت و دوری از تبعیض که تا حد زیادی به روش‌های مختلف ریاضی می‌توان به تحلیل آن پرداخت، تعریف قابلیت توضیح‌پذیری به روش ریاضی کاری دشوار است. کرنز در این مورد می‌گوید:احساس می‌کنم تاکنون یک تعریف خوب در این مورد ارائه نشده‌ است. فرض کنید الگوریتمی دارید که براساس شبکه‌ی عصبی آموزش داده شده و در مورد ارائه وام به افراد تصمیم می‌گیرد. اگر کسی بپرسد چرا به من وام تعلق نگرفته نمی‌توانید توضیح دقیقی بدهید یا توضیحی که داده می‌شود زیاد اصولی به نظر نمی‌رسد.در نهایت هرچه که باشد توضیحی که مخاطب شما آن را درک نکند یک توضیح خوب نیست. بنابراین اندازه‌گیری میزان موفقیت چنین الگوریتمی، به هر شکلی که موفقیت را تعریف کنید، نیاز به مطالعه آماری روی کاربران دارد.وجود سلاح‌های مرگبار خودمختار مانند پهپادهای STM Kargu ساخت ترکیه، باعث شده است تا کارشناسان خواستار ممنوعیت وسایلی شوند که می‌توانند بدون دخالت انسانی حملاتی را انجام دهندچیزی مثل قوانین سه‌گانه‌ی آسیموف به‌تنهایی نمی‌تواند از ما درمقابل آسیب‌ ربات‌ها حفاظت کند، به‌خصوص آسیب‌هایی که در فرایند تلاش برای کمک به انسان‌ها به‌صورت ناخواسته از طرف ربات‌ها وارد می‌شود. حتی اگر لیست آسیموف میلیون‌ها قانون دیگر را شامل می‌شد، جملاتی که قانون با آن‌ها نوشته شده هیچ‌گاه به‌طور صددرصد حق مطلب را ارائه نمی‌کند و نمی‌تواند روح آن را توضیح دهد. یکی از راه‌حل‌های ممکن برای پاسخ به این چالش استفاده از یادگیری تقویت‌شده‌ی معکوس است، روشی که کامپیوترها می‌توانند با رمزگشایی از رفتار ما به ارزش‌های اخلاقی که انسان‌ها به آن پایبندند دست پیدا کنند.مسیر پیش روی مهندسان برای بهبود مسیر آیندهدر سال ۱۹۵۰ آسیموف در داستان کوتاه تخاصم اجتناب‌پذیر، چیزی نوشت که بعدا به قانون صفرم آسیموف معروف شد، قانونی که پیروی از آن مقدم بر تمام قوانین دیگر است:یک ربات نباید با اعمال خود به انسان‌ها آسیب برساند یا با بی‌عملی باعث آسیب رسیدن به انسان‌ها شود.در دنیای امروزی می‌توان این قانون را با جایگزین کردن کلمه‌ی دانشمندان علوم رباتیک به جای کلمه‌ی ربات‌ به کار برد. در بسیاری از موارد دانشمندان علوم کامپیوتر سعی دارند با توسعه‌ی ابزارها و فناوری‌های جدید از رسیدن آسیب به انسان‌ها جلوگیری کنند، بااین‌حال آن‌ها به شکل فعال به تبعات اجتماعی کارهای علمی خود توجه نمی‌کنند. مارگارت میچل از گردانندگان گروه اخلاق هوش مصنوعی در گوگل که اکنون در زمینه‌ی مشاوره‌ی اخلاقی به شرکت‌های فناوری فعالیت می‌کند، معتقد است انفعال دانشمندان در این زمینه عملا باعث آسیب به انسان‌ها شده است.گروس از دانشگاه هاروارد می‌گوید یکی از مشکلات بزرگ پیش روی فناوری هوش مصنوعی این است که بسیاری از دانشمندان در زمینه‌ی اخلاقِ فناوری آموزش‌های لازم را ندیده‌اند. بااین‌حال گروس در تلاش برای تغییر شرایط است. او به همراه فیلسوف آلیسون سیمونز برنامه‌ای با نام اخلاق نهادینه را در دانشگاه هاروارد مدیریت می‌کند که هدف از آن قرار دادن آموزش‌های فلسفی در کنار دروس علوم کامپیوتر است. در این برنامه‌ی درسی به دانشجویان علاوه بر مهارت‌های کامپیوتری در زمینه‌ی فلسفه‌ی اخلاق، حریم خصوصی، تبعیض و اخبار جعلی نیز آموزش‌هایی داده می‌شود. این برنامه اکنون در دانشگاه‌های استنفورد، تورنتو و مؤسسه‌ی تحقیقاتی ماساچوست نیز ارائه می‌شود.گروس در این مورد توضیح می‌دهد:ما سعی می‌کنیم دانشجویان را وادار به تفکر درمورد ارزش‌های اخلاقی و مصالحه‌ی اخلاقی کنیم، این که با در نظر گرفتن یک ارزش اخلاقی مشخص در کار خود چه چیزی به دست آورده یا از دست می‌دهید.گروس در این مسیر با دو نکته‌ی قابل‌تأمل مواجه شده است. نکته‌ی اول این است که دانشجویان درمورد موضوعاتی که جواب‌های ساده و سرراست درست و غلط ندارند و پاسخ دادن به آن‌ها نیازمند بحث درمورد تصمیمات به‌خصوصی است به مشکل برمی‌خورند، و نکته‌ی دوم این که دانشجویان با وجود سرخوردگی تا چه اندازه به چنین موضوعات چالش‌برانگیزی اهمیت می‌دهند.راهکاری دیگری که برای آگاه‌سازی دانشمندان در مورد تأثیرات کارهای علمی آنان وجود دارد توسعه‌ی همکاری بین‌رشته‌ای است. میچل معتقد است:علوم کامپیوتر باید به جای اتکا به ریاضی به‌عنوان تنها راه‌حل لازم و کافی، به رشته‌های علمی دیگر نظیر علوم اجتماعی و روان‌شناسی نیز توجه کند. دانشمندان علوم کامپیوتر باید با کارشناسان این رشته‌ها نیز همکاری کنند.از طرف دیگر کرنز می‌گوید دانشمندان باید مهارت‌های فنی خود را با نهادهای قانونی، سیاست‌مداران و وکیل‌ها در میان بگذارند. در غیر این‌صورت سیاست‌های اتخاذ شده در این زمینه به اندازه‌ای مبهم خواهند بود که تقریباً بلااستفاده بمانند. در غیاب تعریف‌های مشخصی از عدالت و حریم خصوصی که به‌طور واضح در متن قانون آمده باشند، شرکت‌ها می‌توانند به جای دیگران براساس نیازها و سوددهی‌ خود تصمیم‌گیری کنند.وقتی صحبت از تأثیر یک ابزار جدید بر جامعه می‌شود، بهترین کارشناسانی که می‌توانند در مورد معایب و مزایای آن ابزار قضاوت کنند خود افراد جامعه هستند. گروس حامی مشورت با گروه‌های جمعیتی متنوع است. تنوع نژادی و جمعیتی می‌تواند به انجام مطالعات رفتار جمعی و همچنین تحقیقات تیم‌های علمی کمک کند. گروس اضافه می‌کند:اگر در اتاق فردی پیدا نمی‌کنید که به شکل متفاوتی از شما فکر کند به این معنی نیست که نظرات متفاوتی وجود ندارند، بلکه به این معنی است که شما تفاوت‌ها را نمی‌بینید. اگر کسی بگوید که شاید همه‌ی افراد بیمار از گوشی هوشمند استفاده نمی‌کنند، آن‌وقت در طراحی‌های خود مثل گذشته فکر نخواهید کرد.به‌باور مارگارت میچل بزرگ‌ترین چالش به موضوع تنوع جمعیتی برمی‌گردد. او می‌گوید:مشکل از آن‌‌جا آغاز می‌شود که از همان شروع کار نماینده‌ی همه‌ی گروه‌های جمعیتی دور میز حضور نداشته باشند. همه‌ی مشکلات دیگر از این‌جا نشأت می‌گیرد.

برچسب ها

این مطلب بدون برچسب می باشد.

به اشتراک بگذارید
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تحریریه زاگرس آنلاین منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.