نیوز سیتی!
04 مرداد 1402 - 16:28

چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟/قسمت دوم و پایانی: حکمت عملی مصنوعی

حکمت عملی مصنوعی، قابلیتی ضروری برای ساختن عامل‌های اخلاقی مصنوعی است؛ زیرا اگر بخواهیم با ماشین‌ها وارد رابطه مبتنی بر اعتماد شویم، نیازمند طراحی حکمت عملی مصنوعی هستیم. در این صورت، انواع جدیدی از جوامع را تجربه خواهیم کرد. اما اگر به این نتیجه برسیم که دستیابی به آگاهی مصنوعی عملا ناممکن است، رویای تولد چنین جوامعی نیز عملا محقق نخواهد شد.

سعیده بابایی

در قسمت قبل درباره حکمت عملی و تقسیم آن به دو نوع مصنوعی و غیرمصنوعی توضیح دادیم. در این قسمت به بررسی برخی زوایای حکمت عملی مصنوعی می پردازیم.

نقش حکمت عملی مصنوعی در استدلال اخلاقی اتوماتیک‌شده

آیا می‌توان کارکردی معادل کارکرد حکمت عملی در انسان‌های شایسته را در ماشین‌ها برنامه‌نویسی کرد؟ برای دستیابی به این هدف لازم است ماشین‌هایی را طراحی کنیم که در تعاملات خود با عامل‌های انسانی از خود حکمت عملی بروز می‌دهند. دستیابی به این هدف مطلقا کار ساده‌ای نیست، چرا که همه عامل‌های انسانی هم در استدلال حکیمانه ماهر نیستند و این انتظار زیادی از ماشین است که مهارت حکمت عملی را در خود جای دهد. مانع دشوار دیگری که پیش روست، دستیابی به آگاهی مصنوعی است، چرا که لازمه حکمت عملی، داشتن توانایی تأمل و عمل آگاهانه و درست است.

لازمه حکمت عملی، داشتن توانایی تأمل و عمل آگاهانه و درست است.

 

با همه اینها، دستیابی به حکمت عملی مصنوعی امری ضروری است، از این رو که برای شکل‌گیری اعتماد میان کاربران هوش مصنوعی و روبات‌ها و میان خود سیستم‌های هوشمند، قدرت تصمیم‌گیری اخلاقی مورد نیاز است.

دستیابی به حکمت عملی مصنوعی ضروری است، زیرا برای افزایش اعتماد کاربران به سیستم‌های هوش مصنوعی و روبات‌ها کفایت اخلاقی این سیستم‌ها لازم است.

 

در چنین حالتی است که می‌توان آینده‌ای را تصورکرد که در آن انسان‌ها با آسودگی خاطر زیست می‌کنند و نگران عواقب و تأثیرات نامطلوب تصمیم‌های سیستم‌های خودمختار روی زندگیشان نخواهند بود.

بیانیه‌ای برای حکمت عملی مصنوعی

حوزه مطالعات حکمت عملی مصنوعی حوزه‌ میان‌رشته‌ای نوظهوری است که توجهات را به سوی خود جلب کرده است. در ادامه به طور خلاصه به مواردی اشاره می‌کنیم که می‌توان از آنها تحت عنوان بیانیه‌ای برای حکمت عملی مصنوعی نام برد:

حکمت عملی نقشی اساسی در استدلال اخلاقی سطح بالا ایفا می‌کند و این پرسش، پرسش بسیار مهمی است که آیا می‌توان معادل کارکردی‌اش را در ماشین‌ها برنامه‌نویسی کرد؟

حکمت عملی نقشی اساسی در استدلال اخلاقی سطح بالا ایفا می‌کند.

 

حکمت عملی مصنوعی، قابلیتی ضروری برای ساختن عامل‌های اخلاقی مصنوعی است؛ هرچند که هنوز نمی‌دانیم آیا می‌توان ماشین‌هایی با چنین قابلیتی ساخت یا خیر.

حکمت عملی مصنوعی از تلاش‌های انجام‌شده در سنت کلاسیک اخلاق متأثر است، اما تنها به این منابع محدود نیست. به بیان دیگر، به دنبال توصیف کامل حکمت عملی به گونه‌ای که در اخلاق کلاسیک مطرح شده نیست.

حکمت عملی مصنوعی، قابلیتی ضروری برای ساختن عامل‌های اخلاقی مصنوعی است.

 

همچنین، نمی‌کوشد که فهمی کامل از مفهوم حکمت عملی انسانی در سطح نظری و عصب‌شناختی پیدا کند. اگرچه، از کمک‌های مطالعات در این حوزه‌ها بهره می‌گیرد.

ادعای این حوزه این نیست که ماشین‌‌ها می‌توانند عامل‌های اخلاقی کامل شوند. کمال اخلاقی برای هیچ عامل اخلاقی‌ای ابتدا به ساکن ممکن نیست. حکمت عملی مصنوعی به دنبال آن است که سیستم محاسباتی‌ای را توضیح دهد که با هدف تعامل اخلاقی با عامل‌های انسانی و مصنوعی طراحی شده و می‌تواند در موقعیت‌های جدید هم راه‌حل‌های خلاقانه‌ای ارائه دهد.

حکمت عملی مصنوعی به دنبال آن است که سیستم محاسباتی‌ای را توضیح دهد که با هدف تعامل اخلاقی با عامل‌های انسانی و مصنوعی طراحی شده و می‌تواند در موقعیت‌های جدید هم راه‌حل‌های خلاقانه‌ای ارائه دهد.

 

کوشش‌ها برای دستیابی به حکمت عملی مصنوعی به شیوه‌ها و در قالب‌های متنوعی در حال انجام است؛ مثلا روش یادگیری ماشین تکاملی. اما این نگرانی در این حوزه به رسمیت شناخته می‌شود که ممکن است ماشین‌ها صرفا بتوانند قضاوت اخلاقی را برای مدتی معین شبیه‌سازی کنند و همیشه این خطر وجود دارد که این ماشین‌ها فقط نمود و تمثالی از عامل‌های اخلاقی باشند.

کوشش‌ها برای دستیابی به حکمت عملی مصنوعی به شیوه‌ها و در قالب‌های متنوعی در حال انجام است.

 

برای مقابله با این خطر، حوزه حکمت عملی مصنوعی معیارهای سخت‌گیرانه‌ای را برای قضاوت درباره استدلال اخلاقی ماشین‌ها تنظیم می‌کند، هرچند که دستیابی به چنین ماشین‌هایی در آینده نزدیک ناممکن به نظر می‌رسد.

نظر جان دیوئی در باب نقش حکمت عملی در تفکر آگاهانه

حکمت عملی مفهومی مهجور و کهن نیست و طی قرن‌ها همواره مورد توجه اندیشمندان بوده است. جان دیوئی یکی از مهمترین افرادی است که در باب این مفهوم تأملاتی داشته و آن را بسط داده است. بر خلاف فلاسفه باستان که حکمت عملی را تنها به فلاسفه بسیار هوشمند نسبت می‌داده‌اند، دیوئی این مفهوم را به گونه‌ای بازتعریف می‌کند که نقشی محوری در همه انواع استدلال پیدا کند. چرا که وقتی تلاش می‌کنیم هر علم یا مهارتی را کاربردی کنیم، لاجرم وارد حوزه‌های اجتماعی می‌شویم و کنش‌ورزی موفق در این حوزه‌ها مستلزم استفاده از حکمت عملی است. اگر با دیوئی هم‌نظر باشیم، حکمت عملی بخشی از آن چیزی است که از ما موجوداتی شایسته و کفایتمند، آگاه، و باوجدان می‌سازد.

حکمت عملی بخشی از آن چیزی است که از ما موجوداتی شایسته و کفایتمند، آگاه، و باوجدان می‌سازد.

 

اعتماد اخلاقی عامل‌های هوش مصنوعی و روبات‌ها

یکی از پیچیده‌ترین موضوعاتی که در حوزه اخلاق هوش مصنوعی پیگیری می‌شود، رابطه مبتنی بر اعتماد میان این فناوری‌ها با انسان‌ها و با خودشان است. در اینجا ما موضوع را محدود می‌کنیم به اعتماد فرونتیک یا اعتماد مبتنی بر حکمت عملی. عامل‌های فرونتیک مصنوعی باید بتوانند ما را متقاعد کنند که وقتی در حال تعامل با ما هستند، شخصیت اخلاقی ما را در نظر می‌گیرند و متناسب با آن تصمیمات اخلاقی خود را اتخاذ می‌کنند.

در تعامل با ماشین‌ها باید به ما ضمانت داده شود که ماشین‌هایی که به آنها اعتماد می‌کنیم، دارای «شخصیت خوبی» هستند.

 

ما انسان‌ها از یکدیگر می‌آموزیم که چطور شخصیت اخلاقی خود را پرورش دهیم و ماشین‌های اخلاقی نیز برای پیدا کردن درکی از شخصیت اخلاقی ما باید در فرایندهای اجتماعی مهم ما مشارکت داشته باشند. به عبارت دیگر، این ماشین‌ها باید بتوانند در جایگاه آموزگاران اخلاقی نیز در جامعه قرار بگیرند. در چنین تعاملی با ماشین‌ها باید به ما ضمانت داده شود که ماشین‌هایی که به آنها اعتماد می‌کنیم، دارای «شخصیت خوبی» هستند و استحقاق اعتماد ما را دارند. در صورتی که حکمت عملی مصنوعی به قدر کافی توسعه نیافته باشد، غیر ممکن است که عامل‌های اخلاقی مصنوعی داشته باشیم و به همین دلیل، باید کاربردهای هوش مصنوعی و روبات‌ها را محدود کنیم و تنها از ماشین‌هایی استفاده کنیم که تأثیرات اخلاقی چندان مهمی ندارند.

چگونه می‌توانیم به نحوی اخلاقی به هوش مصنوعی و روبات‌ها اعتماد کنیم؟

مارک کاکلبرگ[1] (2012)، یکی از برجسته‌ترین فیلسوفان حوزه هوش مصنوعی معاصر معتقد است که دو شیوه مجزا را می‌توان برای بررسی مقوله اعتماد در هوش مصنوعی و روباتیک تصور کرد:

در شیوه اول که آن را شیوه «قراردادگرایانه-فردگرایانه[2]» می‌نامیم، ما می‌توانیم وارد رابطه مبتنی بر اعتمادی با ماشین شویم همانگونه که چنین رابطه‌ای را با شرکت‌ها یا هستومندهای حقوقی دیگر، وقتی به محصولات و خدمات آنها اعتماد می‌کنیم، برقرار می‌کنیم. چنین روابطی کمابیش محتاطانه هستند، اما قدمتی دیرینه در جوامع ما دارند. لوچیانو فلوریدی[3] و ماریاروزاریا تادئو[4] (2011) از جمله افرادی هستند که کوشیده‌اند اختلافات و نکات جزئی‌ای را یادآور شوند که باید در این سیستم‌ها به آنها توجه کرد تا تبدیل به سیستم‌های کفایتمندتر و قابل اعتمادتری شوند.

شیوه دومی که کاکلبرگ آن را معرفی می‌کند، رویکرد «پدیدارشناختی-اجتماعی[5]» نام دارد. این روابط، مبتنی بر اعتمادی است که انسان‌ها اغلب با انسان‌های دیگر برقرار می‌کنند و پیوندهای اجتماعی در بستر این روابط رشد می‌یابند و روابط معنادار و عمیقی شکل می‌گیرد. کاکلبرگ نسبت به شکل‌گیری چنین روابطی با هوش مصنوعی و روبات‌ها خوشبین نیست و آنها را روابطی مبتنی بر اعتماد مجازی یا شبه‌اعتماد می‌داند. سیستم‌ها در چنین روابطی با ما وارد بازی‌های اجتماعی می‌شوند و اعتماد ما را جلب می‌کنند، اما این روابط مخاطراتی برای ما خواهد داشت. ممکن است ما فریب بخوریم که در رابطه‌ای مبتنی بر اعتماد اخلاقی با هوش مصنوعی و روبا‌ت‌ها هستیم، اما در واقع اینطور نیست و در برخی از موقعیت‌ها این می‌تواند خطراتی به همراه داشته باشد. در یکی از پژوهش‌های انجام شده در این زمینه (Grodzinsky, Miller, Wolf: 2011) روشی طراحی شده که ممکن است بتواند این مسئله را کمرنگ‌تر کند. در این روش مفهوم جدیدی از «اعتماد» معرفی می‌شود که هم شامل اعتماد سنتی و چهره به چهره میان انسان‌هاست و هم دربردارنده روابطی است که از طریق واسطه‌های الکترونیکی شکل می‌گیرند و همچنین روابطی که عامل‌های مصنوعی در آنها حضور دارند. این مفهوم از اعتماد مفهوم وسیع‌تری است که رابطه انسان/انسان و رابطه انسان/هوش مصنوعی را دربرمی‌گیرد.

اگر بخواهیم با ماشین‌ها وارد رابطه مبتنی بر اعتماد پدیدارشناختی-اجتماعی شویم، نیازمند طراحی حکمت عملی مصنوعی هستیم.

 

اگر بخواهیم با ماشین‌ها وارد رابطه مبتنی بر اعتماد پدیدارشناختی-اجتماعی شویم، نیازمند طراحی حکمت عملی مصنوعی هستیم. در این صورت، انواع جدیدی از جوامع را تجربه خواهیم کرد. اما اگر به این نتیجه برسیم که دستیابی به آگاهی مصنوعی عملا ناممکن است، رویای تولد چنین جوامعی نیز عملا محقق نخواهد شد.

[1] Mark Coeckelbergh

[2] contractarian-individualistic

[3] Luciano Floridi

[4] Mariarosaria Taddeo

[5] phenomenological-social

منبع اولیه:

Sullins, J.P. (2019). The Role of Consciousness and Artificial Phronēsis in AI Ethical Reasoning. AAAI Spring Symposium: Towards Conscious AI Systems.

مترجم: سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن

منبع ثانویه: وبگاه پژوهشگاه مجازی

انتهای پیام/

از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل [email protected] مکاتبه فرمائید.

منبع: فارس
شناسه خبر: 1406153

مهمترین اخبار ایران و جهان: