نیوز سیتی!
06 تیر 1402 - 18:59

الگوریتم‌ ها به مثابه زامبی های اخلاقی - بخش دوم: خودمختاری

عاملیت سکه‌ای است که دو رو دارد: حق خودمختاری عامل و وظیفه مسئولیت‌پذیری و پاسخگویی او. الگوریتم‌ها خودحکمران نیستند، زیرا اهداف آنها از بیرون به آنها داده می‌شود. همچنین، الگوریتم ها پاسخگو به دلایل نیستند. چون هیچ دلیلی نمی‌تواند آنها را قانع کند که هدفی را که برای آن طراحی شده‌اند، تغییر دهند.

سعیده بابایی

خودمختاری و عاملیت اخلاقی

نومی آرپالی[1] هشت تعبیر مختلف از خودمختاری را در ادبیات این حوزه شناسایی کرده است: کارامدی شخصی، استقلال روانشناختی، داشتن حق اخلاقی برای خودتعین‌بخشی، اصالت، داشتن تصویری منسجم از خود، قهرمان بودن، حکمرانی بر خود، پاسخگو بودن به دلایل. در ادامه می‌کوشیم نشان دهیم برخی از این تعابیر ارتباطی به اخلاق ندارند و مابقی آنها (حکمرانی بر خود و پاسخگویی به دلایل) در مورد زامبی‌ها و الگوریتم‌ها به کار برده نمی‌شوند.

کارامدی شخصی

این تعبیر به معنای وابسته نبودن به کمک دیگران برای سیر در جهان است. فلوریدی و سندرز مدعی هستند که الگوریتم‌ها خودمختارند زیرا می‌توانند مستقل از انسان‌‌های سازنده خود عمل کنند (2004: 357). این تعبیر از خودمختاری به ما کمکی در ارزیابی اینکه الگوریتم‌ها عاملان اخلاقی هستند یا خیر نمی‌کند.

الگوریتم‌ها خودمختارند زیرا می‌توانند مستقل از انسان‌‌های سازنده خود عمل کنند.

 

برای یافتن رابطه میان خودمختاری و عاملیت اخلاقی باید به تعبیر غنی‌تر از خودمختاری (که در ادبیات فلسفه سیاسی و فلسفه اخلاق بحث می‌شود) توسل جست، نه صفت سطحی «خودمختار» که درباره تکنولوژی به کار می‌بریم. در نتیجه، پس از آنکه فهمیدیم یک موجود دارای عاملیت اخلاقی است، آنگاه استقلال او از عامل‌های دیگر در کنش‌گری و ظرفیت مسئولیت‌پذیری او برای ما مهم می‌شود. اما وقتی در مورد زامبی‌ها یا الگوریتم‌های اخلاقی صحبت می کنیم، هنوز به این نقطه نرسیده‌اند و دانستن اینکه کارامدی شخصی دارند یا خیر، چیزی درباره عاملیت اخلاقی آنها به ما نمی‌گوید.

استقلال ذهنی

این تعریف از خودمختاری هم مانند تعریف قبل است و صرفاً به جای تمرکز بر توانایی کنش مستقل از دیگران، توانایی تفکر مستقل از دیگران را مد نظر قرار می‌دهد. اگر مقصود ما از ذهن، تجربه اول‌شخص باشد، نه زامبی‌ها و نه الگوریتم‌ها دارای ذهن نیستند.

اگر مقصود ما از ذهن، تجربه اول‌شخص باشد، نه زامبی‌ها و نه الگوریتم‌ها دارای ذهن نیستند.

 

البته برخی از فلاسفه بر این باورند که تجربه آگاهانه، نیازمند داشتن ذهن نیست. به هر روی، استقلال ذهنی نیز معیاری به ما نمی‌دهد که عاملیت اخلاقی را تایید یا رد کنیم. کامپیوترهای شطرنج‌باز می‌توانند مستقل از انسان «فکر» کنند، در حالی‌که واضح است که عاملیت اخلاقی ندارند.

حق اخلاقی برای خودتعین‌بخشی

عامل‌های اخلاقی، حق دارند که خود را تعین ببخشند؛ مثلاً تصمیم بگیرند چگونه زندگی کنند (بدون آسیب به دیگران). احترام به خودمختاری، یکی از ستون‌های اخلاق پزشکی است. بیماران حق دارند که تصمیم بگیرند چه نوع درمانی دریافت کنند. این تعبیر از خودمختاری، ابزاری است برای حفاظت از عامل‌های اخلاقی، نه یک ویژگی و معیار برای عامل‌های اخلاقی.

اصالت

اینکه یک موجود تا چه حد می‌تواند به نحوی اصیل عمل کند، عقاید خود را دنبال کند و با خود واقعیش صادق باشد، امری مرتبط با اخلاقیات است. نسبت میان اصالت و خودمختاری نیز نمی‌تواند کمک چندانی به ما درباره سنجش عاملیت اخلاقی بکند. چرا که می‌توان موجوداتی غیر اصیل را تصور کرد که دارای عاملیت اخلاقی هستند؛ مثلاً فردی که به عقاید عمیق خود باور ندارد و از دیگران تقلید می‌کند. اصالت او اگرچه زیر سوال می‌رود، اما عاملیت اخلاقی او خیر.

هویت‌بخشی به خود

اغلب، خودمختاری را به غیاب فشار بیرونی و تجربه پدیداریِ مالک امیال و کنش‌ها بودن نیز نسبت می‌دهیم. فرد خودمختار، کسی است که می‌تواند با توجه به امیالش هویت خود را تعیین کند و تصویری منسجم از خود دارد. بسیاری از کنش‌ها وجود دارد، که اگرچه آنها را انجام داده‌ایم، اما هویت خود را با آنها تعریف نمی‌کنیم. اگرچه میزان هویت‌بخشی به خود، نسبت مستقیمی با قضاوت درباره اهمیت اخلاقی یک عمل دارد، اما به ما نمی‌گوید که آیا موجودی عاملیت اخلاقی دارد یا خیر. فرض کنید با اینکه شما فردی آرام هستید، یک روز از عصبانیت سر همسر خود فریاد می‌کشید. اگرچه شما خود را با این عمل هویت‌بخشی نمی‌کنید، اما عاملیت اخلاقی دارید.

قهرمان بودن

تعابیر مختلفی که از خودمختاری ارائه شده‌اند، تعاریف مختلفی از یک عامل اخلاقی را در نظر دارند. عامل ایده‌آل از نظر:

رواقیون، کسی است که دارای آرامش درون است

ارسطو، کسی که زندگی را با تأمل و تفکر هدایت می‌کند

نیچه، کسی است که روحی آزاد دارد

...

داشتن ایده‌آل اگرچه به ما کمک می‌کند بسنجیم که یک فرد یا یک کنش چه اندازه از بهترینِ خود فاصله دارد، اما نمی‌تواند معیاری برای عاملیت اخلاقی به ما بدهد. اگر تنها عده قلیلی که به این ایده‌آل‌ها دست می‌یابند به عنوان عامل اخلاقی شمرده می‌شدند، اکثر افراد ذی‌صلاح از دایره عاملان اخلاقی بیرون می‌افتادند.   

حکمرانی بر خود و پاسخگویی به دلایل

عبارت «autonomous» یا خودمختار مشتق شده از عبارت «autos خود» و «nomos قانون» در یونانی است. بنابراین، شامل‌ترین تعریف برای خودمختاری، حکمرانی بر خود است؛ توانایی عامل برای تصمیم‌گیری درباره نحوه کنش‌گری خود. ریشه این تعریف از خودمختاری را در ایده امانوئل کانت[2] می‌توان پیدا کرد که می‌گوید خودمختاری یعنی نیازی به هیچ اقتداری بیرون از ما نیست که مطالبات اخلاق را به ما دیکته کند. خودمختار بودن به این معناست که بتوانیم الزامات اخلاقی را به خود تحمیل کنیم، کار درست را تشخیص دهیم و آن را انجام دهیم.

عبارت «autonomous» یا خودمختار مشتق شده از عبارت «autos خود» و «nomos قانون» در یونانی است.

 

علاوه بر حکمرانی بر خود، خودمختاری مستلزم پاسخگویی به دلایل نیز هست. عامل‌ها تا حدی به این خاطر که به دلیلی پاسخ دهند، تصمیم می‌گیرند و عمل می‌کنند. بنابراین اگر موجودی قادر به فهم دلایل نباشد، نمی‌تواند به نحوی اخلاقی بر خود حکمرانی کند. عامل خودمختار، باید بتواند بر مبنای ارزش‌هایش تأمل و عمل کند، زیرا می‌تواند ارزش‌های خود را انتخاب کند.

خودمختار بودن به این معناست که بتوانیم الزامات اخلاقی را به خود تحمیل کنیم، کار درست را تشخیص دهیم و آن را انجام دهیم.

 

اگر کسی بخواهد خلاف میل او عمل کند، باید اجازه و رضایت او را کسب کند. در حالی‌که نیازی نیست از الگوریتم برای تغییرش اجازه بگیریم، چرا که الگوریتم ها ارزش‌های خاص خودش را ندارد و اهمیتی به وجود خودش نمی‌دهد و نمی‌تواند بر اساس دلایل خود به محیط پاسخ دهد. ماشین نیز اگر اخلاقی عمل کند، به این خاطر است که چنین دستورالعملی دریافت کرده است.

الگوریتم‌ها خودحکمران نیستند، زیرا اهداف آنها از بیرون به آنها داده می‌شود.

 

ماشین نمی‌تواند میل به کاری داشته باشد. «دلیل» برای عامل به این معناست که چیزی هست که برای عامل مهم است. مثلاً خودروی خودران نمی‌تواند خودش مقصدش را انتخاب کند، نمی‌تواند با این میل بیدار شود که امروز از منظره لذت ببرد یا از مالک خود سرپیچی کند.

الگوریتم ها پاسخگو به دلایل نیستند، چون هیچ دلیلی نمی‌تواند آنها را قانع کند که هدفی را که برای آن طراحی شده‌اند، تغییر دهند.

 

الگوریتم‌ها خودحکمران نیستند، زیرا اهداف آنها از بیرون به آنها داده می‌شود. همچنین، الگوریتم ها پاسخگو به دلایل نیستند، چون هیچ دلیلی نمی‌تواند آنها را قانع کند که هدفی را که برای آن طراحی شده‌اند، تغییر دهند. اما زامبی‌ها چون از انسان‌ها غیر قابل تمییز هستند، ممکن است «به نظر برسد» که حکمران و پاسخگو هستند. اما همچنان نمی‌توان گفت که انگیزه خود را دارند. در نتیجه الگوریتم ها توان حسی ندارند و نمی‌توانند مانند عامل‌ها دارای هدف باشند.

الگوریتم ها توان حسی ندارند و نمی‌توانند مانند عامل‌ها دارای هدف باشند.

 

پاسخ به این پرسش که «آیا یک موجود عامل اخلاقی هست یا خیر؟» دلالت‌‌های عملی دارد و صرفاً در مقام نظر مهم نیست؛ به دو دلیل:

محافظت از عامل‌هایی که شاید خود نتوانند از خود محافظت کنند. مثلاً بیمارها باید بتوانند آگاهانه تصمیم بگیرند. دفاع از حق خودمختاری، برای بیمار ضروری است. زیرا نشان می‌دهد که آنها حق تصمیم‌گیری برای خود دارند. این دغدغه برای الگوریتم‌‌ها و زامبی‌ها صادق نیست. چرا که نمی‌توانند رنج بکشند یا آسیب ببینند.

عاملیت سکه‌ای است که دو رو دارد: حق خودمختاری عامل و وظیفه مسئولیت‌پذیری و پاسخگویی او.

 

اگر خطایی رخ دهد، می‌خواهیم بدانیم که چه کسی پاسخگوست.

بنابراین، عاملیت سکه‌ای است که دو رو دارد: حق خودمختاری عامل و وظیفه مسئولیت‌پذیری و پاسخگویی او.

ادامه دارد ...

 [1] Nomy Arpaly

[2] Immanuel Kant

منبع اولیه متن:

Véliz, C. (2021). Moral zombies: why algorithms are not moral agents. AI & Soc 36, 487–497.

مترجم: دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن، گروه مطالعات اخلاقی

منبع ثانویه: وبگاه پژوهشگاه مجازی

انتهای پیام/

از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل [email protected] مکاتبه فرمائید.

منبع: فارس
شناسه خبر: 1313794

مهمترین اخبار ایران و جهان: