نیوز سیتی!
25 خرداد 1402 - 11:06

انصافِ هوش مصنوعی، ضرورتی اخلاقی، اجتماعی و اقتصادی

اکنون‌ که هوش مصنوعی توصیه‌ های روزافزونی را به تصمیم‌گیرندگان انسانی ارائه می‌دهد، لزوم اطمینان از این‌که این فناوری، مغرضانه عمل نکرده، به ارزش «انصاف» واقف بوده و آن را رعایت می‌کند، حائز اهمیت است.زهرا خاکسار

زهرا خاکسار

مقاله زیر بخشی از مباحث مطرح‌ شده در سلسله نشست‌ های مجمع جهانی اقتصاد (1) (WEF) در داووس(2) است.

  • هوش مصنوعی(Al) توصیه‌های روزافزونی را به تصمیم‌گیرندگان انسانی ارائه می‌دهد.
  • بنابراین ما باید اطمینان حاصل کنیم که می‌توانیم نه ‌تنها به هوش مصنوعی، بلکه به کل ماهیت ساختاری آن اعتماد کنیم.
  • مفهوم «انصاف (3)» ماهیتی انعطاف‌پذیر داشته و نیاز به رایزنی ‌های چند جانبه دارد.

انسان‌ ها در میان انواع مختلفی از سوگیری‌ها قرار دارند که از جمله آن‌ ها می‌توان به سوگیری «تأیید (4)»، «نگه‌داشتن به هر قیمت (لنگر انداختن) (5)» و «جنسیت (6)» اشاره کرد. ممکن است این‌گونه سوگیری ‌ها مردم را به سمت رفتار غیرمنصفانه سوق دهد. بنابراین ما به‌عنوان یک جامعه سعی در کاهش این قبیل سوگیری ‌ها داریم.

به ‌ویژه زمانی این امر پراهمیت جلوه می‌کند که انسان‌ ها در معرض تصمیمات پرمخاطره‌ای که بر دیگران نیز تأثیرگذار است، قرار گیرند. بنابراین، ما این مسئله را از طریق ترکیبی از آموزش، دستورالعمل ‌ها و مقررات مدیریت می‌کنیم.

 اکنون‌که هوش مصنوعی توصیه‌ های روزافزونی را به تصمیم ‌گیرندگان انسانی ارائه می‌دهد، لزوم اطمینان از این‌که این فناوری، مغرضانه عمل نکرده، به ارزش «انصاف» واقف بوده و آن را رعایت می‌کند، حائز اهمیت است.

درواقع، انصافِ هوش مصنوعی به‌عنوان یکی از موضوعات اصلی در آن دسته از ابتکاراتی است که هدفشان سودمند سازی هوش مصنوعی تا حد امکان (در ارتباط با اخلاق هوش مصنوعی)، است.

انصافِ هوش مصنوعی به‌عنوان یکی از موضوعات اصلی است که هدفشان سودمند سازی هوش مصنوعی تا حد امکان است.

 

زمان آن فرا رسیده است که دیدگاه جامع‌تری از «انصاف» را شناسایی و ارائه دهیم. دیدگاهی که همه ابعاد را پوشش داده و از روابط متقابل آن‌ها بهره ببرد.       راجا چاتیلا

نمونه‌هایی از این‌ دست فراوان است و شامل «دستورالعمل‌های اخلاقی برای هوش مصنوعی قابل‌اعتماد» که توسط گروه کارشناسی سطح عالی کمیسیون اروپا (7) در مورد هوش مصنوعی ارائه‌شده، تا تمرکز شورای «آینده جهانی» مجمع جهانی اقتصاد در مورد «Al for Humanity» می‌ شود.

درحالی‌که برای چندین سال تمرکز اصلی شرکت‌ ها، دولت‌ ها، سازمان‌ های جامعه مدنی و پیشگامان حاکمیت جمعی، بر انصاف هوش مصنوعی بوده است، در طول زمان شاهد انبوهی از رویکرد های مختلف بوده‌ایم که هر یک از آن‌ها بر یک یا چند جنبه از انصاف متمرکز شده‌اند.

اکنون زمان شناسایی و پیشنهاد دیدگاه جامع‌تری است. طرحی که تمام ابعاد انصاف را پوشش داده و از روابط متقابل آن‌ها برای ایجاد مؤثرترین چارچوب، تکنیک‌ها و سیاست‌ها بهره می‌برد.

نکته مهم اینجاست: ازآنجایی‌که سیستم‌های هوش مصنوعی توسط انسان‌ها ساخته می‌شوند و آن‌ها داده‌های آموزشی و آزمایشی را جمع‌آوری کرده و تصمیمات مرتبط با توسعه و پیشرفت را اتخاذ می‌کنند، می‌توانند (آگاهانه یا ناآگاهانه) به عنصر «سوگیری» آلوده شوند (توسط سازندگان خود). این امر، به‌نوبه خود، ممکن است باعث استقرار سیستم‌های هوش مصنوعی شود که منعکس‌کننده و تقویت‌کننده چنین سوگیری ‌هایی هستند. نتیجه حاصله در این سیستم‌ها، منجر به تصمیم‌گیری یا توصیه‌هایی می‌شود که به‌طور سیستماتیک برای دسته‌های خاصی از افراد غیرمنصفانه است.

سیستم‌های هوش مصنوعی، می‌توانند (آگاهانه یا ناآگاهانه) توسط سازندگان خود به عنصر «سوگیری» آلوده شوند.

 

‎در حال حاضر چندین ابزار فنی وجود دارد که می‌تواند در این زمینه کمک‌کننده باشد. آن‌ها سوگیری هوش مصنوعی را در انواع مختلف داده (متن، صدا، ویدئو، تصاویر و داده‌های ساختاریافته) شناسایی کرده و کاهش می‌دهند. درواقع سوگیری موجود در جامعه را می‌توان در سیستم‌های هوش مصنوعی تعبیه کرد و تلازم ناپسند بین برخی ویژگی‌ها (مانند تلازم میان جنسیت و دریافت وام) را می‌توان از طریق شناسایی و اجتناب از آن‌ها ‎کاهش داد.

وجود ابزارهایی برای بهبود توضیح‌ پذیری مدل‌های هوش مصنوعی، شناسایی دلایل پشت تصمیم‌ های آن‌ ها را ممکن می‌ سازد و بنابراین می ‌تواند در شناسایی سوگیری در داده‌ها یا مدل‌های هوش مصنوعی نیز مفید باشد.                                         فرانچسکا روسی

بااین‌حال جنبه‌ های فنی و راه‌حل‌های جلوگیری از سوگیری هوش مصنوعی تنها یک بعد، و احتمالاً ساده‌ترین بعد برای دستیابی به انصاف هوش مصنوعی را تشکیل می‌دهند.

در حال حاضر چندین ابزار فنی وجود دارد که می‌تواند سوگیری هوش مصنوعی را شناسایی کرده و کاهش می‌دهند.

 

ورای مسائل فنی، دستیابی به انصاف تنها یک مسئله فنی نیست. در کنار آن، لازم است ساختارهای حاکمیتی از یک‌سو به شناسایی، اجرا و اتخاذ ابزارهای مناسب برای یافتن و کاهش سوگیری در جمع‌آوری و پردازش اطلاعات بپردازند و از سوی دیگر چارچوب‌هایی برای نظارت لازم و مناسب برای هر مورداستفاده خاص، تعریف کنند.

دستیابی به انصاف تنها یک مسئله فنی نیست.

 

همچنین نباید فراموش کرد که مفهوم انصاف به‌خودی‌خود مفهومی وابسته به زمینه (8) است و باید بر اساس سناریوهای کاربردی خاص تعریف شود. تعریف صحیح را تنها می‌توان از طریق همفکری با جمع ذی‌نفعان در این زمینه، شناسایی کرد. در این‌گونه کنکاش‌ ها کسانی که سیستم‌های هوش مصنوعی را ساخته و توسعه می‌دهند، در خصوص آن با کاربران و جوامع مربوطه بحث می‌کنند تا به شناسایی مفهومی برای انصاف دست یابند.

مفهوم انصاف به‌خودی‌خود مفهومی وابسته به زمینه است.

 

"هیچ‌کس مرا آگاه نکرد که متعصبانه رفتار کرده‌ام"

بعد دیگر انصاف به آموزش مربوط می‌شود. ازآنجایی‌که سوگیری‌های انسانی عمدتاً ناآگاهانه است، هر مسیری برای دستیابی به انصاف، الزاماً از آگاهی‌بخشی (آموزش) شروع می‌شود. توسعه‌دهندگان هوش مصنوعی باید از سوگیری‌های خود و نحوه احتمالی تزریق آن به سیستم‌های هوش مصنوعی در فرآیند توسعه آن‌ها، آگاه باشند.

هر مسیری برای دستیابی به انصاف، الزاماً از آگاهی‌بخشی (آموزش) شروع می‌شود.

 

اما آموزش توسعه‌دهندگان کافی نیست، کل محیط اطراف آن‌ها باید مراقب سوگیری‌های احتمالی باشند و یاد بگیرند که چگونه آن‌ها را شناسایی کرده و کاهش دهند.

باید فرهنگ انصاف ایجاد شود. در این زمینه مدیران باید بدانند که چگونه تیم‌های توسعه متنوعی تشکیل دهند و مشوق‌هایی را برای تشخیص و کاهش سوگیری‌های بالقوه در هوش مصنوعی تعریف کنند.

باید فرهنگ انصاف ایجاد شود.

 

مدیران اجرایی و تصمیم‌گیرندگان این حوزه، برای درک مسائل سوگیری هوش مصنوعی و تأثیر احتمالی آن بر مشتریان، جوامع تحت تأثیر و شرکت خود به کمک نیاز دارند.

چنین آموزشی باید با روش‌های مناسب تکمیل شود. چنین روش‌شناسی‌هایی پس از اتخاذ، باید الزام به اجرا داشته و تسهیل شوند. برای دستیابی به این هدف، شرکت‌ها باید مناسب‌ترین چارچوب حاکمیت داخلی را برای مدل‌های تجاری و حوزه‌های استقرار خود تعریف کنند.

شرکت‌ها باید مناسب‌ترین چارچوب حاکمیت داخلی را برای مدل‌های تجاری و حوزه‌های استقرار خود تعریف کنند.

 

فراتر از خود سیستم‌ها، سیستم‌های هوش مصنوعی نه‌تنها باید بر مبنای انصاف عمل کرده و در تقویت سوگیری انسانی محتاط باشند، بلکه باید مطمئن شوند که منبع نابرابری بین گروه‌ها یا جوامع نیستند. بنابراین تنوع و شمول در درون جوامع، یکی دیگر از ابعاد انصاف هوش مصنوعی است که به تأثیر استفاده از آن در یک بافت اجتماعی خاص اشاره دارد. فناوری باید به‌دوراز افزایش نابرابری، دسترسی را بهبود بخشد و همچنین شکاف دیجیتالی را در محورهای مختلف مانند جنسیت، معلولیت، جغرافیا و قومیت کاهش دهد.

تنوع و شمول در درون جوامع، یکی دیگر از ابعاد انصاف هوش مصنوعی است.

 

انصاف بعدی جهانی نیز دارد و باید به‌طور یکسان در بین مناطق مختلف جهان، البته با در نظر گرفتن ویژگی‌های هر منطقه، ترویج شود.

بعد مهم دیگر انصاف مربوط به چگونگی تعریف قوانین مناسب و مشترکی است که این اطمینان را می‌دهد که هوش مصنوعی خاصی که گسترش‌یافته و مورداستفاده قرارگرفته، مبتنی بر انصاف است.

تولیدکنندگان باید در تعریف و اجرای اصول داخلی، دستورالعمل‌ها، روش‌شناسی و چارچوب‌های حاکمیتی، نقش قابل‌توجه خود را ایفا کنند.

 

تولیدکنندگان باید در تعریف و اجرای اصول داخلی، دستورالعمل‌ها، روش‌شناسی و چارچوب‌های حاکمیتی، نقش قابل‌توجه خود را ایفا کنند تا مطمئن شوند هوش مصنوعی‌ تولیدشده، بی‌طرف، قوی، قابل توضیح و توجیه، دقیق و شفاف است. بااین‌حال هیچ دلیلی وجود ندارد که سایر نهادها نتوانند در ایجاد چارچوب‌های مناسب برای هوش مصنوعی هم‌فکری کنند. بحث بر سر مباحث پراهمیتی ازجمله دستورالعمل‌ها، بهترین شیوه‌ها، استانداردها، ممیزی‌ها، گواهینامه‌ها، مقررات و قوانین است. به‌هرحال، این امر مستلزم ترکیبی دقیق از این جزئیات است که از طریق کنکاش‌های چندجانبه جمعی افراد تعریف‌شده تا منصفانه بودن فناوری هوش مصنوعی مورداستفاده و تأثیر آن بر جامعه را به‌درستی چارچوب‌بندی کند.

بنابراین وسعت کار درزمینه انصاف هوش مصنوعی گسترده و پیچیده است. جمیع ذی‌نفعان در این زمینه باید زمان و منابع خود را برای ایفای دقیق نقش خود در بخش مربوطه از این فضا اختصاص دهند.

اما در رابطه با انگیزه اصلی در پرداختن به این مهم، می‌توان گفت، اطمینان از اینکه فناوری به ارزش‌های انسانی احترام می‌گذارد، از آن‌ها حمایت کرده و از به خطر افتادن این ارزش‌ها جلوگیری می‌کند، انگیزه‌هایی است که کاملاً روشن است. بااین‌حال، انگیزه‌های دیگری نیز برای سازندگان هوش مصنوعی مطرح است.

پرداختن به انصاف، هم ضرورتی اقتصادی و هم ضرورتی اجتماعی است.

 

درواقع، پرداختن به انصاف، هم ضرورتی اقتصادی و هم ضرورتی اجتماعی است. شرکت‌هایی که از هوش مصنوعی یا سایر فناوری‌ها استفاده می‌کنند، اما نمی‌توان برای حفظ ارزش‌های فوق‌الذکر به آن‌ها اعتماد کرد، در پذیرش گسترده محصولات خود با چالش‌هایی مواجه خواهند شد.

منبع اولیه: زهرا خاکسار (سطح 2 جامعه الزهرا، کارشناسی ارشد فلسفه و کلام دانشگاه علامه طباطبایی)، گروه مطالعات اخلاقی پژوهشگاه فضای مجازی

منبع ثانویه: وبگاه پژوهشگاه مجازی

________________________________________

[1] World Economic Forum

[2] Davos

[3] fairness

[4] سوگیری تأیید که معادل "confirmation bias" است، به تمایل برای پردازش اطلاعات با جستجو یا تفسیر اطلاعاتی که با باورهای موجود فرد سازگار است، اشاره دارد. این رویکرد مغرضانه به تصمیم‌گیری، عمدتاً غیرعمدی بوده و اغلب منجر به نادیده گرفتن اطلاعات متناقض می‌شود.

[5] سوگیری لنگر انداختن که با عنوان اثر لنگر انداختن نیز شناخته می‌شود، معادل "anchoring bias" بوده و یک سوگیری شناختی است که باعث می‌شود فرد به‌شدت به اولین اطلاعاتی که از یک موضوع به وی داده می‌شود، تکیه کند. در این حالت، وقتی در حال تنظیم برنامه‌ها یا ارزیابی چیزی هستیم، به‌جای اینکه واقعیات عینی را در نظر بگیریم، اطلاعات جدید را نیز از نقطه لنگر خود تفسیر می‌کنیم.

[6] سوگیری جنسیتی یا "Gender Bias"، به حالتی اشاره دارد که فرد بر اساس هویت جنسی واقعی خود درک شده، یا مورد قضاوت متفاوتی قرار گیرد.

[7] European Commission High Level Expert Group

[8] context dependent

 

انتهای پیام/

ز شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل [email protected] مکاتبه فرمائید.

منبع: فارس
شناسه خبر: 1286570

مهمترین اخبار ایران و جهان: