فناوریهای دیجیتال دیگر ابزارهای بیطرف نیستند، بلکه به محیطی تبدیل شدهاند که رفتار، هوشیاری و روابط اجتماعی را شکل میدهد. این موضوع نیاز به انتقال از «اخلاق حرفهای محدود» متخصصان IT به اخلاق دیجیتال جامع دارد — سیستم اصول اخلاقی که توسعه، اجرا و استفاده از فناوریها را تنظیم میکند. یکی از پارادوکسهای کلیدی دوران مدرن این است که پیشرفت فناوری از بازتاب اخلاقی پیشی میگیرد، و باعث ایجاد «vakuum normativ» در پیرامون پدیدههایی مانند تصمیمگیری الگوریتمی، هوش مصنوعی تولیدی و رابطهای عصبی میشود.
هوش مصنوعی و الگوریتمها بیشتر و بیشتر تصمیمات تأثیرگذاری بر زندگی انسانها را میگیرند: از تأیید وام و انتخاب کاندیداهای شغلی تا تعیین مدت حبس. اما الگوریتمها غیرعادلانه هستند — آنها تعصباتی را که در دادههای آموزشی قرار دارند، منعکس میکنند. نمونهای از این موضوع سیستم COMPAS است که در ایالات متحده برای ارزیابی خطر بازگشت مجدد مجرمان استفاده میشود. مطالعه ProPublica در سال 2016 نشان داد که الگوریتم به طور سیستماتیک خطر بازگشت مجدد را برای آفریقاییتبارها افزایش داده و برای سفیدپوستان کاهش داده است، و نابرابریهای اجتماعی تاریخی را بازسازی کرده است.
نکته جالب: در سال 2018، Amazon مجبور شد از الگوریتمی که در انتخاب کارکنان زنها را تعصب میکرد، دست بردارد. سیستم با استفاده از رزومههای کارکنان شرکت در 10 سال گذشته که بیشتر آنها مرد بودند، آموزش دیده و یاد گرفته بود که واژگان خاصی که در رزومههای زنانه وجود دارد (مثلاً «کاپیتان تیم شطرنج زنان») را «عقوبت» کند.
اخلاق فناوریهای دیجیتال باید به دیجیتال Divide توجه کند — نابرابری در دسترسی به فناوریها و مهارتهای دیجیتال. پاندمی COVID-19 این مشکل را برجسته کرده است: در حالی که برخی میتوانستند از راه دور کار و تحصیل کنند، دیگران از زندگی اجتماعی و اقتصادی حذف شدند. علاوه بر دسترسی فنی، مشکلی به نام بیسوادی عملی نیز به وجود میآید — ناتوانی در ارزیابی انتقادی اطلاعات، حفاظت از حریم خصوصی و درک منطق الگوریتمها.
شبکههای اجتماعی و پلتفرمها به طور عمدی برای حفظ بیشترین توجه طراحی شدهاند، از دانش علوم اعصاب استفاده میکنند. لایههای بیپایان اخبار، اعلانها، الگوریتمهایی که محتوایی که باعث احساسات قوی میشود را نشان میدهند — همه اینها یک اقتصاد توجه ایجاد میکنند که کاربر را به عنوان یک محصول در نظر میگیرد. اخلاق نیاز به شفافیت در این روشها و ارائه انتخاب واقعی به کاربران و نه توهم کنترل دارد.
مثال: در سال 2021، Facebook (Meta) پس از افشاگریهای فرانسیس هوجن در مرکز یک بحران قرار گرفت. یک کارمند سابق نشان داد که شرکت به طور عمدی از الگوریتمهایی استفاده میکند که خشم و دوپارتیسم را تقویت میکند، زیرا این محتوا باعث افزایش تعامل میشود، علیرغم آسیب به دیالوگ عمومی و سلامت روانی نوجوانان.
خودکارسازی و سیستمهای توصیهدهنده به تدریج استقلال انسان را محدود میکنند، انتخابها را کاهش میدهند. الگوریتمهای YouTube یا TikTok تعیین میکنند که چه اطلاعاتی را خواهیم دید؛ نقشهبرداران — چه مسیری را انتخاب خواهند کرد؛ سیستمهای خانه هوشمند — چه شرایطی در آپارتمان خواهد بود. وظیفه اخلاقی حفظ حق انسان در مخالفت با الگوریتم و امکان انتخاب غیراستاندارد است.
در پاسخ به این چالشها، اصول اخلاقی جدیدی در حال شکلگیری هستند:
اصل شفافیت (توضیحپذیری). سیستمهای الگوریتمی باید برای کاربران توضیحپذیر باشند. در اتحادیه اروپا، «حق توضیح» در چارچوب GDPR عملیاتی شده است که اجازه میدهد تصمیمات اتوماتیک را درخواست کنید. برای شبکههای عصبی پیچیده این همچنان یک مشکل فنی است که باعث ایجاد یک رشته جدید شده است — «هوش مصنوعی توضیحپذیر» (XAI).
اصل عدالت و عدم تبعیض. نیاز به شناسایی و رفع ناهماهنگیها در دادهها و الگوریتمها دارد. در عمل این به معنای تنوع در تیمهای توسعهدهندگان،审计 الگوریتمها و استفاده از دادههای رقابتی است که سیستم را بر ضد تبعیض آزمایش میکند.
اصل حریم خصوصی به عنوان طراحی پیشفرض (Privacy by Design). حفاظت از حریم خصوصی باید به عنوان بخشی از معماری سیستم از ابتدا گنجانده شود، نه به عنوان یک پلاگین اضافی. این شامل کاهش جمعآوری دادهها، رمزگذاری دادهها و شناساییسازی دادهها است.
اصل انسانمحوری. فناوریها باید به نفع رفاه و توسعه انسانها خدمت کنند و نه برعکس. گروه اخلاق در علوم و فناوریهای جدید اتحادیه اروپا این را به عنوان نیاز به حفظ «کنترل انسانی» بر سیستمهای خودکار تعریف میکند.
نکته جالب: در سال 2019، OECD اولین اصول دولتی بینالمللی مربوط به هوش مصنوعی را تصویب کرد که هدف آن تضمین استفاده نوآورانه و مطمئن از هوش مصنوعی است. از پنج اصل: رشد شامل، عدالت، شفافیت، امنیت و پاسخگویی. بر اساس این اصول، بسیاری از استراتژیهای ملی ساخته میشوند.
این سازمانهای جدیدی برای حل دشمنیهای اخلاقی شکل میگیرند:
کمیتهها و شوراهای اخلاق هوش مصنوعی در شرکتها و دولتها.
audit الگوریتمها توسط سازمانهای مستقل، مانند audit مالی.
آموزش دیجیتال که شامل دانش اخلاقی به همان اندازه فنی است.
اخلاق دیجیتال یک لوکس نیست، بلکه شرط ضروری برای جلوگیری از آسیب فناوری و ساخت یک اکوسیستم دیجیتال قابل اعتماد است. در دنیایی که فناوریها عمیقتر و عمیقتر در بدن و ذهن انسانها نفوذ میکنند (رابطهای عصبی، ویرایش ژنوم)، مرزهای اخلاقی قدیمی کافی نیستند. نیاز به یک گفتگوی چندرشتهای مداوم بین فناوریدانان، فلاسفه، وکلا، روانشناسان و جامعه است. موفقیت نه تنها کسی است که قویترین فناوری را ایجاد میکند، بلکه کسی است که میتواند آن را در بافت اجتماعی جایگذاری کند، خطرات را کاهش دهد و سود بیشتری برای بشریت ایجاد کند. آینده نه تنها تعیین میشود توسط آنچه میتوانیم ایجاد کنیم، بلکه توسط آنچه به دلیل دلایل اخلاقی نمیخواهیم ایجاد کنیم.
Новые публикации: |
Популярные у читателей: |
Всемирная сеть библиотек-партнеров: |
![]() |
Контакты редакции |
О проекте · Новости · Реклама |
Цифровая библиотека Таджикистана © Все права защищены
2019-2026, LIBRARY.TJ - составная часть международной библиотечной сети Либмонстр (открыть карту) Сохраняя наследие Таджикистана |
Россия
Беларусь
Украина
Казахстан
Молдова
Таджикистан
Эстония
Россия-2
Беларусь-2
США-Великобритания
Швеция
Сербия