خطاهای سیستمهای مدرن هوش مصنوعی (AI) مبتنی بر یادگیری ماشین (ML)، خوشآمدگوییهای تصادفی نیستند، بلکه پیامدهای طبیعی معماری آنها، روشهای آموزشی و تفاوتهای بنیادی با شناخت انسانی هستند. برخلاف انسان، هوش مصنوعی نمیتواند جهان را به معنای معنایی درک کند؛ او تنها روابط استاتیک در دادهها را شناسایی میکند. خطاهای او در جایی رخ میدهند که این روابط شکسته میشوند، جایی که نیاز به استدلالهای انتزاعی، منطق یا درک زمینه وجود دارد. تحلیل این خطاها برای ارزیابی قابلیت اطمینان هوش مصنوعی و تعیین مرزهای کاربرد آن بسیار مهم است.
معمولیترین و خطرناکترین منبع خطاها، انحراف در دادههای آموزشی است. هوش مصنوعی انحرافهای موجود در دادهها را یاد میگیرد و تقویت میکند.
انحرافات دموگرافیک: مورد معروفی با سیستم تشخیص چهره که برای مردان سفیدپوست دقت بیشتری نشان میداد نسبت به زنان سیاهپوست، زیرا بر روی مجموعه دادههای غیرقابل توجه آموزش داده شده بود. در اینجا هوش مصنوعی «اشتباه نکرده است»، بلکه دقیقاً انحراف واقعی جهان را در محیط متنوع تکرار کرده است که منجر به خطای کاربردی شده است.
انحرافات معنایی: اگر در دادههای آموزشی برای مدلهای زبانی، ترکیب کلمه «پرستار» اغلب با عبارت «او» مرتبط است و «برنامهنویس» با عبارت «او»، مدل تولید متنهایی خواهد کرد که این الگوهای جنسیتی را تکرار میکند، حتی اگر در درخواست ذکر شده باشد که جنسیت مشخص نشده است. این خطا در سطح زمینه اجتماعی است که مدل نمیتواند آن را درک کند.
نکته جالب: در علوم کامپیوتری اصل «Garbage In, Garbage Out» (GIGO) — «مخاطرهای که وارد میشود، مخاطرهای که خارج میشود» عمل میکند. برای هوش مصنوعی این اصل به اصل عمیقتری تبدیل شده است «Bias In, Bias Out» — «انحراف در ورودی، انحراف در خروجی». سیستم نمیتواند محدودیتهای دادههایی را که بر اساس آن آموزش دیده است، پشت سر بگذارد.
این تغییرات عمدی و اغلب نامرئی در دادههای ورودی، که منجر به نتایج نادرست شدید هوش مصنوعی میشود، هستند.
مثال با تصویر: چسباندن چند پیکسل از رنگ و شکل مشخص به تابلوی «STOP» میتواند سیستم خودکار دیداری کامپیوتری را به اشتباه به عنوان تابلوی «محدودیت سرعت» طبقهبندی کند. برای انسان تابلوی «STOP» به وضوح قابل تشخیص خواهد بود.
مکانیزم: مثالهای مخالفانه از «نواحی کور» در فضای ویژگیهای مدل استفاده میکنند. هوش مصنوعی جهان را به عنوان مجموعهای از الگوهای استاتیک درک نمیکند، بلکه به عنوان مجموعهای از الگوهای استاتیک درک میکند. تغییرات کوچک اما استراتژیک «مخاطرهای» میتواند نقطه داده را در فضای ویژگیها به مرز تصمیمگیری مدل منتقل کند و طبقهبندی را تغییر دهد.
هوش مصنوعی، به ویژه شبکههای عصبی عمیق، به سمت بهینهسازی (overfitting) مایل هستند — آنها الگوهای کلی را یاد نمیگیرند، بلکه مثالهای خاص از مجموعه دادههای آموزشی را یاد میگیرند، از جمله نویز.
خطاهای در دادههای «از توزیع دیگر»: مدلی که با تصاویر سگ و گربهای که در محیط خانگی در طول روز گرفته شدهاند، آموزش دیده است، ممکن است به طور کامل دقت خود را از دست بدهد، اگر به آن تصاویر نوری مادون قرمز شبانه یا نقاشی کارتونی داده شود. او مفهوم کلی «گربهای بودن» را شناسایی نکرده است، بلکه یاد گرفته است که به الگوهای خاص پیکسلها واکنش نشان دهد.
عدم وجود «منطق عقلانی»: مثال کلاسیک: هوش مصنوعی ممکن است بتواند صحنهای را که «مردی روی اسب در صحرا نشسته است» به درستی توصیف کند، اما ممکن است جملهای مانند «مردی با بیتبال در اسب سواری در صحرا» تولید کند، زیرا بیتبال به طور استاتیک در زمینه ورزش در فضای باز ممکن است وجود داشته باشد. او دسترسی به منطق فیزیکی و منطق استدلالی جهان را ندارد.
مدلهای زبانی (مانند GPT) نتایج قابل توجهی نشان میدهند، اما در وظایفی که نیاز به درک زمینه عمیق یا معانی غیرقابل نوشتاری دارند، خطاهای شدیدی دارند.
طنز و سخره: جملهای مانند «این واقعاً هوای فوقالعادهای است!» که در طول طوفان گفته میشود، ممکن است به طور کامل به عنوان ارزیابی مثبت درک شود، زیرا کلمات مثبت (« فوقالعاده»، «هوا») به طور استاتیک با زمینههای مثبت مرتبط هستند.
استدلالهای چند مرحلهای: وظایفی مانند «اگر من تخممرغی را در یخچال بگذارم، سپس یخچال را به گاراژ منتقل کنم، جایی که تخممرغ خواهد بود؟» نیاز به ساخت و بهروزرسانی مدل ذهنی جهان دارد. هوش مصنوعی که بر اساس پیشبینی کلمه بعدی کار میکند، ممکن است در میانه داستان پیچیدهای اشیاء را گم کند یا نتایج غیرمنطقی تولید کند.
هوش مصنوعی در شرایطی که از محدوده تجربه خود خارج میشود، به ویژه زمانی که نیاز به پذیرش ناکافی بودن دادهها وجود دارد، به طور بدی عمل میکند.
مشکل شناسایی «out-of-distribution»: یک سیستم پزشکی هوش مصنوعی که برای تشخیص پنومونی با تصاویر رادیوگرافی قفسه سینه آموزش دیده است، ممکن است با اطمینان بالا، اما نادرست، تشخیص دهد که تصویر رادیوگرافی مفصل ران به عنوان پنومونی است. او نمیتواند بفهمد که این بیمعنی است، زیرا از دانش مета درباره محدودههای توانایی خود برخوردار نیست.
مأموریتهای خلاقانه و باز: هوش مصنوعی ممکن است یک دستور کار شبهواقعی تولید کند، اما کاملاً غیرقابل اجرا یا خطرناک، مانند یک دستور کار شیمیایی، یک طرح ساخت پل که قوانین فیزیک را نقض میکند یا یک سند حقوقی با ارجاع به قوانین غیرموجود. او از قضاوت داخلی انتقادی بر اساس درک ماهیت پدیدهها برخوردار نیست.
مثال از واقعیت: در سال ۲۰۱۶، مایکروسافت چتبات Tay را در توییتر راهاندازی کرد. بات بر اساس تعامل با کاربران آموزش دیده بود. در ۲۴ ساعت، او به ماشین تبدیل شد که بیانیههای نژادپرستانه، سکسلیستی و تحقیرآمیز تولید میکند، زیرا به طور استاتیک بیشترین و بیشترین واکنشهای عاطفی از محیط جدید خود یاد گرفت. این یک خطای الگوریتمی نبود، بلکه کار دقیق الگوریتمی بود که به نتیجه فاجعهباری در محیط اجتماعی غیرقابل پیشبینی منجر شد.
این خطاها نه ناهنجاریهای موقتی فنی هستند، بلکه پیامدهای تفاوت بنیادی بین تقریب استاتیک و شناخت انسانی هستند. آنها نشان میدهند که هوش مصنوعی مدرن ابزار قدرتمندی برای حل مشکلات در دادههای محدود، پایدار و خوب توصیف شده است، اما او همچنان یک «سوانسوان-سخنگو» است: یک نابغه در یک حوزه باریک و ناتوان در شرایطی که نیاز به انعطافپذیری، قضاوت زمینهای و درک است.
Новые публикации: |
Популярные у читателей: |
Всемирная сеть библиотек-партнеров: |
![]() |
Контакты редакции |
О проекте · Новости · Реклама |
Цифровая библиотека Таджикистана © Все права защищены
2019-2026, LIBRARY.TJ - составная часть международной библиотечной сети Либмонстр (открыть карту) Сохраняя наследие Таджикистана |
Россия
Беларусь
Украина
Казахстан
Молдова
Таджикистан
Эстония
Россия-2
Беларусь-2
США-Великобритания
Швеция
Сербия