در حال بار گذاری
امروز: دوشنبه ۲۵ آذر ۱۳۹۸

فناوری > جايگاه اخلاق در هوش مصنوعي چيست

گروه فناوري:با توجه به سرعت چشمگير رشد هوش مصنوعي و کاربردهاي آن در زمينه‌هاي متعدد، تأثير اين فناوري بر اخلاق اجتماعي سؤال‌هايي به وجود آورده است.

    گروه فناوري:با توجه به سرعت چشمگير رشد هوش مصنوعي و کاربردهاي آن در زمينه‌هاي متعدد، تأثير اين فناوري بر اخلاق اجتماعي سؤال‌هايي به وجود آورده است.
     فناوري اطلاعات ديجيتال دسترسي همه‌گير به اطلاعات را در هر زمان و هر نقطه‌اي آسان کرده است. اين روند تأثير چشمگيري بر شکل‌گيري تمام ابعاد جامعه از توليد تا توزيع صنعتي تا مصرف کالاها و خدمات گذاشته است. تأثير فناوري اطلاعات ديجيتال مانند تحولات فناوري در گذشته بسيار فراگير است؛ به‌ طوري‌ که انسان نه‌تنها خود را با آن تطبيق مي‌دهد؛ بلکه رفتار خود را هم منطبق با آن تغيير مي‌دهد.
    امروزه، فناوري اطلاعات ديجيتال نحوه‌ي تعامل افراد با يکديگر در جامعه و حتي شراکت با ديگران را هم تعريف مي‌کند. روابط بازتعريف بين مصرف‌کنندگان و توليدکنندگان و تأمين‌کنندگان؛ و صنايع و نيروهاي کار؛ و ارائه‌دهندگان خدمات و مشتريان؛ و دوستان و شرکا به تغييرات چشمگيري در جوامع منجر شده است که مي‌تواند هشداري براي نتيجه‌گيري‌هاي اخلاقي باشد.
     خيلي زود انسان امروزي با موج بعدي تحولات فناوري روبه‌رو خواهد شد: هوش مصنوعي. انقلاب ديجيتال اواخر قرن بيستم دسترسي به اطلاعات را بسيار ساده کرده است و امکان تصميم‌گيري سريع را فراهم مي‌کند؛ به‌ طوري‌ که براي مثال، سازمان‌ها صرفا به اتخاذ تصميم‌هاي بنيادي اکتفا مي‌کنند و ساير تصميم‌ها را واگذار مي‌کنند.
    هوش مصنوعي در حال تغيير است و با خودکارسازي فرايند تصميم‌گيري، نويدبخش نتايج باکيفيت‌تر و بهبود بازدهي است. موفقيت‌هاي سيستم‌هاي بازي هوش مصنوعي در شکست قهرمان شطرنج گري کاسپاروف و قهرمان Go، کي جاي، ابعاد کيفي هوش مصنوعي و برتري آن بر انسان در محاسباتي مثل تأثير تصميم‌گيري لحظه‌اي بر حرکت‌هاي احتمالي آينده را ثابت مي‌کنند.
     متأسفانه هوش مصنوعي در فرايند تصميم‌گيري، شفافيت، قابليت توصيف، قابليت پيش‌گويي، قابليت آموزش، قابليت محاسبه‌ي حرکت انساني را حذف کرده و ابهام را جايگزين آن‌ها مي‌کند.
    منطق حرکت نه‌تنها براي بازيکنان، بلکه براي خالق برنامه هم مجهول است. در چنين شرايطي، وقتي هوش مصنوعي شروع به تصميم‌گيري مي‌کند، ديگر اثري از شفافيت و قابليت پيش‌گويي ديده نمي‌شود.
    حالا فرض کنيد کودکي از والدين خود براي تماشاي فيلم با دوستانش اجازه بخواهد و والدين موافقت مي‌کنند، يک هفته بعد، کودک ديگر همان درخواست را مي‌کند؛ اما اين‌بار والدين رد مي‌کنند. اين داستان ساده، مسئله‌ي نابرابري و سليقه‌محوري را مطرح مي‌کند.
     براي اجتناب از اتهام سليقه‌محوري، والدين به کودک خود توضيح مي‌دهند که قبل از دريافت پول‌توجيبي بايد تکاليف خود را انجام دهد. در صورتي‌ که والدين به کودک خود دليل اين کار را توضيح ندهند، احتمال شدت‌گرفتن تنش در خانواده وجود دارد. حالا فرض کنيد سيستم هوش مصنوعي چنين نقشي را ايفا کند که از هزاران خانواده در موقعيت‌هاي مختلف داده جمع‌آوري کرده است. سيستم با بررسي پيامد اجازه‌دادن در خانواده‌ها مي‌تواند اين‌ طور نتيجه بگيرد که يکي از بچه‌ها مي‌تواند پول‌توجيبي بگيرد؛ در حالي‌ که ديگري مجاز به دريافت پول نيست.
    با اين حال، سيستم هوش مصنوعي نمي‌تواند دليل کار خود را توضيح دهد؛ بلکه فقط مي‌تواند با وزن‌دهي به معيارهايي مثل رنگ مو، وزن، قد و ديگر مشخصات کودک، بهترين تصميم ممکن را براي خانواده‌هاي ديگر هم اتخاذ کند. اين سيستم چگونه کار مي‌کند؟
    در دادگاه‌هاي قديم، حتي در صورت يکسان‌نبودن شرايط و شباهت تقريبي آن‌ها، تصميم‌گيري نهايي براساس ترکيبي از حکم‌ها اتخاذ مي‌شد. اين در حالي است که هوش مصنوعي به رأي بر مبناي سابقه يا قاعده‌ي سابقه نيازي ندارد.
     تصميم‌هاي هوش مصنوعي مي‌توانند براي انسان‌ها ساختگي به نظر برسند؛ زيرا معمولا انسان‌ها به مجموعه‌ي محدودي از تجربه‌هاي مستقيم و غيرمستقيم تمايل دارند؛ در حالي‌ که ماشين‌ها به مجموعه‌ي گسترده‌اي از داده‌ها دسترسي دارند.
    انسان‌ها نمي‌توانند با دقت زياد تجربيات خود را در بازه‌ي زماني طولاني‌مدت جست‌وجو کنند؛ در حالي‌ که اين کار براي ماشين بسيار ساده است.
    انسان‌ها معمولا معيارهايي را حذف مي‌کنند که به نظر غيرمرتبط يا غيرمنطقي مي‌رسند؛ در حالي‌ که ماشين معمولا چيزي را حذف نمي‌کند. درنتيجه، ماشين ممکن است تصميم‌هاي غيرمرتبط باسابقه را اتخاذ کند که در مقياس درک‌پذير انسان قرار ندارد. با حرکت سريع کسب‌وکارها و جوامع به‌سمت هوش مصنوعي و بهبود تصميم‌گيري در افق زماني طولاني‌تر، انسان به‌ دليل چشم‌انداز محدود عقب‌نشيني مي‌کند و نااميد مي‌شود و تنها ارزش براي عملکرد صحيح جامعه، يعني اعتماد، هم به‌ مرور کاهش پيدا مي‌کند.
    براي درک ميزان ساختگي‌بودن تصميم‌هاي هوش مصنوعي، بايد روش تصميم‌گيري انسان را بررسي کرد. انسان‌ها معمولا براساس مجموعه‌اي از قوانين آشکار يا روابط مبتني بر پيامدگرايي و ترکيب تصميم مي‌گيرند.
     انسان‌ها در برابر اطلاعات مرتبط براي تصميم‌گيري گزينشي عمل مي‌کنند؛ اما ماشين‌ها به‌صورت غيرگزينشي عمل مي‌کنند و حتي معيارهايي را در نظر مي‌گيرند که در روند تصميم‌گيري براي انسان اهميتي ندارند.
    *نفوذناپذيري هوش مصنوعي مانع از تصميم‌گيري صحيح مي‌شود
    در سال 2016، ProPublica شواهد چشمگيري از اين‌ دست را ارائه داد. براي مثال، دادگاه‌هاي ايالات‌ متحده از برنامه‌اي کامپيوتري استفاده کرده بودند که به‌اشتباه متهمان سياه‌پوست را که در بازه‌اي دوساله مرتکب جرمي نشده بودند، به‌عنوان مجرم با نرخ دوبرابر متهمان سياه‌پوست بار ديگر پرچم‌گذاري کرده بود (45 در مقايسه با 23 درصد). اين در حالي است که اگر انساني اين کار را انجام مي‌داد، لقب نژادپرست به او داده مي‌شد.هوش مصنوعي مي‌تواند بين تجربيات جمعي و ارزش‌هاي آشکار جدايي بيندازد. تجربه‌هاي جمعي ايستا نيستند؛ بلکه براساس تصميم‌هاي مهم اجتماعي شکل مي‌گيرند. تصميم‌هاي اجتماعي هم براساس ارزش‌هاي اخلاقي اتخاذ مي‌شوند؛ بنابراين، آيا فرايند تصميم‌گيري به ماشيني واگذار مي‌شود که صرفا درباره‌ي گذشته به يادگيري مي‌پردازد نه آينده؟
     با توجه به مقياس کاربردهاي هوش مصنوعي در زمينه‌هايي مثل تشخيص پزشکي، خدمات مالي و نظارت بر کارمند، حتي تغييرات کوچک هم پيامدهاي شديد خواهند داشت. از آنجا که روزبه‌روز عملکرد الگوريتم‌ها در زمينه‌ي پيش‌گويي بهبود پيدا مي‌کند، منطق ناظر بر چنين تصميم‌هايي هم نفوذناپذير خواهند شد.
    بر همين اساس، انسان ديدگاه جامع تصميم‌گيري را از دست مي‌دهد و تمام اصول گذشته را کنار مي‌گذارد. در بعضي نمونه‌ها، اين مسئله مي‌تواند غيراخلاقي و غيرقانوني و حتي کوته‌بينانه باشد. براي مثال، الگوريتم تکرار جرم اصولي مثل سابقه‌ي بي‌گناهي و برابري فرصت‌ها را ناديده گرفته است.
    سازگاري يکي از پيش‌نيازهاي لازم اخلاق و يکپارچه‌سازي است. تصميم‌ها بايد به استانداردهايي بيشتر از دقت آماري وابسته باشند. قرن‌ها است که فضيلت‌هاي مشترکي مثل اعتماد متقابل، کاهش آسيب، برابري و عدالت خود را به‌عنوان شاخص‌هاي بقاي هرگونه‌ سيستم استنتاجي ثابت کرده‌اند.
    به  گزارش امانت به نقل از ايتنا،بدون سازگاري منطقي، سيستم‌هاي هوش مصنوعي از ثبات و پاسخ‌گويي محروم مي‌شوند. ثبات و پاسخ‌گويي دو عامل اساسي براي اعتمادسازي در طبيعت به شمار مي‌روند.
     نفوذناپذيري تصميم‌هاي داده‌محور با ايجاد شکاف بين تمايل‌هاي اخلاقي و استدلال‌هاي منطقي، مانع از دخالت در فرايندهاي تصميم‌گيري مي‌شود. دنياي جديد انسان اين‌گونه است؛ جايي که تصميم‌هاي پيچيده به انتخاب‌هاي انعکاسي تقليل مي‌يابند و براساس خروجي‌هاي نظارت‌شده اعمال مي‌شوند؛ جايي که پيچيدگي به‌سادگي تبديل مي‌شود و فناپذيري به کاربردپذيري. امروزه، ادراک انسان از اخلاق به‌ منزله‌ي چارچوبي براي تصميم‌گيري در نظر گرفته مي‌شود. مدت زيادي نيست که تصميم‌گيري‌هاي انسان، سايه‌ي شک را بر اخلاق انداخته است.

نظر خود را بنویسید ...

نظر سنجی