در حال بار گذاری
امروز: سه شنبه ۳۰ دی ۱۳۹۹

فناوری > آيا هوش مصنوعي به اندازه انسان‌ها خوب است

گروه فناوري: پژوهشگاه گروه مطالعات اخلاقي فضاي مجازي با بررسي موضوع اخلاق و هوش مصنوعي، به اين سوال پاسخ مي دهد که آيا هوش مصنوعي به اندازه انسان‌ها خوب است؟

    گروه فناوري: پژوهشگاه گروه مطالعات اخلاقي فضاي مجازي با بررسي موضوع اخلاق و هوش مصنوعي، به اين سوال پاسخ مي دهد که آيا هوش مصنوعي به اندازه انسان‌ها خوب است؟
    وقتي بحث بر سر اصول اخلاقي هوش مصنوعي و اين که چگونه فناوري مي‌تواند اشتباه کند، پيش مي‌آيد، غالباً ذهن مردم تحت تأثير صحنه‌هاي فيلم‌هاي هاليوودي قرار مي‌گيرد. اين که چه اتفاقي مي‌افتد اگر اين ابزار عليه ما برانگيخته شود و شروع به تيراندازي به مردم در خيابان کند؟! گرچه ما بايد پذيراي همه احتمالات باشيم، اما نگراني‌هاي اساسي‌تري نيز در مورد اخلاقيات هوش مصنوعي وجود دارد.
    در طول تاريخ، ارائه چندين اختراع در حوزه فناوري بحث در مورد اصول اخلاقي در زمينه استفاده و يا حتي وجود آن فناوري را دامن زده است؛ همچنين با پررنگ‌تر شدن هوش‌ مصنوعي در جامعه و مسائل اخلاقي پيرامون آن احساس نياز به برنامه‌اي جامع براي رسيدگي به مسائل اخلاقي و چارچوب‌هاي آن بيشتر شد.در ادامه، نگاهي به جنبه‌هاي مختلف اخلاق و هوش مصنوعي خواهيم داشت.
    مبحث انصاف
    در اولين روز کنفرانس مجازي EmTech Asia2020، دانشمند مشهور پيتر نورويگ، مدير بخش تحقيقات گوگل، در مورد مسئله انصاف در اجراي هوش مصنوعي سخنراني کرد. وي نمونه‌اي از نتايج جستجوي تصاوير در گوگل را نمايش داد. در گذشته، هنگامي‌که کاربران کلمه کليدي »دکتر« را جستجو مي‌کردند، تنها احتمال نمايش تصاويري شبيه به مردان قفقازي با کت‌هاي آزمايشگاهي سفيد وجود داشت. اما امروزه تنوع جنسيتي و نژادي بيشتري در نتايج قابل مشاهده است.
    نورويگ اين نتايج را حاصل کيفيت داده‌ها و فرآيندهاي تصميم‌گيري مي‌داند و همچنين اشاره مي‌کند اگر انصاف از طريق عدم آگاهي حاصل شود، همچنان مشکل باقي مانده است. به اين معنا که اگر انصاف در ارائه نتايج، حاصل تلاش انساني و دانشمندان نبوده و تنها به دليل کيفيت داده‌ها به‌دست آيد، باز هم به طور آگاهانه انصاف رعايت نشده است. بنابراين براي اطمينان از صحت عملکرد آن اين عمل بايد از طريق تلاش آگاهانه دانشمندان و مهندسان انجام شود که مي‌تواند روند پيچيده‌اي داشته باشد. وي تاکيد مي‌کند: »هدف ما اين است که مردم را متقاعد کنيم در اين حوزه انصاف وجود دارد.«وي به توسعه‌دهندگان محصولات توصيه کرد که همواره به موارد زير توجه داشته باشند: هنگامي‌که يکي از حضار در مورد ميزان موفقيت شرکت‌هاي فناوري در تلاش براي کاهش تعصبات سؤال کرد، نورويگ مي‌گويد که اين ليست به توسعه‌دهندگان کمک کرده است تا با آگاهي بيشتري در اين مورد، کار را پيش ببرند. ما همچنين به اضافه کردن عوامل جديد ادامه مي‌دهيم. در گذشته ما بر روي امنيت داده تمرکز داشتيم؛ اما اکنون بر روي انصاف در ارائه محتوا نيز متمرکز شده‌ايم.
    کار انساني
    کار انساني بخشي است که هنگام صحبت درباره هوش مصنوعي به آن اشاره‌اي نمي‌شود. ناديده گرفتن جنبه کار انسان اغلب هنگام بحث در مورد هوش مصنوعي و اخلاق ممکن است تعجب‌آور باشد. اما مري گري انسان‌شناس در کتاب خود، درباره نيروي انساني نامرئي صحبت مي‌کند که براي پياده‌سازي هوش مصنوعي به شکلي که امروزه شاهد آن هستيم، در تلاش است.گري تاکيد مي‌کند: از آن‌جا که اين افراد تا حد زيادي کنترل نشده‌اند و نظارتي روي خود ندارند، به راحتي يک‌بارمصرف تلقي شده و اغلب به عنوان کمک موقتي در نظر گرفته مي‌شوند.اين افراد در حال کار بر روي وظايفي مانند برچسب‌گذاري داده‌ها بوده و جمعيت رو به رشدي از افراد ارائه‌دهنده خدمات را دربر مي‌گيرند. اما گري اين نوع کار را به‌ عنوان کار شبح تعريف مي‌کند. زيرا شرايط کار اغلب باعث کاهش ارزش کاري آن‌ها و پنهان کردن افرادي مي‌شود که به نتايج جستجوي بهتر در پروژه‌هاي دنياي استارت‌آپ کمک مي‌کنند.گرچه ممکن است اين چشم‌انداز در ابتدا دلهره‌آور به نظر برسد؛ اما گري بيان مي‌کند که اين مشاغل مي‌توانند به ويژه در زمان بحران بهداشت جهاني، مشابه وضعيت فعلي، ارزش کسب کنند. اما اقداماتي نيز براي جلوگيري و توقف سوءاستفاده از آن‌ها وجود دارد.وي تأکيد کرد که در حال حاضر هيچ قانوني وجود ندارد که کارگران قراردادي را اداره کند و خود مردم بايد براي ايجاد چنين قانوني پافشاري کنند. وي هشدار داد: بازار قرار نيست اين مشکل را برطرف کند.
    فناوري و انسان
    در ماه فوريه 2020 در يک کارگاه آموزشي که در واتيکان برگزار شد، پاپ فرانسيس اظهار داشت: کهکشان ديجيتال و به‌ويژه هوش مصنوعي در قلب تغييرات تاريخي است که ما در حال تجربه آن هستيم.اين نشان‌دهنده اهميت فناوري هوش مصنوعي در زندگي امروز ماست. در حالت ايده‌آل، ما مي‌خواهيم آن را به اخلاقي‌ترين شکل ممکن پياده‌سازي کنيم.اما اکنون که پيچيدگي مسئله انصاف در اجراي هوش مصنوعي و ساير مسائل عملياتي پشت آن را ديده‌ايم، زمان آن رسيده است که اين سؤال بزرگ را بررسي کنيم: آيا فناوريِ تنها به اندازه انسان پشت آن خوب است؟
    اين ممکن است استدلال موجود در خصوص چاقو را به شما يادآوري کند: به عنوان يک ابزار نه بد است و نه خوب. ارزش آن به فردي که از آن استفاده مي‌کند و اين که به چه دليل از آن استفاده مي‌کند، بستگي دارد.
    به گزارش امانت به نقل از مهر،آيا اين بدين معناست که نگراني‌هاي ما واقعي هستند؟ اين که هوش مصنوعي چاقويي بيش نيست و فقط مي‌توان اميدوار بود که به دست فرد اشتباهي نيفتد!نورويگ پيام اميدوارکننده‌اي در اين زمينه مي‌دهد. زماني‌که يکي از حضار اين نگراني را در رابطه با مسائل اخلاقي در هوش مصنوعي بيان مي‌کند، نورويگ به او يادآوري مي‌کند که چرا انسان‌ها در وهله اول در حال توسعه فناوري هستند. او تأکيد مي‌کند: ما سيستمي را مدنظر قرار داده‌ايم که در آن، فناوري‌ها بتوانند بهتر از ما عمل کنند.
    به طور کلي، پيشرفت فناوري براي همه به معناي زندگي بهتر است. هوش مصنوعي پتانسيل گسترده‌اي دارد و مسئوليت اجراي آن به عهده ما است تا سيستم‌هايي ارائه دهيم که توانايي رعايت اخلاقيات را مشابه بهترين حالت انساني داشته باشند.

نظر خود را بنویسید ...

نظر سنجی