در حال بار گذاری
امروز: يکشنبه ۲۰ آبان ۱۴۰۳

فناوری > از هوش‌مصنوعي بترسيد، اما نه آخرالزماني

گروه فناوري: برخي از اين مي‌ترسند که هوش مصنوعي بقاي بشريت را به خطر بيندازد، اما خطر هوش مصنوعي بيشتر يک خطر هويتي و فلسفي است تا تهديدي براي نابودي کلي بشر ظهور چت جي‌پي‌تي و سيستم‌هاي هوش مصنوعي باعث افزايش نگراني‌ها در مورد آينده شده است.

     گروه فناوري: برخي از اين مي‌ترسند که هوش مصنوعي بقاي بشريت را به خطر بيندازد، اما خطر هوش مصنوعي بيشتر يک خطر هويتي و فلسفي است تا تهديدي براي نابودي کلي بشر ظهور چت جي‌پي‌تي و سيستم‌هاي هوش مصنوعي باعث افزايش نگراني‌ها در مورد آينده شده است.

    در چند ماه گذشته، برخي مديران، کارشناسان و حتي سياستمداران در مورد مشکلات عمده‌اي که استفاده کنترل نشده از هوش مصنوعي مي‌تواند ايجاد کند، هشدار داده‌اند. آنطور که منتقدين مي‌گويند ظهور اين تکنولوژي مي‌تواند چندين شغل، درآمد، امنيت، انسانيت و حتي بقا بشريت تهديد کند.
    نگراني‌ها در مي 2023 (خرداد 1402) به اوج خود رسيد، زماني که سازمان غيرانتفاعي تحقيقاتي و حمايتي مرکز ايمني هوش مصنوعي بيانيه‌اي تک جمله‌اي منتشر کرد "کاهش خطر انقراض بشر از طريق هوش مصنوعي بايد در کنار ساير خطرات اجتماعي مانند بيماري‌هاي همه گير و جنگ هسته‌اي يک اولويت جهاني باشد" اين بيانيه توسط بسياري از بازيگران کليدي در اين زمينه، از جمله رهبران گوگل و آنتروپيک، و همچنين دو تن از به اصطلاح (پدرخوانده‌هاي) هوش مصنوعي امضا شد: جفري هينتون و يوشوا بنجيو.
    ممکن است بپرسيد که چنين ترس‌هايي چگونه ظاهر مي‌شوند. يکي از سناريو‌هاي معروف آزمايش فکري »بيشينه ساز گيره کاغذ« است که توسط فيلسوف آکسفورد نيک بوستروم بيان شد. ايده اين آزمايش اينگونه است که يک سيستم هوش مصنوعي که وظيفه توليد هرچه بيشتر گيره‌هاي کاغذ را دارد، ممکن است براي يافتن مواد اوليه دست به تخريب کارخانه‌ها و ايجاد تصادفات رانندگي بزند يا يک هوش مصنوعي که وظيفه رزرو يک رستوران محبوب را دارد چراغ‌هاي راهنمايي را خاموش مي‌کند تا از گرفتن ميز توسط مشتريان و رسيدن آن‌ها به مقصد جلوگيري کند، چون او اساسا وجدان انساني را ندارد که ايمانوئل کانت فيلسوف آلماني در قرن 18 از آن سخن گفت.
    هوش مصنوعي به سرعت در حال تبديل شدن به يک هوش بيگانه است، در دستيابي به اهداف بسيار خوب است، اما خطرناک، زيرا لزوماً با ارزش‌هاي اخلاقي سازندگانش همخواني ندارد و در افراطي‌ترين شکلش، اين استدلال به نگراني‌هاي صريح در مورد بردگي يا نابودي نژاد بشر توسط هوش مصنوعي تبديل مي‌شود.
    در سال گذشته، محققان در مرکز اخلاق کاربردي بوستون در حال بررسي تأثير تعامل با هوش مصنوعي بر درک افراد از خودشان بوده و معتقد هستند که اين اضطراب‌ها بيش از حد افراطي و اشتباه هستند.
    بله، توانايي هوش مصنوعي براي ايجاد ويديو و صداي جعلي متقاعد کننده ترسناک است و مي‌تواند توسط افراد با نيت بد مورد سوءاستفاده قرار گيرد.
    در واقع، اين اتفاق هم‌اکنون هم به سادگي رخ مي‌دهد مثلا عوامل روسي احتمالا سعي کردند با به دام انداختن بيل برودر، منتقد کرملين، او را در گفتگو با آواتار رئيس جمهور سابق اوکراين، پترو پوروشنکو،زمين بزنند يا مجرمان سايبري از شبيه سازي صوتي هوش مصنوعي براي انواع جرايم مانند دزدي با فناوري پيشرفته گرفته تا کلاهبرداري‌هاي معمولي استفاده مي‌کنند.
    سيستم‌هاي تصميم‌گيري هوش مصنوعي که توصيه‌هاي تأييد وام و استخدام را ارائه مي‌دهند، خطر سوگيري الگوريتمي را به همراه دارند، زيرا داده‌هاي آموزشي و مدل‌هاي تصميمي که آن‌ها بر روي آن‌ها اجرا مي‌کنند، منعکس کننده تعصبات اجتماعي طولاني مدت هستند. اين‌ها مشکلات بزرگي است و توجه ويژه سياستگذاران را مي‌طلبد. اما در واقع بيش از هوش مصنوعي خود بشر اين خطرات را رقم زده است.
    خطر وجودي هوش مصنوعي
    در واقع يک خطر وجودي و ذاتي در هوش مصنوعي وجود دارد. اين خطر بيشتر فلسفي است تا يک خطر ويران‌گر و آخر الزماني؛ اينکه هوش مصنوعي در شکل کنوني خود مي‌تواند ديدگاه افراد را نسبت به خود تغيير دهد؟ مي‌تواند توانايي‌ها و تجربياتي را که مردم براي انسان بودن ضروري مي‌دانند، تنزل دهد. يعني باعث بازنگري افراد درباره خود بشود.
    به عنوان مثال، انسان‌ها موجوداتي هستند که قضاوت مي‌کنند؛ مردم به طور منطقي جزئيات را مي‌سنجند و روزانه در محل کار و در اوقات فراغت در مورد اينکه چه کسي را استخدام کنند، چه کسي بايد وام بگيرند، چه چيزي را تماشا کنند و ... قضاوت مي‌کنند.
    قضاوت‌ها بيشتر و بيشتر خودکار مي‌شوند و به الگوريتم‌ها تبديل مي‌شوند، اما اين اتفاق موجب پايان دنيا نمي‌شود. مردم به تدريج توانايي انجام اين قضاوت‌ها را از دست خواهند داد. قابليت‌هاي نوشتن چت جي‌پي‌تي را در نظر بگيريد. اين فناوري در حال حذف نقش نوشتن تکاليف در آموزش عالي است. اگر چنين شود، مربيان يک ابزار کليدي را براي آموزش تفکر انتقادي به دانش آموزان از دست خواهند داد.
    بنابراين، هوش مصنوعي دنيا را منفجر نخواهد کرد. اما پذيرش غيرانتقادي آن، در انواع زمينه‌هاي محدود، به معناي فرسايش تدريجي برخي از مهم‌ترين مهارت‌هاي انسان است. الگوريتم‌ها در حال حاضر توانايي افراد براي قضاوت کردن، لذت بردن از شانس ياتقويت تفکر انتقادي را تضعيف مي‌کنند.
    به گزارش و به نقل از فرارو ، نوع بشر از چنين خساراتي جان سالم به در خواهد برد، اما راه وجودي ما در اين روند ضعيف خواهد شد. نگراني‌ها شايد بيشتر به اين جمله پاياني معروف اليوت در (مردان توخالي) نزديک‌تر باشد که مي‌گويد: اين راهي است که دنيا به پايان مي‌رسد، اما نه با صداي بلند.

نظر خود را بنویسید ...

نظر سنجی