در حال بار گذاری
امروز: جمعه ۲۸ تير ۱۳۹۸

فناوری > آيا ابر هوش مصنوعي بدترين رويداد تاريخ بشريت است

گروه فناوري:با ديدن پيشرفت هوش مصنوعي اين سوال در ذهن‌ مردم مطرح مي‌شود که نتيجه نهايي چه خواهدشد و پيامد ابرهوش مصنوعي براي انسان چه خواهد‌بود.

    گروه فناوري:با ديدن پيشرفت هوش مصنوعي اين سوال در ذهن‌ مردم مطرح مي‌شود که نتيجه نهايي چه خواهدشد و پيامد ابرهوش مصنوعي براي انسان چه خواهد‌بود.
    استيون هاوکينگ مدتي قبل از درگذشتش در يک سخنراني در کنفرانسي در ليسبون پرتغال به شرکت‌کنندگان گفت که توسعه هوش مصنوعي ممکن است به بدترين رويداد تاريخ تمدن بشر تبديل شود و وي دلايل زيادي براي اين نگراني دارد.
    اين فناوري توسط پژوهشگران هوش مصنوعي، اخلاق‌گرايان و ديگران به‌عنوان يک ابرهوش مصنوعي (ASI) شناخته شده‌است و توانايي تبديل شدن به قدرتمندترين فناوري تاريخ اين سياره را دارد. ابرهوش مصنوعي احتمالاً چيزي است که وجود انسان را به چالش خواهد‌کشيد. براي درک بهتر آنچه که استيون هاوکينگ، ايلان ماسک و بسياري ديگر در مورد آن نگران هستند بايد تصوير محبوب هوش مصنوعي را به دقت بررسي کنيم.
    واقعيت اين است که هوش مصنوعي (AI) از وقتي که کامپيوترها قادر به تصميم‌گيري بر اساس ورودي‌ها و شرايط شدند مدتي است که با ما زندگي مي‌کند. هنگامي که يک سيستم تهديدآميز هوش مصنوعي را در فيلم‌ها مي‌بينيم، شرارت سيستم همراه با قدرت کامپيوتر است که ما را مي‌ترساند. اگرچه که هوش مصنوعي فعلاً به شيوه بنياديني که انسان برايش تعيين کرده رفتار مي‌کند.
    نوع هوش مصنوعي امروزي ما را مي‌توان يک هوش عملکردي مصنوعي (AFI) توصيف کرد. اين سيستم‌ها براي انجام يک نقش خاص برنامه‌ريزي شده تا آن را به‌خوبي يا بهتر از يک انسان انجام دهد.
    اکنون مدت کوتاهي است که اين سيستم‌ها موفق‌تر از پيش‌بيني‌ها عمل کرده‌اند و توانسته‌اند گيمرها را در رقابت‌هاي بازي‌هاي ويدئويي شکست دهند. چيزي که صاحب‌نظران تصور وقوع آن را حداقل تا چند سال آينده نمي‌کردند.
    در حالي که ما ممکن است مجبور به پذيرش ربات‌هاي فوق هوشمند باشيم، اما هيچ خطر واقعي وجود ندارد که اين سيستم‌ها به شکلي خطرساز شوند که هاوکينگ مي‌گفت.
    هوش مصنوعي "AlphaGo" ممکن است از کنون تا زماني که جهان نابود شود بر همه انسان‌ها در بازي ويدئويي پيروز شود، اما اگر از شرايط آب‌وهوايي فعلي زمين از آن سوال شود حتي کوچک‌ترين اطلاعاتي از موجودات زنده تک‌سلولي که به تغييرات دما واکنش مي‌دهند، ندارد.
    اما آنچه که ما از آن به‌عنوان يک هوش مصنوعي خطرناک ياد مي‌کنيم چيزي است که دانشمندان کامپيوتر به آن هوش عمومي مصنوعي AGI مي‌گويند و يک نوع هوش مصنوعي است که به‌طور کامل از ذهن انسان تقليد مي‌کند و مثل يک انسان بر يک حوزه از دانش احاطه دارد و ميلياردها بار سريع‌تر از ما فکر مي‌کند.
    با اينکه اين سيستم خطرناک به نظر مي‌رسد، اما به احتمال زياد هرگز شاهد زنده شدن يک AGI نخواهيم‌بود. نگراني واقعي چيزي است که در يک قدم فراتر از AGI وجود دارد؛ هوش فرا انساني.
    مشکل توسعه AGI در معناي سنتي اين است که غير ممکن است يک برنامه تصميم‌گيري درختي براي هر سوال که AGI مجبور به حل آن است ايجاد کنيم.
    انسان‌ها هم با چنين چالشي مواجه هستند و اين چالش مربوط به ظرفيت ما براي يادگيري و شکل دادن ارتباطات جديد در مغز است که ما را هوشمند و قادر به حل مسائل مي‌کند. اگر ما ندانيم که چگونه يک مسئله را حل کنيم، مي‌توانيم آن را تجزيه‌و‌تحليل کنيم و پاسخي بيابيم. اکنون همين توانايي شروع به توسعه در پيشرفته‌ترين سيستم‌هاي هوش مصنوعي کرده‌است.
    يک سيستم براي رسيدن به يک AGI واقعي نياز به يک ابزار کليدي دارد که دارا بودن قدرت برنامه‌نويسي براي هوشمندتر شدن است.زيست‌شناسي انسان به‌طور خودکار مغز را به منظور يادگيري چيزهاي جديد توسعه مي‌دهد. اين همان چيزي است که نگراني‌هاي مربوط به هوش مصنوعي از آن نشأت گرفته‌است.
    فرض کنيد ما يک سيستم را راه‌اندازي کنيم که مي‌تواند برنامه‌هاي خودش را بازنويسي کند و خود را در هر موضوع، مهارت و توانايي که انسان قادر به انجام آن است، هوشمندتر کند.اين سيستم از ابتدا خيلي هوشمند نخواهدبود، اما هر تجربه به نوبه خود توانايي آن را براي بهبود خود افزايش مي‌دهد.اين پرسش که آيا نمي‌توان ابرهوش مصنوعي را از برق کشيد، شايع‌ترين سوال عمومي در مورد هوش مصنوعي و ترس از پيشرفت آن است. عوام مي‌گويند کافي است هوش مصنوعي را در هنگام خطرساز شدن از برق بکشند، اما مي‌دانيم که اين کار ممکن نيست. همان‌طور که نمي‌توانيم يک ويروس رايانه‌اي را با خاموش کردن کامپيوتر پاک کنيم.
    اگر يک ويروس مي‌تواند خودش را در يک سيستم مخفي کند يا خود را کپي کند و سيستم‌هاي ديگر را آلوده کند پس کنترل يک ابر هوش مصنوعي بي‌نهايت مشکل‌تر خواهد‌بود.
    بدتر از آن اينکه هوشمندتر از ماست و مي‌تواند راهي براي حفظ خود پيدا کند. پس چرا هوش مصنوعي را توسعه مي‌دهيم؟!
    اين سوالي است که به‌طور طبيعي به ذهن متبادر مي‌شود، اما مشکل اين است که هيچ راه معقول‌تري براي توسعه يک سيستم جز AGI وجود ندارد، چرا که توسعه هوش مصنوعي تقليدي از عملکرد خودکار مغز ما در ايجاد اتصالات عصبي جديد به‌صورت خود‌به‌خود است.اگر ما بخواهيم از AFI هاي ابتدايي فراتر برويم پس توسعه يک ابرهوش مصنوعي اجتناب‌ناپذير است، زيرا پس از تجزيه اتم به اجزاي هسته‌اي به‌عنوان يک منبع انرژي، توسعه سلاح هسته‌اي نيز اجتناب ناپذير شد.
    درنهايت، تنها راه جلوگيري از ظهور ابرهوش مصنوعي، جلوگيري از پيشرفت هرگونه توسعه هوش مصنوعي است که به نظر نمي‌رسد به هيچ عنوان در حال حاضر ممکن باشد.
    با اين که ابرهوش مصنوعي پتانسيل نامحدودي براي آسيب زدن دارد، حداقل براي سازندگانش مي‌تواند مفيد باشد.
    اگر دو کشور با هم دشمن باشند، يک کشور چگونه مي‌تواند با وجود چنين سيستمي به ديگري اعتماد کند؟ همين مسئله باعث شده‌است تا کشورهاي ابرقدرت جهان همگي با اختصاص منابع مالي فراوان به دنبال پيشتاز بودن در هوش مصنوعي باشند.اگر توسعه هوش مصنوعي همين‌طور ادامه يابد پيدايش يک نژاد هوش مصنوعي اجتناب‌ناپذير است؛ بنابراين آيا ما بايد از ابر هوش مصنوعي بترسيم؟ البته. همان‌طور که هر پيشرفت تکنولوژيک همواره عواقب ناخواسته‌اي نيز به دنبال دارد هنگامي که ما يک ابر هوش مصنوعي را راه‌اندازي کنيم ديگر هيچ بازگشتي وجود نخواهد داشت.
    اما بايد به ياد داشته‌باشيم طبيعت ما اين است که تهديد چنين سيستمي را در نظر داشته‌باشيم، چرا که ما به‌طور فطري به دنبال تشخيص خطر و جلوگيري از مواجهه با آن هستيم.
    واقعيت اين است که چنين سيستم قدرتمندي مي‌تواند براي خودش تصميم بگيرد و احتمالاً اين قدرت را دارد که زندگي انسان را نابود کند، بنابراين ابر هوش مصنوعي بزرگ‌ترين تهديد براي تمدن انساني خواهدبود.
    اما فراموش نکنيم که اگر چنين قدرتي داشته‌باشد پس قدرت اين را هم دارد که تغييرات آب‌و‌هوايي را معکوس کند و منجر به تداوم و بهبود زندگي انسان روي زمين شود.همان‌طور که ابر هوش مصنوعي مي‌تواند ناهنجاري‌هاي بالقوه زيادي داشته‌باشد در عين حال داراي توانايي براي معکوس کردن اثرات تغييرات اقليمي، ريشه‌کني بيماري‌ها، پايان کمبود و قحطي، پايان دادن به مرگ و ارائه جاودانگي و حتي سفر با سرعتي بيشتر از سرعت نور به سوي کهکشان‌هاي دور است.ما دلايل زيادي داريم که ابر هوش مصنوعي درنهايت به نفع ما کار خواهدکرد. هر پيشرفت تکنولوژيکي هزينه‌اي در بر داشته‌است، اما تمدن بشري درنهايت از آن منتفع شده و پيشرفت کرده‌است.
    درنهايت اين انسان است که از چيزهاي مختلف استفاده‌هاي مختلف مي‌کند. برخي از ما سلاح‌هاي ويرانگر کشتار جمعي ساخته‌اند برخي هم طاعون و فلج اطفال را ريشه‌کن کرده‌اند. انسان تا حد زيادي به قحطي فائق آمده‌است و حتي جنگ‌ها هم در حال کاهش است.
    به گزارش امانت به نقل از افتانا، اگر روند رسيدن به آينده براي ما چيزي شبيه به گذشته ما باشد پس ما مي‌توانيم در مورد آينده هوش مصنوعي خوش‌بين باشيم.

نظر خود را بنویسید ...

نظر سنجی