در حال بار گذاری
امروز: سه شنبه ۱۲ اسفند ۱۳۹۹

فناوری > گمانه‌زني‌ها براي آينده رو به پيشرفت هوش مصنوعي

گروه فناوري:کارشناسان معتقدند هوش مصنوعي و يادگيري ماشين در سال 2021 ميلادي براي پايگاه گسترده‌تري از کاربران در دسترس خواهد بود و اگرچه زمينه‌هاي دانش داده براي بهره‌گيري از هوش مصنوعي تاکنون ضروري بوده است، اما اين روند تغيير مي‌کند و به سمتي مي‌رود که شامل هر کسي در سازمان شود که براي تصميم‌گيري هوشمندتر به دسترسي به داده احتياج دارد.

    گروه فناوري:کارشناسان معتقدند هوش مصنوعي و يادگيري ماشين در سال 2021 ميلادي براي پايگاه گسترده‌تري از کاربران در دسترس خواهد بود و اگرچه زمينه‌هاي دانش داده براي بهره‌گيري از هوش مصنوعي تاکنون ضروري بوده است، اما اين روند تغيير مي‌کند و به سمتي مي‌رود که شامل هر کسي در سازمان شود که براي تصميم‌گيري هوشمندتر به دسترسي به داده احتياج دارد.
    سال پرهياهو و شلوغ 2020 بسياري از صاحبان صنايع را در مورد آينده پيش رو به فکر فرو برده است. اواخر هر سال، پيش‌بيني‌هاي زيادي را از طرف مديران صنعت و تحليلگران صنعت و تحليلگران داده ارايه مي‌شود که مربوط به سال آينده است. امسال، اين پيش‌بيني‌ها سندي 49 صفحه‌اي از بيش از 30 شرکت است. مرکز ملي فضاي مجازي در مقاله خود خلاصه‌اي از پيش‌بيني‌ها پيرامون سال 2021 وجود دارد که به مباحثي اختصاص يافته که بيشترين حدس‌ها را به خود اختصاص داده که بخشي از آن مربوط به هوش مصنوعي است.
    در سال جاري تعداد زيادي از پيش‌بيني‌ها در مورد هوش مصنوعي و يادگيري ماشين (ML) بوده است. در واقع پيش‌بيني‌ها در اين باره آنقدر زياد بود که خود به چند زير مجموعه قابل توجه تقسيم مي‌شوند. يک مجموعه از پيش‌بيني‌ها به چگونگي دموکراتيک شدن، در دسترس بودن، مقرون به صرفه بودن و بالغ شدن هوش مصنوعي متمرکز است.
    بورگمن از Starburst مي‌گويد: هوش مصنوعي و يادگيري ماشين، براي پايگاه گسترده‌تري از کاربران در دسترس خواهد بود. اگرچه زمينه‌هاي دانش داده براي بهره‌گيري از هوش مصنوعي تاکنون ضروري بوده است، اما اين روند تغيير مي‌کند و به سمتي مي‌رود که شامل هر کسي در سازمان که براي تصميم‌گيري هوشمندتر به دسترسي به داده احتياج دارد، شود.
    الکس پينا، مهندس ارشد تحقيق و توسعه در Linode، فکر مي‌کند که اقتصاد هوش مصنوعي نيز قابليت دسترسي آن را بهبود مي‌بخشد و مي‌گويد: با کاهش هزينه خدمات  IntelliShGPU ابري، مشاغل کوچک‌تر مي‌توانند از هوش مصنوعي استفاده کنند. رايان ويلکينسون، مدير ارشد فناوري درift  موافق است و اظهار مي‌کند: با رسيدن سخت‌افزار به نقطه‌اي که از هوش مصنوعي پشتيباني کند، نرم‌افزارهاي ML و AI که در فضاي ابري اجرا مي‌شوند سريعتر از هر زمان ديگر به بلوغ مي‌رسند.
    رايوهي فوجيماکي، بنيانگذار و مديرعامل dotData، يادگيري ماشين خودکار (AutoML) را عامل ديگري براي دستيابي به هوش مصنوعي براي دانشمندان در حوزه‌هاي ديگر غير از داده مي‌داند و پيش‌بيني مي‌کند: در سال 2021 ما شاهد افزايش AutoML 2.0 خواهيم بود که پلتفرم‌هاي "بدون کد" را به سطح بعدي مي‌رسانند. فوجيماکي همچنين احساس مي‌کند که AutoML به فراتر بردن موارد استفاده از تجزيه و تحليل‌هاي پيش‌بيني کننده کمک خواهد کرد، زيرا همچنين مي‌تواند بينش ارزشمندي از روندها، رويدادها و اطلاعات گذشته ارائه دهد که به کسب‌وکارها اجازه مي‌دهد تا مجهولات ناشناخته، روندها و الگوهاي داده‌اي که مهم هستند، اما هيچ‌کس به درست بودن آن‌ها شک نکرده است را کشف کنند.
    هوش مصنوعي مسئوليت‌پذير و اخلاقي
    يکي ديگر از موضوعات مهم، موضوع مسئوليت‌پذيري و اهميت عمومي اعتماد و توضيح‌پذيري در مدل‌هاي AI / ML است. امي هودلر، مدير تجزيه و تحليل نمودارها و برنامه‌هاي هوش مصنوعي در Neo4j  مي‌گويد: اگرچه بحث در مورد هوش مصنوعي مسئولانه به دليل همه‌گيري متوقف شده است، اما نياز به هوش مصنوعي مسئولانه تغيير نکرده و نياز به شروع بحث عمومي مثل هميشه مهم است.
    رومليوتيس از اوريلي در مورد پيشرفت محدود پيشين و چگونگي فعاليت‌هاي عمده آن در سال 2021 با چنين آرايشي موافق است: تا کنون، استفاده شرکت‌هاي بزرگ از ML مسئوليت‌پذير در بهترين حالت متوسط و واکنشي بوده است. در سال آينده  افزايش مقررات (مانند GDPR و CCPA)، ضدانحصاري و ساير نيروهاي قانوني شرکت‌ها را مجبور به اتخاذ رويه‌هاي مسئولانه‌تر در ML خواهد کرد. نيک الپرين  مديرعامل شرکت آزمايشگاه دومينو، از همين منظر نظراتش را بيان کرده است: استانداردهاي حفظ حريم خصوصي که به سرعت در حال تحول هستند و اولين بار با GDPR و اکنون CCPA در کاليفرنيا مشاهده مي‌شوند، در سال 2021 نياز به توجه به شفافيت و امنيت بيشتر مدل‌هاي هوش مصنوعي خواهد داشت.
    بدون رويکرد هوش مصنوعي مسئولانه، اعتماد به C-Suite و اعضاي تيم براي مدل‌هاي هوش مصنوعي که در حال طراحي آن هستند دشوار مي‌شود و بدون اين اعتماد، استفاده از هوش مصنوعي براي منافع تجاري تقريباً غيرممکن است. جوآو اوليويرا، مدير راه حل‌هاي تجاري در SAS، مي‌گويد: "هرچه ديد تصميم گيرندگان براي نتايج هوش مصنوعي بيشتر باشد، اعتماد بيشتري به تصميماتي که توسط مدل‌ها گرفته مي‌شود، دارند. اعتمادپذيري به سمت به کارگيري و استفاده مي‌انجامد. نظارت انسان و توضيح مدل‌ها در هر مرحله از يک فرآيند تصميم‌گيري، باعث پذيرش هوش مصنوعي و تصميم گيري خودکار مي‌شود.
    سانتياگو ژيرالدو، مدير ارشد بازاريابي محصولات Cloudera در يادگيري ماشين، نه تنها موافق است، بلکه ادامه مي‌دهد که، براي تجارت، به کارگيري هوش مصنوعي به اين ترتيب از نظر وجودي ضروري است. وي اينگونه بيان مي‌کند: در سال 2021 توانايي يک کسب و کار در جلب اعتماد به مدل خود - تا حدي که بتوانند بر اساس بينش ناشي از هوش مصنوعي خود عمل کنند - تعيين کننده بقاي آن‌ها خواهد بود.
    سندي مايک، معاون اصلي راه‌حل‌هاي صنعتي به عنوان يکي ديگر از مديران Cloudera مي‌گويد: در 12 تا 24 ماه آينده خواهيم ديد که هوش مصنوعي اخلاقي در مرکز توجه قرار مي‌گيرد. بينا آمانات، مدير اجرايي موسسه هوش مصنوعي Deloitte فکر مي‌کند 2021 سال عملياتي براي اخلاق هوش مصنوعي خواهد بود و مي‌گويد: امکان اعتماد به سيستم‌هاي AI در مرکز هر مکالمه AI است. امانات احساس مي‌کند که شرکت‌ها در تصميم گيري درباره ابعاد اخلاقي استراتژي‌هاي هوش مصنوعي خود شروع به کار مي‌کنند و مدل‌هاي هوش مصنوعي را که مي‌توانند براي پيامدهاي اخلاقي تحت عنوان MLOps اداره شوند، به کار مي‌گيرند. در واقع، گزارش اجرايي سالانه فناوري RELX تائيديه‌اي را براي اين امر تأييد مي‌کند و مي‌گويد: از هر 10 رهبر تجاري بيش از 8 نفر معتقدند که ملاحظات اخلاقي يک اولويت استراتژيک در طراحي و اجراي سيستم‌هاي هوش مصنوعي آن‌ها است.
    دومينو داتا لبس الپرين، با ناديده گرفتن خطر هوش مصنوعي اخلاقي، پيش بيني مي‌کند که در سال 2021 ما آگاهي گسترده‌تري از صنايع راجع به پيامدهاي حقوقي و خطرات تصميمات خودکار خواهيم ديد. ممکن است دعاوي عمومي مربوط به تبعيض يا مسئوليت را که شامل تصميمات گرفته شده توسط مدل‌هاي هوش مصنوعي است را ببينيم. اما همه پيش‌بيني‌ها به سمت نابودي و تاريکي نيست.
    به گزارش امانت به نقل ازافتانا،جيمز کينگستون، معاون همکاري و تحقيقات نوآوري، محقق هوش مصنوعي و مدير HAT-LAB در Dataswift، مقداري هويج در انتهاي اين چوب گذاشته و توضيح مي‌دهد که براي مقياس‌گذاري براي آينده با ترکيب اصول اخلاقي، سازگاري و حفظ حريم خصوصي با زيرساخت‌هاي فناوري ساخته شده، جامعه به سمت سيستمي حرکت خواهد کرد که ارزش داده‌ها به نفع افراد و بنگاه‌هاي اقتصادي باشد.

نظر خود را بنویسید ...

نظر سنجی