یادگیری ماشین مبتنی بر رایانش ابری – راهنمای جامع
در این مطلب، یادگیری ماشین مبتنی بر رایانش ابری مورد بررسی قرار گرفته است. «هوش مصنوعی» (Artificial Intelligence | AI) و «یادگیری ماشین» (Machine Learning | ML) به تدریج راه خود را به کاربردهای گوناگون در کسب و کارها، به ویژه در حوزههایی مانند پشتیبانی مشتریان، تشخیص کلاهبرداری و «هوش تجاری» (Business Intelligence) باز میکنند. دلایل گوناگونی وجود دارد که حاکی از آن است که بخش عمدهای از ورود یادگیری ماشین به کاربردهای جدید در کسب و کارها، در ابر و با بهرهگیری از «رایانش ابری» (Cloud Computing) اتفاق خواهد افتاد. اگر میخواهید بدانید Cloud چیست ، مطلبی که به آن لینک داده شده است احتمالاً برای شما بسیار کاربردی خواهد بود.
پلتفرمهای برجسته رایانش ابری، همگی در صدد آن هستند که هوش مصنوعی را بیش از پیش در اختیار همگان قرار دهند. در طول سه سال گذشته، آمازون، گوگل و مایکروسافت، سرمایهگذاریهای کلانی در حوزه هوش مصنوعی و یادگیری ماشین انجام دادهاند. این سرمایهگذاریها از ارائه خدمات جدید گرفته تا اداره سازمانهای بزرگی را شامل میشود که هوش مصنوعی را به طور استراتژیک در ساختار سازمانی خود قرار دادهاند. بنابراین، اگر رایانش ابری مقصد پروژههای یادگیری ماشین است، چطور میتوان پلتفرمی را انتخاب کرد که مناسب است؟ در این مطلب، ضمن پاسخ دادن به این پرسش، مزایای یادگیری ماشین مبتنی بر رایانش ابری نیز مورد بررسی قرار گرفته است. همچنین، برخی از تحولاتی که یادگیری ماشین مبتنی بر رایانش ابری در دنیا ایجاد کرده و میکند نیز تشریح شده است.
مزایای یادگیری ماشین مبتنی بر رایانش ابری
در ادامه، مزایای یادگیری ماشین مبتنی بر رایانش ابری بیان شده است.
- مدل «پرداخت به ازای مصرف» (Pay-Per-Use) که در رایانش ابری وجود دارد، برای حجم کار پراکنده هوش مصنوعی و یادگیری ماشین مناسب است.
- ابر، برای کسب و کارها انجام آزمایش (نمونهسازیهای اولیه و ورودی آزمایشی به حوزه هوش مصنوعی) در حوزه یادگیری ماشین را تسهیل و امکان مقیاس بخشیدن به پروژه در فاز تولید و یا با افزایش تقاضا را فراهم میکند.
ابر، ظرفیتهای هوشمند را بدون نیاز به مهارتهای پیشرفته فنی در حوزه هوش مصنوعی یا «علم داده» (Data Science)، در دسترس قرار میدهد.
- پلتفرمهای «آمازون وب سرویس» (Amazon Web Service | AWS)، «مایکروسافت آژور» (Microsoft Azure) و «گوگل کلود» (Google Cloud) قابلیتهای یادگیری ماشین گوناگونی را در اختیار کاربر قرار میدهند که به دانش عمیق از مباحث تئوری هوش مصنوعی و یادگیری ماشین یا داشتن یک تیم دانشمند داده نیازی ندارند.
سازمانها الزاما نیازی به استفاده از ابر برای ساخت راهکارهای هوش مصنوعی خود ندارند. گذشته از اینها، پلتفرمهای یادگیری ماشین متنبازی مانند «تنسورفلو» (TensorFlow)، «آپاچی اماکسنت» (Apache MXNet) و «جعبهابزار شناختی مایکروسافت» (Microsoft Cognitive Toolkit | CNTK) وجود دارد که سازمانها میتوانند آنها را روی سختافزارهای خودشان اجرا کنند. اگرچه، سازمانها مدلهای یادگیری ماشین پیچیدهای را به صورت داخلی (در داخل سازمان و بدون استفاده از سرویسهای ابری) میسازند که احتمال به مشکل برخوردن آنها وجود دارد. دلیل این مشکلات، بار کاری زیاد و مقیاسپذیری پروژه به دلیل آموزش دادن مدلهای جهان واقعی است که نیازمند خوشههای محاسباتی بزرگ هستند.
موانع آوردن قابلیتهای یادگیری ماشین به کاربردهای سازمانی از جنبههای گوناگونی زیاد است. مهارتهای ویژه لازم برای ساخت، آموزش دادن و استقرار مدلهای یادگیری ماشین و نیاز به سختافزارهای ویژه، به هزینههای بالای نیروی کار، توسعه و زیرساخت، میافزاید. اینها مشکلاتی هستند که رایانش ابری میتواند انها را حل کند و ارائهدهندگان خدمات ابر عمومی نیز درصدد آن هستند که استفاده از ظرفیتهای یادگیری ماشین را برای حل مسائل کسب و کار، تسهیل کنند.
دلایل خوبی برای انتقال دادن بخشی از پروژههای یادگیری ماشین یک سازمان و یا مهاجرت کامل به ابر وجود دارد. مدل پرداخت به ازای مصرف ابر، برای بار کاری پراکنده یادگیری ماشین بسیار مناسب است و کاربر/سازمان میتواند از سرعت و قدرت واحد پردازش گرافیکی برای آموزش دادن مدل خود بدون سرمایهگذاری برای خرید سختافزار استفاده کند. همچنین، رایانش ابری مورد آزمایش قرار دادن یادگیری ماشین و مقیاس بخشیدن به پروژهها را با رسیدن پروژه به فاز تولید و یا ضمن افزایش تقاضا تسهیل می کند. احتمالا، مسئله مهمتری که در این میان وجود دارد آن است که ابر، ظرفیتهای هوشمند را بدون نیاز به مهارتهای پیشرفته در هوش مصنوعی یا علم داده فراهم میکند؛ مهارتهایی که نایاب هستند و کم تامین میشوند.
طیف خدمات یادگیری ماشین مبتنی بر رایانش ابری
طیف وسیعی از ارائهدهندگان خدمات رایانش ابری، خدمات یادگیری ماشین مبتنی بر رایانش ابری را ارائه میکنند. شناخت این ارائهدهندگان خدمات و نوع خدمتی که ارائه میکنند، انتخاب را برای کاربران تسهیل میکند. در ادامه، برخی از برجستهترین ارائهدهندگان خدمات یادگیری ماشین مبتنی بر رایانش ابری مورد بررسی قرار میگیرد.
موتور یادگیری ماشین گوگل کلود (Google Cloud ML Engine) یک سرویس همه منظوره است که نیاز به نوشتن کد با استفاده از «زبان برنامهنویسی پایتون» (Python Programming Language) و کتابخانههای تنسورفلو دارد. در حالی که، «آمازون رکاگنیشن» (Amazon Rekognition) یک سرویس ویژه «بازشناسی تصویر» (Image Recognition) است که میتوان آن را با فقط یک دستور، اجرا کرد. بنابراین، کاربر در صورتی که خواستهای مانند تحلیل ویدئو داشته باشد، باید از یک سرویس تخصصی استفاده کند. اگر نیازمندیها او بیش از دامنه سرویس تخصصی است، باید کد اختصاصی خود را بنویسد و آن را روی یک سرویس همه منظوره پیادهسازی کند.
هر سه ارائهدهنده خدمات یادگیری ماشین مبتنی بر ابری که پیشتر معرفی شدند، در تلاش هستند تا سرویسهایی را بسازند که استفاده از آنها نسبتا آسان است. به عنوان مثالهایی از این مورد میتوان به «رابط برنامهنویسی کاربردی گوگل پردیکشن» (Google Prediction API)، «یادگیری ماشین آمازون» (Amazon Machine Learning) و «استودیو یادگیری ماشین آژور» (Azure Machine Learning Studio) اشاره کرد. شاید در ابتدا این چنین به نظر برسید که این نوع از سرویسها بهترین گزینه ممکن برای کارشناسان یادگیری ماشین و دانشمندان داده هستند، زیرا میتوان با استفاده از آنها برنامههای کاربردی یادگیری ماشین را بدون نیاز به نوشتن کدهای پیچیده آماده کرد.
اگرچه، ارائهدهندگان خدمات ابری کشف کردهاند که بازار بزرگی برای سرویسهای یادگیری ماشین ساده و همه منظوره وجود ندارد. چرا؟ زیرا این موارد انعطافپذیری کافی را برای پاسخگویی به اغلب نیازهای سفارشی ندارند و استفاده از آنها از سرویسهای سفارشی پیچیدهتر است. در نتیجه، گوگل Prediction API را منتفی کرد و Amazon ML نیز دیگر در صفحه وب Machine Learning on AWS وجود ندارد. اگرچه، Azure Machine Learning Studio همچنان یک سرویس جذاب در زمینه کاری خودش است، زیرا راهی مناسب برای ساخت مدلهای یادگیری ماشین برای افرادی است که در حال فراگیری یادگیری ماشین و هوش مصنوعی هستند.
استودیو یادگیری ماشین آژور دارای یک رابط درگ-اند-دراپ است که نیاز به هیچ کدی ندارد (هرچند که کاربر در صورت تمایل، میتواند کد بزند). این سرویس، از طیف وسیعی از الگوریتمها، شامل انواع گوناگون «رگرسیون» (Regression)، «دستهبندی» (Classification) و «تشخیص ناهنجاری» (Anomaly Detection) و همچنین، الگوریتمهای «خوشهبندی» (Clustering) برای «یادگیری نظارت نشده» (Unsupervised Learning)، پشتیبانی میکند. اگرچه، افرادی که درک بهتری از یادگیری ماشین دارند، بهتر است از ابزارهایی مانند «میز کار یادگیری ماشین آژور» (Azure Machine Learning Workbench) استفاده کنند که استفاده از آن دشوارتر است، اما انعطافپذیری بیشتری را در اختیار کاربر قرار میدهد.
از چه ابزارهای هوش مصنوعی باید استفاده شود؟
در صورتی که کاربر برای اولین بار در حال پیادهسازی هوش مصنوعی است، باید کار را با یکی از سرویسهای تخصصی آغاز کند. هر پلتفرم، چه به عنوان یک برنامه کاربردی مجزا ساخته شده باشد و چه بر فراز مدلهای از پیش آموزش دیده شده، طیفی از سرویسهای تخصصی را ارائه میکند که به توسعهدهندگان امکان افزودن قابلیتهای هوشمند را بدون آموزش دادن یا استقرار مدلهای یادگیری ماشین خودشان میدهند.
گزینههای اصلی در این راستا، اساسا روی «پردازش تصویر» (Image Processing) یا «پردازش زبان» (Language Processing) متمرکز شدهاند.
وظیفه | آمازون | مایکروسافت آژور | گوگل |
بازشناسی تصویر | Rekognition Image | Computer Vision API Custom Vision Service Face API Emotion API Content Moderator | Vision API AutoML Vision |
تحلیل ویدئو | Rekognition Video | Computer Vision API Video Indexer Content Moderator | Video Intelligence API |
گفتار به متن | Transcribe | Bing Speech API Custom Speech Service Speaker Recognition API | Speech API |
متن به گفتار | Polly | Bing Speech API | Text-to-Speech API |
ترجمه | Translate | Translator Text API | Translation API |
تحلیل زبان | Comprehend | Text Analytics API Content Moderator Language Understanding Web Language Model API Linguistic Analysis API | Natural Language API |
چتبات | Lex | Azure Bot Service | Dialogflow |
این لیست، استراتژی آژور برای تقسیم محصولات خود به برندهای گوناگون را بر اساس وظایف خاص هوش مصنوعی، نشان میدهد. اغلب این ویژگیها و قابلیتها، توسط آمازون و گوگل نیز ارائه میشوند، اما بخشی از API بزرگتری هستند. همانطور که در جدول میتوان مشاهده کرد، همه سه شرکت ارائهدهنده خدمات ابری، اساسا قابلیتهای مشابهی را ارائه میکنند. این در حالی است که مایکروسافت و گوگل، چند گزینه منحصر به فرد نیز دارند. برای مثال، Azure Custom Decision Service به ارائه محتوای سفارشی و Google Cloud Talent Solution به فرایند استخدام کمک میکند.
یادگیری ماشین مبتنی بر رایانش ابری
پلتفرمهای «یادگیری ماشین» (Machine Learning | ML) از جمله سرویسهای دارای سریعترین رشد در «ابر عمومی» (Public Cloud) هستند. برخلاف دیگر سرویسهای مبتنی بر ابر، پلتفرمهای «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین (ML)، از طریق مدلهای تحویل گوناگونی مانند «رایانش شناختی» (Cognitive Computing | CC)، «یادگیری ماشین خودکار» (Automated Machine Learning)، «مدیریت مدل یادگیری ماشین» (ML Model Management)، «سرویسدهی به مدل یادگیری ماشین» (ML Model Serving) و «رایانش مبتنی بر واحد پردازش گرافیکی» (GPU-Based Computing) در دسترس هستند.
در ادامه این مطلب، مفاهیم و مدلهای تحویل فراهم شده توسط ارائهدهندگان خدمات ابر عمومی برای پلتفرمهای یادگیری ماشین مبتنی بر ابر مورد بررسی قرار میگیرد. با مطالعه این قسمت، افراد میتوانند سرویس یادگیری ماشین مبتنی بر رایانش ابری مناسب خود را، انتخاب کنند. همچون PaaS ،IaaS و SaaS، زیرساخت، پلتفرم و سرویسهای سطح بالای یادگیری ماشین و هوش مصنوعی، به صورت «رابط برنامهنویسی کاربردی» (Application Programming Interface | API) ارائه شده است. در ادامه، هر یک از لایههای موجود در تصویر زیر، به صورت دقیقتر مورد بررسی قرار میگیرند.
خدمات شناختی
خدمات شناختی به عنوان یک مجموعه از رابطهای برنامهنویسی کاربردی است که امکانات «بینایی کامپیوتر» (Computer Vision)، «پردازش زبان طبیعی» (Natural Language Processing | NLP) و سرویسهای مربوط به «گفتار» (Speech) را ارائه میکنند. توسعهدهندگان میتوانند این رابطهای برنامهنویسی کاربردی را مانند هر سرویس وب دیگر یا REST API استفاده کنند. همچنین، برای استفاده از مزایای این سرویسها، نیازی به دانستن جزئیات پیچیده الگوریتمهای یادگیری ماشین یا سلسلهمراتب پردازش داده ندارند.
با افزایش مصرف این سرویسها، کیفیت سرویسهای ادراکی افزایش پیدا میکند. با افزایش دادهها و استفادهها از سرویسها، ارائهدهندگان خدمات ابری به طور پیوسته صحت پیشبینیها را افزایش میدهند. علاوه بر این، سرویسی که اخیرا به رایانش شناختی اضافه شده، «یادگیری ماشین خودکار» (Automated Machine Learning | AutoML) است که توسعهدهندگان میتوانند پس از آموزش دادن سرویس با دادههای خودشان، از آن استفاده کنند. AutoML مدلهای میانه یا از پیش آمده شده را در مقابل آموزش دادن مدل از پایه، ارائه میکند.
«سرویسهای هوش مصنوعی آمازون» (Amazon AI Services)، «رابطهای برنامهنویسی کاربردی هوش مصنوعی گوگل کلود» (Google Cloud AI APIs)، «سرویسهای شناختی مایکروسافت» (Microsoft Cognitive Services) و «رابطهای برنامهنویسی کاربردی آیبیام واتسون» (IBM Watson API) نمونههایی از سرویسهای ادراکی هستند. اگر سازمانی در نظر دارد که تواناییهای الزامی هوش مصنوعی را به برنامههای کاربردی موجود یا جدید اضافه کند، میتواند از توسعهدهندگان تیم خود بخواهد که سرویسهای شناختی موجود در ابر عمومی را ارزیابی کنند. کاربران میتوانند از سرویسهای هوش مصنوعی آماده برای کارهای گوناگون در حوزه هوش مصنوعی و یادگیری ماشین، از «تشخیص اشیا» (Object Detection) گرفته تا «تحلیل احساسات» (Sentiment Analysis)، استفاده کنند. میتوان به این رابطهای برنامهنویسی کاربردی به عنوان SaaS برای هوش مصنوعی نگاه کرد که در آن، کاربر فقط برای چیزی که استفاده میکند، پرداخت انجام میدهد.
پلتفرم یادگیری ماشین به عنوان سرویس
هنگامی که یک رابط برنامهنویسی کاربردی شناختی (Cognitive API)، پاسخگوی نیازهای کاربر نیست، میتواند از «پلتفرم یادگیری ماشین به عنوان سرویس» (ML Platform as a Service) برای ساخت مدلهای یادگیری ماشین بسیار سفارشیسازی شده استفاده کند. برای مثال، درحالیکه یک API ادراکی ممکن است قادر به شناسایی وسیله نقلیه به عنوان خودرو باشد، ممکن است نتواند که خودروها را بسته به سازنده و مدل خودرو دستهبندی کند. فرض میشود که کاربر یک مجموعه داده بزرگ از خودروها دارد که با سازنده و مدل آن برچسبگذاری شدهاند. تیم علم داده میتواند برای آموزش دادن و استقرار یک مدل سفارشی که برای سناریو آنها سفارشیسازی شده است، تکیه کند.
همچون مدل تحویل PaaS که در آن توسعهدهندگان کد خود را در این سرویس میزبانی میکنند، ML PaaS از «دانشمندان داده» (Data Scientists) میخواهد که مجموعه دادهها و کدهای خود را که میتواند یک مدل را آموزش دهد استفاده کنند. بدین شکل، تیم علم داده میتواند از توان محاسباتی، فضای ذخیرهسازی و محیط شبکهای برای اجرای پروژههای یادگیری ماشین پیچیده خود استفاده کند. انتظار میرود که دانشمندان داده کدهای خود را بسازند و آن را پیش از اجرا روی یک پلتفرم ابر عمومی، روی یک مجموعه داده کوچکتر به صورت محلی تست کنند.
ML PaaS، اصطکاکی که به دلیل راهاندازی و پیکربندی محیط علم داده اتفاق میافتد را حذف میکند. در واقع، ML PaaS یک محیط از پیش پیکربندی شده را فراهم میکند که دانشمندان داده میتوانند از آن برای آموزش دادن، تنظیم و میزبانی مدل استفاده کنند. این سرویس، به طور موثری چرخه حیات یک مدل یادگیری ماشین را با فراهم کردن ابزارهایی از فاز آمادهسازی مدل گرفته تا میزبانی آن مدیریت میکند.
این سرویسها با ابزارهای محبوبی مانند «ژوپیتر نوتبوک» (Jupyter Notebook) عرضه میشوند که برای دانشمندان داده شناخته شده هستند. ML PaaS با پیچیدگیهای موجود در اجرای آموزش دادن مدل روی یک خوشه از کامپیوترها مقابله میکند و زیربنای کار را از طریق رابط برنامهنویسی کاربردی پایتون یا زبان R برای دانشمندان داده خلاصه میکند. «آمازون سِیجمِیکِر» (Amazon SageMaker)، «سرویسهای یادگیری ماشین مایکروسافت آژور» (Microsoft Azure ML Services)، «موتور یادگیری ماشین گوگل کلود» (Google Cloud ML Engine) و «آیبیام واتسون استودیو» (IBM Watson Studio) نمونههایی از ML PaaS هستند. اگر کسب و کاری در صدد آن است که چابکی را در توسعه و استقرار یادگیری ماشین بگنجاند، باید ML PaaS را در نظر داشته باشد. ML PaaS روشهای اثبات شده یکپارچهسازی مداوم/تحویل مداوم (CI/CD) را با مدیریت مدل یادگیری ماشین ترکیب میکند.
سرویسهای زیرساخت یادگیری ماشین
میتوان به زیرساخت یادگیری ماشین به عنوان IaaS از پشته یادگیری ماشین نگریست. ارائهدهندگان سرویسهای ابری، ماشینهای مجازی خامی را به کاربر ارائه میکنند که به وسیله پردازندههای قوی و شتابدهندههایی مانند «واحد پردازش گرافیکی» (Graphics Processing Unit | GPU) و «مدار مجتمع دیجیتال برنامهپذیر» (Field-Programmable Gate Array | FPGA) پشتیبانی میشوند.
توسعهدهندگان و دانشمندان دادهای که نیاز به دسترسی به قدرت محاسباتی خام دارند، به زیرساخت یادگیری ماشین روی میآورند. آنها به تیمهای دِواُپس برای تدارک و پیکربندی محیط مورد نیاز خود تکیه میکنند. جریان کاری چیزی متفاوت از راهاندازی بستر تست برای توسعه برنامههای کاربردی وب و موبایل بر پایه ماشین مجازی نیست. تیمهای دواُپس اند-تو-اند مالکیت انجام پیکربندیهای گوناگون، از انتخاب تعداد هستههای واحد پردازش مرکزی (CPU) گرفته تا نصب نسخه خاصی از پایتون را بر عهده دارد.
سرمایهگذاریهای سختافزاری اخیر آمازون، گوگل، مایکروسافت و فیسبوک، موجب شده است که زیرساخت یادگیری ماشین ارزانتر و موثرتر شود. ارائهدهندگان سرویسهای ابری، در حال حاضر سختافزارهای سفارشی را ارائه میکنند که به شدت برای اجرای کارهای یادگیری ماشین مبتنی بر رایانش ابری بهینه شدهاند. «واحد پردازشی تنسور گوگل» (Google’s TPU) و «مدار مجتمع دیجیتال برنامهپذیر مایکروسافت» (Microsoft’s FPGA) نمونههایی از شتابدهندههای سختافزاری سفارشی هستند که انحصارا برای انجام کارهای یادگیری ماشین ساخته شدهاند. هنگامی که این موارد با ترندهای اخیر محاسباتی مانند «کوبرنتیز» (Kubernetes) همراه میشوند، زیرساخت هوش مصنوعی به انتخابی جذاب برای کسب و کارها مبدل میشود.
یادگیری ماشین مبتنی بر رایانش ابری چطور دنیا را متحول میکند؟
پیشتر، به انواع سرویسهای یادگیری ماشین مبتنی بر رایانش ابری پرداخته و مزایای استفاده از ابر در این راستا بیان شد. استفاده از خدمات ابری برای بهرهمندی از توان پردازشی، فضای ذخیرهسازی و شبکهسازی بوده است. ولی در حال حاضر، با اضافه شدن یادگیری ماشین به ابر، ظرفیتهای ابر به طور گستردهای افزایش پیدا کرده و میکند.
از سوی دیگر، سیستمهای هوش مصنوعی نیز روی سرورهای ابری بهتر کار میکنند. دلیل این امر، هزینه کم عملیات، مقیاسپذیری و قدرت عظیم محاسباتی برای تحلیل حجم زیاد دادهها است. بنابراین، ترکیب هوش مصنوعی و یادگیری ماشین برای هر دو این فناوریها، اتفاق خوبی است. در ادامه، برخی از مصادیق متحول شدن دنیای فناوری (و البته دنیا) با بهرهگیری از یادگیری ماشین مبتنی بر رایانش ابری مورد بررسی قرار گرفته است.
دستیار شخصی و چتباتها
چتباتها در بحث خدمات پشتیبانی مشتریان و به عنوان دستیار شخصی، از محبوبیت بالایی برخوردار هستند. به عنوان مثالهایی از این مورد میتوان به «اپل سیری» (Apple's Siri)، «مایکروسافت کورتانا» (Microsoft Cortana) و «گوگل اسیستنت» (Google Assistant) اشاره کرد. این دستیارهای شخصی، از «پردازش زبان طبیعی» (Natural Language Processing | NLP) و «فناوریهای یادگیری ماشین» (Machine Learning Technologies) به صورت توکار بهره میبرند. دستیارهای شخصی، دارای محدودیتهایی در تواناییهای خود هستند. واکنشهای (پاسخهای) این دستیارها ابتدا برنامهنویسی شده و سپس تعمیم یافته است. اگر چتباتها و دستیارهای مجازی از رایانش ابری استفاده کنند، چه اتفاقی میافتد؟ آنها به حجم عظیمی از دادهها دسترسی خواهند داشت و با بهرهگیری از آنها به نقطهای خواهند رسید که تفاوتی بین تعامل انسانی و ماشینی وجود نخواهد داشت.
اینترنت اشیا
«اینترنت اشیا» (Internet of Things | IoT) یک پلتفرم یکتا است که گجتها و دستگاههای آنلاین و آفلاین الکترونیکی متعدد، بر اساس آن محیطی دارند که دادهها را در میان خودشان به اشتراک بگذارند و بینش مفیدی بسازند. تعاملات میان برنامههای گوناگون ممکن است به تولید حجم انبوهی از دادهها منجر شود.
خدمات ابری و علم داده به اینترنت اشیا با ذخیرهسازی و مدیریت دادههای عظیم، کمک میکنند.
هوش تجاری
خدمات هوش تجاری نیز با استفاده از یادگیری ماشین در رایانش ابری، قابل هوشمند شدن است. یادگیری ماشین و رایانش ابری به شرکتهای تجاری هوش مصنوعی با مدیریت و تحلیل دادههای آنی و انجام پیشبینی آینده، کمک میکند.
این موضوع، به ساخت یک داشبورد تعاملی که دادهها را از ابعاد گوناگون در یک محل نشان میدهد، کمک میکند. همکاری الگوریتمهای یادگیری ماشین با رایانش ابری به بهبود موقعیت کنونی سیستمهای هوشمند کمک شایان توجهی خواهد کرد.
اگر نوشته بالا برای شما مفید بوده است، آموزشهای زیر نیز به شما پیشنهاد میشوند:
ایکاش توی یک مقاله هم به مقایسه و معرفی سرویسهای مختلف و مزایا و معایب هر کدوم بپردازید.