داده کاوی (Data Mining) — از صفر تا صد

۱۲۱۸۱ بازدید
آخرین به‌روزرسانی: ۲۳ اسفند ۱۴۰۲
زمان مطالعه: ۲۱ دقیقه
داده کاوی (Data Mining) — از صفر تا صد

در این مطلب به مباحث «داده کاوی» (Data Mining) از صفر تا صد پرداخته شده است. با پیشرفت سریع «فناوری اطلاعات» (Information Technology)، بشر شاهد یک رشد انفجاری در تولید «داده» (Data) و ظرفیت‌های گردآوری و ذخیره‌سازی آن در دامنه‌های گوناگون بوده است. در جهان کسب‌و‌کار، «پایگاه‌داده‌های» (Databases) بسیار بزرگی برای تراکنش‌های تجاری وجود دارند که توسط خرده‌فروشان و یا در «تجارت الکترونیک» (E-commerce) ساخته شده‌اند. از سوی دیگر، همه روزه حجم عظیمی از داده‌های علمی در زمینه‌های گوناگون تولید می‌شوند.

فهرست مطالب این نوشته

از جمله داده‌های علمی می‌توان به پروژه «ژنوم انسان» (Human Genome) اشاره کرد که چندین گیگابایت داده را از کد ژنتیکی انسان تجمیع کرده است. «وب جهان گستر» (World Wide Web) مثال دیگری از منابع داده است که میلیاردها صفحه وب شامل اطلاعات متنی و چند رسانه‌ای را دربرمی‌گیرد. این صفحات توسط میلیون‌ها نفر بازدید می‌شوند. در چنین شرایطی، تحلیل بدنه بزرگ داده‌ها به شکل قابل درک و کاربردی، یک مساله چالش برانگیز است.

«داده‌کاوی» (Data Mining) این مساله را با فراهم کردن روش‌ها و نرم‌افزارهایی برای خودکارسازی تحلیل‌ها و اکتشاف مجموعه داده‌های بزرگ و پیچیده حل می‌کند. پژوهش‌ها در زمینه داده‌کاوی در گستره وسیعی از موضوعات شامل آمار، علوم کامپیوتر، «یادگیری ماشین» (Machine Learning)، «مدیریت پایگاه داده» (Database Management) و «بصری‌سازی داده‌ها» (Data Visualization) دنبال می‌شود. روش‌های داده‌کاوی و یادگیری، در زمینه‌هایی غیر از آمار نیز توسعه داده شده‌اند، که از جمله آن‌ها می‌توان به یادگیری ماشین و «پردازش سیگنال» (signal processing) اشاره کرد.

داده کاوی چیست؟

به مجموعه‌ای از روش‌های قابل اعمال بر پایگاه داده‌های بزرگ و پیچیده به منظور کشف الگوهای پنهان و جالب توجه نهفته در میان داده‌ها، داده‌کاوی گفته می‌شود. روش‌های داده‌کاوی تقریبا همیشه به لحاظ محاسباتی پر هزینه هستند. علم میان‌رشته‌ای داده‌کاوی، پیرامون ابزارها، متدولوژی‌ها و تئوری‌هایی است که برای آشکارسازی الگوهای موجود در داده‌ها مورد استفاده قرار می‌گیرند و گامی اساسی در راستای کشف دانش محسوب می‌شود.

دلایل گوناگونی پیرامون چرایی مبدل شدن داده‌کاوی به چنین حوزه مهمی از مطالعات وجود دارد. برخی از این موارد در ادامه بیان شده‌اند.

Data Mining

۱. رشد انفجاری داده‌ها در گستره وسیعی از زمینه‌ها در صنعت و دانشگاه که توسط موارد زیر پشتیبانی می‌شود:

  • دستگاه‌های ذخیره‌سازی نسبت به گذشته ارزان‌تر و با ظرفیت نامحدود، مانند فضاهای ذخیره‌سازی ابری
  • ارتباطات سریع‌تر با سرعت اتصال بیشتر
  • سیستم‌های مدیریت پایگاه داده و پشتیبانی نرم‌افزاری بهتر

۲. قدرت پردازش کامپیوتری به سرعت در حال افزایش

با چنین حجم بالا و متنوعی از داده‌های موجود، روش‌های داده‌کاوی به استخراج اطلاعات از داده‌ها کمک می‌کنند. «ژیاوی هان» (Jiawei Han)، دانشمند داده و نویسنده کتاب «داده‌کاوی، مفاهیم و روش‌ها» (Data Mining: Concepts and Techniques) در این رابطه می‌گوید:

«... در نتیجه، داده‌های گردآوری شده در مخازن داده به گورهای داده مبدل شده‌اند، ...، شکاف در حال افزایش میان داده و اطلاعات، توسعه سیستماتیک ابزارهای داده‌کاوی را می‌طلبد که می‌توانند گورهای داده را به شمش‌هایی از طلا مبدل کنند.»

روش‌های داده‌کاوی دارای انواع گوناگونی هستند و از رگرسیون گرفته تا روش‌های تشخیص الگوی پیچیده و دارای هزینه محاسباتی بالا که ریشه در علوم کامپیوتر دارند را شامل می‌شوند. هدف اصلی روش‌های یادگیری (داده‌کاوی) انجام پیش‌بینی است، ولی این تنها هدف داده‌کاوی نیست.

پیش از ادامه این مبحث لازم است یادآور شویم که می‌توانید داده کاوی را با استفاده از مجموعه آموزش داده کاوی، مقدماتی تا پیشرفته فرادرس یاد بگیرید.

تاریخچه داده‌کاوی

در سال ۱۹۶۰، کارشناسان آمار از اصطلاحات «صید داده» (Data Fishing) و «لایروبی داده» (Data Dredging) برای ارجاع به فعالیت‌های «تحلیل داده» (Data Analytics) استفاده می‌کردند. اصطلاح «داده‌کاوی» در حدود سال ۱۹۹۰ در جامعه پایگاه‌داده مورد استفاده قرار گرفت و به محبوبیت قابل توجهی دست پیدا کرد. عنوان مناسب‌تر برای فرآیند داده‌کاوی، «کشف دانش از داده» (Knowledge Discovery From Data) است.

در حال حاضر، یادگیری آماری، «تحلیل داده» و «علم داده» (Data Science) از دیگر عباراتی هستند که با معنای مشابه داده‌کاوی مورد استفاده قرار می‌گیرند، حال آنکه گاه تفاوت‌های ظریفی میان این موارد وجود دارد. برای آشنایی با این تفاوت‌ها، مطالعه مطلب «علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها» توصیه می‌شود. همچنین، برای مطالعه همراه با جزئیات بیشتر پیرامون تاریخچه داده‌کاوی، مطلب «داده‌کاوی چیست؟ بخش اول: مبانی» پیشنهاد می‌شود.

داده کاوی

از روش‌های داده‌کاوی در فرآیند طویل پژوهش و توسعه محصول استفاده می‌شود. از همین رو، تکامل داده‌کاوی نیز از هنگامی آغاز شد که داده‌های کسب‌و‌کارها روی کامپیوترها ذخیره شدند. داده‌کاوی به کاربران امکان حرکت در میان داده‌ها را در زمان واقعی می‌دهد. از داده‌کاوی در جامعه کسب‌و‌کار بدین دلیل استفاده می‌شود که از سه فناوری بلوغ یافته استفاده می‌کند، این فناوری‌ها عبارتند از:

  • گردآوری داده انبوه
  • کامپیوترهای چند پردازنده‌ای قدرتمند
  • الگوریتم‌های داده‌کاوی

چرا داده‌کاوی؟

با رشد و افزایش توجهات به داده‌کاوی، پرسش «چرا داده‌کاوی؟» همواره مطرح می‌شود. در پاسخ به این پرسش باید گفت، داده‌کاوی دارای کاربردهای زیادی است. بدین ترتیب، زمینه‌ای جوان و آینده‌دار برای نسل کنونی محسوب می‌شود. این زمینه توانسته توجهات زیادی را به صنایع و جوامع اطلاعاتی جلب کند. با وجود گستره وسیع داده‌ها، نیاز حتمی به تبدیل چنین داده‌هایی به اطلاعات و دانش وجود دارد.

بنابراین، بشر از اطلاعات و دانش برای گستره وسیعی از کاربردها، از تحلیل بازار گرفته تا تشخیص بیماری‌ها، کشف کلاهبرداری و پیش‌بینی قیمت سهام استفاده می‌کند. در مجموع باید گفت، ضر‌ب‌المثل انگلیسی «نیاز، مادر همه ابداعات بشر است»، پاسخی کوتاه و گویا به پرسش مطرح شده است. در ادامه، برخی از استفاده‌های داده‌کاوی مورد بررسی قرار گرفته‌اند.

پیش‌بینی خودکار گرایش‌ها و رفتارها

از داده‌کاوی برای خودکارسازی فرآیندها و انجام پیش‌بینی در پایگاه‌داده‌های بزرگ استفاده می‌شود. پرسش‌هایی که پاسخگویی به آن‌ها نیازمند تحلیل‌های گسترده است، اکنون و با استفاده از تحلیل داده‌ها قابل پاسخگویی هستند. بازاریابی هدفمند مثالی از بازاریابی پیش‌بین است. همچنین، از داده‌کاوی برای ارسال ایمیل‌های تبلیغاتی هدفمند و بهینه استفاده می‌شود.

در واقع، داده‌کاوی به منظور بیشینه‌سازی «بازگشت سرمایه» (Return On Investment) در ارسال ایمیل‌های تبلیغاتی مورد استفاده قرار می‌گیرد. از دیگر مسائل پیش‌بینی می‌توان به پیش‌بینی ورشکستگی، اشاره کرد. شناسایی بخش‌هایی از جامعه که احتمال دارد به یک رویداد واکنش‌های مشابهی نشان دهند نیز از دیگر قابلیت‌های داده‌کاوی به شمار می‌آید.

داده کاوی

کشف خودکار الگوهای پیش‌تر ناشناخته

از ابزارهای داده‌کاوی برای بررسی پایگاه‌های داده استفاده می‌شود. همچنین، برای شناسایی الگوهای از پیش ناشناخته نیز قابل بهره‌برداری است. یک مثال خیلی خوب از کاوش الگوها، تحلیل داده‌های فروش خرده‌فروشی‌ها است. این کار با هدف شناسایی محصولات غیر مرتبطی که معمولا با هم خریداری می‌شوند انجام می‌شود. همچنین، مسائل کاوش الگوی دیگری نیز وجود دارند که از جمله آن‌ها می‌توان به شناسایی تراکنش‌های کلاهبرداری در کارت‌های اعتباری اشاره کرد. در چنین مواردی، الگوهای داده ناشناخته و جدید، می‌توانند خبر از وقوع سرقت اطلاعات کارت اعتباری و دیگر انواع کلاهبرداری بدهند.

انواع منابع داده

در این بخش، انواع منابع داده‌ای که همه روزه حجم انبوهی از داده‌ها را تولید و یا ذخیره می‌کنند، مورد بررسی قرار گرفته‌اند. در همین راستا، مطالعه مطلب «مجموعه داده‌های رایگان و قابل دانلود برای علم داده و یادگیری ماشین» به علاقمندان توصیه می‌شود.

تراکنش‌های کسب‌و‌کار

در کسب‌و‌کارهای کنونی، اغلب تراکنش‌ها تا ابد نگهداری می‌شوند. بسیاری از این تراکنش‌ها دارای زمان هستند و شامل معاملات درون کسب‌و‌کاری مانند خریدها، مبادلات بانکداری، سهام و دیگر موارد هستند.

داده‌های علمی

در سراسر جهان، جوامع گوناگون در حال گردآوری حجم انبوهی از داده‌های علمی هستند. این داده‌های علمی نیاز به تحلیل دارند. این در حالی است که همواره نیاز به ثبت داده‌های جدید بیشتر با سرعت بالاتری وجود دارد. داده‌کاوی در زمینه‌های علمی گوناگون برای کمک به تحلیل داده‌ها و کشف دانش از آن‌ها کمک شایان توجهی می‌کند.

داده‌های شخصی و پزشکی

داده‌ها، از شخصی گرفته تا عمومی و از فردی گرفته تا دولتی را می‌توان با اهداف گوناگونی گردآوری کرد و مورد تحلیل قرار داد. این داده‌ها برای افراد و گروه‌های مختلف مورد نیاز هستند و هنگامی که گردآوری شدند، کشف اطلاعات از آن‌ها می‌تواند پرده از مسائل مهمی بردارد. از جمله داده‌های شخصی، می‌توان به اطلاعات تراکنش‌های بانکی فرد و یا اسناد پزشکی ایشان اشاره کرد. داده‌کاوی در داده‌های پزشکی نقش قابل توجهی در پیشگیری، کشف و حتی درمان بیماری‌ها دارد.

تصاویر و ویدئوهای نظارتی

با کاهش قیمت دوربین‌های عکاسی و فیلمبرداری و وجود دوربین در گوشی‌های هوشمند، در هر لحظه حجم زیادی از داده‌های چندرسانه‌ای تولید می‌شود. از سوی دیگر، حجم زیادی از تصاویر و ویدئوها نیز توسط دوربین‌های نظارتی گردآوری می‌شوند. این داده‌ها برای انواع تحلیل‌های داده قابل بهره‌برداری هستند.

منابع داده

رقابت‌های ورزشی

حجم زیادی از داده‌ها و آمارها پیرامون رقابت‌های ورزشی وجود دارد که قابل گردآوری و تحلیل محسوب می‌شوند. از جمله این موارد می‌توان به اطلاعات بازی و بازیکنان اشاره کرد.

رسانه‌های دیجیتال

دلایل زیادی منجر به انفجار مخازن داده‌های دیجیتال شده است. از جمله این موارد می‌توان به اسکنرهای ارزان، دوربین‌های ویدئویی دسکتاپ و دوربین‌های دیجیتال اشاره کرد. از سوی دیگر، شرکت‌های بزرگی مانند NHL و NBA در حال حاضر کار تبدیل مجموعه‌های خود به داده‌های دیجیتال را آغاز کرده‌اند و انجام چنین کارهایی نیز نیاز به تحلیل حجم انبوه داده‌ها را برجسته‌تر می‌سازد.

 دنیاهای مجازی

سیستم‌های «طراحی به کمک کامپیوتر» (Computer Aided Design) متعددی برای معماران وجود دارند. این سیستم‌ها برای تولید حجم انبوهی از داده‌ها مورد استفاده قرار می‌گیرند. علاوه بر این، می‌توان از داده‌های «مهندسی نرم‌افزار» (Software Engineering) به عنوان منبعی از داده‌ها - همراه با کدهای فراوان برای امور گوناگون - استفاده کرد.

جهان‌های مجازی

امروزه بسیاری از برنامه‌های کاربردی از فضاهای مجازی سه‌بُعدی استفاده می‌کنند. همچنین، این فضاها و اشیایی که در بر می‌گیرند باید با زبان خاصی مانند «زبان مدل‌سازی واقعیت مجازی» (Virtual Reality Modeling Language | VRML) توصیف شوند.

گزارش‌ها و اسناد متنی

ارتباطات در بسیاری از شرکت‌ها بر مبنای گزارش‌ها و اسناد دارای قالب متنی است. این اسناد برای انجام تحلیل‌های آتی قابل نگهداری هستند. از سوی دیگر، حجم انبوهی از داده‌های موجود در وب نیز به صورت داده‌های متنی ساختار نیافته هستند که هر روز بر حجم آن‌ها افزوده می‌شود.

 فرایند داده‌کاوی

داده‌کاوی که با عنوان «کشف دانش از داده» (Knowledge Discovery From Data | KDD) نیز شناخته شده است، فرایند استخراج اطلاعات و دانش از داده‌های موجود در پایگاه‌داده یا انبارداده است.

فرآیند داده‌کاوی شامل چندین گام است. این فرآیند از داده‌های خام آغاز می‌شود و تا شکل‌دهی دانش جدید ادامه دارد. فرآیند بازگشتی داده‌کاوی شامل گام‌های زیر است:

  • «پاک‌سازی داده» (Data Cleaning)
  • «یکپارچه‌سازی داده» (Data Integration)
  • «انتخاب داده» (Data Selection)
  • «تبدیل داده» (Data Transformation)
  • «کاوش داده» (Data Mining)
  • «ارزیابی الگو» (Pattern Evaluation)
  • «ارائه دانش» (Knowledge Representation)فرآیند داده‌کاوی

پاک‌سازی داده

در این فاز «نویز» (نوفه) از مجموعه حذف و تدابیری برای «داده‌های ناموجود» (Missing Values) اندیشیده می‌شود. برای مطالعه بیشتر در این رابطه، مطلب «پاکسازی داده (Data Cleaning) در پایتون با استفاده از NumPy و Pandas — راهنمای جامع» پیشنهاد می‌شود.

یکپارچه‌سازی داده‌ها

در اغلب مسائل داده‌کاوی، داده‌ها از منابع داده گوناگون باید به یکباره مورد تحلیل قرار بگیرند. مثال خوبی از این مورد پایگاه داده‌های شعب مختلف یک فروشگاه زنجیره‌ای در شهرها و کشورهای گوناگون جهان است. برای تحلیل این داده‌ها باید آن‌ها را به صورت یکپارچه در یک «انبار داده» (Data Warehouse) گردآوری کرد، این کار در فاز یکپارچه‌سازی انجام می‌شود.

انتخاب داده

در فاز انتخاب داده، باید داده‌های مرتبط با تحلیل انتخاب، و از مجموعه داده برای انجام تحلیل‌ها بازیابی شوند. در مطلب «انتخاب ویژگی (Feature Selection) در داده‌های ابعاد بالا — خودآموز ساده» به این مساله همراه با جزئیات پرداخته شده است. همچنین، مطالعه «الگوریتم کاهش ابعاد t-SNE با مثال‌های پایتون -- آموزش کاربردی» نیز به علاقمندان پیشنهاد می‌شود.

تبدیل داده

تبدیل داده یک روش تثبیت داده نیز هست. در این فاز، داده‌های انتخاب شده به فرم دیگری تبدیل می‌شوند. این کار به ساده‌تر شدن، بهبود صحت و دقت فرآیند کاوش کمک می‌کند. برخی از روش‌های محبوب و متداول استانداردسازی داده‌ها در مطلب «روش‌های استانداردسازی داده‌ها» بیان شده‌اند. دیگر مطالبی که مطالعه آن‌ها در همین راستا توصیه می‌شود عبارتند از:

داده‌کاوی

در این فاز از روش‌های هوشمندانه برای استخراج الگوهای مهم و جالب توجه از میان داده‌ها استفاده می‌شود. برخی از این روش‌ها در مطالب جداگانه دیگری تشریح شده‌اند که از آن جمله می‌توان به موارد زیر اشاره کرد:

ارزیابی الگو

در این فرآیند، الگوهای حاصل شده در گام قبل، از جنبه‌های گوناگونی شامل دقت، صحت و قابلیت تعمیم و دیگر موارد مورد ارزیابی قرار می‌گیرند. مطالعه مطالب زیر برای فراگیری بهتر پیرامون روش‌های ارزیابی الگو پیشنهاد می‌شود:

ارائه دانش

ارائه دانش فاز نهایی فرآیند داده‌کاوی است. در این فاز، دانش کشف شده به شیوه قابل درک به کاربر ارائه می‌شود. در این گام حیاتی و بسیار مهم، روش‌های بصری‌سازی مورد استفاده قرار می‌گیرند. این کار به کاربران در درک و تفسیر نتایج داده‌کاوی کمک می‌کند. مطالعه مطالب زیر در همین رابطه توصیه می‌شود:

مشکلات داده‌کاوی

در این بخش از راهنمای داده‌کاوی، برخی از مسائل کلی که داده‌کاوی با آن‌ها مواجه است تشریح شده‌اند.

مسائل روش‌شناسی داده‌کاوی

این چالش به روش‌های موجود برای داده‌کاوی و محدودیت‌های آن‌ها مانند تطبیق‌پذیری مربوط است. در واقع، ارائه روش‌هایی که دارای پیچیدگی کم و قابلیت تعمیم به مسائل گوناگون باشند و در عین حال بتوانند با حجم انبوهی از داده‌ها کار کنند از جمله مسائل مربوط به بحث روش‌شناسی در داده‌کاوی است.

چالش‌های داده‌کاوی

مسائل کارایی

روش‌های هوش مصنوعی و آماری زیادی وجود دارند که در داده‌کاوی مورد استفاده قرار می‌گیرند. اغلب این روش‌ها برای مجموعه داده‌های خیلی بزرگ طراحی نشده‌اند و این چالشی است که داده‌کاوی این روزها با آن دست و پنجه نرم می‌کند. زیرا امروزه حجم داده‌ها از ترابایت، پتابایت و اگزابایت نیز عبور کرده است. می‌توان گفت این امر موجب افزایش مسائل مرتبط با مقیاس‌پذیری و کارایی روش‌های داده‌کاوی می‌شود و نیاز به روش‌هایی را ایجاد می‌کند که بتوانند به طور قابل توجهی داده‌های بزرگ را پردازش کنند.

در چنین شرایطی، ممکن است از نمونه‌برداری به جای کل مجموعه‌داده استفاده شود. اگرچه، در این حالت نیز مسائلی مانند کامل بودن و روش انتخاب نمونه‌ها بروز می‌کند. دیگر موضوع در بحث کارایی به‌روزرسانی تدریجی و برنامه‌نویسی موازی است. از موازی‌سازی برای حل مساله اندازه استفاده می‌شود و طی آن اگر مجموعه داده به زیرمجموعه‌هایی تقسیم شود، نتایج بعدا قابل ادغام شدن هستند. به‌روز‌رسانی مداوم برای ادغام نتایج از «کاوش موازی» (Parallel Mining) بسیار حائز اهمیت است. داده‌های جدید بدون نیاز به بازتحلیل کل مجموعه داده در دسترس قرار می‌گیرند.

مسائل منابع داده

مسائل زیادی در رابطه با منابع داده لازم/مورد استفاده برای داده‌کاوی وجود دارد. برخی از این مسائل مانند تنوع داده‌ها کاربردی و بخشی دیگر مسائل فلسفی‌تری مانند مشکل انباشته شدن داده‌ها هستند. واضح است که در حال حاضر حجم زیادی از داده‌ها، بیش از آنکه قابل مدیریت باشند، وجود دارند. از سوی دیگر، بشر همچنان در حال گردآوری داده‌ها حتی با نرخ بالاتری است. گسترش سیستم‌های مدیریت پایگاه داده یکی از عواملی بوده که به رشد گردآوری داده‌ها کمک شایان توجهی کرده است.

ظهور داده‌کاوی قطعا منجر به برداشت داده‌های بیشتری می‌شود. با توجه به مسائل کاربردی مرتبط با منابع داده، پایگاه داده‌های موضوعی ایجاد شده‌اند. بدین ترتیب، نیاز به تمرکز کردن روی انواع داده پیچیده‌تر وجود دارد. انواع گوناگونی از داده‌ها در گستره متنوعی از مخازن ذخیره‌سازی می‌شوند. سخت است که بشر انتظار داشته باشد یک سیستم داده‌کاوی نتایج کاوش خوبی را برای همه داده‌ها و منابع داده کسب کند.

داده‌ها و منابع گوناگون داده ممکن است نیاز به الگوریتم‌ها و متدولوژی‌های متمایزی داشته باشند. در حال حاضر، تمرکز بر پایگاه داده‌های رابطه‌ای و انبارهای داده است. ابزارهای داده‌کاوی نیز طیف گسترده‌ای را برای انواع داده‌ها شامل می‌شوند. علاوه بر این، منابع داده، در سطح ساختاری و معنایی، چالش‌های مهمی را به همراه دارند. این تنها به جامعه پایگاه‌داده مربوط نیست، بلکه به جامعه داده‌کاوی نیز ارتباط دارد.

اصطلاح‌شناسی

در ادامه برخی از مفاهیم و اصطلاحات پر کاربرد در حوزه داده‌کاوی تشریح شده‌اند.

نشانه‌گذاری

ورودی X: X اغلب چندبُعدی است. هر بُعد از X به صورت Xj مشخص شده که به یک ویژگی، یک متغیر (پیش‌بین) مستقل یا یک متغیر (بسته به اینکه پژوهشگر از کدام حوزه مطالعاتی است) اشاره دارد. خروجی Y، متغیر پاسخ یا متغیر وابسته نامیده می‌شود. پاسخ تنها هنگامی در دسترس است که یادگیری نظارت شده باشد.

ماهیت مجموعه داده

ویژگی‌های موجود در مجموعه داده انواع گوناگونی دارند. این انواع به صورت زیر دسته‌بندی شده‌اند.

انواع ویژگی‌ها

اسمی (دسته‌ای)

ویژگی اسمی ویژگی دودویی (بولین)
ترتیبیعددی ویژگی عددی فاصله‌ای ویژگی عددی نسبتی
کمی یا کیفی

«کمی» (Quantitative): اندازه‌گیری‌ها یا شمارش‌هایی که به صورت مقادیر عددی ذخیره شده‌اند، داده‌های کمی هستند. از جمله این موارد می‌توان به درجه حرارت و قد افراد اشاره کرد.

«کیفی» (Qualitative): گروه یا دسته‌ها، برای مثال دسته مدارک تحصیلی (دیپلم، فوق دیپلم، لیسانس، فوق لیسانس و دکترا) یا گروه رنگ‌ها (زرد، قرمز و آبی) از این جمله‌اند.

«ترتیبی» (Ordinal): چنین داده‌هایی دارای یک ترتیب طبیعی هستند. اندازه پیراهن (XL ،L ، M ،S و XXL) و مدارج تحصیلی (دبستان، راهنمایی، دبیرستان، کارشناسی، کارشناسی ارشد و دکترا) از این جمله‌اند.

«اسمی» (Nominal): اسامی دسته‌ها، مانند وضعیت تاهل، جنسیت و رنگ‌ها از انواع داده‌های اسمی هستند.

«عددی» (Numeric): داده‌های عددی خود به دو دسته فاصله‌ای و نسبتی تقسیم می‌شوند. داده‌های فاصله‌ای بر اساس مقیاس واحدهایی با اندازه برابر اندازه‌گیری می‌شوند. مقادیر ویژگی‌های عددی دارای ترتیب هستند و می‌توانند مثبت، صفر و یا منفی باشند. یک داده نسبتی، خصیصه عددی دارای یک صفر مطلق است. اگر اندازه‌ها نسبتی باشند، می‌توان از نسبت مقادیر با یکدیگر سخن گفت. به علاوه، مقادیر قابل مرتب‌سازی شدن هستند و می‌توان تفاضل بین آن‌ها، میانگین، میانه و مُد را محاسبه کرد.

برای مطالعه دقیق‌تر پیرامون چیستی ویژگی، بردار ویژگی و انواع ویژگی‌ها، مطالعه مطلب «انواع ویژگی ها (خصیصه ها) و مفهوم بردار ویژگی در داده کاوی» توصیه می‌شود.

یادگیری نظارت شده در مقایسه با یادگیری نظارت نشده

اگر Y در داده‌های آموزش وجود داشته باشد، روش یادگیری «نظارت شده» (Supervised) است. اگر Y وجود نداشته باشد (یا در صورت وجود از آن چشم‌پوشی شود)، یادگیری «نظارت نشده» (Unsupervised) است. یادگیری نظارت شده بر دو نوع است:

  • رگرسیون: پاسخ Y کمی است.
  • دسته‌بندی: متغیر پاسخ کیفی یا اسمی است.یادگیری نظارت شده و نظارت نشده

رگرسیون

  • Y کمی است یا کیفی؟
  • هنگامی که Y کمی یا اسمی باشد، صرفا یک برچسب است. مجموعه برچسب‌ها را می‌توان به صورت زیر تعیین کرد:

{G ∈ G = {1, 2, ... , K

  • اگر Y کمی است، الگوریتم یادگیری یک مساله رگرسیون است. اگر Y کیفی باشد، الگوریتم یادگیری مساله دسته‌بندی است.

به طور ایده‌آل، یک الگوریتم یادگیری مشخصات زیر را دارد:

  • الگوریتم «برازش» (Fit) مناسبی برای داده‌ها ارائه می‌کند. از آنجا که مدل با استفاده از داده‌های آموزش توسعه داده شده، انتظار می‌رود که به خوبی برای داده‌های آموزش برازش داده شود.
  • الگوریتم تا حد ممکن «مستحکم» (Robust) است. از یک الگوریتم مستحکم انتظار می‌رود که برای داده‌های تست نیز عملکرد خوبی داشته باشد زیرا دارای قدرت پیش‌بینی بالا است.

یک مدل پیش‌بینی خوب با استفاده از داده‌های آموزش توسعه داده شده و باید روی داده‌های تست نیز به خوبی کار کند. چنین چیزی ممکن است به صورت پیش‌فرض درست به نظر برسد، اما این موضوع حقیقت ندارد! هنگام برازش دادن داده آموزش، مدل نباید بیش از اندازه به داده‌ها نزدیک باشد، زیرا در آینده، هنگامی که داده‌های جدید مشاهده شدند، هیچ تضمینی وجود ندارد که آن‌ها یک کپی دقیق از داده‌های آموزش باشند. از این رو، نیاز به مستحکم بودن مدل وجود دارد.

بنابراین، یک مدل ساده‌تر، در مقایسه با یک مدل پیچیده ممکن است گرایش بیشتری به مستحکم بودن داشته باشد. یعنی قدرت پیش‌بینی آن بالاتر باشد. یک مدل پیچیده، ممکن است از الگوی موجود در داده‌ها به طور نزدیکی پیروی کند و بنابراین کارایی آن در داده‌های تست بسیار بد شود. از سوی دیگر، یک مدل ساده داده‌های آموزش را به صورت تهاجمی برازش نمی‌کند. بنابراین، همواره «موازنه‌ای» (trade-off) وجود دارد که از طریق مفاهیمی که در بخش «خطای آموزش در مقابل خطای تست» بیان شده، نشان داده می‌شوند. مطالب زیر جهت مطالعه دقیق‌تر و همراه با جزئیات در زمینه روش‌های یادگیری هستند.

یادگیری نظارت نشده

یادگیری نظارت شده

روش‌های آماری

تحلیل مولفه اساسی (PCA) — راهنمای عملی به همراه کد نویسی در پایتون و R
رگرسیون خطی — مفهوم و محاسبات به زبان ساده
رگرسیون خطی چندگانه (Multiple Linear Regression) برای پایگاه های داده مبتنی گراف — به زبان ساده
رگرسیون غیر خطی در R — به زبان ساده
برازش منحنی (Curve Fitting) — به زبان ساده
رگرسیون کمترین زاویه (LAR Regression) — به زبان ساده
رگرسیون لوجستیک (Logistic Regression) — مفاهیم و کاربردها
رگرسیون خطی با متغیرهای طبقه‌ ای در SPSS — راهنمای گام‌ به‌ گام

خطای آموزش در مقابل خطای تست

خطای آموزش این موضوع را منعکس می‌کند که داده‌ها به خوبی برازش داده شده‌اند یا نه. خطای تست نشان می‌دهد که پیش‌بین در عمل، روی داده‌های جدید کار می‌کند یا خیر. یک مدل با کمترین خطای آموزش الزاما کمترین خطای آزمون را فراهم نمی‌کند.

بایاس در مقابل واریانس

«بایاس» (سوگیری | Bias) اندازه‌ای از این است که مدل چقدر به واقعیت نزدیک شده. اگر یک مدل خطی ارائه شود، هنگامی که رابطه واقعی بین X و Y درجه دوم باشد، مدل ارائه شده دارای سوگیری است. اگر الگوریتم یادگیری مشابهی بر چندین داده آموزش مستقل اعمال شود، تخمین پیش‌بین متفاوتی حاصل خواهد شد. اگر میانگین این پیش‌بین‌ها مشابه مقدار واقعی آمار در نظر گرفته شده باشد، پیش‌بینی بدون سوگیری است. هنگامی که یک مدل شامل پارامترها و روابط پیچیده بیشتر باشد، بایاس به سمت کمتر بودن گرایش دارد.

مدل‌های پیچیده دارای کوک تنظیمی هستند تا مدل را به خوبی تنظیم کنند، اما پیدا کردن موقعیت درست برای کوک‌های بیشتر سخت‌تر است. بایاس بخش سیستماتیک تفاوت میان مدل و حقیقت است. از سوی دیگر، واریانس سنجه‌ای از میزان آن است که پیش‌بین تفاوت‌ها را هنگامی که داده‌های آموزش مختلفی مورد استفاده قرار می‌گیرند تخمین بزند. پیدا کردن توازنی میان بایاس و واریانس هدف توسعه یک مدل پیش‌بین بهینه است، زیرا صحت مدل تحت تاثیر هر دو آن‌ها قرار می‌گیرد.

برازش در مقابل بیش‌برازش

یک مدل «بیش‌برازش» (Overfitting) شده داده‌های آموزش را از نزدیک دنبال می‌کند. این مدل ممکن است سوگیری کمی داشته باشد اما واریانس آن بالا خواهد بود. این نشان می‌دهد که پیش‌بین روی داده‌های آموزش عملکرد خوبی دارد، اما روی داده‌های تست بد کار می‌کند. برای درک بهتر این مبحث بسیار مهم در داده‌کاوی، مطالعه مطلب «بیش برازش (Overfitting)، کم برازش (Underfitting) و برازش مناسب — مفهوم و شناسایی» توصیه می‌شود.

ریسک تجربی در مقابل پیچیدگی مدل

«ریسک تجربی» (Empirical Risk) نرخ خطا بر مبنای داده‌های آموزش است. اگر مدل پیچیده‌تر باشد، گرایش به داشتن خطای تجربی کمتری دارد، اما در عین حال از استحکام کمتری نیز برخوردار است، به عبارت دیگر واریانس بالاتری دارد. برخی از روش‌های دسته‌بندی مانند «ماشین بردار پشتیبان» (Support Vector Machine)، مستقیما بین ریسک تجربی و پیچیدگی مدل موازنه می‌کنند.

نکته: توجه به این نکته لازم است که همه مفاهیم بالا در یک مفهوم واحد خلاصه می‌شوند که «یک الگوریتم یادگیری باید توازن خوبی بین پیچیدگی و استحکام برقرار کند تا به بهترین شکل ممکن روی داده‌های آموزش و نمونه‌های تست عمل کنند».

در ادامه، تصویری بسیار جالب از «عناصر یادگیری آماری» ارائه شده است که در تلاش برای تشریح ایده بالا است. شایان توجه است که نمودار ایستا در تلاش برای ضبط چیزی بسیار پویا است.

عناصر یادگیری آماری

«تحقق» (Truth) در مرکز دایره آبی چیزی است که فرآیند داده‌کاوی تلاش می‌کند به آن برسد. آنچه به پیش‌بینی‌گر ارائه می‌شود یک مجموعه داده نمونه است که «توزیع تجربی» (Empirical Ristribution) دارد و احتمالا در هرجای دایره آبی قرار می‌گیرد. یک مدل بزرگ (پیچیده‌تر) با مدل کوچک‌تر (محدودتر) مقایسه می‌شود. دو دایره زرد نشانگر طیف مدل‌های تخمین زده شده و به دست آمده تحت دو فضای مدل هستند. در فضای مدل بزرگ‌تر، مدل میانگین به دست آمده با مرکز دایره زرد بزرگ نشان داده شده است.

تفاوت بین این مرکز و تحقق، بایاس برای فضای مدل بزرگ‌تر است. به طور مشابه، تفاوت بین تحقق و مرکز دایره زرد کوچک، بایاس برای فضای مدل کوچک‌تر است. فضای مدل کوچک‌تر دارای بایاس بزرگ‌تری است. از سوی دیگر، مدل نتیجه شده از فضای کوچک‌تر نسبت به فضای بزرگ‌تر خیلی متفاوت نیست، از همین رو واریانس کوچک‌تر است. با اینکه فضای مدل بزرگ‌تر به طور میانگین بهتر است (بایاس کوچک‌تر)، در مدل خاص احتمال بیشتری دارد که ضعیف باشد، زیرا واریانس از میانگین بالا است.

طیف یادگیری

از چشم‌انداز تاریخی، دو پایان برای طیف یادگیری وجود دارد. یک پایان در مدل‌های ساده‌ای که بسیار محدود هستند واقع شده است. از سوی دیگر، مدل‌های بسیار پیچیده‌ای وجود دارند که می‌توانند به شدت انعطاف‌پذیر باشند. طی سال‌های متمادی، فعالیت‌های پژوهشی انجام شده در حوزه داده‌کاوی موازنه میان پیچیدگی و انعطاف‌پذیری را بهبود بخشیده‌اند. از یک سو با قاعده‌سازی به مدل‌های پیچیده افزوده شده و از سوی دیگر افزونه مدل برای مدل‌های ساده طراحی شده است.

طیف یادگیری

ماهیت مساله داده‌کاوی

روش‌های کامپیوتری قدرت بی‌سابقه‌ای را به داده‌کاوی بخشیده‌اند، اما در عین حال، شانس آنکه برخی روش‌ها به صورت کورکورانه و بدون توجه به کاربرد آن‌ها در مسائل مورد استفاده قرار بگیرند نیز افزایش داده‌اند. بینش تحلیلی با هیچ نرم‌افزار کاربردی عرضه نمی‌شود؛ یک برنامه کاربردی بینش تحلیلی را افزایش می‌دهد. استفاده چشم بسته از یک نرم‌افزار برای حجم بالایی از رکوردها الزاما بینشی از داده‌ها فراهم نمی‌کند؛ در عوض این امکان وجود دارد که حقایقی نیز از دست بروند.

در ادامه، چشم‌اندازی از روش‌های داده‌کاوی نظارت شده ارائه می‌شود که تمرکز آن‌ها روی انجام پیش‌بینی است. مساله پیش‌بینی، تنها نوع مسائلی که داده‌کاوی می‌تواند به حل آن‌ها بپردازد نیست. داده‌کاوی علمی میان رشته‌ای و شامل روش‌هایی است که با بزرگ شدن و افزایش مقیاس در داده‌های ابعاد بالا، جریان‌های داده سطح بالا، داده‌کاوی توزیع شده، کاوش در تنظیمات شبکه و بسیای از دیگر زمینه‌ها کاربرد دارد.

نمودار زیر چهار جنبه مهم از مدل یادگیری ماشینی را نشان می‌دهد. در یک مساله یادگیری (پیش‌بینی)، یک مجموعه از ویژگی‌های X و پاسخ Y وجود دارد. X معمولا یک بردار است. در یادگیری نظارت شده Y معمولا یک عدد حقیقی است که می‌تواند متغیر کمی یا برچسبی برای متغیرهای دسته‌ای باشد. «پیش‌بین» (Predictor) یک تابع ریاضیاتی F است که X را به Y نگاشت می‌کند.

نمودار دسته‌بندی

چگونه باید تابع F را پیدا کرد؟

رویکردهای مختلفی برای حل این مساله وجود دارد. برای مثال، پژوهشگران در دامنه پزشکی پیش‌بینی‌های خود را بر مبنای تخصص فردی و دانش دامنه انجام می‌دهند. به عبارت دیگر، پزشکان از بیماران خود پیرامون نشانه‌های بیماری سوال می‌کنند و سپس بر اساس تخصص خود بیماری را تشخیص می‌دهند. نوع دیگری از رویکردها کاملا «داده محور» (data-driven) هستند. در این راستا، الگوریتم‌های یادگیری پیش‌بین‌هایی را تولید می‌کنند.

رویکرد در نظر گرفته شده در داده‌کاوی کاملا داده‌محور است. اولین گام در هر فرآیند ساخت مدل درک داده‌ها است که به صورت گرافیکی یا تحلیلی انجام‌پذیر است. هنگامی که داده‌ها پیچیده هستند، ادغام فرآیندهای بصری و تحلیلی بهترین نتیجه را حاصل می‌کند. این گام معمولا «تحلیل داده اکتشافی» (Exploratoy Data Analysis | EDA) نامیده می‌شود. دومین گام ساخت و ارزیابی یک مدل (مجموعه‌ای از مدل‌های کاندید) روی داده‌ها است. یک رویکرد استاندارد دریافت نمونه تصادفی از داده‌ها برای ساخت مدل و استفاده از داده‌ها برای ارزیابی کارایی مدل است.

بخشی از نمونه که برای ساخت مدل مورد استفاده قرار می‌گیرد نمونه آموزش (مجموعه آموزش یا داده‌های آموزش) نامیده می‌شود و بخش دیگر، نمونه تست (مجموعه تست یا داده تست) است. نمونه تست برای توسعه ارتباط بین X و Y و مدل، پارامترها بر مبنای این داده‌ها تخمین زده می‌شوند. نمونه تست تنها هنگامی مورد استفاده قرار می‌گیرد که یک مدل در میان چند مدل کاندید قوی نهایی‌سازی می‌شود. استفاده از نمونه تست در فرآیند ساخت مدل نقش آن در ارزیابی نهایی مدل را منتفی می‌کند.

الگوریتم‌های یادگیری مجموعه داده را اکتشاف کرده و رابطه‌ای بین X و Y کشف می‌کنند. خروجی الگوریتم‌های یادگیری تابعی است که X را به Y نگاشت می‌کنند. به چنین رویکردی «یادگیری نظارت شده» (Supervised Learning) گفته می‌شود. در الگوریتم‌های «یادگیری نظارت نشده» (Unsupervised Learning) پاسخ Y شناخته شده نیست و در توسعه الگوریتم در نظر گرفته نشده است. در ظاهر، ساخت مدل ساده به نظر می‌رسد. هنگامی که داده‌ها موجود باشند، با کمک نرم‌افزار، چندین روش روی داده‌های آموزش اعمال می‌شوند و مدل نهایی پس از بررسی کارایی در داده‌های تست تعیین می‌شود. اگرچه، برای ایجاد یک مدل قابل اعتماد و اطمینان، درک ویژگی‌های داده و اهداف مدل‌سازی حیاتی است. در واقع، حقیقت اغلب پیچیده است و فرموله‌سازی یک مساله عملی به عنوان یک مساله داده‌کاوی ممکن است چالشی اساسی باشد.

گاهی، صرفا داده‌های خام برای تحلیل وجود دارند. در شرایط دیگر پژوهشگران دارای آزادی برای گردآوری داده‌ها هستند. گردآوری داده‌های مرتبط کاری هزنیه‌بر و نیازمند دانش دامنه است. بین داده‌های خام و ساخت مدل، یک گام ساده‌سازی داده‌ها وجود دارد که با عنوان «کاهش ابعاد» (Dimensionality Reduction) نامیده می‌شود. اغلب اوقات، داده‌های خام به سادگی مدیریت نمی‌شوند و لایه‌هایی از اطلاعات پنهان وجود دارد که باید پیش از ارسال به الگوریتم یادگیری آشکار شوند.

مزایا و معایب داده‌کاوی

داده‌کاوی دارای مزایا و معایب متعددی است. برخی از این موارد در ادامه بیان شده‌اند.

مزایای داده‌کاوی

  • برای پیدا کردن کلاهبرداری‌های احتمالی از داده‌کاوی در بانک‌ها و موسسات مالی استفاده می‌شود. این کار بر پایه تراکنش‌ها، رفتار کاربر و الگوهای داده‌ها انجام می‌شود.
  • به تبلیغ‌کنندگان کمک می‌کند تا تبلیغات درستی را در اینترنت قرار دهند. این کار در صفحات وب و برپایه الگوریتم‌های یادگیری ماشین انجام می‌شود. بدین شکل داده‌کاوی هم به خریداران و هم فروشندگان محصولات و خدمات سود می‌رساند.
  •  فروشگاه‌های خرده‌فروشی و مواد غذایی از داده‌کاوی برای چینش قفسه‌های فروشگاهی و تحلیل سبد خرید مشتریان خود استفاده می‌کنند. بدین شکل داده‌کاوی به افزایش درآمد آن‌ها کمک می‌کند.
  • از داده‌کاوی در زمینه‌های گوناگونی از جمله «بیوانفورماتیک» (bio-informatic)، پزشکی و ژنتیک با اهداف گوناگون شامل پیشگیری، تشخیص و درمان بیماری‌ها استفاده می‌شود.
  • داده‌کاوی توسط سازمان‌های قانونی برای شناسایی مظنون‌های جنایی مورد استفاده قرار می‌گیرند.

معایب داده‌کاوی

  • روش‌های داده‌کاوی ۱۰۰٪ صحیح نیستند. بنابراین ممکن است در برخی شرایط عواقب بسیار بدی را در پی داشته باشند.
  • کار با برخی سیستم‌ها و روش‌های داده‌کاوی دشوار و نیازمند دانش قابل توجهی است.
  • برخی از مسائل داده‌کاوی حریم خصوصی و حتی امنیت کاربر را تحت تاثیر قرار می‌دهند.

مزایا و معایب داده‌کاوی

در مجموع می‌توان تاثیرات مثبت و منفی زیر را برای داده‌کاوی بیان کرد.

تاثیرات مثبت

  • پیش‌بینی گرایش‌های آینده
  • کمک در تصمیم‌گیری
  • بهبود درآمد سازمان‌ها و کاهش هزینه‌های آن‌ها
  • تحلیل سبد خرید
  • تشخیص کلاهبرداری

اثرات منفی

  • حریم خصوصی/امنیت کاربر
  • حجم غافلگیرکننده داده‌ها
  • هزینه بالا در گام پیاده‌سازی
  • استفاده‌های احتمالی از اطلاعات
  • عدم صحت احتمالی داده‌ها

کاربردهای داده‌کاوی

از آنجا که داده‌ها اغلب بسیار ارزان و روش‌های گردآوری داده تقریبا به طور کامل خودکارسازی شده‌اند، در بسیاری از زمینه‌ها، مانند کسب‌و‌کار، موفقیت بستگی به استفاده موثر و هوشمندانه از داده‌های گردآوری شده دارد. در همین راستا باید گفت که تلاش ها در حوزه داده‌کاوی در زمینه‌های گوناگونی در حال وقوع است.

مثال‌هایی که در ادامه می‌آید، تنها نشانگر برخی از حوزه‌های کاربرد جالب داده‌کاوی (+) است. هر چه ارتباطات بیشتری میان رشته‌های گوناگون به وقوع بپیوندد، دامنه کاربردها تکامل یافته و کاربردهای جدیدی ظهور می‌کنند. برخی از کاربردهای داده‌کاوی در ادامه بیان و برای چندی از آن‌ها توضیحاتی ارائه شده است.

  • تجارت الکترونیک
  • خودروهای خودران
  • خطرات درمان‌های جدید
  • پژوهش‌های فضایی
  • تشخیص کلاهبرداری
  • تحلیل تجارت سهام
  • پیش‌بینی کسب‌و‌کار
  • شبکه‌های اجتماعی
  • تحلیل مشتریان

کسب‌و‌کار

  • خرده‌فروشانی مانند «والمارت» (Walmart) اطلاعات را برای کمپین‌های تبلیغاتی، پیش‌بینی آب‌و‌هوا، پیش‌بینی فروش و متعاقبا پیش‌بینی افزایش سهام استفاده می‌کنند.
  • شرکت‌های کارت اعتباری رکوردهای تراکنش‌ها را برای کشف استفاده کلاهبردارانه از این کارت‌ها بر اساس الگوری خرید مصرف کنندگان استفاده می‌کنند و حتی در صورت تغییر شدید الگوری خرید کاربر می‌توانند دسترسی مصرف‌کننده را به کارت قطع کنند. (این کار به منظور حفظ امنیت کاربر اتفاق می‌افتد و در صورتی که محرز شود الگوی خرید مربوط به دارنده اصلی کارت است، مشکل عدم دسترسی حل خواهد شد.)

کاربردهای داده‌کاوی

پژوهش‌های ژنوم

  • پروژه ژنوم انسان شعله‌های علم داده را بالا برده و داده را برای خدمت به نوع بشر و در راستای توسعه داروهای جدید و ریشه‌کنی بیماری‌ها به کار گرفته است. از این‌رو نیاز به تشخیص الگو در داده‌ها وجود دارد که در حوزه علم «بیوانفورماتیک» (bioinformatic) انجام می‌شود.
  • دانشمندان از داده‌های «ریزآرایه» (Microarray) برای بررسی بیان ژن استفاده می‌کنند و روش‌های پیچیده تحلیل داده را برای محاسبه نویز زمینه‌ای و نرمال‌سازی داده‌ها به کار می‌گیرند.

پژوهش‌های ژنوم

بازیابی اطلاعات

  • ترابایت‌ها داده روی اینترنت انباشته شده است. از جمله این داده‌ها می‌توان به داده‌های تولید شده در «فیس‌بوک» (Facebook)، «توییتر» (Twitter)، «اینستاگرام» (Instagrams) و دیگر شبکه‌های اجتماعی اشاره کرد. این مخزن عظیم با اهداف گوناگونی، از تغییر و کنترل افکار عمومی جهت رای دادن به نامزد خاصی در انتخابات (استراتژی انتخاباتی) گرفته تا ارزیابی کارایی یک محصول (استراتژی بازاریابی و فروش) قابل کاوش هستند.
  • دیگر جنبه رسانه‌های اجتماعی وجود اطلاعات چند رسانه‌ای شامل داده‌های بصری در عین وجود داده‌های صوتی و دیگر انواع داده است. باید توجه کرد که کاوش داده‌های غیر عددی و الفبایی کار ساده‌ای نیست.

سیستم‌های ارتباطی

«بازشناسی گفتار» حوزه‌ای است که در آن روش‌های مهم «بازشناسی الگو» (Pattern Recognition) توسعه یافته‌اند و به دیگر دامنه‌های کاربرد انتقال داده شده‌اند. تحلیل تصویر دیگر حوزه مهم از کاربردهای داده‌کاوی است و روش‌های «بازشناسی چهره» (Facial recognition) نوعی تمهید امنیتی محسوب می‌شوند.

اگر نوشته بالا برای شما مفید بوده، آموزش‌های زیر نیز به شما پیشنهاد می‌شود:

^^

بر اساس رای ۱۰۶ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
Eberly College of Sciencedata-flair
۱۳ دیدگاه برای «داده کاوی (Data Mining) — از صفر تا صد»

سلام وقت بخیر
سپاس از زحمات بی شائبه شما
میشه سوال من رو پاسخ دهید
اگر به شما گفته شود که نتیجه دسته بندی درخت شما برای مثالهای فوق اشتباه است روشی برای تصحیح درخت بیان کنید که بدون نیاز به ساخت مجدد درخت قادر به دسته بندی صحیح نمونه های آموزشی و مثالهای فوق باشد.

از زحمات شما برای مطالب عالی و کاربردی سپاسگزارم

سلام با تشکر از اطلاعات خوبتون
ارتیاط بین داده کاوی و کاهش ابعاد چیه؟

سلام روزتون به خیر. من برای مقایسه روش پیشنهادی خودم با یکی از روشهای موجود داده کاوی نیاز به یک متخصص که تجربه کار عملی با یک یا چند روش داده کاوی دارم. ممنون میشم اگر کسی هست معرفی بفرمایید

سلام.من تعداد 100 تا ID اینستا دارم می خوام نودهای اصلی یا نودهای مهم را از طریق داده کاوی پیدا کنم.نمی دونم با چیکار کنم و از کجا شروع کنم ممنون میشم راهنمایی کنید.

با سلام متاسفانه در این حوزه بخش اصلی که همان داده و اطلاعات است مغفول مانده است در حوزه انواع تکنولوژی های داده مانند DATA PROFILING و DATA MINING اولین مرحله DATA STANDARDIZATION است که در حوزه مدیریت داده های اصلی MASTER DATA MANAGEMENT قرار می گیرد این حوزه در مورد خود هسته داده و اطلاعات بحث می کند و حوزه سمانیک وب نیز مشتق از همین تکنولوژی داده است امروزه با تولید انبوه داده ها جستجو و تحلیل در زباله های دیجیتالی انجام می گردد. در این بخش کیفیت و تضمین کیفیت داده نقش اساسی بازی می کند که امروزه استانداردهای ایزو ۸۰۰۰ با عنوان استانداردهای تضمین کیفیت داده برای همین امر توسعه پیدا کرده است. متاسفانه تمام تحلیل گران در حوزه داده و اطلاعات تمام هم و غم خود را به تحلیل های آماری، نرم افزاری و بانک های اطلاعاتی معطوف کرده اند و خود داده و اطلاعات مظلوم واقع شده است

جالب بود متشکرم

خوب است

بسیار مفید و کاربردی بود
خیلی ممنونم

خیلی خوب بود
ممنونم

سلام
من دانشجوی دکتری رشته آمار هستم و در پی پیدا کردن مطالبی راجع به این موضوع هستم.
سایت و مطالبی فوق العاده ای دارین.
خیلییی ممنونم از این بابت که این اطلاعات رو به صورت رایگان در اختیار علاقمندان قرار دادین.
امیدوارم که روزی شاهد موفقیت های شما باشیم.

جالب بود متشکرم

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *