تنسورفلو (TensorFlow) – از صفر تا صد


«تنسورفلو» (TensorFlow)، یک کتابخانه رایگان و «متنباز» (Open Source) برای «برنامهنویسی جریان داده» ( Dataflow Programming) و «برنامهنویسی متمایزگر» (Differentiable Programming)، جهت انجام طیف وسیعی از وظایف است. تنسورفلو، کتابخانهای برای «ریاضیات نمادین» (Symbolic Math) محسوب میشود و کاربردهای گوناگونی در «یادگیری ماشین» (Machine Learning) دارد که از آن جمله میتوان به پیادهسازی «شبکههای عصبی» (Neural Networks) اشاره کرد. این کتابخانه توسط تیم «گوگل برین» (Google Brain)، برای مصارف داخلی گوگل توسعه داده شده بود؛ ولی در نهم نوامبر سال ۲۰۱۵ با گواهینامه «آپاچی ۲.۰ متنباز» منتشر شد. در حال حاضر، کتابخانه تنسورفلو، در گوگل هم برای پروژههای تحقیقاتی و هم پروژههای عملیاتی مورد استفاده قرار میگیرد.
تنسورفلو
نسخه ۱.۰.۰ تنسورفلو، یازدهم فوریه سال ۲۰۱۷ منتشر شد. با وجود آنکه «پیادهسازی مرجع» (Reference Implementation) این کتابخانه در «دستگاههای مجرد« (Single Devices) اجرا میشد، این نسخه قابل اجرا روی چندین CPU و GPU (با افزونههای اختیاری CUDA و SYCL برای انجام پردازشهای همه منظوره روی واحد پردازنده گرافیکی) بود. کتابخانه تنسورفلو برای سیستمعاملهای ۶۴ بیتی لینوکس، ویندوز، مکاواس و پلتفرمهای موبایل مانند اندروید و iOS موجود است.
این کتابخانه دارای معماری انعطافپذیری است که امکان توسعه آسان آن را برای پلتفرمهای گوناگون (GPU ،CPU و TPU)، و از دسکتاپ گرفته تا خوشهای از سرورها، موبایلها و دستگاههای جدید و لبه علم، فراهم میکند. محاسبات تنسورفلو به صورت «گرافهای جریان داده حالتمند» (Stateful Dataflow Graphs) بیان میشود. نام تنسورفلو از عملیاتی گرفته شده است که شبکههای عصبی روی آرایههای داده چندبعدی که از آنها با عنوان تانسور یاد میشود، انجام میدهند. در کنفرانس گوگل I/O که در ژوئن ۲۰۱۸ برگزار شد، «جف دین» (Jeff Dean) بیان کرد که ۱۵۰۰ مخزن در «گیتهاب» (GitHub)، از تنسورفلو نام بردهاند (آن را منشن کردهاند) که تنها پنج مورد از آنها توسط گوگل بوده است.
پیش از ادامه این مبحث لازم است یادآور شویم که میتوانید TensorFlow را با استفاده از مجموعه آموزش تنسورفلو TensorFlow، مقدماتی تا پیشرفته فرادرس یاد بگیرید.
واحد پردازش تانسور (TPU)
در می ۲۰۱۶، گوگل از «واحد پردازش تانسور» (Tensor Processing Unit | TPU) خود پردهبرداری کرد که یک «مدار مجتمع با کاربرد خاص» (Application-Specific Integrated Circuit) (یک تراشه کامپیوتری) است. این تراشه، برای کاربردهای یادگیری ماشین و تنسورفلو طراحی شده بود.
TPU یک «شتابدهنده هوش مصنوعی» (AI accelerator) قابل برنامهریزی است که برای فراهم کردن «توان عملیاتی» (Throughput) بالا برای «محاسبات دقت پایین» (Low-Precision Arithmetic) (برای مثال ۸ بیتی) طراحی شده است؛ این شتابدهنده، امکان ارائه مرتبه بزرگی بهتر بهینه شده «توان به ازای وات» (Performance Per Watt) را برای یادگیری ماشین میدهد.
در می ۲۰۱۷، گوگل انتشار نسل دوم TPUها را اعلام کرد که برای «موتور محاسبه گوگل» (Google Compute Engine) ارائه شده بودند. TPUهای نسل دوم، کارایی تا ۱۸۰ «ترافلاپس» (Teraflops) را فراهم میکردند و هنگامی که در خوشههای ۶۴ TPUیی قرار میگرفتند، تا ۱۱.۵ «پتافلاپس» (petaflops) کارایی را رقم میزدند. در فوریه ۲۰۱۸، گوگل اعلام کرد که در حال ساخت نسخه TPU برای «پلتفرم گوگل کلود» (Google Cloud Platform) هستند. در جولای ۲۰۱۸، Edge TPU منتشر شد. Edge TPU، یک تراشه «ایسیک» (ASIC) ساخته شده برای هدف خاص است که برای اجرا روی مدلهای یادگیری ماشین TensorFlow Lite در دستگاههای محاسباتی کوچک مانند گوشیهای هوشمند کوچک طراحی شده است؛ این موضوع با عنوان «رایانش لبهای» (Edge Computing) شناخته شده است.
تنسورفلو لایت
در می ۲۰۱۷، گوگل یک «پشته نرمافزاری» (Software Stack) با عنوان «تنسورفلو لایت» (TensorFlow Lite) را به طور ویژه برای توسعه موبایل معرفی کرد. در ژوئن ۲۰۱۹، تیم تنسورفلو یک نسخه ویژه توسعهدهندگان از موتور استنتاج GPU موبایل OpenGL ES 3.1 Compute Shaders را روی دستگاههای اندرویدی و Metal Compute Shaders را روی دستگاههای iOS منتشر کرد.
«پیکسل ویژوال کور» (PVC)
در اکتبر ۲۰۱۷، «گوگل پیکسل ۲» (Google Pixel 2) منتشر شد که دارای ویژگی «پیکسل ویژوال کور» (Pixel Visual Core | PVC) است که یک «واحد پردازش تصویر» (Image Processing Unit | IPU)، «واحد پردازش بینایی» (Vision Processing Unit | VPU) و «پردازنده هوش مصنوعی» (AI Processor) برای دستگاههای موبایل به شمار میآید. PVC از تنسورفلو برای یادگیری ماشین (و «زبان برنامهنویسی» (Halide ) برای پردازش تصویر) پشتیبانی میکند.
کاربردها
گوگل به طور رسمی الگوریتم «رنکبرین» (RankBrain) را ۲۶ اکتبر ۲۰۱۵ منتشر کرد که توسط تنسورفلو حمایت میشد. همچنین، «کلبریتوری» (Colaboratory | Colab) که یک «محیط نوتبوک ژوپیتر تنسورفلو» (TensorFlow Jupyter Notebook Environment) است را معرفی کرد که برای استفاده از آن، نیازی به نصب نیست.
این محیط روی «ابر» (Cloud) اجرا میشود و نوتبوکهای خود را روی گوگل درایو ذخیره میکند. با وجود آنکه «کُلَب» (Colaboratory) بخشی از پروژه ژوپیتر است، اما توسعه آن توسط گوگل انجام میشود. از سپتامبر ۲۰۱۸، کلب فقط از کرنلهای پایتون ۲ و پایتون ۳ پشتیبانی میکند و دیگر کرنلهای ژوپیتر، یعنی «جولیا» (Julia) و «R» را پشتیبانی نمیکند.
ویژگیها
کتابخانه تنسورفلو دارای «رابطهای برنامهنویسی کاربردی» (Application programming interface | API) پایدار برای «زبان برنامهنویسی پایتون» (Python Programming Language) و زبان C و همچنین، رابطهای فاقد تضمین «سازگاری عقبرو» (backward compatible) رابط برنامهنویسی کاربردی برای ++C، «گو» (Go)، «جاوا» (Java)، «جاوا اسکریپت» (JavaScript) و «سوئیفت» (Swift) است.
همچنین، دارای «بستههای شخص ثالث» (Third Party Packages) برای «سیشارپ» (#C)، «هسکل» (Haskell)، «جولیا» (Julia)، «آر» (R)، «اسکالا» (Scala)، «راست» (Rust)، «اکمل» (OCaml) و «کریستال» (Crystal) است.
برنامههای کاربردی
برنامههای کاربردی متعددی از تنسورفلو قدرت گرفتهاند که از این میان میتوان به نرمافزارهای توضیحات نویسی خوکار برای تصاویر، مانند «دیپدریم» (DeepDream) اشاره کرد. الگوریتم مبتنی بر یادگیری ماشین موتور جستجو با عنوان رنک برین (RankBrain) نیز مثال دیگری است که تعداد قابل توجهی از کوئریهای جستجو، جایگزینی و تکمیل نتایج جستجوی مبتنی بر الگوریتمهای ایستای سنتی را فراهم میکند.
تنسورفلو ۲.۰
«تنسورفلو دِو سامیت» (TensorFlow Dev Summit) گردهمایی است که هر سال فعالان حوزه یادگیری ماشین را از سراسر جهان به مدت دو روز گردهم میآورد. در این رویداد، شرکتکنندگان به گفتگوهای فنی سطح بالا، ارائه دموها و گفتگو با تیم و جامعه تنسورفلو میپردازند.
در رویداد سال ۲۰۱۹، گوگل نسخه آلفا از تنسورفلو ۲.۰ را معرفی کرد. نسخه جدید با تمرکز بر افزایش بهرهوری توسعهدهندگان، سادگی و سهولت استفاده طراحی شده است. تغییراتی در تنسورفلو ۲.۰ به وقوع پیوسته که موجب افزایش بهرهوری کاربران آن میشود. همچنین، تغییرات متعددی در API آن انجام شده که از آن جمله میتوان به مرتبسازی مجدد آرگومانها، حذف APIهای زائد، تغییر نام سمبلها و تغییر مقادیر پیشفرض برای پارامترها اشاره کرد. در ادامه برخی از مهمترین تغییرات به وقوع پیوسته در تنسورفلو ۲.۰ بیان میشوند.
نصب تنسورفلو ۲.۰ آلفا
توصیه میشود که اگر کاربران قصد نصب این نسخه را روی کامپیوتر محلی خود برای ساخت یک محیط جدای پایتون/conda دارند، آن را فعال کرده و با وارد کردن و اجرای دستورات زیر در ترمینال، نصب را انجام دهند.
برای اطمینان حاصل کردن از اینکه تنسورفلو ۲.۰ با استفاده از دستورات بالا به درستی نصب شده است، دستور زیر را میتوان در ترمینال اجرا کرد.
گزینه دیگر برای حصول اطمینان از صحت نصب، باز کردن «ژوپیتر نوتبوک» (Jupyter Notebook) و اجرای دستورات زیر است.
همچنین، میتوان از Google Colaboratory [+] استفاده کرد که امکان راهاندازی نوتبوکهای پایتون را در محیط ابری به راحتی فراهم میکند. همچنین، دسترسی رایگان به GPU را به مدت ۱۲ ساعت برای یک بار ارائه میدهد. Colab به سرعت توانسته جایگاه خوبی را در میان کارشناسان یادگیری ماشین به عنوان یک پلتفرم ابری یادگیری ماشین کسب کند. در صورتی که کاربر تنسورفلو ۲.۰ نسخه GPU را روی Colab نصب کرده، مجددا باید بررسی کند که زمان اجرا «GPU» را به عنوان شتابدهنده زمان اجرا دارد. این کار با رفتن به مسیر Edit>Notebook settings امکانپذیر است.
هنگام نصب TF 2.0 روی Colab، این امکان وجود دارد که از کاربر خواسته شود زمان اجرا (runtime) را بازنشانی کند. بنابراین، باید مراحل را ادامه و بازنشانی را حتما انجام دهد.
API تمیزتر
با توجه به آنکه «قوانین نامگذاری» (Naming Convention) خاص متعددی برای تنسورفلو وجود دارد، در بسیاری از موارد، کاربران هنگام استفاده از تنسورفلو نمیدانند که دقیقا از کدام API استفاده کنند. این مساله معمولا به دلایل زیر به وقوع میپیوندد.
- بستههای جدید زیادی اضافه میشوند.
- APIهای منسوخ شده زیادی وجود دارند.
- تغییر نامهای متعدد APIهای موجود
TF 2.0 با توجه به اینکه بسیاری از APIها از آن رفتهاند و یا انتقال داده شدهاند، مشکل بیان شده در بالا را حل میکند. برخی از تغییرات کلیدی که میتوان به آنها اشاره کرد، حذف tf.flags ،tf.app و tf.logging به سود absl-py متنباز، بازخانهدهی (Rehoming) پروژههایی که در tf.contrib قرار داشتند و پاکسازی فضای نام اصلی *.tf با انتقال توابع کمتر استفاده شده در زیربستههایی مانند tf.math است. برخی از APIها با معادل ۲.۰ خود جایگزین شدهاند که از این جمله نیز میتوان به tf.keras.metrics ، tf.summary و tf.keras.optimizers اشاره کرد.
اجرای مشتاقانه
«اجرای مشتاقانه» (Eager Execution) یک رابط ضروری، تعریف شده ضمن اجرا است که در آن، پردازشها بلافاصله پس از آنکه توسط پایتون فراخوانی شدند، اجرا میشوند. به عقیده برخی از توسعهدهندگانی که از تنسورفلو استفاده میکنند، این مهمترین ویژگی تنسورفلو ۲.۰ محسوب میشود.
این قابلیت، امکان ساخت سریع نمونه اولیه را با فراخوانی حالت «Eager Execution» به عنوان حالت پیشفرض فراهم میکند. اما پیش از آنکه پیشتر رفته و بیشتر درباره چیستی حالت «Eager Execution» صحبت شود، ابتدا مسالهای که پیرامون «گراف محاسباتی استاتیک» (Static Computation Graph) موجود در TF 1.0 وجود داشت، مورد بررسی قرار میگیرد. هنگام اجرای مثال بالا در TF 1.0، گراف محاسباتی استاتیک زیر، ساخته میشود.
- با یک الگوی برنامهنویسی رایج مدل شده است، که جریان داده (Dataflow) نام دارد.
- در گراف Dataflow، «گرهها» (Nodes) واحدهای محاسباتی را نشان میدهند و «یالها» (Edges)، دادههای مصرف و یا تولید شده در محاسبات را نشان میدهند.
برای مثال، در گراف تنسورفلو، عملیات tf.square مرتبط به یک گره مجرد با دو یال ورودی است (ماتریس مشابهی دو برابر شده است) و یک یال خروجی (نتیجه توان دو). اما پرسشی که در این وهله مطرح میشود این است که چرا TF 1.0 از Dataflow استفاده میکند. در پاسخ به این سوال، میتوان موارد زیر را ذکر کرد.
- موازیسازی (Parallelism ): اجرای آسانتر پردازشها به صورت موازی
- اجرای توزیع شده (Distributed Execution): بخشبندی راحتتر گراف
- همگردانی (Compilation ): کامپایلر XLA کد سریعتری را با استفاده از ساختار گراف ایجاد میکند.
- قابلیت حمل (Portability ): گراف مستقل از زبان
میتوان گفت که روال اجرای TF 1.0 در گامهای زیر خلاصه میشود:
- ساخت روال ورود داده
- ساخت یک مدل؛ TF 1.0 گراف محاسباتی استاتیک را میسازد.
- خوراندن این دادهها از طریق این گراف محاسباتی، محاسبه زیان با استفاده از «تابع زیان» (Loss Function) و به روز رسانی وزنها (متغیرها) با «بازگشت به عقب» (Backpropagating) خطا
- توقف هنگامی که به چند معیار توقف میرسد.
اکنون، میتوان به مزایای افزودن قابلیت «حالت اجرای مشتاقانه» (Eager Execution Mode) به تنسورفلو ۲.۰ پرداخت.
حالت اجرای مشتاقانه چیست؟ در پاسخ به این سوال باید به موارد زیر اشاره کرد.
- یک پارادایم برنامهنویسی ضروری محسوب میشود که پردازشها را فورا ارزیابی میکند.
- عملیاتها، مقادیر گسسته را به جای ساخت یک گراف محاسباتی که بعدا اجرا میشود، باز میگردانند.
- هیچ سشن (Session) یا Placeholder نیست؛ در عوض، دادهها به توابع به عنوان آرگومان پاس داده میشوند.
در واقع، TF 2.0 چیزی را میسازد که از آن با عنوان «گراف محاسبات پویا» (Dynamic Computation Graph) یاد میشود و این روش، حال و هوای پایتونی بیشتری دارد و بیشتر در مسیری قرار دارد که پایتون ساخته شده است. بنابراین، «اشکالزدایی» (Debug | دیباگ) کردن آن نیز آسانتر و خواندن کد نیز کوتاهتر میشود؛ همین یک مورد به تنهایی میتواند ویژگی و تحول بسیار مهمی برای TF 2.0 به شمار بیاید. «پایتورچ» (PyTorch) در حال حاضر این کار را انجام میدهد؛ در حقیقت، Chainer این کار را حدود سه سال پیش انجام میداد، اما حالا این یک مفهوم محلی در تنسورفلو است که درک کارها را سادهتر میکند. اجرایی دقیقا مشابه بالا، خروجی پایین را به همراه دارد که بسیار مفید است.
خروجی دقیقا چیزی است که کاربر نیاز دارد، بدون هرگونه خطایی. در حقیقت اگر کاربر تلاش کند که یک سشن را اجرا کند، با خطا مواجه میشود، چون دیگر سشنی وجود ندارد. بنابراین، مفهوم «اول ساخت گراف و سپس اجرای بخشی از گراف» با استفاده از ()tf.Session.run، در تنسورفلوی ۲.۰ منسوخ شده است.
به بیان ساده، تنسورفلوی ۲ دارای توابع است و سشن ندارد. اکنون کاربر میتواند کد گراف را با استفاده از «نحو» (Syntax) طبیعی پایتون بنویسد، در حالیکه قادر به نوشتن کدی با استایل مشتاقانه (Eager Style) به شیوهای مختصر و اجرای آن به عنوان یک گراف تنسورفلو با استفاده از tf.function است.
اشکالزدایی آسانتر
بدون شک، «اشکالزدایی» (Debugging) در تنسورفلو تاکنون خیلی سخت بوده است. ساعتهای زمان زیادی زمان میبرد تا شرایطی مانند آنچه در تصویر زیر آمده، اشکالزدایی شود.
Z به عنوان nan ارزیابی میشود و نمیتوان دید که مساله مربوط به Y بوده است. حتی اگر y پرینت شود، باز هم نمیتوان فهمید که مشکل اینجا است، زیرا Y تاکنون محاسبه نشده؛ در واقع، منتظر ساخت گراف است. بنابراین، این یک ویژگی مهم دیگر به حساب میآید که به تنسورفلوی ۲.۰ اضافه شده است.
در اینجا میتوان به سرعت Y را چاپ کرد و تشخیص داد مشکل از کجا بوده است؛ این امر فرایند اشکالزدایی را آسانتر میسازد (نیازی به صبر کردن برای اجرای tf.session و سپس، ارزیابی Y نیست).
Verbose کمتر
Verbose مفهومی عمومی در برنامهنویسی است که به تولید حجم زیادی از لوگهای خروجی اشاره دارد. در واقع، می توان از برنامه درخواست کرد که «همه چیز را درباره کاری که در کل مدت زمان انجام میدهد بگوید».
TF 1.0 دارای مفاهیم زیادی مانند متغیرها، پلیسهولدرها، servables، «تنسوربورد» (tensorboard)، سشن، گراف محاسباتی، مقادیر هایپرپارامترها (Hyperparameter) و قواعد قالببندی است که کاربر باید باید کلیه آنها را حتی پیش از آغاز صحبت پیرامون نظریه «یادگیری عمیق» (Deep Learning) بیاموزد (منحنی یادگیری بالا). در ادامه، میتوان مثالی از verbosity را مشاهده کرد (مثالی از یک «شبکه مولد تخاصمی پیچشی عمیق» (Deep Convolutional Generative Adversarial Network)).
در کد بالا، اتفاقات زیادی میافتد که دنبال کردن آن میتواند برای افراد تازهکار دشوار باشد؛ زیرا قواعد نامگذاری بسیار متنوعی ویژه تنسورفلو وجود دارد که باید پیش از استفاده، آنها را شناخت. هدف Tf 2.o سادهسازی این فرایند با پیادهسازی تغییرات زیر است.
- tf.keras اکنون API سطح بالای رسمی است.
- آموزش توزیع شده آسان است (یک خط کد برای انجام این کار کافی است).
- APIهای منسوخ شده، حذف شدهاند.
کد بالا، مثالی از آموزش یک مدل در Collab به حساب میآید که فوقالعاده عالی و کوتاه است و تنها چیزی است که باید در تنسورفلو «وارد» (Import) کرد. «کراس» (Keras) به طور جداگانه ایمپورت نشده است، زیرا اکنون به صورت توکار در TF 2.0 وجود دارد. بنابراین، با استفاده از TF 2.0 میتوان یک شبکه عصبی را تنها با چند خط کد با بهرهگیری از API متوالی کراس ساخت.
سازگاری عقبرو با TF 1.0
کد TF 1.0 به سادگی، با اجرای دستور زیر میتواند به 2.۰ تبدیل شود.
بنابراین، با اجرای دستور بالا، TF به طور خودکار کد کاربر را به سادگی به قالبی تبدیل میکند که توسط تنسورفلوی ۲.۰ قابل اجرا باشد.
Serving در تنسورفلو
TF 2.0 بهبودهای قابل توجهی روی TF serving ایجاد کرده است که یکی از قدرتمندترین ابزارها در کل فرایند یادگیری ماشین محسوب میشود.
احتمالا نیاز به یک مطلب جامع و جداگانه برای پوشش دادن همه مباحث مربوط به TensorFlow Serving است. ولی، در ادامه برخی از مهمترین ویژگیها در این رابطه به طور خلاصه بیان شدهاند.
پرسشی که در این وهله مطرح میشود این است که TensorFlow Serving چیست؟ در پاسخ به این پرسش باید موارد زیر را بیان کرد.
- TensorFlow Serving یک سیستم انعطافپذیر و سطح بالا برای یادگیری ماشین است که برای محیطهای تولیدی طراحی شده است.
- TensorFlow Serving توسعه الگوریتمها و آزمایشهای جدید را با حفظ همان معماری سرور و API، آسانتر ساخته است.
- TensorFlow Serving یکپارچگی فوری را با مدلهای تنسورفلو فراهم میکند، اما به سادگی قابل توسعه یافتن برای خدمترسانی به دیگر انواع مدلها است.
به عنوان یک دانشمند داده، کاربر همواره مدلی را میخواهد که به طور پیوسته از مشاهدات جدید یاد بگیرد و یک مدل ایستا که فقط یک بار آموزش ببیند و سپس به کاربر خدمت بدهد، تقریبا در هیچ شرایطی مد نظر دانشمند داده نیست. TensorFlow serving این فرایند را ساده میسازد، چون در صورت وجود پیچیدگی، خیلی از موارد میتوانند اشتباه پیش بروند. TF 2.0 ایده سیستم کنترل نسخه برای مدل را معرفی میکند. در واقع، یک ورژن از مدل وجود دارد که «مدل یک» (model one) نامیده میشود و بر اساس مقادیری داده آموزش داده شده است و دانشمند داده آن را توسعه داده تا به کاربران از طریق یک برنامه کاربردی وب، خدماترسانی کند. بنابراین، کاربران درخواستها را به post requests انجام میدهند و پیشبینیها را دریافت میکنند.
با توجه به اینکه این اتفاق در پشت صحنه میافتد، نسخه دیگری از این مدل (که برای مثال آن را مدل دو (Model two) میتوان نامید) با دادههای جدید آموزش میبینید و وقتی این مدل به طور کامل روی دادههای جدید آموزش دید، مدل اصلی را به خوبی از رده خارج می کند (مدل یک) و مدل آموزش دیده جدید جایگزین آن میشود (مدل دو). هنگامی که این فرایند به پایان رسید، این مدل (مدل ۲) میتواند مدل دیگری را آموزش بدهد و به همین ترتیب این ماجرا تکرار میشود.
مهمترین مساله آن است که این کار در محیط تولید به وقوع میپیوندد، در حالیکه کاربر به طور طبیعی و مانند همیشه خدمات دریافت میکند. در حقیقت، دانشمند داده میتوان این کار را به چندین شکل انجام دهد؛ او میتواند چندین مدل داشته باشد و یا دادهها را از خروجیهای گوناگون برای ساخت یک مجموعه فنی ترکیب کند. به بیان ساده، TensorFlow serving این امکان را برای دانشمند داده فراهم میکند که مدلهایی را بسازد که به کاربران در محیط تولید خدماترسانی میکنند و این موضوع، موجب میشود که کارها سرعت بگیرند.
اگر به روال انجام پروژههای علم داده نگاه شود، می توان به سادگی فهمید که کد یادگیری ماشین بخش کوچکی از کل روال علم داده است. مولفههای دیگری همچون موارد زیر نیز وجود دارند؛
- پیکربندی
- نظارت
- گردآوری داده
و بسیاری از دیگر موارد.
خلاصه
در این مطلب، کتابخانه یادگیری ماشین «تنسورفلو» که توسط گوگل توسعه داده شده است مورد بررسی قرار گرفت. سپس، نسخه ۲.۰ از این کتابخانه که اخیرا منتشر شده و تغییرات قابل توجهی نسبت به نسخههای پیشین داشته است به صورت جامع بررسی شد و تغییراتی که در آن نسبت به نسخه ۱.۰ اتفاق افتادهاند، به طور کامل و همراه با ذکر مثالهایی بیان شدند. به طور کلی میتوان گفت که در TensorFlow 2.0، کارایی، شفافیت و انعطافپذیری به طور قابل توجهی افزایش یافته است. همچنین، قابلیت «اجرای مشتاقانه» (Eager Execution) به آن افزوده شده و APIهای سطح بالای آن بهبود یافتهاند که در نهایت منجر به ساده شدن پیادهسازی و اجرای سریع مدلهای یادگیری ماشین شده است.
اگر نوشته بالا برای شما مفید بوده است، آموزشهای زیر نیز به شما پیشنهاد میشوند:
- مجموعه آموزشهای دادهکاوی و یادگیری ماشین
- مجموعه آموزشهای دادهکاوی یا Data Mining در متلب
- مجموعه آموزشهای آمار و احتمالات
- زبان برنامهنویسی پایتون (Python) — از صفر تا صد
- 13 کتابخانه یادگیری عمیق پایتون — راهنمای کاربردی
- 1۰ کتابخانه پایتون علم داده — راهنمای کاربردی
- آموزش یادگیری ماشین با مثالهای کاربردی — مجموعه مقالات جامع وبلاگ فرادرس
^^
متن خیلی مفید بود.
ممنون از نویسنده و تیم علمی فرادرس
متن خیلی مفید بود.
ممنون از نویسندهو تیم علمی فرادرس
سلام
ممنون از مطلب خوبتون
عالی تشگر