Explainable AI with Grad-CAM (توضیح مقاله به همراه پیاده سازی در کراس)
آیا براتون سوال شده که شبکه عصبی کانولوشنالی عمیق اگر میگه گربه دیدم به کجای…
رایگان!
تعداد دانشجو :
101
حالت مطالعه
آیا براتون سوال شده که شبکه عصبی کانولوشنالی عمیق اگر میگه گربه دیدم به کجای تصویر نگاه میکرده و چه ویژگی هایی براش مهم بوده؟
همواره توضیح و تفسیر یک مدل آموزش دیده شده برای متخصصان یادگیری ماشین مهم بوده، مثال های معروف که مدل ها بعد ترین به درصد بالایی روی دیتای validation رسیدند اما تو محیط واقعی کار نمیکردند هم کم نیست! پس لزوم روشی که بتونه دلیل خروجی مدل را تفسیر کنه حس میشه…
در این ویدیو در همین راستا روش grad-cam کامل توضیح داده شده و با فریم ورک keras پیاده سازی شده است.
در این ویدیو در راستای تفسیر پذیری مدل های عمیق دو مقاله ی
Learning deep features for discriminative localization (2016)
Grad-cam: Visual explanations from deep networks via gradient-based localization(2017)
مورد بحث قرار گرفتند و در نهایت در فریم ورک کراس به پیاده سازی آن بدون استفاده از ابزارهای آماده نظیر tf-explain که در جلسات callback دیده بودیم پرداختیم.
کد:
https://github.com/Alireza-Akhavan/class.vision/blob/SRTTU(1396-1397)/Grad-CAM.ipynb
ویدیوی وبینار
Tags: deep learning Keras Tensorflow
امتیاز دانشجویان دوره
0
بدون امتیاز
0 رای
رایگان!
0 رأی
5 ستاره
0
4 ستاره
0
3 ستاره
0
2 ستاره
0
1 ستاره
0
نظرات
رایگان!
تعداد دانشجو :
101
لینک کوتاه
قوانین ثبت دیدگاه