揭開黑箱模型:探索可解釋人工智慧 第15屆iT邦幫忙鐵人賽 本系列將從 XAI 的基礎知識出發,深入探討可解釋人工智慧在機器學習和深度學習中的應用、案例和挑戰,以及未來發展方向。希望透過這個系列,幫助讀者更好地理解和應用可解釋人工智慧技術,促進可信、透明、負責任的人工智慧發展。 鐵人賽列表 文章 程式 [Day 1] 揭開模型的神秘面紗:為何XAI對機器學習如此重要? - [Day 2] 從黑盒到透明化:XAI技術的發展之路 - [Day 3] 機器學習中的可解釋性指標 - [Day 4] LIME vs. SHAP:哪種XAI解釋方法更適合你? - [Day 5] 淺談XAI與傳統機器學習的區別 - [Day 6] 非監督學習也能做到可解釋性?探索XAI在非監督學習中的應用 Code [Day 7] KNN與XAI:從鄰居中找出模型的決策邏輯 Code [Day 8] 解釋線性模型:探索線性迴歸和邏輯迴歸的可解釋性 Code [Day 9] 基於樹狀結構的XAI方法:決策樹的可解釋性 Code [Day 10] Permutation Importance:從特徵重要性角度解釋整個模型行為 [Day 11] Partial Dependence Plot:探索特徵對預測值的影響 Code [Day 12] LIME理論:如何用局部線性近似解釋黑箱模型 - [Day 13] LIME實作:實戰演練LIME解釋方法 Code [Day 14] SHAP理論:解析SHAP解釋方法的核心 - [Day 15] SHAP實作:實戰演練SHAP解釋方法 Code [Day 16] 神經網路的可解釋性:如何理解深度學習中的黑箱模型? - [Day 17] 解析深度神經網路:使用Deep SHAP進行模型解釋 Code [Day 18] CNN:卷積深度神經網路的解釋方法 - [Day 19] Perturbation-Based:如何用擾動方法解釋神經網路 Code [Day 20] Gradient-Based:利用梯度訊息解釋神經網路 Code [Day 21] Propagation-Based:探索反向傳播法的可解釋性 - [Day 22] CAM-Based:如何解釋卷積神經網路 Code [Day 23] Attention-Based:使用注意力機制解釋CNN模型 Code [Day 24] LSTM的可解釋性:從時序資料解析人體姿態預測 Code [Day 25] XAI在影像處理中的瑕疵檢測:解釋卷積神經網路的運作 Code [Day 26] XAI在表格型資料的應用:解析智慧工廠中的鋼材缺陷 Code [Day 27] XAI在NLP中的應用:以情感分析解釋語言模型 Code [Day 28] XAI如何影響人類對技術的信任和接受程度? - [Day 29] 對抗樣本的挑戰:如何利用XAI檢測模型的弱點? - [Day30] XAI未來發展方向:向更可靠的機器學習模型邁進 - 回報錯誤與建議 本系列文章若有問題或是內容建議都可以來 GitHub 中的 issue 提出。歡迎大家一同貢獻為這系列文章有更好的閱讀品質。 歡迎大家訂閱我的 YouTube 頻道。