Linear Regression
這個章節我們會介紹線性回歸,線性回歸是一個非常簡單的機器學習模型,但是它的應用卻非常廣泛,例如:股票預測、房價預測、銷售預測等等,因此線性回歸是一個非常重要的機器學習模型。
第一章提到 Model 與 Cost Function 之間有著密切的關係,而 Cost Function 用於最小化 Model 中出現的誤差,讓 Model 的預測結果越來越精確。第二章則是介紹 Parameter learning 是一種訓練模型的方法,可以透過梯度下降法來更新參數以改善模型性能。第三章則是提到當 linear progression 有多個 features (variables) 時,就可以稱作為 multivariate linear regression。最後,第四章則介紹了 Normal equation,只要將訓練集 (training sets) 的特徵 與結果 轉換為矩陣,就能套用 normal equation 直接得到最佳解。
📄️ 1 - Model and Cost Function
Model 與 Cost Function 之間有著非常密切的關係,這是由於 Model 是用來預測的結果,而 Cost Function 則是用來計算 Model 預測結果的誤差。因此,Cost Function 將會用於最小化 Model 中出現的誤差,讓 Model 的預測結果越來越精確。
📄️ 2 - Parameter Learning
Parameter learning 是機器學習中的一種技術,它是一種訓練模型的方法,通常通過對參數進行調整來改善模型的性能。參數學習通常與梯度下降法 (Gradient Descent) 相關,因為梯度下降法是更新參數的一種方法,通過不斷更新參數來改善模型性能。例如,可以使用梯度下降法來更新網絡中的參數,以改善網絡的性能。
📄️ 3 - Multivariate Linear Regression
Multivariate linear regression 是指當 linear progression 有多個 features (variables) 時,就可以稱作為 multivariate linear regression。舉例來說,可以使用 size, ages, number of bedrooms, floors 來判斷 house price,此時我們可以將 Hypothesis 寫成:
📄️ 4 - Normal Equation
有一種方法可以不用透過迭代尋找最小化成本函數 (cost function) 的參數 (parameters),這種方法稱為 Normal equation,只要將訓練集 (training sets) 的特徵 $x$ 與結果 $y$ 轉換為矩陣,就能套用 normal equation 直接得到最佳解。