在本章中,我們將了解可以使用TensorFlow框架實現的神經網路訓練的各個方面。
以下幾個建議,可以評估 -
反向傳播是計算偏導數的簡單方法,其中包括最適合神經網路的基本形式的合成。
在隨機梯度下降中,批次處理是範例的總數,使用者用於在單次疊代中計算梯度。到目前為止,假設批次處理已經是整個資料集。最好的例子是谷歌規模; 資料集通常包含數十億甚至數千億個範例。
調整學習速率是梯度下降優化的最重要特徵之一。這對TensorFlow實施至關重要。
具有大量引數的深度神經網路構成了強大的機器學習系統。然而,過度擬合是這種網路中的嚴重問題。
最大池化是基於樣本的離散化過程。目標是對輸入表示進行下取樣,從而減少具有所需假設的維數。
LSTM控制在指定神經元內應該採取什麼輸入的決定。它包括控制決定應該計算什麼以及應該生成什麼輸出。