PyTorch神經網路基礎


神經網路的主要原理包括一系列基本元素,即人工神經元或感知器。它包括幾個基本輸入,如:x1,x2 …… .. xn,如果總和大於啟用潛在量,則產生二進位制輸出。

樣本神經元的示意圖如下所述 -

產生的輸出可以認為是具有啟用潛在量或偏差加權和。

典型的神經網路架構如下所述 -

輸入和輸出之間的層稱為隱藏層,層之間的連線密度和型別是組態。例如,完全連線的組態使層L的所有神經元連線到L + 1的神經元。對於更明顯的定位,我們只能將一個區域性鄰域(比如九個神經元)連線到下一層。上圖中顯示了兩個具有密集連線的隱藏層。

神經網路的型別如下 -

前饋神經網路

前饋神經網路包括神經網路族的基本單元。這種型別的神經網路中的資料移動是通過當前隱藏層從輸入層到輸出層。一層的輸出用作輸入層,對網路架構中的任何型別的環路都有限制。

遞迴神經網路

遞迴神經網路是指資料模式在一段時間內發生變化的時間。在RNN中,應用相同的層來接受輸入引數並在指定的神經網路中顯示輸出引數。

可以使用torch.nn包構建神經網路。

它是一個簡單的前饋網路。它接受輸入,一個接一個地通過幾個層輸入,然後最終給出輸出。可以使用以下步驟進行神經網路的典型訓練過程 -

  • 定義具有一些可學習引數(或權重)的神經網路。
  • 疊代輸入資料集。
  • 通過網路處理輸入。
  • 計算損失(輸出距離正確多遠)。
  • 將漸變傳播回網路引數。
  • 通常使用下面給出的簡單更新來更新網路的權重。
規則: weight = weight -learning_rate * gradient