該示例中使用的神經網絡的體系結構是具有三層的前饋神經網絡:輸入層、隱藏層和輸出層。 輸入層由 784 個單元組成,對應於輸入圖像中的像素數量。 輸入層中的每個單元代表圖像中像素的強度值。
隱藏層由128個單元組成,與輸入層全連接。 隱藏層中的每個單元計算來自輸入層的輸入的加權和,並應用激活函數來產生輸出。 在此示例中,隱藏層中使用的激活函數是修正線性單元(ReLU)函數。 ReLU 函數定義為 f(x) = max(0, x),其中 x 是單元輸入的加權和。 ReLU 函數向網絡引入了非線性,使其能夠學習數據中的複雜模式和關係。
輸出層由 10 個單元組成,每個單元代表分類問題中可能的類別之一。 輸出層中的單元也完全連接到隱藏層中的單元。 與隱藏層類似,輸出層中的每個單元計算隱藏層輸入的加權和並應用激活函數。 在這個例子中,輸出層使用的激活函數是softmax函數。 softmax 函數將輸入的加權和轉換為類別上的概率分佈,其中概率之和等於 1。具有最高概率的單元表示輸入圖像的預測類別。
總而言之,該示例中使用的神經網絡架構由 784 個單元的輸入層、使用 ReLU 激活函數的 128 個單元的隱藏層以及使用 softmax 激活函數的 10 個單元的輸出層組成。
最近的其他問題和解答 建立神經網絡以執行分類:
- TensorFlow.js 中執行的機器學習模型是否需要使用非同步學習功能?
- 模型是如何在 TensorFlow.js 中編譯和訓練的,分類交叉熵損失函數的作用是什麼?
- 機器學習過程中學習率和epoch數有何意義?
- TensorFlow.js 中的訓練數據如何拆分為訓練集和測試集?
- TensorFlow.js 構建用於分類任務的神經網絡的目的是什麼?
更多問題及解答:
- 領域: 人工智能
- 程序: EITC/AI/TFF TensorFlow基礎知識 (前往認證計劃)
- 課: 張量流.js (去相關課程)
- 主題: 建立神經網絡以執行分類 (轉到相關主題)
- 考試複習