“FL 流程始于與所有設(shè)備共享的全局模型。每臺設(shè)備在本地訓(xùn)練模型,并將更新發(fā)送到中央服務(wù)器,在那里匯總以改進模型,”學(xué)者們說。“然后將這個更新的模型分發(fā)回設(shè)備進行進一步訓(xùn)練。FL 循環(huán)迭代多次,直到全局模型達到所需的最佳精度。”
該團隊的模型在每臺機器上本地運行,包括一個長短期記憶 (LSTM) 架構(gòu)、一個 dropout 單元和兩個完全連接的密集層。LSTM 處理順序數(shù)據(jù),而 dropout 單元減少過度擬合,密集層有助于做出最終預(yù)測。
該模型還使用超參數(shù)來調(diào)整本地 LSTM 模型并在中央服務(wù)器上對類似客戶端進行聚類。這些超參數(shù)在訓(xùn)練開始前設(shè)置,控制著機器學(xué)習(xí)模型的訓(xùn)練過程。