跳去內容

神經縮放原則

出自維基百科,自由嘅百科全書

神經縮放原則(譯自英文Neural scaling law),又或者叫神經縮放定律,係一種人工智能現象,講緊訓練人工神經網絡嗰陣,隨住模型規模、訓練數據量或者計算資源增加,模型性能會系統噉提升,畫條線出嚟嘅話(打戙條軸做性能,打橫條軸係變緊嘅參數)條線會跟從某啲特定嘅式變化。

參見

[編輯]