神經縮放原則(譯自英文:Neural scaling law),又或者叫神經縮放定律,係一種人工智能現象,講緊訓練人工神經網絡嗰陣,隨住模型規模、訓練數據量或者計算資源增加,模型性能會系統噉提升,畫條線出嚟嘅話(打戙條軸做性能,打橫條軸係變緊嘅參數)條線會跟從某啲特定嘅式變化。