跳去內容

黑盒

出自維基百科,自由嘅百科全書
  想搵飛機嘅黑盒嘅話,請睇飛機黑盒
(英文) 黑盒:有固定嘅 input-output 關係,但係使用者無法參透佢入便係點運作嘅。

黑盒粵拼haak1 haap2)係運算理論同相關領域上嘅概念。如果話某部機械係黑盒,就表示研究者知佢嘅輸入輸出,但係唔知道部機運作原理係乜。廣義化嘅話,黑盒一詞亦可以包括具有呢種特性嘅系統或者函數[1]

黑盒呢個概念,對軟件工程人工智能等嘅領域都有啟示作用。例如喺廿一世紀初,好多人工智能技術都被指係無法解釋嘅黑盒,因而受到批評。

編程應用

[編輯]

黑盒呢個概念對編程嚟講好重要。編程員軟件工程師等嘅人員,成日都會攞其他人寫好嘅模塊或者函式庫嚟用。喺實際應用上,佢哋只需要知道點樣傳啲數入去同埋係會畀咩數值出嚟,至於入便嘅運作細節係點,查實可以完全唔理。呢種抽象化嘅做法好有用,幫助程式開發者專注於解決自己手上嘅問題,唔使吓吓都由零開始寫返晒所有嘢,提升開發嘅效率


相關爭論

[編輯]

去到人工智能,黑盒就變成咗一個有爭議嘅話題。好多大型嘅人工神經網絡模型(譬如係 ChatGPT 噉)好多時都表現得非常好,能夠準確噉理解語言或者預測數據。但呢啲模型內部有千千萬萬個參數,人類難以用直觀或者明確嘅方式去解釋點解佢哋會做出某某決定:人類醫生有能力解釋自己點解會作出某個診斷,但係某個睇病用嘅人工神經網絡就算做到正確嘅診斷,人類用家望住佢入便嗰一大拃參數數值,都無法理解佢係點做決策嘅,

「我哋都唔知個 AI 程式點解做到正確診斷,不過根據記錄佢的確做到,噉就信佢啦。」

好多人工智能都有嘅呢種「黑盒特性」引起咗爭議:假如用人工智能做醫療診斷等嘅重要場合,透明度就好重要;如果人類唔知道系統點樣得出判斷,純粹因為個系統過往做到正確診斷就信佢,好難說服公眾接受結果,亦難以判斷個系統有冇偏見或者出錯[2]

因此,廿一世紀初興起咗一個新嘅研究領域叫解釋得嘅 AI,目的就係「令黑盒變得透明啲」或者最少用人類可以理解嘅方式描述佢哋點樣做決策。

睇埋

[編輯]

連結

[編輯]

引咗

[編輯]
  1. Bunge, Mario (October 1963). "A General Black Box Theory". Philosophy of Science. 30 (4): 346-358.
  2. THE BLACK BOX PROBLEM CLOSES IN ON NEURAL NETWORKS 互聯網檔案館歸檔,歸檔日期2018年6月22號,.. The Next Platform.