知識表示

出自維基百科,自由嘅百科全書
Jump to navigation Jump to search
一個簡單嘅語義網絡;個網絡表達咗幾樣事物之間嘅關係,做到知識表示嘅效果。

知識表示粵拼zi3 sik1 biu2 si6英文knowledge representation,簡稱「KR」)係認知科學人工智能領域當中一個受關注嘅課題[1],指一個智能-無論係人類智能定人工智能-內部點樣表示有關「周圍世界點運作」嘅訊息,以及點樣用呢啲訊息對事物作出判斷同預測[2][3][4]

舉個簡單例子說明,想像家陣有一個噉樣嘅神經網絡(neural network):個網絡有兩層,每層有若干粒神經細胞,第一層代表「見到嗰樣物件嘅特徵」,而第二層代表「將件物件分做乜嘢類」,第二層每粒神經細胞會同第一層嘅某啲細胞有連繫,喺某啲特定嘅第一層細胞啟動嗰時會跟住啟動,即係話,攞第 粒第二層細胞:

係第二層細胞 嘅啟動程度,
係第 粒第一層細胞嘅啟動程度,
係第 粒第一層細胞對第二層細胞 嘅影響力,而 數值可以係 0。

假想第一層細胞每粒代表咗一個特徵,而第二層細胞每粒代表咗一個類別。當個網絡望到外界有一件具有「有毛皮」、「有鬚」、同「四隻腳」等特徵嘅物件嗰時,呢啲特徵相應嘅第一層細胞就會啟動,而第二層細胞當中同呢柞細胞有連繫嗰粒-例如代表「」嗰粒第二層細胞-就會跟住啟動。噉即係話,呢個網絡曉一接收到某啲特徵,就將件物件歸類做某個相應嘅類別-「貓有毛皮、有鬚、四隻腳」係一個知識,而呢個知識就係用一個神經網絡嘅方式「表示」咗出嚟[5][6]

對知識表示嘅研究有相當嘅跨學科性:呢個領域會參考認知科學等領域嘅研究,尤其係有關「人腦點做知識表示」嘅研究(已知人腦曉做知識表示,問題係「到底人腦係點做到嘅呢?」),然後人工智能領域嘅研究者就會按呢啲知識,嘗試製作出能夠好似人噉做知識表示嘅電腦系統[5][7][8]

神經基礎[編輯]

一個簡單嘅神經網絡圖解;一層神經細胞引致下一層神經細胞啟動,最後造成一個輸出。
睇埋:神經編碼

細胞[編輯]

睇埋:神經細胞

神經細胞(neuron)可以帶有同傳遞訊息:一個由極大量嘅神經細胞組成,例如一個正常大人嘅腦據估計有 860 億粒神經細胞噉多[9];一粒神經細胞喺接收到某啲特定嘅刺激嗰陣,會用微約電流等嘅型式傳訊號,例如視網膜上面嗰一大柞感光神經細胞喺受光刺激嗰時,會射訊號上個腦嘅視覺皮層(visual cortex)嗰度,而每種感光細胞都淨係會對某啲特定刺激有反應,所以每當個腦收到呢啲訊號嗰陣,就可以判斷對眼望到乜-「射緊訊號嘅得感光嘅感光細胞,對眼梗係望緊啲藍色嘅嘢喇」。神經編碼(neural coding)係神經科學嘅一個子領域,專門研究解讀神經細胞帶同傳嘅訊息[10][11]

網絡[編輯]

睇埋:神經網絡

想像有個由若干粒神經細胞組成嘅神經網絡(neural network)。輸入層(input layer)嗰啲細胞會對某啲外界刺激(例如係光或者聲)有啟動反應,隱藏層(hidden layer)收到輸入層細胞嘅訊號嗰時會啟動,而最後嗰浸輸出層(output layer)收到隱藏層細胞嘅訊號嗰時又會啟動。即係話是但搵粒細胞,佢嘅啟動程度 可以用以下條式計[12]

係粒細胞第 個輸入嘅數值,
係粒細胞第 個輸入對粒細胞 嘅影響力(權重值;weight)。

而家假想輸出層有 5 粒細胞,每粒都有一個門檻值(threshold),如果嗰粒細胞個 超越門檻值,佢嘅數值會變成 1,否則佢嘅數值會變成 0(睇埋數碼訊號),所以喺是但一個時間點,個神經網絡嘅輸出可以用 5 個 1 同 0 嚟表達-「11000」、「10010」、「10101」等分別代表唔同款嘅輸出。如果柞 數值恆定不變,噉輸入同輸出之間會成某啲特定嘅關係,例如每次輸入層數值等如某個數,輸出都會等如「11000」。呢段關係反應咗個神經網絡對輸入同輸出嘅知識[12],假想家陣輸入層有 4 粒細胞,而個網絡柞 經已調整好,令輸入同輸出成以下關係:

輸入 輸出
00 00 00000
00 01 00000
01 00 00000
01 01 00001
10 01 00010
10 10 00100

想像輸入係兩個用二進制表達嘅數,而輸出係一個用二進制表達嘅數,將上述數字變成十進制嘅話:

輸入 輸出
0 0 0
0 1 0
1 0 0
1 1 1
2 1 2
2 2 4

呢個輸入同輸出關係表示,個神經網絡曉計(兩個輸入都喺 2 以內嘅)乘數-係一個將有關乘法嘅知識「表示」咗出嚟嘅網絡。同一道理,假想有個神經網絡,有數以百億計嘅細胞(好似係人腦),佢會識處理好複雜嘅輸入,俾好複雜嘅輸出,而且仲能夠運算好複雜嘅輸入輸出關係(睇埋人工神經網絡[13][14]

處理過程[編輯]

睇埋:學習同埋機械學習

普遍同複雜[編輯]

  • 普遍化(generalization)指一個智能系統對唔同嘅輸入俾同一個輸出:例如家陣有兩個唔同嘅輸入-「一隻身上有七條間條嘅老虎」同「一隻身上有八條間條嘅老虎」,而有一個人類嘅心靈感知到;對個人嚟講,喺兩個情況下,最理想嘅輸出都係「識、走佬」,而如果有個人類見到前者識走佬,但見到後者唔識嘅話,佢好有可能生存唔到。「普遍」化指緊就係將對一個刺激 嘅知識應用落去第啲同 有啲相似(但唔完全一樣)嘅刺激嗰度-而「概念」喺定義上就係指普遍化所產生嘅知識表示,個人睇咗一柞(隻隻個樣都有啲唔同嘅)老虎之後心靈當中有咗一個「老虎」嘅概念。普遍化嘅能力對於知識系統嚟講好重要[15]
  • 複雜化(orthogonalization)指一個智能系統對唔同嘅輸入俾唔同輸出:假想頭先見親老虎都識走佬嗰個人,佢從來未見過(貓一般對人唔危險),跟住有次佢見到貓,因為貓同老虎外形上有某啲相似嘅地方,所以佢見到隻貓就驚同走佬;但打後佢對貓嘅體驗多咗,發覺貓同危險之間並冇正相關(貓同危險好少可一齊出現),於是佢嘅心靈就學識「見到老虎要走佬,但見到貓唔使」-先前會引起同一個輸出嘅刺激,變成會引起唔同輸出,呢個過程就係所謂嘅複雜化[15]
  • 普遍化同複雜化之間嘅平衡係有智能行為嘅基礎[15]

聚類分析[編輯]

聚類分析嘅圖解;每一點代表一個個案,每個個案喺用 X 軸同 Y 軸分別代表嗰兩個變數上都各有其數值。
內文: 聚類分析

聚類分析(cluster analysis)係一種常用嚟教智能系統學識做適當知識表示嘅方法[16]。假想而家有若干個個案,每個個案都係兩個變數 上有個數值,再用以下個演算法處理吓柞個案嘅數據[17]

  手上有 N 個個案,每個個案俾返個標籤(某個特定嘅「000011100...」規律)佢。
  將啲個案冚唪唥攞喺 C 呢個聚類入面。

  直至 size(C)C 入面嘅個案數量) = 1 為止,一路做
    將淨低嘅個案逐對逐對睇,計每對個案之間嘅距離(喺 X  Y 上差幾遠);
    搵出最接近嗰兩個個案,設做 c1  c2
     c1  c2 加入 c3 入面,c3 係一個包含咗 c1  c2 在內嘅聚類,
     c3 加入去 C 入面;
     c1  c2  C 嗰度攞走。

如果個數據庫當中有 8 個個案,上述段演算法會俾類似以下噉嘅知識表示[17]

  C = 
    [[[[case_1, case_8], case_2], case_6], [[[case_3, case_4], case_5], case_7]]

假如柞個案真係有得清楚噉分做兩個聚類嘅話,噉呢個演算法嘅運算過程之中,應該臨尾會出咗兩個 ,跟住 喺最後嗰步變成一體。聚類分析能夠攞一柞輸入,再俾「將柞個案分做若干類」嘅輸出-所以上述個演算法喺人工智能上可以用嚟模擬人類「睇過一柞物體之後,自動噉喺心目中將柞物體分類」嘅心智過程-由數據嗰度產生「見過嘅物件可以分做邊幾類」嘅知識表示,並且喺下次再撞到個案嗰時,用手上呢個知識表示判斷「呢件物件係乜」[17]

主成份分析[編輯]

主成分分析嘅圖解;幅圖每一點代表一個個案,兩個箭咀代表兩個成份,長啲嗰個箭咀係比較重要嗰個成份。
內文: 主成份分析

主成份分析(principal component analysis,PCA)係另一種常用嚟整知識表示嘅分析法。想像而家又係有柞個案,佢哋每個喺兩個變數上都有其數值(睇附圖),跟住可以畫兩條線(附圖嗰兩個箭咀),兩條線分別都可以用一條包含 嘅算式表達,當中由圖當中可以清楚睇到,長箭咀嗰條線成功噉捕捉更多嘅變異數(variance)-亦即係話長箭咀嗰條線所代表嗰個「成份」(component)比較能夠用嚟分辨啲個案,所以比較「重要」[18]。舉個例說明,假想有柞新數據,啲個案係一隻隻動物,而每個個案一係就係隻老鼠,一係就係隻大笨象 係隻動物嘅大細,而 係隻動物嘅色水;假設柞數據做咗標準化,用同一樣嘅單位表達 ,喺呢柞數據入面,沿「色水」嘅變異數好細(個箭咀會好短),因為老鼠同大笨象都係灰灰啡啡噉色嘅動物,但沿「大細」嘅變異數就會大得好交關(個箭咀會好長),因為老鼠同大笨象喺體型上差好遠-用 PCA 嘅話,會得出「用 作為重心線做分辨有用啲」嘅結果- PCA 幫到手由一柞數據嗰度,產生出「邊個成份喺用嚟分辨個案上比較有用」嘅資訊,而個智能系統可以用呢個資訊做一個知識表示,攞個知識嚟對將來撞到嘅個案作出判斷[17]

喺最簡單嗰種情況下,一個做主成份分析嘅演算法大致上係噉[18]

  1. 攞數據;
  2. 畫條線出嚟,條線有條式,而條式包含數據當中有嘅變數
  3. 計出沿呢條線嘅變異數有幾多;
  4. 改變吓條線嘅參數(parameter);
  5. 再計出沿條新線嘅變異數有幾多;
  6. 一路做步驟 4 同 5,做嗮所有指定咗嘅可能性,最後俾具有最大變異數嗰條線做個演算法嘅輸出。

表示模型[編輯]

語義網絡[編輯]

內文: 語義網絡

語義網絡(semantic network)係知識表示常用嘅一種模型。一個基本嘅語義網絡有以下組成部份:個網絡有若干個節點(node),每個節點代表一個概念,而節點之間會有一啲連繫,兩個概念之間嘅連繫表達佢哋之間嘅關係;語義網絡可以用嚟模擬促發效應(priming effect)-喺是但一個時間點,每個節點都有個數代表佢嘅「啟動程度」(activation level),而一個節點啟動會令佢掕住嘅節點跟住啟動,同佢連繫愈強嘅節點就會掕住啟動得愈勁;而呢點似十足人嘅促發效應-人都係噉,一講起一樣嘢嗰陣傾向諗起啲同嗰樣嘢相關嘅嘢,例如實驗就噉做過,實驗者叫受試者喺聽到個「」字嗰陣有噉快得噉快撳個掣,而喺聽「狼」打前聽到(例如)個「」字嘅受試者對「狼」嘅反應會變快[19][20]

語義網絡可以用機械學習方法產生,例如一個人工智能程式接收咗一柞動物嘅影像,用聚類分析將柞影像分做若干個物種,程式內部每個物種俾個名佢,然後再按聚類分析嘅結果(例:「貓同老虎明顯係兩種動物,但兩者彼此之間嘅差距明顯細過佢哋同狼嘅差距,所以貓同老虎都屬貓科」)產生一個語義網絡(例:貓同老虎都各有一條線「屬於」掕去「貓科」嗰度)[21][22]

第啲模型[編輯]

  • 迴歸模型(regression model),表達「若干個連續性變數之間大致成乜關係」嘅知識[23]
  • 人工神經網絡(artificial neural network),一種能夠正確噉由輸入計輸出,但推論方法冇得開口講明嘅知識表示法[24]
  • 決策樹(decision tree),將知識表示成一連串「如果 A 數值等如點點點,噉 B 數值就大概會係點點點」嘅決策[25]
  • 貝氏網路(Bayesian network),表示事件之間「如果事件 A 發生咗,噉事件 B 發生嘅機會率」嘅知識[26]
  • 支援向量機(support vector machine),用嚟將物件按若干個變數分類嘅知識[27]

本體工程[編輯]

一個描述相關知識嘅本體
內文: 本體工程

本體工程(ontology engineering)係電腦科學嘅一個子領域,研究點建造本體(ontology):定義上,一個本體係一柞概念嘅集合,會表明呢啲概念之間嘅啦掕,可以話係語義網絡嘅一種;本體嘅特徵係,佢啲概念要有明確講到出嚟嘅定義(相比之下,語義網絡可以用人工神經網絡等「計到正確答案、但講唔出口」嘅方法整)[28]。例:一個用嚟表示打機相關知識嘅本體噉,會包含「電子遊戲」、「遊戲機」、同「遊戲設計」等嘅概念嘅定義,跟住仲會有一柞連結,表明概念之間嘅啦掕,例如「遊戲機」會有條拎(「用嚟玩」)連去「電子遊戲」嗰度,而「遊戲設計」又會有條拎(「做嚟整」)連落「電子遊戲」嗰度-形成一個描述打機相關概念同呢啲概念之間嘅關係嘅本體(所以本體係知識表示嘅一種)[29][30][31]

本體工程對於製作人工智能嚟講相當有用,最幫到手教電腦自動推理(automated reasoning)嘅工作-一個程式有咗一個本體,就會有能力答「貓屬於貓科,貓科屬於哺乳類,噉貓係咪屬於哺乳類?」等嘅問題,而答呢類問題嘅能力正正係智能嘅一個重要指標[3][32][33]

以下呢段係一段用網絡本體語言(Web Ontology Language;一款專用嚟整本體嘅程式語言)表達嘅一個本體,用嚟描述一啲有關意大利薄餅嘅知識[34]

Namespace(p = <http://example.com/pizzas.owl#>)
Ontology( <http://example.com/pizzas.owl#>
   Class(p:Pizza partial
     restriction(p:hasBase someValuesFrom(p:PizzaBase)))
   DisjointClasses(p:Pizza p:PizzaBase)
   Class(p:NonVegetarianPizza complete
     intersectionOf(p:Pizza complementOf(p:VegetarianPizza)))
   ObjectProperty(p:isIngredientOf Transitive
     inverseOf(p:hasIngredient))
)

舉個例子說明,呢段碼 ObjectProperty 嗰行會同個程式指明個本體入面某啲物件嘅特性,呢行指令講咗幾樣嘢:首先,「係某某嘅原料」(isIngredientOf)呢個關係係有遞移性嘅(Transitive)-即係教部電腦,如果 A 係 B 嘅原料而 B 係 C 嘅原料,噉佢可以推斷 A 係 C 嘅原料;呢行指令仲表明咗「係某某嘅原料」係「原料包含咗」(hasIngredient)嘅反轉(inverse)-所以運用呢個本體嘅人工智能程式可以做(例如)「夏威夷薄餅原料包含咗菠蘿,所以菠蘿係夏威夷薄餅嘅原料」嘅推理[34][35]

本體同相關技術有唔少應用價值,一個簡單嘅例子係攞嚟喺搜尋器嗰度俾建議:當一個用家搜尋某個關鍵字嗰陣,個搜尋器程式可以用一個事先學習(分析咗舊有嘅「啲人耖完呢篇文之後,傾向耖乜文」數據)形成嘅語義網絡,估計個用家跟住最有可能會想搜尋啲乜,然後將最有可能會想搜尋嘅嘢列做「建議」[36][37]

睇埋[編輯]

參考[編輯]

  • Ronald J. Brachman; What IS-A is and isn't. An Analysis of Taxonomic Links in Semantic Networks; IEEE Computer, 16 (10); October 1983
  • Ronald J. Brachman, Hector J. Levesque Knowledge Representation and Reasoning, Morgan Kaufmann, 2004 ISBN 978-1-55860-932-7
  • Ronald J. Brachman, Hector J. Levesque (eds) Readings in Knowledge Representation, Morgan Kaufmann, 1985, ISBN 0-934613-01-X
  • Chein, M., Mugnier, M.-L. (2009), Graph-based Knowledge Representation: Computational Foundations of Conceptual Graphs, Springer, 2009,ISBN 978-1-84800-285-2.
  • Randall Davis, Howard Shrobe, and Peter Szolovits; What Is a Knowledge Representation? AI Magazine, 14(1):17-33,1993
  • Ronald Fagin, Joseph Y. Halpern, Yoram Moses, Moshe Y. Vardi Reasoning About Knowledge, MIT Press, 1995, ISBN 0-262-06162-7
  • Jean-Luc Hainaut, Jean-Marc Hick, Vincent Englebert, Jean Henrard, Didier Roland: Understanding Implementations of IS-A Relations. ER 1996: 42-57
  • Hermann Helbig: Knowledge Representation and the Semantics of Natural Language, Springer, Berlin, Heidelberg, New York 2006
  • Frank van Harmelen, Vladimir Lifschitz and Bruce Porter: Handbook of Knowledge Representation 2007.
  • Arthur B. Markman: Knowledge Representation Lawrence Erlbaum Associates, 1998
  • John F. Sowa: Knowledge Representation: Logical, Philosophical, and Computational Foundations. Brooks/Cole: New York, 2000
  • Adrian Walker, Michael McCord, John F. Sowa, and Walter G. Wilson: Knowledge Systems and Prolog, Second Edition, Addison-Wesley, 1990
  • Mary-Anne Williams and Hans Rott: "Frontiers in Belief Revision, Kluwer", 2001.

[編輯]

  1. Brachman, Ron (1985). "Introduction". In Ronald Brachman and Hector J. Levesque (ed.). Readings in Knowledge Representation. Morgan Kaufmann. pp. XVI–XVII.
  2. Roger Schank; Robert Abelson (1977). Scripts, Plans, Goals, and Understanding: An Inquiry Into Human Knowledge Structures. Lawrence Erlbaum Associates, Inc.
  3. 3.0 3.1 Davis, Randall; Howard Shrobe; Peter Szolovits (Spring 1993). "What Is a Knowledge Representation?". AI Magazine. 14 (1): 17–33.
  4. Hoskins, J. C., & Himmelblau, D. M. (1988). Artificial neural network models of knowledge representation in chemical engineering. Computers & Chemical Engineering, 12(9-10), 881-890.
  5. 5.0 5.1 Socher, R., Chen, D., Manning, C. D., & Ng, A. (2013). Reasoning with neural tensor networks for knowledge base completion. In Advances in neural information processing systems (pp. 926-934).
  6. Duda, Richard O.; Hart, Peter Elliot; Stork, David G. (2001). Pattern classification (2 ed.). Wiley.
  7. Omerovic, S., MILUTINOVIC, V., & TOMAZIC, S. (2001). Concepts, Ontologies, and Knowledge Representation.
  8. Tickle, A. B., Andrews, R., Golea, M., & Diederich, J. (1998). The truth will come to light: Directions and challenges in extracting the knowledge embedded within trained artificial neural networks. IEEE Transactions on Neural Networks, 9(6), 1057-1068.
  9. How many neurons make a human brain? Billions fewer than we thought.
  10. Thorpe, S.J. (1990). "Spike arrival times: A highly efficient coding scheme for neural networks". In Eckmiller, R.; Hartmann, G.; Hauske, G. Parallel processing in neural systems and computers. North-Holland. pp. 91–94.
  11. Zhang, H; Chen, G; Kuang, H; Tsien, JZ (Nov 2013). "Mapping and deciphering neural codes of NMDA receptor-dependent fear memory engrams in the hippocampus". PLOS ONE. 8 (11): e79454.
  12. 12.0 12.1 Bishop, Christopher (1995). Neural networks for pattern recognition. Clarendon Press.
  13. Boger, Z., & Guterman, H. (1997, October). Knowledge extraction from artificial neural network models. In 1997 IEEE International Conference on Systems, Man, and Cybernetics. Computational Cybernetics and Simulation (Vol. 4, pp. 3030-3035). IEEE.
  14. Patterson, K., Nestor, P. J., & Rogers, T. T. (2007). Where do you know what you know? The representation of semantic knowledge in the human brain. Nature Reviews Neuroscience, 8(12), 976.
  15. 15.0 15.1 15.2 McMaster, R. B., & Mc Master, R. B. (1991). Conceptual frameworks for geographical knowledge. In Map Generalization: Making Decisions for Knowledge Representation (pp. 21-39). Longman's Inc.
  16. Jordan, Michael I.; Bishop, Christopher M. (2004). "Neural Networks". In Allen B. Tucker (ed.). Computer Science Handbook, Second Edition (Section VII: Intelligent Systems). Boca Raton, Florida: Chapman & Hall/CRC Press LLC.
  17. 17.0 17.1 17.2 17.3 Knowledge Representation in Neural Networks (PDF).
  18. 18.0 18.1 Jolliffe, I. T. (1986). Principal Component Analysis. Springer Series in Statistics. Springer-Verlag.
  19. Allan M. Collins; Elizabeth F. Loftus (1975). "A spreading-activation theory of semantic processing". Psychological Review. 82 (6): 407–428.
  20. Jang, H. Y., & Barnett, G. A. (1994). Cultural differences in organizational communication: A semantic network analysis 1. Bulletin of Sociological Methodology/Bulletin de Méthodologie Sociologique, 44(1), 31-59.
  21. Quillian, M. R. (1968). Semantic memory. Semantic information processing, 227–270.
  22. Knublauch, Holger; Oberle, Daniel; Tetlow, Phil; Wallace, Evan (2006-03-09). "A Semantic Web Primer for Object-Oriented Software Developers". W3C.
  23. Linear Regression with example. Towards Data Science.
  24. Gardner, M. W., & Dorling, S. R. (1998). Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences. Atmospheric environment, 32(14-15), 2627-2636.
  25. Decision Trees in Machine Learning. Towards Data Science.
  26. Delalleau, O., Contal, E., Thibodeau-Laufer, E., Ferrari, R. C., Bengio, Y., & Zhang, F. (2012). Beyond skill rating: Advanced matchmaking in ghost recon online. IEEE Transactions on Computational Intelligence and AI in Games, 4(3), 167-177.
  27. Cortes, Corinna; Vapnik, Vladimir N. (1995). "Support-vector networks". Machine Learning. 20 (3): 273–297.
  28. Semantic Networks.
  29. Mizoguchi, R., & Ikeda, M. (1998). Towards ontology engineering. Journal-Japanese Society for Artificial Intelligence, 13, 9-10.
  30. Russell, Stuart J.; Norvig, Peter (2010), Artificial Intelligence: A Modern Approach (3rd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-604259-7, p. 437 - 439.
  31. Maedche, A., & Staab, S. (2001). Ontology learning for the semantic web. IEEE Intelligent systems, 16(2), 72-79.
  32. Hayes P, Naive physics I: Ontology for liquids. University of Essex report, 1978, Essex, UK.
  33. Hayes-Roth, Frederick; Donald Waterman; Douglas Lenat (1983). Building Expert Systems. Addison-Wesley. pp. 6–7.
  34. 34.0 34.1 OWL Example with RDF Graph. Ontologies and Semantic Web.
  35. López, M. F., Gómez-Pérez, A., Sierra, J. P., & Sierra, A. P. (1999). Building a chemical ontology using methontology and the ontology design environment. IEEE Intelligent Systems and their applications, 14(1), 37-46.
  36. Finkelstein, L., Gabrilovich, E., Matias, Y., Rivlin, E., Solan, Z., Wolfman, G., & Ruppin, E. (2002). Placing search in context: The concept revisited. ACM Transactions on information systems, 20(1), 116-131.
  37. Berners-Lee, Tim; James Hendler; Ora Lassila (May 17, 2001). "The Semantic Web – A new form of Web content that is meaningful to computers will unleash a revolution of new possibilities". Scientific American. 284 (5): 34–43.

[編輯]