歡迎來到 常識詞典網 , 一個專業的常識知識學習網站!
[ Ctrl + D 鍵 ]收藏本站
搜索引擎在尋找特定信息的廣袤的關鍵萬維網 。如果沒有先進的搜索引擎,它實際上是不可能找到不知道一個特定的Web上的任何網址。但是,你知道搜索引擎是如何工作的呢?你知不知道是什么讓一些搜索引擎比其他人更有效?
當人們使用網絡的搜索引擎,它們通常是指實際的搜索,通過搜索數據庫形式的HTML文件,最初由聚集機器人 。
基本上有三種類型的搜索引擎:采用機器人(稱為爬蟲;螞蟻或蜘蛛)和那些人類意見書供電;和那些是兩者的混合體。
履帶式,基于搜索引擎使用自動軟件代理(所謂的抓取)訪問一個網站,閱讀工地的實際信息,閱讀該網站的元標簽和也遵循,該網站連接到執行索引的所有鏈接的鏈接網站以及。履帶式返回的所有信息反饋給中央存款,數據索引。抓取工具會定期返回到網站檢查已經改變的任何信息 。這種情況發生的頻率是由搜索引擎的管理員。
人肉搜索引擎依靠人類提交的信息,隨后索引和編目。只有提交的信息被放到索引。
在這兩種情況下,當您查詢的搜索引擎查找信息時,你實際的搜索,通過搜索引擎創建你實際上并沒有搜索網站的索引。這些指數是巨大的數據庫的信息收集,存儲和隨后搜查。這就解釋了為什么有時一個商業搜索引擎,如Yahoo!或Google,搜索,將返回的結果,事實上,死鏈接。由于搜索結果是根據該指數,如果該指數以來成為無效的搜索引擎將網頁鏈接仍然是一個積極的,即使它不再是一個網頁尚未更新 。它會保持下去,直到更新索引 。
那么,為什么會在不同的搜索引擎相同的搜索產生不同的結果呢 ?這個問題的答案,部分是因為不是所有的指數都將是完全一樣的 。這取決于什么蜘蛛找到或人類提交。但更重要的是,并非每一個搜索引擎都使用相同的算法搜索指數。該算法是搜索引擎使用索引信息的相關性,以確定用戶正在尋找什么。
搜索引擎算法掃描的元素之一,是在網頁上的關鍵字的頻率和位置 。那些更高的頻率通常被認為更相關。但搜索引擎技術越來越復雜,在試圖阻止什么是被稱為關鍵字堆砌,或spamdexing 。
另一種常見的元素,算法分析的方式,頁面鏈接到其他頁面在Web。通過分析頁面鏈接到對方,引擎能夠確定哪些頁面(如果鏈接的頁面的關鍵詞是類似原來的頁面上的關鍵字)和該網頁是否被認為是“重要”和值得加強排名。正如技術日趨成熟,忽略關鍵字堆砌,它也變得更精明的人工建成自己的網站聯系,以便建立一個人工的排名的網站站長。
你知道嗎...
搜索互聯網,創建于1990年的第一個工具,被稱為“阿奇” 。公共匿名FTP服務器上的所有文件下載的目錄清單;創建一個文件名 的搜索數據庫。一年后的“gopher”創建。它索引的純文本文件。“婆婆”和“Jughead”走過來搜索Gopher的指標體系。第一個真正的網絡搜索引擎是由馬修格雷在1993年,被稱為“Wandex” 。
下一篇:什么是網絡拓撲結構 下一篇 【方向鍵 ( → )下一篇】
上一篇:WEP和WPA的區別 上一篇 【方向鍵 ( ← )上一篇】
快搜