提供各種蟲害防治諮詢、專營居家環境消毒清潔 除蟲消毒一通電話服務到家 | 專業廢棄物清運、大型廢棄家具,政府立案 正派經營,作業快速、合法可靠 |
apache的ReWrite教程 |
房東:阿文兄 發表時間:2007-01-31 |
apache的ReWrite教程 Apache的mod_rewrite是提供了強大URL操作的殺手級的模塊,可以實現幾乎所有你夢想的URL操作類型,其代價是你必須接受其複雜性,因為mod_rewrite的主要障礙就是初學人不容易理解和運用,即使是Apache專家有時也會發掘出mod_rewrite的新用途。 換句話說︰對mod_rewrite,或者是打退堂鼓永不再用,或者是喜歡它並一生受用。 ReWrite可以應用在以下方面或者解決以下問題︰ URL的規劃 規範的URL 說明: 在有些網站伺服器上,一個資源會擁有多個URL,在實際應用和發布中應該被使用的是規範的URL,其他的則是簡寫或者是內部使用的。無論用戶在請求中使用什麼形式的URL,他最終看見的都應該是規範的URL。 說明: 在有些網站伺服器上,一個資源會擁有多個URL,在實際應用和發布中應該被使用的是規範的URL,其他的則是簡寫或者是內部使用的。無論用戶在請求中使用什麼形式的URL,他最終看見的都應該是規範的URL。 方案: 對所有的不規範的URL執行一個外部的HTTP重定向,以改變它在瀏覽器位址欄中的顯示及其後繼的請求。下例中的規則集用規範的/u/user替換/~user,並修正了/u/user所遺漏的後綴的斜杠。 代碼: RewriteRule ^/~([^/]+)/?(.*) /u/$1/$2 [R] RewriteRule ^/([uge])/([^/]+)$ /$1/$2/ [R] 規範的主機名 說明: ... 方案: 代碼: RewriteCond % !^fully.qualified.domain.name [NC] RewriteCond % !^$ RewriteCond % !^80$ RewriteRule ^/(.*) http://fully.qualified.domain.name:%/$1 [L,R] RewriteCond % !^fully.qualified.domain.name [NC] RewriteCond % !^$ RewriteRule ^/(.*) http://fully.qualified.domain.name/$1 [L,R] 被移動過的DocumentRoot 說明: 通常,網站伺服器的DocumentRoot直接對應於URL"/",但是,它常常不是處於最高一級,而可能只是眾多數據池中的一個實體。比如,在Intranet站點中,有/e/www/(WWW的主頁)、/e/sww/ (Intranet的主頁)等等,而DocumentRoot指向了/e/www/,則必須保證此數據池中的所有內嵌的圖片和其他元素對後繼請求有效。 方案: 只須重定向URL /到/e/www/即可。這個方案看起來很簡單,但只是有了mod_rewrite模塊的支援,它才簡單,因為道統的URL Aliases機製(由mod_alias及其相關模塊提供)只是作了一個前綴匹配,DocumentRoot是一個對所有URL的前綴,因而無法實現這樣的重定向。而用mod_rewrite的確很簡單: 代碼: RewriteEngine on RewriteRule ^/$ /e/www/ [R] 後綴斜杠的問題 說明: 每個網管對引用目錄後綴斜杠的問題都有一本苦經,如果遺漏了,伺服器會產生一個錯誤,因為如果請求是/~quux/foo而不是/~quux/foo/,伺服器會去找一個叫foo的檔案,而它是一個目錄,所以就報錯了。事實上,大多數情況下,它自己會試圖修正這個錯誤,但是有時候需要你手工糾正,比如,在重寫了許多CGI腳本中的複雜的URL以後。 方案: 解決這個微妙問題的方案是讓伺服器自動添加後綴的斜杠。對此,必須使用一個外部的重定向,使瀏覽器正確地處理後繼的對諸如圖片的請求。如果僅僅作一個內部的重寫,可能只對目錄頁面有效,而對內嵌有使用相對URL的圖片的頁面則無效,因為瀏覽器有請求內嵌目標的可能。比如,如果不用外部重定向,/~quux/foo/index.html頁面中對image.gif的請求,其結果將是/~quux/image.gif﹗。 所以,應該這樣寫︰ 代碼: RewriteEngine on RewriteBase /~quux/ RewriteRule ^foo$ foo/ [R] 又懶又瘋狂的做法是把這些寫入其宿主目錄中的頂級.htaccess中,但是須注意,如此會帶來一些處理上的開銷。 代碼: RewriteEngine on RewriteBase /~quux/ RewriteCond % -d RewriteRule ^(.+[^/])$ $1/ [R] 集群網站的同類URL規劃 說明: 我們希望在一個Intranet集群網站中,對所有WWW伺服器建立一個同類的一致性的URL規劃,也就是,所有的URL(對單個伺服器來說,是本地的倚賴於此伺服器的﹗)是獨立於伺服器的﹗我們需要的是一個具有獨立於伺服器的一致性規劃的WWW名稱空間,即,URL不需要包含正確的物理的目標伺服器,而由集群本身來自動定位物理的目標主機。 方案: 首先,目標伺服器的訊息來自(產生)於包含有用戶、組以及實體的外部地圖,其格式形如︰ 代碼: user1 server_of_user1 user2 server_of_user2 : : 這些訊息被存入map.xxx-to-host檔案。其次,如果URL在一個伺服器上無效,需要引導所有的伺服器重定向URL 代碼: /u/user/anypath /g/group/anypath /e/entity/anypath 到 代碼: http://physical-host/u/user/anypath http://physical-host/g/group/anypath http://physical-host/e/entity/anypath 以下規則集依靠地圖檔案來完成這個操作(假定,如果一個用戶在地圖中沒有對應的項,則使用server0為預設伺服器)︰ 代碼: RewriteEngine on RewriteMap user-to-host txt:/path/to/map.user-to-host RewriteMap group-to-host txt:/path/to/map.group-to-host RewriteMap entity-to-host txt:/path/to/map.entity-to-host RewriteRule ^/u/([^/]+)/?(.*) http://$/u/$1/$2 RewriteRule ^/g/([^/]+)/?(.*) http://$/g/$1/$2 RewriteRule ^/e/([^/]+)/?(.*) http://$/e/$1/$2 RewriteRule ^/([uge])/([^/]+)/?$ /$1/$2/.www/ RewriteRule ^/([uge])/([^/]+)/([^.]+.+) /$1/$2/.www/$3 移動宿主目錄到不同的網站伺服器 說明: 通常,許多網管在建立一個新的網站伺服器時,都會有這樣的要求︰重定向一個網站伺服器上的所有宿主目錄到另一個網站伺服器。 方案: 很簡單,用mod_rewrite。在老的網站伺服器上重定向所有的URL /~user/anypath到http://newserver/~user/anypath。 代碼: RewriteEngine on RewriteRule ^/~(.+) http://newserver/~$1 [R,L] 架構化的宿主目錄 說明: 一些擁有幾千個用戶的網站通常都使用架構化的宿主目錄規劃,即,每個宿主目錄位於一個帶有特定前綴比如其用戶名的第一個字符的次目錄下。那麼,/~foo/anypath代表/home/f/foo/.www/anypath,而/~bar/anypath代表/home/b/bar/.www/anypath。 方案: 可以使用下列規則集來擴展~以達到上述目的。 代碼: RewriteEngine on RewriteRule ^/~(([a-z])[a-z0-9]+)(.*) /home/$2/$1/.www$3 檔案系統的重組 說明: 這是一個不加雕琢的例子︰一個大量使用針對目錄的規則集以實現平滑觀感,而從來不用調整數據架構的殺手級的應用。背景︰net.sw從1992年開始,存放了我收集的免費的有效的Unix套裝軟件。它是我的愛好也是我的工作,因為在學習計算機科學的同時,業餘時間還做了多年的系統和網路的管理員。每周我都需要整理軟體,因而建立了一個層次很深的目錄架構來存放各種套裝軟件︰ 代碼: drwxrwxr-x 2 netsw users 512 Aug 3 18:39 Audio/ drwxrwxr-x 2 netsw users 512 Jul 9 14:37 Benchmark/ drwxrwxr-x 12 netsw users 512 Jul 9 00:34 Crypto/ drwxrwxr-x 5 netsw users 512 Jul 9 00:41 Database/ drwxrwxr-x 4 netsw users 512 Jul 30 19:25 Dicts/ drwxrwxr-x 10 netsw users 512 Jul 9 01:54 Graphic/ drwxrwxr-x 5 netsw users 512 Jul 9 01:58 Hackers/ drwxrwxr-x 8 netsw users 512 Jul 9 03:19 InfoSys/ drwxrwxr-x 3 netsw users 512 Jul 9 03:21 Math/ drwxrwxr-x 3 netsw users 512 Jul 9 03:24 Misc/ drwxrwxr-x 9 netsw users 512 Aug 1 16:33 Network/ drwxrwxr-x 2 netsw users 512 Jul 9 05:53 Office/ drwxrwxr-x 7 netsw users 512 Jul 9 09:24 SoftEng/ drwxrwxr-x 7 netsw users 512 Jul 9 12:17 System/ drwxrwxr-x 12 netsw users 512 Aug 3 20:15 Typesetting/ drwxrwxr-x 10 netsw users 512 Jul 9 14:08 X11/ 1996年7月,我決定透過一個漂亮的Web界面公開我的收藏。“漂亮”是指提供一個界面以直接瀏覽整個目錄架構,同時不對這個架構做任何改變 - 甚至也不在架構頂部放置CGI腳本。為什麼呢?因為這個架構還要能夠被FTP訪問,而且我不希望其中有任何Web或者CGI的成分。 方案: 這個方案分為兩個部分︰第一個部分,是用於在空閒時間建立所有目錄頁面的CGI腳本集。我把它們放在/e/netsw/.www/,如下︰ 代碼: -rw-r--r-- 1 netsw users 1318 Aug 1 18:10 .wwwacl drwxr-xr-x 18 netsw users 512 Aug 5 15:51 DATA/ -rw-rw-rw- 1 netsw users 372982 Aug 5 16:35 LOGFILE -rw-r--r-- 1 netsw users 659 Aug 4 09:27 TODO -rw-r--r-- 1 netsw users 5697 Aug 1 18:01 netsw-about.html -rwxr-xr-x 1 netsw users 579 Aug 2 10:33 netsw-access.pl -rwxr-xr-x 1 netsw users 1532 Aug 1 17:35 netsw-changes.cgi -rwxr-xr-x 1 netsw users 2866 Aug 5 14:49 netsw-home.cgi drwxr-xr-x 2 netsw users 512 Jul 8 23:47 netsw-img/ -rwxr-xr-x 1 netsw users 24050 Aug 5 15:49 netsw-lsdir.cgi -rwxr-xr-x 1 netsw users 1589 Aug 3 18:43 netsw-search.cgi -rwxr-xr-x 1 netsw users 1885 Aug 1 17:41 netsw-tree.cgi -rw-r--r-- 1 netsw users 234 Jul 30 16:35 netsw-unlimit.lst 其中的DATA/次目錄包含了上述目錄架構,即實在的net.sw,由rdist在需要的時候自動更新。第二個部分的遺留問題是︰如何連接這兩個架構為一個平滑觀感的URL樹?我希望在營運適當的CGI腳本而使用各種URL的時候,使用戶感覺不到DATA/目錄的存在。方案如下︰首先,我把下列配置放在伺服器上DocumentRoot中的針對目錄的配置檔案裡,以重寫公佈的URL /net.sw/ 為內部路徑 /e/netsw︰ 代碼: RewriteRule ^net.sw$ net.sw/ [R] RewriteRule ^net.sw/(.*)$ e/netsw/$1 第一條規則是針對遺漏後綴斜杠的請求的﹗第二條規則才是真正實現功能的。接著,就是放在針對目錄的配置檔案/e/netsw/.www/.wwwacl中的殺手級的配置了︰ 代碼: Options ExecCGI FollowSymLinks Includes MultiViews RewriteEngine on # we are reached via /net.sw/ prefix RewriteBase /net.sw/ # first we rewrite the root dir to # the handling cgi script RewriteRule ^$ netsw-home.cgi [L] RewriteRule ^index.html$ netsw-home.cgi [L] # strip out the subdirs when # the browser requests us from perdir pages RewriteRule ^.+/(netsw-[^/]+/.+)$ $1 [L] # and now break the rewriting for local files RewriteRule ^netsw-home.cgi.* - [L] RewriteRule ^netsw-changes.cgi.* - [L] RewriteRule ^netsw-search.cgi.* - [L] RewriteRule ^netsw-tree.cgi$ - [L] RewriteRule ^netsw-about.html$ - [L] RewriteRule ^netsw-img/.*$ - [L] # anything else is a subdir which gets handled # by another cgi script RewriteRule !^netsw-lsdir.cgi.* - [C] RewriteRule (.*) netsw-lsdir.cgi/$1 閱讀提示: 注意前半部分中的標誌L(最後),和無對應項('-') 注意後半部分中的符號!(非),和標誌C (鏈) 注意最後一條規則的全匹配模式 代碼: NCSA imagemap和Apache mod_imap 說明: 許多人都希望在從NCSA網站伺服器向較現代的Apache網站伺服器轉移中實現平滑過渡,即希望老的NCSA imagemap程式能在Apache的較現代的mod_imap支援下正常運作。但問題在於,到處都是透過/cgi-bin/imagemap/path/to/page.map引用imagemap程式的連接,而在Apache下,應該寫成/path/to/page.map。 方案: 使用全局規則在空閒時間去除所有這些請求的前綴︰ 代碼: RewriteEngine on RewriteRule ^/cgi-bin/imagemap(.*) $1 [PT] [[i] 本帖最後由 fakir 於 2006-4-3 07:47 編輯 [/i]] 2006-4-3 07:39fakir 在多個目錄中搜索頁面 說明: 有時會有必要使網站伺服器在多個目錄中搜索頁面,對此,MultiViews或者其他技術無能為力。 方案: 編製一個明確的規則集以搜索目錄中的檔案。 代碼: RewriteEngine on # first try to find it in custom/... # ...and if found stop and be happy: RewriteCond /your/docroot/dir1/% -f RewriteRule ^(.+) /your/docroot/dir1/$1 [L] # second try to find it in pub/... # ...and if found stop and be happy: RewriteCond /your/docroot/dir2/% -f RewriteRule ^(.+) /your/docroot/dir2/$1 [L] # else go on for other Alias or ScriptAlias directives, # etc. RewriteRule ^(.+) - [PT] 按照URL的片段設定環境變量 說明: 如果希望保持請求之間的狀態訊息,但又不希望使用CGI來包裝所有頁面,而只透過分離URL中的有用訊息來編碼。 方案: 可以用一個規則集來分離出狀態訊息,並設定環境變量以備此後用於XSSI或CGI。如此,一個/foo/S=java/bar/的URL會被解析為/foo/bar/,而環境變量STATUS則被設定為"java"。 代碼: RewriteEngine on RewriteRule ^(.*)/S=([^/]+)/(.*) $1/$3 [E=STATUS:$2] 虛擬用戶主機 說明: 如果需要為用戶username支援一個[url]www.username.host.domain.com[/url]的主頁,但不是用在此機器上建虛擬主機的方法,而是用僅在此機器上增加一個DNS記錄的方法實現。 方案: 對HTTP/1.0的請求,這是無法實現的;但是對HTTP/1.1的在HTTP頭中包含有主機名的請求,可以用以下規則集來內部地重寫[url]http://www.username.host.com/anypath[/url]為/home/username/anypath︰ 代碼: RewriteEngine on RewriteCond % ^www.[^.]+.host.com$ RewriteRule ^(.+) %$1 [C] RewriteRule ^[url]www.([/url][^.]+).host.com(.*) /home/$1$2 為外來訪問者重定向宿主目錄 說明: 對不是來自本地域ourdomain.com的外來訪問者的請求,重定向其宿主目錄URL到另一個網站伺服器[url]www.somewhere.com[/url],有時這種做法也會用在虛擬主機的上下文中。 方案: 只須一個重寫條件: 代碼: RewriteEngine on RewriteCond % !^.+.ourdomain.com$ RewriteRule ^(/~.+) [url]http://www.somewhere.com/$1[/url] [R,L] 重定向失敗的URL到其他網站伺服器 說明: 如何重寫URL以重定向對網站伺服器A的失敗請求到伺服器B,是一個常見的問題。一般,可以用Perl寫的CGI腳本透過ErrorDocument來解決,此外,還有mod_rewrite方案。但是須注意,這種方法的執行效率不如用ErrorDocument的CGI腳本! 方案: 第一種方案,有最好的性能而靈活性欠佳,出錯機率小所以安全: 代碼: RewriteEngine on RewriteCond /your/docroot/% !-f RewriteRule ^(.+) [url]http://webserverB.dom/$1[/url] 但是其問題在於,它只對位於DocumentRoot中的頁面有效。雖然可以增加更多的條件(比如同時還處理宿主目錄,等等),但是還有一個更好的方法︰ 代碼: RewriteEngine on RewriteCond % !-U RewriteRule ^(.+) [url]http://webserverB.dom/$1[/url] 這種方法使用了mod_rewrite提供的“向前參照(look-ahead)”的功能,是一種對所有URL類型都有效而且安全的方法。但是,對網站伺服器的性能會有影響,所以如果網站伺服器有一個強大的CPU,那就用這個方法。而在慢速機器上,可以用第一種方法,或者用性能更好的ErrorDocument CGI腳本。 擴展的重定向 說明: 有時候,我們會需要更多的對重定向URL的(有關字符轉義機製方面的)控制。通常,Apache內核中的URL轉義函數uri_escape()同時還會對anchor轉義,即,類似"url#anchor"的URL,因此,你不能用mod_rewrite對此類URL直接重定向。那麼如何實現呢? 方案: 必須用NPH-CGI腳本使它自己重定向,因為對NPH(non-parseable headers [無須解析的HTTP頭])不會發生轉義操作。首先,在針對伺服器的配置中(應該位於所有重寫規則的最後),引入一種新的URL類型xredirect:︰ 代碼: RewriteRule ^xredirect:(.+) /path/to/nph-xredirect.cgi/$1 [T=application/x-httpd-cgi,L] 以強製所有帶xredirect:前綴的URL被傳送到如下的nph-xredirect.cgi程式︰ 代碼: #!/path/to/perl ## ## nph-xredirect.cgi -- NPH/CGI script for extended redirects ## Copyright (c) 1997 Ralf S. Engelschall, All Rights Reserved. ## $| = 1; $url = $ENV; print "HTTP/1.0 302 Moved Temporarilyn"; print "Server: $ENVn"; print "Location: $urln"; print "Content-type: text/htmln"; print "n"; print "n"; print "n"; print "n"; print "n"; print "n"; print " Moved Temporarily (EXTENDED) n"; print "The document has moved here. n"; print "n"; print "n"; ##EOF## 這是一種可以重定向所有URL類型的方法,包括不被mod_rewrite直接支援的類型。所以,還可以這樣重定向news:newsgroup︰ 代碼: RewriteRule ^anyurl xredirect:news:newsgroup 注意︰無須對上述規則加[R]或[R,L],因為xredirect:會在稍後被其特殊的傳送規則擴展。 文檔訪問的多路複用 說明: 你知道[url]http://www.perl.com/CPAN[/url]的CPAN(Comprehensive Perl Archive Network)嗎?它實現了一個重定向以提供,全世界的CPAN鏡像中離訪問者最近的一個FTP站點,也可以稱之為FTP訪問多路複用服務。CPAN是透過CGI腳本實現的,那麼用mod_rewrite如何實現呢? 方案: 首先,我們注意到mod_rewrite從3.0.0版本開始,還可以重寫"ftp:"類型。其次,對客戶端頂級域名的路徑最近的求取可以用RewriteMap實現。利用鏈式規則集,並用頂級域名作為查找多路複用地圖的鍵,可以這樣做︰ 代碼: RewriteEngine on RewriteMap multiplex txt:/path/to/map.cxan RewriteRule ^/CxAN/(.*) %::$1 [C] RewriteRule ^.+.([a-zA-Z]+)::(.*)$ $$2 [R,L] ## ## map.cxan -- Multiplexing Map for CxAN ## de [url]ftp://ftp.cxan.de/CxAN/[/url] uk [url]ftp://ftp.cxan.uk/CxAN/[/url] com [url]ftp://ftp.cxan.com/CxAN/[/url] : ##EOF## 倚賴於時間的重寫 說明: 在頁面內容依時間不同而變化的場合,比如重定向特定頁面,許多網管仍然採用CGI腳本的方法,如何用mod_rewrite來實現呢? 方案: 有許多類似TIME_xxx的變量可以用在重寫條件中,利用STRING和=STRING的類型比較,並加以連接,就可以實現倚賴於時間的重寫︰ 代碼: RewriteEngine on RewriteCond %% >0700 RewriteCond %% <1900 RewriteRule ^foo.html$ foo.day.html RewriteRule ^foo.html$ foo.night.html 此例使URL foo.html在07:00-19:00時指向foo.day.html,而在其餘時間,則指向foo.night.html,對主頁是一個不錯的功能... 對YYYY過渡為XXXX的向前兼容 說明: 在轉變了大批.html檔案為.phtml,使文檔.YYYY過渡成為文檔.XXXX後,如何保持URL的向前兼容(仍然虛擬地存在)? 方案: 只須按基準檔案名重寫,並測試帶有新的擴展名的檔案是否存在,如果存在,則用新的,否則,仍然用原來的。 代碼: # backward compatibility ruleset for # rewriting document.html to document.phtml # when and only when document.phtml exists # but no longer document.html RewriteEngine on RewriteBase /~quux/ # parse out basename, but remember the fact RewriteRule ^(.*).html$ $1 [C,E=WasHTML:yes] # rewrite to document.phtml if exists RewriteCond %.phtml -f RewriteRule ^(.*)$ $1.phtml [S=1] # else reverse the previous basename cutout RewriteCond % ^yes$ RewriteRule ^(.*)$ $1.html 內容的處理 新舊URL(內部的) 說明: 假定已經把檔案bar.html改名為foo.html,需要對老的URL向前兼容,即讓用戶仍然可以使用老的URL,而感覺不到檔案被改名了。 方案: 透過以下規則內部地重寫老的URL為新的︰ 代碼: RewriteEngine on RewriteBase /~quux/ RewriteRule ^foo.html$ bar.html 新舊URL(外部的) 說明: 仍然假定已經把檔案bar.html改名為foo.html,需要對老的URL向前兼容,但是要讓用戶得到檔案被改名的暗示,即,其瀏覽器的位址欄中顯示的是新的URL。 方案: 作一個HTTP的強製重定向以改變瀏覽器和用戶界面上的顯示︰ 代碼: RewriteEngine on RewriteBase /~quux/ RewriteRule ^foo.html$ bar.html [R] 倚賴於瀏覽器的內容 說明: 至少對重要的頂級頁面,有時候有必要提供倚賴於瀏覽器的最佳的內容,即對最新的Netscape提供最大化的版本,對Lynx提供最小化的版本,而對其他的瀏覽器則提供一個功能一般的版本。 方案: 對此,內容協商無能為力,因為瀏覽器不提供其那種形式的類型,所以只能在HTTP頭"User-Agent"上想辦法。以下規則集可以完成這個操作︰如果HTTP頭"User-Agent"以"Mozilla/3"開頭,則頁面foo.html被重寫為foo.NS.html,而後重寫操作終止;如果是"Lynx"或者版本號為1和2的"Mozilla",則重寫為foo.20.html;而其他所有的瀏覽器收到的頁面則是foo.32.html︰ 代碼: RewriteCond % ^Mozilla/3.* RewriteRule ^foo.html$ foo.NS.html [L] RewriteCond % ^Lynx/.* [OR] RewriteCond % ^Mozilla/[12].* RewriteRule ^foo.html$ foo.20.html [L] RewriteRule ^foo.html$ foo.32.html [L] [[i] 本帖最後由 fakir 於 2006-4-3 07:47 編輯 [/i]] 2006-4-3 07:39fakir 動態鏡像 說明: 假定,需要在我們的名稱空間裡加入其他遠程主機的頁面。對FTP伺服器,可以用mirror程式以在本地機器上維持一個對遠程數據的最新的拷貝;對網站伺服器,可以用類似的用於HTTP的webcopy程式。但這兩種技術都有一個主要的缺點︰此本地拷貝必須透過這個程式的執行來更新。所以,比較好的方法是,不採用靜態鏡像,而採用動態鏡像,即,在有數據請求時自動更新(遠程主機上更新的數據)。 方案: 為此,使用Proxy Throughput功能(flag [P]),以映射遠程頁面甚至整個遠程網路區域到我們的名稱空間︰ 代碼: RewriteEngine on RewriteBase /~quux/ RewriteRule ^hotsheet/(.*)$ http://www.tstimpreso.com/hotsheet/$1 [P] RewriteEngine on RewriteBase /~quux/ RewriteRule ^usa-news.html$ http://www.quux-corp.com/news/index.html [P] 反向動態鏡像 說明: ... 方案: 代碼: RewriteEngine on RewriteCond /mirror/of/remotesite/$1 -U RewriteRule ^http://www.remotesite.com/(.*)$ /mirror/of/remotesite/$1 透過Intranet取得丟失的數據 說明: 這是一種在受防火牆保護的(內部的)Intranet(www2.quux-corp.dom)上儲存和維護實際數據,而虛擬地營運企業級(外部的)Internet網站伺服器(www.quux-corp.dom)的巧妙的方法。這種方法是外部伺服器在空閒時間從內部伺服器取得被請求的數據。 方案: 首先,必須確保防火牆對內部伺服器的保護,並只允許此外部伺服器取得數據。對包過濾(packet-filtering)防火牆,可以如下製定防火牆規則︰ 代碼: ALLOW Host www.quux-corp.dom Port >1024 --> Host www2.quux-corp.dom Port 80 DENY Host * Port * --> Host www2.quux-corp.dom Port 80 按你的實際配置,只要對上例稍作調整即可。接著,建立透過代理後台獲取丟失數據的mod_rewrite規則︰ 代碼: RewriteRule ^/~([^/]+)/?(.*) /home/$1/.www/$2 RewriteCond % !-f RewriteCond % !-d RewriteRule ^/home/([^/]+)/.www/?(.*) http://www2.quux-corp.dom/~$1/pub/$2 [P] 負載的均衡 說明: 如何均衡www.foo.com的負載到www[0-5].foo.com(一共是6個伺服器)? 方案: 這個問題有許多可能的解決方案,在此,我們討論通稱為“基於DNS(DNS-based)的”方案,和特殊的使用mod_rewrite的方案: DNS循環(DNS Round-Robin) 最簡單的方法是用BIND的DNS循環特性,只要按慣例設定www[0-9].foo.com的DNS的A(位址)記錄,如︰ 代碼: www0 IN A 1.2.3.1 www1 IN A 1.2.3.2 www2 IN A 1.2.3.3 www3 IN A 1.2.3.4 www4 IN A 1.2.3.5 www5 IN A 1.2.3.6 然後,增加以下各項: 代碼: www IN CNAME www0.foo.com. IN CNAME www1.foo.com. IN CNAME www2.foo.com. IN CNAME www3.foo.com. IN CNAME www4.foo.com. IN CNAME www5.foo.com. IN CNAME www6.foo.com. 注意,上述看起來似乎是錯誤的,但事實上,它的確是BIND中的一個預期的特性,而且也可以這樣用。無論如何,現下www.foo.com已經被解析,BIND可以給出www0-www6 - 雖然每次在次序上會有輕微的置換/循環,客戶端的請求可以被分散到各個伺服器。可是,這並不是一個優秀的負載均衡方案,因為,DNS解析訊息可以被網路中其他名稱伺服器緩沖,而一旦www.foo.com被解析為wwwN.foo.com,則其後繼請求都將被送往www.foo.com。但是最終結果是正確的,因為請求的總量的確被分散到各個伺服器了 DNS 負載均衡 一種成熟的基於DNS的負載均衡方法是使用http://www.stanford.edu/~schemers/docs/lbnamed/lbnamed.html的lbnamed程式,它是一個Perl 5程式,帶有若干輔助工具,實現了真正的基於DNS的負載均衡。 代理吞吐循環(Proxy Throughput Round-Robin) 這是一個使用mod_rewrite及其代理吞吐特性的方法。首先,在DNS記錄中,將www0.foo.com固定為www.foo.com,如下︰ 代碼: www IN CNAME www0.foo.com. 其次,將www0.foo.com轉換為一個專職代理伺服器,即,由這個機器把所有到來的URL透過內部代理分散到另外5個伺服器(www1-www5)。為此,必須建立一個規則集,對所有URL調用一個負載均衡腳本lb.pl。 代碼: RewriteEngine on RewriteMap lb prg:/path/to/lb.pl RewriteRule ^/(.+)$ $ [P,L] 以下是lb.pl: 代碼: #!/path/to/perl ## ## lb.pl -- load balancing script ## $| = 1; $name = "www"; # the hostname base $first = 1; # the first server (not 0 here, because 0 is myself) $last = 5; # the last server in the round-robin $domain = "foo.dom"; # the domainname $cnt = 0; while () { $cnt = (($cnt+1) % ($last+1-$first)); $server = sprintf("%s%d.%s", $name, $cnt+$first, $domain); print "http://$server/$_"; } ##EOF## 最後的說明︰這樣有用嗎?www0.foo.com似乎也會超載呀?答案是︰沒錯,它的確會超載,但是它超載的僅僅是簡單的代理吞吐請求﹗所有諸如SSI、CGI、ePerl等等的處理完全是由其他機器完成的,這個才是要點。 硬體/TCP循環 還有一個硬體解決方案。Cisco有一個叫LocalDirector的東西,實現了TCP/IP層的負載均衡,事實上,它是一個位於網站集群前端的電路級通訊閘。如果你有足夠資金而且的確需要高性能的解決方案,那麼可以用這個。 反向代理 說明: ... 方案: 代碼: ## ## apache-rproxy.conf -- Apache configuration for Reverse Proxy Usage ## # server type ServerType standalone Listen 8000 MinSpareServers 16 StartServers 16 MaxSpareServers 16 MaxClients 16 MaxRequestsPerChild 100 # server operation parameters KeepAlive on MaxKeepAliveRequests 100 KeepAliveTimeout 15 Timeout 400 IdentityCheck off HostnameLookups off # paths to runtime files PidFile /path/to/apache-rproxy.pid LockFile /path/to/apache-rproxy.lock ErrorLog /path/to/apache-rproxy.elog CustomLog /path/to/apache-rproxy.dlog "%t %h -> %e URL: %U" # unused paths ServerRoot /tmp DocumentRoot /tmp CacheRoot /tmp RewriteLog /dev/null TransferLog /dev/null TypesConfig /dev/null AccessConfig /dev/null ResourceConfig /dev/null # speed up and secure processing Options -FollowSymLinks -SymLinksIfOwnerMatch AllowOverride None # the status page for monitoring the reverse proxy SetHandler server-status # enable the URL rewriting engine RewriteEngine on RewriteLogLevel 0 # define a rewriting map with value-lists where # mod_rewrite randomly chooses a particular value RewriteMap server rnd:/path/to/apache-rproxy.conf-servers # make sure the status page is handled locally # and make sure no one uses our proxy except ourself RewriteRule ^/apache-rproxy-status.* - [L] RewriteRule ^(http|ftp)://.* - [F] # now choose the possible servers for particular URL types RewriteRule ^/(.*.(cgi|shtml))$ to://$/$1 [S=1] RewriteRule ^/(.*)$ to://$/$1 # and delegate the generated URL by passing it # through the proxy module RewriteRule ^to://([^/]+)/(.*) http://$1/$2 [E=SERVER:$1,P,L] # and make really sure all other stuff is forbidden # when it should survive the above rules... RewriteRule .* - [F] # enable the Proxy module without caching ProxyRequests on NoCache * # setup URL reverse mapping for redirect reponses ProxyPassReverse / http://www1.foo.dom/ ProxyPassReverse / http://www2.foo.dom/ ProxyPassReverse / http://www3.foo.dom/ ProxyPassReverse / http://www4.foo.dom/ ProxyPassReverse / http://www5.foo.dom/ ProxyPassReverse / http://www6.foo.dom/ ## ## apache-rproxy.conf-servers -- Apache/mod_rewrite selection table ## # list of backend servers which serve static # pages (HTML files and Images, etc.) static www1.foo.dom|www2.foo.dom|www3.foo.dom|www4.foo.dom # list of backend servers which serve dynamically # generated page (CGI programs or mod_perl scripts) dynamic www5.foo.dom|www6.foo.dom 新的MIME類型,新的服務 說明: 網上有許多很技巧的CGI程式,但是用法晦澀,許多網管棄之不用。即使是Apache的MEME類型的動作處理器,也僅僅在CGI程式不需要在其輸入中包含特殊URL(PATH_INFO和QUERY_STRINGS)時才很好用。首先,配置一種新的後綴為.scgi(for secure CGI)檔案類型,其處理器是很常見的cgiwrap程式。問題是︰如果使用同類URL規劃(見上述),而用戶宿主目錄中的一個檔案的URL是/u/user/foo/bar.scgi,可是cgiwrap要求的URL的格式是/~user/foo/bar.scgi/,以下規則解決了這個問題︰ 代碼: RewriteRule ^/[uge]/([^/]+)/.www/(.+).scgi(.*) ... ... /internal/cgi/user/cgiwrap/~$1/$2.scgi$3 [NS,T=application/x-http-cgi] 另外,假設需要使用其他程式︰wwwlog(顯示access.log中的一個URL子樹)和wwwidx(對一個URL子樹營運Glimpse),則必須對這些程式提供URL區域作為其操作對象。比如,對/u/user/foo/執行swwidx程式的超鏈是這樣的︰ 代碼: /internal/cgi/user/swwidx?i=/u/user/foo/ 其缺點是,必須同時硬編碼超鏈中的區域和CGI的路徑,如果重組了這個區域,就需要花費大量時間來修改各個超鏈。 方案: 方案是用一個特殊的新的URL格式,自動拼裝CGI參數︰ 代碼: RewriteRule ^/([uge])/([^/]+)(/?.*)/* /internal/cgi/user/wwwidx?i=/$1/$2$3/ RewriteRule ^/([uge])/([^/]+)(/?.*):log /internal/cgi/user/wwwlog?f=/$1/$2$3 現下,這個搜索到/u/user/foo/的超鏈簡化成了︰ 代碼: HREF="*" 它會被內部地自動轉換為 代碼: /internal/cgi/user/wwwidx?i=/u/user/foo/ 如此,可以為使用:log的超鏈,拼裝出調用CGI程式的參數。 從靜態到動態 說明: 如何無縫轉換靜態頁面foo.html為動態的foo.cgi,而不為瀏覽器/用戶所察覺。 方案: 只須重寫此URL為CGI-script,以強製為可以作為CGI-script營運的正確的MIME類型。如此,對/~quux/foo.html的請求其實會執行/~quux/foo.cgi。 代碼: RewriteEngine on RewriteBase /~quux/ RewriteRule ^foo.html$ foo.cgi [T=application/x-httpd-cgi] 空閒時間內的內容協商 說明: 這是一個很難解的功能︰動態生成的靜態頁面,即,它應該作為靜態頁面發送(從檔案系統中讀出,然後直接發出去),但是如果它丟失了,則由伺服器動態生成。如此,可以靜態地提供CGI生成的頁面,除非有人(或者是一個cronjob)刪除了這些靜態頁面,而且其內容可以得到更新。 方案: 以下規則集實現這個功能︰ 代碼: RewriteCond % !-s RewriteRule ^page.html$ page.cgi [T=application/x-httpd-cgi,L] 這樣,如果page.html不存在或者檔案大小為null,則對page.html的請求會導致page.cgi的營運。其中奧妙在於,page.cgi是一個將輸出寫入page.html的(同時也寫入STDOUT)的常規的CGI腳本,執行完畢,伺服器則將page.html的內容發出。如果網管需要強製更新其內容,只須刪除page.html即可(通常由一個cronjob完成)。 [[i] 本帖最後由 fakir 於 2006-4-3 07:48 編輯 [/i]] 2006-4-3 07:48fakir 自動更新的文檔 說明: 建立一個複雜的頁面,能夠在用編輯器寫了一個更新的版本時自動在瀏覽器上得到刷新,這不是很好嗎?這可能嗎? 方案: 這是可行的! 這需要綜合利用MIME多成分、網站伺服器的NPH和mod_rewrite的URL操控特性。首先,建立一個新的URL特性︰對在檔案系統中更新時需要刷新的所有URL加上:refresh。 代碼: RewriteRule ^(/[uge]/[^/]+/?.*):refresh /internal/cgi/apache/nph-refresh?f=$1 然後,修改URL 代碼: /u/foo/bar/page.html:refresh 以內部地操控此URL 代碼: /internal/cgi/apache/nph-refresh?f=/u/foo/bar/page.html 接著就是NPH-CGI腳本部分了。雖然,人們常說"left as an exercise to the reader",我還是給出答案了。 代碼: #!/sw/bin/perl ## ## nph-refresh -- NPH/CGI script for auto refreshing pages ## Copyright (c) 1997 Ralf S. Engelschall, All Rights Reserved. ## $| = 1; # split the QUERY_STRING variable @pairs = split(/ /, $ENV); foreach $pair (@pairs) { ($name, $value) = split(/=/, $pair); $name =~ tr/A-Z/a-z/; $name = 'QS_' . $name; $value =~ s/%([a-fA-F0-9][a-fA-F0-9])/pack("C", hex($1))/eg; eval "$$name = "$value""; } $QS_s = 1 if ($QS_s eq ''); $QS_n = 3600 if ($QS_n eq ''); if ($QS_f eq '') { print "HTTP/1.0 200 OKn"; print "Content-type: text/htmlnn"; print " b ERROR /b : No file givenn"; exit(0); } if (! -f $QS_f) { print "HTTP/1.0 200 OKn"; print "Content-type: text/htmlnn"; print " b ERROR /b : File $QS_f not foundn"; exit(0); } sub print_http_headers_multipart_begin { print "HTTP/1.0 200 OKn"; $bound = "ThisRandomString12345"; print "Content-type: multipart/x-mixed-replace;boundary=$boundn"; print_http_headers_multipart_next; } sub print_http_headers_multipart_next { print "n--$boundn"; } sub print_http_headers_multipart_end { print "n--$bound--n"; } sub displayhtml { local($buffer) = @_; $len = length($buffer); print "Content-type: text/htmln"; print "Content-length: $lennn"; print $buffer; } sub readfile { local($file) = @_; local(*FP, $size, $buffer, $bytes); ($x, $x, $x, $x, $x, $x, $x, $size) = stat($file); $size = sprintf("%d", $size); open(FP, " $file"); $bytes = sysread(FP, $buffer, $size); close(FP); return $buffer; } $buffer = readfile($QS_f); print_http_headers_multipart_begin; displayhtml($buffer); sub mystat { local($file) = $_[0]; local($time); ($x, $x, $x, $x, $x, $x, $x, $x, $x, $mtime) = stat($file); return $mtime; } $mtimeL = mystat($QS_f); $mtime = $mtime; for ($n = 0; $n $QS_n; $n++) { while (1) { $mtime = mystat($QS_f); if ($mtime ne $mtimeL) { $mtimeL = $mtime; sleep(2); $buffer = readfile($QS_f); print_http_headers_multipart_next; displayhtml($buffer); sleep(5); $mtimeL = mystat($QS_f); last; } sleep($QS_s); } } print_http_headers_multipart_end; exit(0); ##EOF## 大型虛擬主機 說明: Apache的功能很強,在有幾十個虛擬主機的情況下營運得很好,但是如果你是ISP,需要提供幾百個虛擬主機,那麼這就不是一個最佳的選擇了。 方案: 為此,需要用代理吞吐(Proxy Throughput)功能(flag [P])映射遠程頁面甚至整個遠程網路區域到自己的名稱空間︰ 代碼: ## ## vhost.map ## www.vhost1.dom:80 /path/to/docroot/vhost1 www.vhost2.dom:80 /path/to/docroot/vhost2 : www.vhostN.dom:80 /path/to/docroot/vhostN 代碼: ## ## httpd.conf ## : # use the canonical hostname on redirects, etc. UseCanonicalName on : # add the virtual host in front of the CLF-format CustomLog /path/to/access_log "%e %h %l %u %t "%r" %>s %b" : # enable the rewriting engine in the main server RewriteEngine on # define two maps: one for fixing the URL and one which defines # the available virtual hosts with their corresponding # DocumentRoot. RewriteMap lowercase int:tolower RewriteMap vhost txt:/path/to/vhost.map # Now do the actual virtual host mapping # via a huge and complicated single rule: # # 1. make sure we don't map for common locations RewriteCond % !^/commonurl1/.* RewriteCond % !^/commonurl2/.* : RewriteCond % !^/commonurlN/.* # # 2. make sure we have a Host header, because # currently our approach only supports # virtual hosting through this header RewriteCond % !^$ # # 3. lowercase the hostname RewriteCond $|NONE} ^(.+)$ # # 4. lookup this hostname in vhost.map and # remember it only when it is a path # (and not "NONE" from above) RewriteCond $ ^(/.*)$ # # 5. finally we can map the URL to its docroot location # and remember the virtual host for logging puposes RewriteRule ^/(.*)$ %1/$1 [E=VHOST:$}] : 對訪問的限制 阻止Robots 說明: 如何阻止一個完全匿名的robot取得特定網路區域的頁面?一個/robots.txt檔案可以包含若干"Robot Exclusion Protocol(robot排除協議)"的行,但不足以阻止此類robot。 方案: 可以用一個規則集以拒絕對網路區域/~quux/foo/arc/(對一個很深的目錄區域進行清單可能會使伺服器產生很大的負載)的訪問。還必須確保僅阻止特定的robot,就是說,僅僅阻止robot訪問主機是不夠的,這樣會同時也阻止了用戶訪問該主機。為此,就需要對HTTP頭的User-Agent訊息作匹配。 代碼: RewriteCond % ^NameOfBadRobot.* RewriteCond % ^123.45.67.[8-9]$ RewriteRule ^/~quux/foo/arc/.+ - [F] 阻止內嵌的圖片 說明: 假設,http://www.quux-corp.de/~quux/有一些內嵌圖片的頁面,這些圖片很好,所以就有人用超鏈連到他們自己的頁面中了。由於這樣徒然增加了我們的伺服器的流量,因此,我們不願意這種事情發生。 方案: 雖然,我們不能100%地保護這些圖片不被寫入別人的頁面,但至少可以對發出HTTP Referer頭的瀏覽器加以限制。 代碼: RewriteCond % !^$ RewriteCond % !^http://www.quux-corp.de/~quux/.*$ [NC] RewriteRule .*.gif$ - [F] RewriteCond % !^$ RewriteCond % !.*/foo-with-gif.html$ RewriteRule ^inlined-in-foo.gif$ - [F] 對主機的拒絕 說明: 如何拒絕一批外部清單中的主機對我們伺服器的使用? 方案: 代碼: For Apache >= 1.3b6: RewriteEngine on RewriteMap hosts-deny txt:/path/to/hosts.deny RewriteCond $|NOT-FOUND} !=NOT-FOUND [OR] RewriteCond $|NOT-FOUND} !=NOT-FOUND RewriteRule ^/.* - [F] For Apache <= 1.3b6: RewriteEngine on RewriteMap hosts-deny txt:/path/to/hosts.deny RewriteRule ^/(.*)$ $|NOT-FOUND}/$1 RewriteRule !^NOT-FOUND/.* - [F] RewriteRule ^NOT-FOUND/(.*)$ $|NOT-FOUND}/$1 RewriteRule !^NOT-FOUND/.* - [F] RewriteRule ^NOT-FOUND/(.*)$ /$1 代碼: ## ## hosts.deny ## ## ATTENTION! This is a map, not a list, even when we treat it as such. ## mod_rewrite parses it for key/value pairs, so at least a ## dummy value "-" must be present for each entry. ## 193.102.180.41 - bsdti1.sdm.de - 192.76.162.40 - 對代理的拒絕 說明: 如何拒絕某個主機或者來自特定主機的用戶使用Apache代理? 方案: 首先,要確保Apache網站伺服器在編譯時配置檔案中mod_rewrite在mod_proxy的下面(!),使它在mod_proxy之前被調用。然後,如下拒絕某個主機... 代碼: RewriteCond % ^badhost.mydomain.com$ RewriteRule !^http://[^/.].mydomain.com.* - [F] ...如下拒絕user@host-dependent: 代碼: RewriteCond %@% ^[email protected]$ RewriteRule !^http://[^/.].mydomain.com.* - [F] 特殊的認証 說明: 有時候,會需要一種非常特殊的認証,即,對一組明確指定的用戶,允許其訪問,而沒有(在使用mod_access的基本認証方法時可能會出現的)任何提示。 方案: 可是使用一個重寫條件清單來排除所有的朋友︰ 代碼: RewriteCond %@% !^[email protected]$ RewriteCond %@% !^[email protected]$ RewriteCond %@% !^[email protected]$ RewriteRule ^/~quux/only-for-friends/ - [F] 基於提交者(Referer)的反射器 說明: 如何配置一個基於HTTP頭"Referer"的反射器以反射到任意數量的提交頁面? 方案: 使用這個很技巧的規則集... 代碼: RewriteMap deflector txt:/path/to/deflector.map RewriteCond % !="" RewriteCond $} ^-$ RewriteRule ^.* % [R,L] RewriteCond % !="" RewriteCond $|NOT-FOUND} !=NOT-FOUND RewriteRule ^.* $} [R,L] ... 並結合對應的重寫地圖: 代碼: ## ## deflector.map ## http://www.badguys.com/bad/index.html - http://www.badguys.com/bad/index2.html - http://www.badguys.com/bad/index3.html http://somewhere.com/ 它可以自動將請求(在地圖中指定了"-"值的時候)反射回其提交頁面,或者(在地圖中URL有第二個參數時)反射到一個特定的URL。 其他 外部重寫引擎 說明: 一個常見的問題: 如何解決似乎無法用mod_rewrite解決的FOO/BAR/QUUX/之類的問題? 方案: 可以使用一個與RewriteMap功能相同的外部RewriteMap程式,一旦它在Apache啟動時被執行,則從STDIN接收被請求的URL,並將處理過(通常是重寫過的)的URL(以相同順序!)在STDOUT輸出。 代碼: RewriteEngine on RewriteMap quux-map prg:/path/to/map.quux.pl RewriteRule ^/~quux/(.*)$ /~quux/$ 代碼: #!/path/to/perl # disable buffered I/O which would lead # to deadloops for the Apache server $| = 1; # read URLs one per line from stdin and # generate substitution URL on stdout while (<>) { s|^foo/|bar/|; print $_; } 這是一個作演示的例子,只是把所有的URL /~quux/foo/...重寫為/~quux/bar/...,而事實上,可以把它修改以獲得任何你需要的功能。但是要注意,雖然一般用戶都可以使用,可是只有系統管理員才可以定義這樣的地圖。 |
|
廣利不動產-新板特區指名度最高、值得您信賴的好房仲 您的托付,廣利用心為您服務 廣利不動產-板橋在地生根最實在--新板特區指名度最高、值得您信賴的好房仲 完整房訊,房屋、店面熱門精選物件,廣利不動產 優質仲介,房屋租賃、買賣資訊透明,交易真安心! |
姓名: | |||
佈告內容: | |||
其他選項: | |||
|