由于 需求原因,需要匹配 提取中文,大量google下,并沒有我需要的。花了一個小時大概測試,此utf8中文通過,特留文。
參考: http://hi.baidu.com/nivrrex/blog/item/e6ccaf511d0926888d543071.html
http://topic.csdn.net/u/20070404/15/b011aa83-f9b7-43b3-bbff-bfe4f653df03.html
首先,確保所有編碼都為 unicode
比如 str.decode('utf8') #從utf8文本中
u"啊l" #在控制臺輸出中
(羅嗦下)本想使用參考一定編碼 Hex 但郁悶的是 這每個字好像占2個位置,使用正則匹配無果。
其次,確定中文范圍 :
[\u4e00-\u9fa5]
(這里注意下 python 的re寫的時候) 要
u"
[\u4e00-\u9fa5]" #確定正則表達(dá)式也是 unicode 的
demo :
>>> print re.match(ur"[\u4e00-\u9fa5]+","啊")
None
>>> print re.match(ur"[\u4e00-\u9fa5]+",u"啊")
<_sre.SRE_Match object at 0x2a98981308>
>>> print re.match(ur"[\u4e00-\u9fa5]+",u"t")
None
>>> print tt
現(xiàn)在才明白
>>> tt
'\xe7\x8e\xb0\xe5\x9c\xa8\xe6\x89\x8d\xe6\x98\x8e\xe7\x99\xbd'
>>> print re.match(r"[\u4e00-\u9fa5]",tt.decode('utf8'))
None
>>> print re.match(ur"[\u4e00-\u9fa5]",tt.decode('utf8'))
<_sre.SRE_Match object at 0x2a955d9c60>
>>> print re.match(ur".*["u4e00-"u9fa5]+",u"hi,匹配到了")
<_sre.SRE_Match object at 0x2a955d9c60>
>>> print re.match(ur".*["u4e00-"u9fa5]+",u"hi,no no")
None
其他 擴(kuò)充 范圍 (轉(zhuǎn))
這里是幾個主要非英文語系字符范圍(google上找到的):
2E80~33FFh:中日韓符號區(qū)。收容康熙字典部首、中日韓輔助部首、注音符號、日本假名、韓文音符,中日韓的符號、標(biāo)點(diǎn)、帶圈或帶括符文數(shù)字、月份,以及日本的假名組合、單位、年號、月份、日期、時間等。
3400~4DFFh:中日韓認(rèn)同表意文字?jǐn)U充A區(qū),總計收容6,582個中日韓漢字。
4E00~9FFFh:中日韓認(rèn)同表意文字區(qū),總計收容20,902個中日韓漢字。
A000~A4FFh:彝族文字區(qū),收容中國南方彝族文字和字根。
AC00~D7FFh:韓文拼音組合字區(qū),收容以韓文音符拼成的文字。
F900~FAFFh:中日韓兼容表意文字區(qū),總計收容302個中日韓漢字。
FB00~FFFDh:文字表現(xiàn)形式區(qū),收容組合拉丁文字、希伯來文、阿拉伯文、中日韓直式標(biāo)點(diǎn)、小符號、半角符號、全角符號等。
比如需要匹配所有中日韓非符號字符,那么正則表達(dá)式應(yīng)該是^[\u3400-\u9FFF]+$
理論上沒錯, 可是我到msn.co.ko隨便復(fù)制了個韓文下來, 發(fā)現(xiàn)根本不對, 詭異
再到msn.co.jp復(fù)制了個’お’, 也不得行..
然后把范圍擴(kuò)大到^[\u2E80-\u9FFF]+$, 這樣倒是都通過了, 這個應(yīng)該就是匹配中日韓文字的正則表達(dá)式了, 包括我們臺灣省還在盲目使用的繁體中文
而關(guān)于中文的正則表達(dá)式, 應(yīng)該是^[\u4E00-\u9FFF]+$, 和論壇里常被人提起的^[\u4E00-\u9FA5]+$很接近
需要注意的是論壇里說的^[\u4E00-\u9FA5]+$這是專門用于匹配簡體中文的正則表達(dá)式, 實(shí)際上繁體字也在里面, 我用測試器測試了下’中華人民共和國’, 也通過了, 當(dāng)然, ^[\u4E00-\u9FFF]+$也是一樣的結(jié)果。
整理 m.tkk7.com/Good-Game