Python编码问题详解

1.Python编码基础

1.1 str和unicode

python中有两种数据模型来支持字符串这种数据类型,str和unicode,它们的基类都是basestring。比如s = "中文"就是str类型的字符串,而u=u"中文"就是一个unicode类型的字符串。unicode是由str类型的字符串解码后得到,unicode也可以编码成str类型。即

 

str --> decode -->unicode
unicode --> encode --> str

 

严格来说,str也许应该叫做字节串,因为对于UTF-8编码的str类型"中文",使用len()函数得到的结果是6,因为UTF-8编码的str类型“中文”实际是"\xe4\xb8\xad\xe6\x96\x87"。而对于unicode类型u“中文”(实际是u"\u4e2d\u6587"),使用len()函数得到结果是2.

1.2 头部编码声明

在python源代码文件中如果有用到非ascii字符,比如中文,那么需要在源码文件头部声明源代码字符编码,格式如下:

 

#-*- coding: utf-8 -*-

 

这个格式看起比较复杂,其实python只检查#、coding,编码等字符串,可以简写成#coding:utf-8,甚至还可以写成#coding:u8。

 

2.Python2.x常见编码问题

2.1 头部编码声明和文件编码问题

文件头部编码声明决定了python解析源码中的str的编码选择方式,比如头部声明的是utf-8编码,则代码中s="中文"python就会按照utf-8编码格式来解析,通过repr(s)可以看到字符编码是"\xe4\xb8\xad\xe6\x96\x87",如果头部声明的编码是gbk编码,则python会对s采用gbk编码解析,结果是"\xd6\xd0\xce\xc4"

需要注意的是,文件本身的编码要跟文件头部声明编码一致,不然就会出现问题。文件本身的编码在Linux下面可以在vim下用命令set fenc来查看。如果文件本身编码是gbk,而源码文件头部声明的编码是utf-8,这样如果源码中有中文就会有问题了,因为本身中文str存储是按照gbk编码来的,而python在解析str的时候又以为是utf-8编码,这样就会报SyntaxError: (unicode error) ‘utf8‘ codec can‘t decode byte错误。

2.2 默认编码问题

下面看个python默认编码导致的问题:

 

#coding: utf-8
u = u"中文"
print repr(u) # u‘\u4e2d\u6587‘

s = "中文"
print repr(s) # ‘\xe4\xb8\xad\xe6\x96\x87‘

u2 = s.decode("utf-8")
print repr(u2) # u‘\u4e2d\u6587‘

#s2 = u.decode("utf-8") #编码错误
#u2 = s.encode("utf-8") #解码错误

 

 

注意实例中注释掉的2行代码,对于unicode最好不要直接调用decode,str最好不要直接调用encode方法。因为如果是直接调用,则相当于u.encode(default_encoding).decode("utf-8"),default_encoding是python的unicode实现中用的默认编码,即sys.getdefaultencoding()得到的编码,如果你没有设置过,那么默认编码就是ascii,如果你的unicode本身超出了ascii编码范围就会报错。同理,如果对str直接调用encode方法,那么默认会先对str进行解码,即s.decode(default_encoding).encode("utf-8"),如果str本身是中文,而default_encoding是ascii的话,解码就会出错,从而导致上面这两行会分别报UnicodeEncodeError: ‘ascii‘ codec can‘t encode characters in position...错误和UnicodeDecodeError: ‘ascii‘ codec can‘t decode byte 0xe4 in position...错误。

上面例子中注释掉的两行代码如果执行就会报错,当然,如果本身str或者unicode都在ascii编码范围,就没有问题。比如s = "abc"; s.encode("utf-8")就不会有问题,语句执行后会返回一个跟s的id不同的str。

那如果要解决实例1中的问题,有两种方法,其一是明确指定编码,如下所示:

 

#coding: utf-8
u = u"中文"
print repr(u) # u‘\u4e2d\u6587‘

s = "中文"
print repr(s) # ‘\xe4\xb8\xad\xe6\x96\x87‘

u2 = s.decode("utf-8")
print repr(u2) # u‘\u4e2d\u6587‘

s2 = u.encode("utf-8").decode("utf-8")  # OK                                    
u2 = s.decode("utf8").encode("utf-8")   # OK

 

 

第二种方法就是更改python的默认编码为文件编码格式,如下所示(这里只所以要reload sys模块,是因为python初始化后删除了setdefaultencoding方法):
#coding:utf-8                                                                   

import sys 
reload(sys)
sys.setdefaultencoding("utf-8") #更改默认编码为utf-8

u = u"中文"
print repr(u) # u‘\u4e2d\u6587‘

s = "中文"
print repr(s) # ‘\xe4\xb8\xad\xe6\x96\x87‘

u2 = s.decode("utf-8")
print repr(u2) # u‘\u4e2d\u6587‘

s2 = u.decode("utf-8")
u2 = s.encode("utf-8")

2.3读写文件编码

采用python的open()方法打开文件时,read()读取的是str,编码就是文件本身的编码。而调用write()写文件时,如果参数是unicode,则需要用指定编码encode,如果write()参数是unicode而且没有指定编码,则会采用python默认编码encode后再写入。

 

#coding:utf-8                                                                   
f = open("testfile")
s = f.read()
f.close()
print type(s) # 

u = s.decode("utf-8") #testfile是utf-8编码
f = open("testfile", "w")
f.write(u.encode("gbk")) #以gbk编码写入,testfile为gbk编码
f.close()

 

此外,python的codecs模块提供了一个open()方法,可以指定编码打开文件,使用这个方法打开文件读取返回是unicode。写入时,如果write参数是unicode,则使用打开文件时的编码写入,如果是str,则先使用默认编码解码成unicode后再以打开文件的编码写入(这里需要注意如果str是中文,而默认编码sys.getdefaultencoding()是ascii的话会报解码错误)。

 

#coding:gbk
import codecs

f = codecs.open(‘testfile‘, encoding=‘utf-8‘)
u = f.read()
f.close()
print type(u) # 

f = codecs.open(‘testfile‘, ‘a‘, encoding=‘utf-8‘)
f.write(u) #写入unicode

# 写入gbk编码的str,自动进行解码编码操作
s = ‘汉‘
print repr(s) # ‘\xba\xba‘
# 这里会先将GBK编码的str解码为unicode再编码为UTF-8写入
#f.write(s) #默认编码为ascii时,这会报解码错误。
f.close()


参考
http://www.2cto.com/kf/201407/317866.html

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。