优化python的效率的方法:1、优化算法时间复杂度;2、减少冗余数据;3、合理使用copy与deepcopy;4、使用dict或set查找元素;5、合理使用生成器(generator)和yield。
优化方法:
(推荐教程:Python入门教程)
1、优化算法时间复杂度
算法的时间复杂度对程序的执行效率影响,在Python中可以通过选择合适的数据结构来优化时间复杂度,如list和set查找某一个元素的时间复杂度分别是O(n)和O(1)。
2、减少冗余数据
如用上三角或下三角的方式去保存一个大的对称矩阵。在0元素占大多数的矩阵里使用稀疏矩阵表示。
3、合理使用copy与deepcopy
对于dict和list等数据结构的对象,直接赋值使用的是引用的方式。而有些情况下需要复制整个对象,这时可以使用copy包里的copy和deepcopy,这两个函数的不同之处在于后者是递归复制的。效率也不一样:(以下程序在ipython中运行)
importcopy a=range(100000) %timeit-n10copy.copy(a)#运行10次copy.copy(a) %timeit-n10copy.deepcopy(a) 10loops,bestof3:1.55msperloop 10loops,bestof3:151msperloop
timeit后面的-n表示运行的次数,后两行对应的是两个timeit的输出,下同。由此可见后者慢一个数量级。
4、使用dict或set查找元素
python dict和set都是使用hash表来实现(类似c++11标准库中unordered_map),查找元素的时间复杂度是O(1)
a=range(1000) s=set(a) d=dict((i,1)foriina) %timeit-n10000100ind %timeit-n10000100ins 10000loops,bestof3:43.5nsperloop 10000loops,bestof3:49.6nsperloop
dict的效率略高(占用的空间也多一些)。
5、合理使用生成器(generator)和yield
%timeit-n100a=(iforiinrange(100000)) %timeit-n100b=[iforiinrange(100000)] 100loops,bestof3:1.54msperloop 100loops,bestof3:4.56msperloop
使用()得到的是一个generator对象,所需要的内存空间与列表的大小无关,所以效率会高一些。在具体应用上,比如set(i for i in range(100000))会比set([i for i in range(100000)])快。
但是对于需要循环遍历的情况:
%timeit-n10forxin(iforiinrange(100000)):pass %timeit-n10forxin[iforiinrange(100000)]:pass 10loops,bestof3:6.51msperloop 10loops,bestof3:5.54msperloop
后者的效率反而更高,但是如果循环里有break,用generator的好处是显而易见的。yield也是用于创建generator:
defyield_func(ls): foriinls: yieldi+1 defnot_yield_func(ls): return[i+1foriinls] ls=range(1000000) %timeit-n10foriinyield_func(ls):pass %timeit-n10foriinnot_yield_func(ls):pass 10loops,bestof3:63.8msperloop 10loops,bestof3:62.9msperloop
对于内存不是非常大的list,可以直接返回一个list,但是可读性yield更佳(人个喜好)。
评论(0)