Python字符串通过'+'和join函数拼接新字符串的性能测试比较!
有一道Python面试题,以下代码有什么局限性,要如何修改
defstrTest(num): s='Hello' foriinrange(num): s+='x' returns
上面的代码其实可以看出:由于变量str是不变对象,每次遍历,Python都会生成新的str对象来存储新的字符串,所以num越大,创建的str对象就越多,内存消耗约大,速度越慢,性能越差。如果要改变上面的问题,可以变字符串拼接为join联合的方式,代码如下:
defstrTest2(num):
s='Hello'
l=list(s)
foriinrange(num):
l.append('x')
return''.join(l)
下面两种不同处理方式,运行速度的比较:
>>>defstrTest1(num):
...s='Hello'
...foriinrange(num):
...s+='x'
...returns
>>>defstrTest2(num):
...s='Hello'
...l=list(s)
...foriinrange(num):
...l.append(s)
...return''.join(l)
>>>
>>>fromtimeitimporttimeit
#运行10万级别数据,运行速度比对
>>>timeit("strTest1(100000)",setup="from__main__importstrTest1",number=1)
0.016680980406363233
>>>timeit("strTest2(100000)",setup="from__main__importstrTest2",number=1)
0.009688869110618725
#运行100万级别数据,运行速度比对
>>>timeit("strTest1(1000000)",setup="from__main__importstrTest1",number=1)
0.14558920607187195
>>>timeit("strTest2(1000000)",setup="from__main__importstrTest2",number=1)
0.1335057276853462
#运行1000万级别数据,运行速度比对
>>>timeit("strTest1(10000000)",setup="from__main__importstrTest1",number=1)
5.9497953107860475
>>>timeit("strTest2(10000000)",setup="from__main__importstrTest2",number=1)
1.3268972136649921
#运行2000万级别数据,运行速度比对
>>>timeit("strTest1(20000000)",setup="from__main__importstrTest1",number=1)
21.661270140499056
>>>timeit("strTest2(20000000)",setup="from__main__importstrTest2",number=1)
2.6981786518920217
#运行3000万级别数据,运行速度比对
>>>timeit("strTest1(30000000)",setup="from__main__importstrTest1",number=1)
49.858089123966295
>>>timeit("strTest2(30000000)",setup="from__main__importstrTest2",number=1)
4.285787770209481
#运行4000万级别数据,运行速度比对
>>>timeit("strTest1(40000000)",setup="from__main__importstrTest1",number=1)
86.67876273457563
>>>timeit("strTest2(40000000)",setup="from__main__importstrTest2",number=1)
5.328653452047092
#运行5000万级别数据,运行速度比对
>>>timeit("strTest1(50000000)",setup="from__main__importstrTest1",number=1)
130.59138063819023
>>>timeit("strTest2(50000000)",setup="from__main__importstrTest2",number=1)
6.8375931077291625
#运行6000万级别数据,运行速度比对
>>>timeit("strTest1(60000000)",setup="from__main__importstrTest1",number=1)
188.28227241975003
>>>timeit("strTest2(60000000)",setup="from__main__importstrTest2",number=1)
8.080144489401846
#运行7000万级别数据,运行速度比对
>>>timeit("strTest1(70000000)",setup="from__main__importstrTest1",number=1)
256.54383904350277
>>>timeit("strTest2(70000000)",setup="from__main__importstrTest2",number=1)
9.387400816458012
#运行8000万级别数据,运行速度比对
>>>timeit("strTest1(80000000)",setup="from__main__importstrTest1",number=1)
333.7185806572388
>>>timeit("strTest2(80000000)",setup="from__main__importstrTest2",number=1)
10.946627677462857
从上面的比对数据可以看出,当数据比较小的时候,两者差别不大,当数据越大,两者性能差距就越大。从而可以看出,字符串拼接的方式一旦碰到大数据处理的时候,性能是非常慢的。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对毛票票的支持。如果你想了解更多相关内容请查看下面相关链接