[问题] 想请问有更有效率的写法吗?

楼主: sariel0322 (sariel)   2014-08-24 14:05:40
我想把一个列数相当多的csv档案
把里面重复的列数给删除掉
我只能想到这种写法:
import csv
rows = []
a = 0
o = open("output.csv","w")
f = open("input.csv","r")
for row in csv.reader(f):
rows.append(row[0]+","+row[1]+","+row[2]+","+row[3]+","+row[4]+","+row[5]+","+row[6]+","+row[7]+","+row[8]+","+row[9]+","+row[10])
for i in set(rows):
o.write(i+"\n")
f.close()
o.close()
但由于行数非常多,资料量也大(csv档案约400mb)
因此全部跑完可能需要五天(有写个计数器来大约计算过,为了节省空间没列出来)
想请问有没有更有效率的写法
作者: LiloHuang (十年一刻)   2014-08-24 17:02:00
如果重复的资料很多,应该可以不用先把资料放到list内提供一个做法也许不见得会变快 XDimport csvuniqueSet = set()o = open("output.csv","w")f = open("input.csv","r")for row in csv.reader(f):line = ",".join(row)if line not in uniqueSet:o.write(line + "\n")uniqueSet.add(line)f.close()o.close()有时候性能瓶颈是在硬盘本身,可以看看 CPU 是否有吃满毕竟 400mb 的 CSV 要跑到五天真的有点久了些...避免先放到 list 再转,至少可以省掉一次 O(n) 的浪费
作者: yjc1 (.来而色月踏我.)   2014-08-24 20:41:00
不考虑用shell的sort -n < input.csv | uniq > output.csv ?
作者: LiloHuang (十年一刻)   2014-08-24 21:10:00
推 yjcl 的做法,虽然会动到资料先后顺序,但非常优雅!

Links booklink

Contact Us: admin [ a t ] ucptt.com