楼主:
jfla (J-Fla)
2018-10-24 17:42:27若在一mysql中有8个table要更新数据
每一table更新的数据约60万笔资料
请问以下更新的方法是否可行?
开10条执行绪(需要10个connection)
第1条执行绪从第1笔开始更新
第2条执行绪从第5万笔开始更新
第3条执行绪从第12笔开始更新
....
第10条执行绪从第50笔开始更新
请问这样子的方式可行吗?
作者:
qrtt1 (有些事,有时候。。。)
2018-10-24 17:46:00为什么要这么做?你想解决什么样的问题?
当然是可以啊? 变快 变慢 不知道而已你可以测试看看
作者:
kogrs (kogrs)
2018-10-25 00:02:0060万应该算不上大数据吧?
作者:
qrtt1 (有些事,有时候。。。)
2018-10-25 00:32:00你是打算多快!?要有个门槛出来,拿工具量一量,再来看要不要改它吧。你资料产出的那一端,到底每秒能生多少笔?你的消耗端 (mysql) 只要能承受比它高,就算达标了呗。
作者:
jej (晃奶大馬桶)
2018-10-25 12:46:00用java这么多次io当然慢 写sp吧 60小case啦
作者:
now99 (陈在天)
2018-10-26 09:03:00先看60万的条件吧
作者:
swpoker (swpoker)
2018-10-26 10:58:00这应要该要用sp去弄啊,不要硬用java啊
SP 不见得会比较好,视乎OP 要做什么。比如是每天拿到60万笔的档案,再根据档案内容update, 用stored proc 不见得会跑得快,还要考虑整体架构