求助,使用过程spark streaming 中资源利用不到位?


求助,星火流的资源利用不到位?求助,星火流的资源利用不到位?导读:有一个问题:使用spark streaming解析kafka传输的二进制数据,每个包大约有4000个属性,每个包需要循环4000次。现在,一台机器一秒钟可以解析2000个,但是机器是添加上去的。
转载请注明原文地址:https://juke.outofmemory.cn/read/1890414.html

最新回复(0)