改写之后可以快上200倍左右
(主要差异是Reduce跟apply的运算方式不同,可以自行google。)
如果可以利用C++,直接写循环可以更快,这里我就不献丑了。
我用比较少的值做计算,如果是您的size的话,应该加速不止200倍
另外,其中 Fsim = F[m, ] + eps 我觉得您需要确定一下是否与您所想的相同
M = 3
N = 500
T = 100
nSim = 300 # 稍微减少一下
B = matrix(rnorm(N * M), nrow = N)
F = matrix(rnorm(M * T), nrow = M)
sigma = abs(rnorm(M))
t1 = Sys.time()
Z2 = lapply(1:M, function(m){
eps = matrix(rnorm(nSim * T, 0, sigma[m]), nrow = nSim)
Fsim = t(apply(eps, 1, function(v) v + F[m,]))
lapply(1:nSim, function(n)outer(B[,m], Fsim[n,]))
})
result2 = Reduce(function(x, y){
lapply(1:length(x), function(i) x[[i]] + y[[i]])
}, Z2)
t2 = Sys.time()
t2 - t1
# Time difference of 0.2330141 secs
t1 = Sys.time()
Z = array(0, dim = c(M, nSim, N, T)) # preallocate
for (m in 1:M) {
eps = rnorm(nSim * T, 0, sigma[m]) #generate random normal
dim(eps) = c(nSim, T) # 变成 10000 x T
Fsim = F[m, ] + eps
for (n.path in 1:nSim) {
Z[m,n.path,,] = as.matrix(B[,m]) %*% Fsim[n.path,]
}
}
result = apply(Z, c(2,3,4), sum)
t2 = Sys.time()
t2 - t1
# Time difference of 52.60001 secs
如果要parallel,就library(snowfall)
可以参考拙作 #1Hocf0cY (R_Language)
※ 引述《kolun (...)》之铭言:
: 我有一个模型Y = BF
: 其中B是N x M, F是M x T的矩阵
: 我要透过模拟F的变化10000次再组合回去得到模拟的Y
: 但速度非常慢
: 我现在的作法是
: # data
: M = 3
: N = 500
: T = 100
: nSim = 10000
: B = matrix(rnorm(N * M), nrow = N)
: F = matrix(rnorm(M * T), nrow = M)
: sigma = abs(rnorm(M))
: Z = array(0, dim = c(M, nSim, N, T)) # preallocate
: for (m in 1:M) {
: eps = rnorm(nSim * T, 0, sigma[m]) #generate random normal
: dim(eps) = c(nSim, T) # 变成 10000 x T
: Fsim = F[m, ] + eps
: for (n.path in 1:nSim) {
: Z[m,n.path,,] = as.matrix(B[,m]) %*% Fsim[n.path,]
: }
: }
: result = apply(Z, c(2,3,4), sum)
: 其中第一步allocation就要大概3秒 (on macbook air 2013 mid)
: 产生乱数的时间好像还在预期中
: 但是里面这个for (npath in 1:10000) {...}的时间实在太久了
: 我知道我现在的作法应该是最慢的
: 想请教版上的各位大大有什么方法可以提升速度呢?
: 谢谢各位