各位大家好,小弟最近想用TensorFlow来完成NN的部分 目前数据都准备好了,TensorFlow的部分则是上网查了一些资料,层及进出都设定好了 只是我遇到一个关于loss function的问题 一般训练都是N个数据进去,M个数据出来,用这M个数据与参考值求误差 但我的状况是: 我有一个三维的资料: N x M x P 里面有 N 个images,每个images有 M 个原子,每个原子有 P 个参数 希望可以利用同一个 (或者依照原子不同而分类成多个) NN 在我输入P个数据后,可以得到答案Ep 同一个image里面所有原子M的Ep加总后会得到一个值 En 全部资料会有N个En,这些En与参考值求误差后即为我的loss 目前卡在不知道该如何将M次计算后的Ep全部加总在一起
你有设定batch size 吗?还是都一个个喂?老实说你的loss function 看起来蛮蛮基本的,不懂为何会卡住我会建议你不要用一个个原子去想 而是用image的角度因为你的目标En单位是每个image就直接用(N, M, P)大小的矩阵直接去train不用拆开对应的label为长度(N,)的矩阵 这边N就是batch size