https://x.com/tentenchan2525/status/1812874131056292308
https://i.imgur.com/CYQYIKM.jpeg
8G:会唱歌
32G:能随歌声改变表情,简单的舞步跟定型对话
128G:能自创抒情唱腔,能理解前后文
512G:会唱歌跳舞会说话
1T:会做到蛋包饭程度的料理
2T:更加纤细的感情表现跟高度交流
10T:得到自我人格
100T:天网
你的下一句话是:这我早就看过了
因为是同一个人
https://x.com/tentenchan2525/status/1811343827028050242
作者:
peteru4 (幽浮上的幽香)
2024-07-16 08:16:002T就好
作者:
e5a1t20 (吃饭)
2024-07-16 08:19:001T内存好肥
作者:
felixden (cheny)
2024-07-16 08:21:004说有100T的硬盘吗==?
作者:
e5a1t20 (吃饭)
2024-07-16 08:21:00我不是说上面的图,我是说实际上要吃到1T内存好肥
作者: hongsiangfu 2024-07-16 08:24:00
1楼的1T会做蛋包饭的话ok
作者:
m95100 (海滩裤)
2024-07-16 08:25:00ROM或RAM的大小差异应该不会让软件额外生出这么多功能
作者: kusotoripeko (好油喔) 2024-07-16 08:28:00
数据库越庞大不是某个部位也要越大吗
作者:
NorAku (反或_诺拉阿古)
2024-07-16 08:43:00RAM影响记忆功能,假设ROM放训练资料跟模型。那确实容量大一点有助于情感丰富化跟记忆功能
作者: hongsiangfu 2024-07-16 08:48:00
相信未来能开发出速度媲美RAM的非挥发内存,就不用区分RAM跟ROM了
RAM愈大就能加载愈大的模型啊 不然VRAM为什么愈来愈大
一个fang跟一个joker内存都是内存应该差不多吧
作者: sata1025 (zwei9ma5ro) 2024-07-16 10:13:00
100T吧 把这这肮脏丑陋的世界重塑一下
作者:
akisumi (sumimorin)
2024-07-16 10:20:00100T 整天咪哭就好
作者: briantw 2024-07-16 10:42:00
WWWW
作者:
kkmmking (炉石想上传说阿!)
2024-07-16 11:39:0010t搞不好是爬上来剪GG我看2t就好