楼主:
ZMTL (夜风/潇湘 VR板已经开板!)
2025-01-07 11:52:21※ 引述《qweraakk ()》之铭言:
: 补个恰点
: 这样我要用ps5pro还是pc玩黑悟空 囧
:
:
作者: lightdogs 2025-01-07 11:53:00
就看需求吧
作者:
Wardyal (Wardyal)
2025-01-07 11:54:00有没有漫画可以自动翻译的模型阿
2025-01-07 11:55:00
怎么买张显卡 要考虑的多工越来越多
作者:
arrenwu (键盘的战鬼)
2025-01-07 11:55:00这跟ChatGPT有太大的不同吗?
作者:
andy0481 (想吃比叡的咖哩)
2025-01-07 11:57:00但都要买CP值的人了 会去跑多工吗
作者:
Yan239 (彦)
2025-01-07 11:57:00打个游戏还要训练Ai?
作者:
arrenwu (键盘的战鬼)
2025-01-07 11:57:00我是觉得跑AI的人比例不高就是了很多有工具需求的人是在用专门的服务
作者: storyo11413 (小便) 2025-01-07 11:58:00
跑AI不会买这吧
作者:
usoko (time to face reality)
2025-01-07 11:58:00跑AI当然是直上5090 跑游戏的70TI绰绰有余了吧
没差吧,这就是把游戏玩家跟AI切开,老黄这刀很可以
单纯跑游戏5070还是可以啊,如果要跑AI为啥不一开始直接上5090,更别说5080也只有给16G而已
20K是还要什么东西啦= = 要VRAM就直上90
作者:
felaray (傲娇鱼)
2025-01-07 12:01:00要AI请直上5090
作者: Peugin 2025-01-07 12:02:00
不就没钱的人考虑CP值,不然谁不知道买顶规
所以我能直接完生肉 我的脑袋也有12G以上VRAM(
打游戏的效能真的有接近4090的话 只打游戏的铁入这张.
作者:
james3510 (Land of Ooo)
2025-01-07 12:02:00战未来又不看这张 直接冲5090去了实际上这价钱确实没必要考虑4090
作者:
Yanrei (大å°å§è¬æ²ï¼)
2025-01-07 12:05:00不讲究画质是不是买5070TI就好了
作者:
saiboos (リトルデーモンPanda)
2025-01-07 12:05:005090至少保价7年!
作者:
Yanrei (大å°å§è¬æ²ï¼)
2025-01-07 12:05:00感觉再过一段时间也差不多该换老电脑了
作者:
Srwx (Srwx)
2025-01-07 12:06:00要看未来有没有很神的AI游戏拉开差距或者是AI辅助成为主流不被当成作弊
作者:
andy0481 (想吃比叡的咖哩)
2025-01-07 12:07:00还是老话 一个游戏即时翻译AI软件 要求超越5070那就是开
作者: gx9926 (杂文) 2025-01-07 12:07:00
那要看能不能继续缩需求 不然使用门槛是80跟90的AI功能就很难推广了
作者: gx9926 (杂文) 2025-01-07 12:08:00
就变成高级玩具而已 离实用还有距离
作者:
andy0481 (想吃比叡的咖哩)
2025-01-07 12:08:00都买CP值的5070了 还会在乎用不到那种极端软件干嘛
作者:
basara30 (我爱小狮子)
2025-01-07 12:08:00当然买70ti,光是内存就值了
作者:
kinghtt (万年潜水伕)
2025-01-07 12:09:00会买5070的就是纯游戏玩家,用到AI辅助都不知道几年后,搞不好6070出了才用到
作者:
arrenwu (键盘的战鬼)
2025-01-07 12:09:00我会去玩一下 CUDA相关的运用 但我觉得大部分人不用想
作者:
smik (xx)
2025-01-07 12:09:00只拿来跑游戏,换到5070ti就是CP值顶了,再上去没太大意义
好了啦 就是不敢讲价格喔 只会在那边AI游戏VRAM
作者: Ceferino (麦茶多多) 2025-01-07 12:09:00
频宽就锁死了是在幻想什么,皮衣刀客能卖你3万的东西绝
作者:
arrenwu (键盘的战鬼)
2025-01-07 12:10:005年起.... 忍者无敌 XD
作者:
zseineo (Zany)
2025-01-07 12:11:00讲游戏的话就是70只有12G 有些游戏2K可能会不够
作者:
arrenwu (键盘的战鬼)
2025-01-07 12:11:00一般来说就你有需求再去换卡 想着"这样生产力较强"的结果大多就是"想太多了"
作者:
vsepr55 (vsepr55)
2025-01-07 12:12:00AI仔是这样的
作者:
kinghtt (万年潜水伕)
2025-01-07 12:12:005070应该不至于推不动2K吧?稳60FPS+高效能应该没问题
gal就算没熟肉我也会选啃生肉就是了这张除了12G以外 cuda也砍得算凶
作者:
silomin (惦惦吃的多)
2025-01-07 12:13:003-5年后才成熟好用的东西到时再换就好 现在买适合的很OK
作者:
zseineo (Zany)
2025-01-07 12:14:00现在pc游戏有些就很吃vram 不好说
作者:
arrenwu (键盘的战鬼)
2025-01-07 12:14:00俗话说:未来可期 未来买 XD
作者:
andy0481 (想吃比叡的咖哩)
2025-01-07 12:15:005070推2K推不动大概是FPS开到超过144然后又死不降吧
作者: trtrtradam (Adam) 2025-01-07 12:16:00
你这种需求小众到没什么人在乎吧
砍得部分影响多 但对gal玩家来说..不多更别说gal玩家是少数
作者:
fman (fman)
2025-01-07 12:17:00不是每个人都需要AI服务啦,很多人组电脑也就上上PTT和脸书
作者:
hduek153 (专业打酱油)
2025-01-07 12:17:003060哪够 没看魔物测试版的惨状吗 正式版不知道能修多少
作者:
e04su3no (钢铁毛毛虫)
2025-01-07 12:18:00没事 等AI正大大规模成体系运用在游戏上,那时可能已经是70系列了
作者:
yys310 (有水当思无水之苦)
2025-01-07 12:18:00这能翻色色吗 chatgpt不给翻麻烦
我12G跑2K恶灵古堡4重制版会没办法画质全开 爆显存
现在吃VRAM到16G都还有点紧绷的游戏,除了荒野外还有吗?
就20k的等级 你要求要有30k 50k 70k的效能本来就多啦
作者:
arrenwu (键盘的战鬼)
2025-01-07 12:21:00荒野建议配备是 RTX4060 喔,而且这个还是在开帧生成的情况下60fps
作者: YaKiSaBa (盐烤鲭鱼) 2025-01-07 12:22:00
12g是现有新游戏的门槛 真的不够
作者:
arrenwu (键盘的战鬼)
2025-01-07 12:22:00如果 MHWs 正式版没有更好的优化 要无脑60fps大概要至少
作者: Arashi0731 (狂舞) 2025-01-07 12:22:00
魔王猎人荒野2k就吃7G多了,8G真的不够
不过再怎样也不可能搞到要5080 5090才能顺跑, 不然怎么卖
当初为了4K游戏的买3080路过,如果5070没买就是等6系列
作者:
rgbff ( ̄▽ ̄)
2025-01-07 12:23:00vram大的你根本抢不到,不然也是芭乐价切这一刀至少一般玩家还有机会能入手
作者:
arrenwu (键盘的战鬼)
2025-01-07 12:24:00@yoyun10121 这倒是真的
作者:
dragonjj (简简单单的伤过 就不算白)
2025-01-07 12:25:00专业!
作者:
e04su3no (钢铁毛毛虫)
2025-01-07 12:26:00游戏厂商会配合主流硬件啦
作者: GGMouseKing (柴犬、黑猫与史莱姆) 2025-01-07 12:26:00
SakuraLLM我3080跑q6k效果跟即时性都蛮好的,赞叹时代进步
作者: SAptr 2025-01-07 12:28:00
真的是...你真的自己train过AI model吗 12G很够更别说你自己不train 只要inference 根本不用多少vram
作者: cccwahaha (死老百姓) 2025-01-07 12:30:00
"一般人" 看到套装机上面写个"电竞"就掏钱买了
作者: SAptr 2025-01-07 12:30:00
24G不够你有考虑过你batch size是设了什么吗
作者: LunaDance (s;omo;pbrupi) 2025-01-07 12:32:00
Inference没那么吃资源
我是建议内文换个例子啦 毕竟gal本来就小众gal常玩的人 看一般常见用语不太需要翻(只是差在啃原文还是要用心一点,会比较累),但真的搞的那几间…那种东西也不是一般训练得出来的,一堆自创词还是有的没有的设定用语 换个游戏就又不同套设定
玩游戏想撑两代才换卡就至少70ti 16g啦 不然MHWs需求就要12g了 除非未来大作都当没看到或关这关那的 太不方便
作者: SAptr 2025-01-07 12:35:00
用个箭头就好了 OCR翻没这么吃资源
作者: SAptr 2025-01-07 12:36:00
你说你要自己产AI色图吃资源我还能当作你在说真话
作者:
rgbff ( ̄▽ ̄)
2025-01-07 12:36:005070ti要多7000,蛋蛋都捏破了
作者:
Stella (钢琴控)
2025-01-07 12:37:00我现在最常用的是whisper日文转中文,也是需要大量的显存
3060魔物哪有惨 是3060ti ram不够才有问题
作者:
zack867 (心里有佛看人便是佛)
2025-01-07 12:44:00长久使用是多长 不就到下一代60xx推出而已
作者:
Stella (钢琴控)
2025-01-07 12:46:00现在的AI已经可以做到local端的全自动翻译了,准确率至少有个85%,很方便,whisper语言转文字+LLM翻译
作者:
LonyIce (小龙)
2025-01-07 12:49:00你是不是有买4090?
sakura翻小说是确实算满强,但也真的不是大众需求,有需要的自己会上 70ti 以上的卡,对于没必要且经费有限的人来说,70 还是可以选择的。另外,买张卡本来就不需要犹豫太久,会犹豫代表你还不需要,继续捏。
作者:
parax (parax)
2025-01-07 12:51:004070s用Luna挂Sakura在游戏里即时翻译大概有0.5-1秒的延迟,如果用4090等级的能做到几乎0延迟吗?
作者:
Ouroboros (Kronii's Snake)
2025-01-07 12:52:00你是不是买4090被坑烂才在酸
作者: ringil (Ringil) 2025-01-07 12:59:00
SakuraLLM我10g也能加减跑 当然你会说完整版要更多vram但我之前租H100比较过觉得其实差异没那么大 有时甚至比较差 当然vram是越大越好啦 不然不够的时候会哭
作者:
basara30 (我爱小狮子)
2025-01-07 13:00:00一般没有换换病玩家升级都三五年,对应老黄就隔代升级,买5070ti比较还能应对未来三到五年游戏的成长
作者:
zseineo (Zany)
2025-01-07 13:02:00我是买了A卡才发现Sakurara 只能加减用XDD
4090一般人根本不需要 5070爽买长久使用 = 0
作者:
lsd25968 (cookie)
2025-01-07 13:03:00我跑CNN模型用12G也能跑 我同学甚至不用4090也能跑transformer 拿AI吓普通人真的不必要==而且吃多少VRAM这个也可以靠超参数调整
用参数多一点的SakuraLLM会比得上Claude3.5sonnet吗?我试过一些补丁是觉得C3.5S比较好耶
作者:
TAKADO (朕没给的你不能抢)
2025-01-07 13:14:00一张游戏卡还要想这么多卖点说服玩家掏钱是不是哪里怪怪的,一张60爽玩中等画质3A游戏的年代已经484回不去了。
作者:
lolicon (三次元滚开啦)
2025-01-07 13:15:00西洽人均N87(
作者: coollee (EloC) 2025-01-07 13:26:00
我可以理解推16g 但你的使用范例本来就是 特殊 需求了更何况现在steam大宗还是1080p的年代
作者:
zseineo (Zany)
2025-01-07 13:32:00大宗1080P根本不用升级啊XDD
作者: mao8082611 (阿高) 2025-01-07 13:39:00
两万块还要想用5年吗,现在早就不是一卡可以撑5年的时代了
作者:
gm3252 (阿纶)
2025-01-07 13:52:00所以看起来我不用未来AI那些的话,5070能打4090了
作者: lovehina9304 2025-01-07 13:53:00
简单来说不管怎样都是吊打我现在用的970...
作者:
tomalex (托马列克斯)
2025-01-07 14:07:00(′・ω・‵) 都比我的内显强
这次就是把游戏卡和AI卡切开啊,老黄80、90的定价和规格是要把跑去MAC 跑阵列计算的拉回来M4Pro加到48GB RAM只加14000,M4 mini出来之后整个Mac mini cluster这两个月大爆发
要1070用40就跑的到了不用升12g以后会越来越不够跑是真的
载别人train好的做inference根本用不了多少vram正常人不会自己train要train用2×a100都比较好 96GB vram
作者:
Vram (Gin)
2025-01-07 14:48:00大小真的很重要
等应用出来再说啦 都还用不到谁会买张大vram起来放
作者:
poor147 (等等,我先穿裤子)
2025-01-07 15:09:00要跑ai的 还不会看显卡vram 那还真是笑死
作者:
Puye (PUYE)
2025-01-07 15:48:00想太远了 真的普及时 这么看重AI的 早换卡了