Re: [闲聊] 5070卖549镁有4090的效能?

楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2025-01-07 11:52:21
※ 引述《qweraakk ()》之铭言:
: 补个恰点
: 这样我要用ps5pro还是pc玩黑悟空 囧
:
:
作者: curlymonkey (curlymonkey)   2025-01-07 11:53:00
所以直上5090就对了
作者: lightdogs   2025-01-07 11:53:00
就看需求吧
作者: HanadaIru (花田伊露)   2025-01-07 11:54:00
反正买来还不都是玩游戏的,玩AI的谁会买5070
作者: Wardyal (Wardyal)   2025-01-07 11:54:00
有没有漫画可以自动翻译的模型阿
作者: brian040818 (Pepapu) 看板:
怎么买张显卡 要考虑的多工越来越多
作者: arrenwu (键盘的战鬼)   2025-01-07 11:55:00
这跟ChatGPT有太大的不同吗?
作者: andy0481 (想吃比叡的咖哩)   2025-01-07 11:57:00
但都要买CP值的人了 会去跑多工吗
作者: Yan239 (彦)   2025-01-07 11:57:00
打个游戏还要训练Ai?
作者: arrenwu (键盘的战鬼)   2025-01-07 11:57:00
我是觉得跑AI的人比例不高就是了很多有工具需求的人是在用专门的服务
作者: meatybobby (Bobby)   2025-01-07 11:58:00
说得好 就应该直上5090
作者: storyo11413 (小便)   2025-01-07 11:58:00
跑AI不会买这吧
作者: usoko (time to face reality)   2025-01-07 11:58:00
跑AI当然是直上5090 跑游戏的70TI绰绰有余了吧
作者: healworld (忏悔明天)   2025-01-07 11:58:00
没差吧,这就是把游戏玩家跟AI切开,老黄这刀很可以
作者: fash5896 (zxc)   2025-01-07 12:00:00
单纯跑游戏5070还是可以啊,如果要跑AI为啥不一开始直接上5090,更别说5080也只有给16G而已
作者: violegrace (雷姆雷姆雷姆)   2025-01-07 12:00:00
20K是还要什么东西啦= = 要VRAM就直上90
作者: felaray (傲娇鱼)   2025-01-07 12:01:00
要AI请直上5090
作者: Xpwa563704ju (coolcookies)   2025-01-07 12:02:00
一般人谁会跑这个
作者: Peugin   2025-01-07 12:02:00
不就没钱的人考虑CP值,不然谁不知道买顶规
作者: rabbithouse (智乃的欧尼酱)   2025-01-07 12:02:00
所以我能直接完生肉 我的脑袋也有12G以上VRAM(
作者: wesdrf145 (钢弹超新手)   2025-01-07 12:02:00
打游戏的效能真的有接近4090的话 只打游戏的铁入这张.
作者: james3510 (Land of Ooo)   2025-01-07 12:02:00
战未来又不看这张 直接冲5090去了实际上这价钱确实没必要考虑4090
作者: yoyun10121 (yoyo)   2025-01-07 12:03:00
你要5090才跑得动的AI游戏, 根本卖不了啦
作者: Yanrei (大小姐萬歲!)   2025-01-07 12:05:00
不讲究画质是不是买5070TI就好了
作者: saiboos (リトルデーモンPanda)   2025-01-07 12:05:00
5090至少保价7年!
作者: Yanrei (大小姐萬歲!)   2025-01-07 12:05:00
感觉再过一段时间也差不多该换老电脑了
作者: Srwx (Srwx)   2025-01-07 12:06:00
要看未来有没有很神的AI游戏拉开差距或者是AI辅助成为主流不被当成作弊
作者: andy0481 (想吃比叡的咖哩)   2025-01-07 12:07:00
还是老话 一个游戏即时翻译AI软件 要求超越5070那就是开
作者: gx9926 (杂文)   2025-01-07 12:07:00
那要看能不能继续缩需求 不然使用门槛是80跟90的AI功能就很难推广了
作者: gx9926 (杂文)   2025-01-07 12:08:00
就变成高级玩具而已 离实用还有距离
作者: andy0481 (想吃比叡的咖哩)   2025-01-07 12:08:00
都买CP值的5070了 还会在乎用不到那种极端软件干嘛
作者: basara30 (我爱小狮子)   2025-01-07 12:08:00
当然买70ti,光是内存就值了
作者: kinghtt (万年潜水伕)   2025-01-07 12:09:00
会买5070的就是纯游戏玩家,用到AI辅助都不知道几年后,搞不好6070出了才用到
作者: arrenwu (键盘的战鬼)   2025-01-07 12:09:00
我会去玩一下 CUDA相关的运用 但我觉得大部分人不用想
作者: smik (xx)   2025-01-07 12:09:00
只拿来跑游戏,换到5070ti就是CP值顶了,再上去没太大意义
作者: violegrace (雷姆雷姆雷姆)   2025-01-07 12:09:00
好了啦 就是不敢讲价格喔 只会在那边AI游戏VRAM
作者: Ceferino (麦茶多多)   2025-01-07 12:09:00
频宽就锁死了是在幻想什么,皮衣刀客能卖你3万的东西绝
作者: yoyun10121 (yoyo)   2025-01-07 12:09:00
不是, 这个价位的哪需要考虑撑几年..
作者: arrenwu (键盘的战鬼)   2025-01-07 12:10:00
5年起.... 忍者无敌 XD
作者: yoyun10121 (yoyo)   2025-01-07 12:11:00
549镁三年后就能换7070了
作者: Jiajun0724 (川崎忍者)   2025-01-07 12:11:00
闹麻了 搞ai的乖乖拿最顶配的 拿cp值卡大谈
作者: zseineo (Zany)   2025-01-07 12:11:00
讲游戏的话就是70只有12G 有些游戏2K可能会不够
作者: arrenwu (键盘的战鬼)   2025-01-07 12:11:00
一般来说就你有需求再去换卡 想着"这样生产力较强"的结果大多就是"想太多了"
作者: vsepr55 (vsepr55)   2025-01-07 12:12:00
AI仔是这样的
作者: kinghtt (万年潜水伕)   2025-01-07 12:12:00
5070应该不至于推不动2K吧?稳60FPS+高效能应该没问题
作者: cross980115 (叹息之雨)   2025-01-07 12:13:00
gal就算没熟肉我也会选啃生肉就是了这张除了12G以外 cuda也砍得算凶
作者: yoyun10121 (yoyo)   2025-01-07 12:13:00
两万不就半只iphone而已吗, 用三年很够本了
作者: silomin (惦惦吃的多)   2025-01-07 12:13:00
3-5年后才成熟好用的东西到时再换就好 现在买适合的很OK
作者: zseineo (Zany)   2025-01-07 12:14:00
现在pc游戏有些就很吃vram 不好说
作者: arrenwu (键盘的战鬼)   2025-01-07 12:14:00
俗话说:未来可期 未来买 XD
作者: andy0481 (想吃比叡的咖哩)   2025-01-07 12:15:00
5070推2K推不动大概是FPS开到超过144然后又死不降吧
作者: Shichimiya (便当)   2025-01-07 12:15:00
会日文现省12G VRAM
作者: trtrtradam (Adam)   2025-01-07 12:16:00
你这种需求小众到没什么人在乎吧
作者: cross980115 (叹息之雨)   2025-01-07 12:16:00
砍得部分影响多 但对gal玩家来说..不多更别说gal玩家是少数
作者: fman (fman)   2025-01-07 12:17:00
不是每个人都需要AI服务啦,很多人组电脑也就上上PTT和脸书
作者: CloudVII (克劳德)   2025-01-07 12:17:00
16G够用吗
作者: hduek153 (专业打酱油)   2025-01-07 12:17:00
3060哪够 没看魔物测试版的惨状吗 正式版不知道能修多少
作者: e04su3no (钢铁毛毛虫)   2025-01-07 12:18:00
没事 等AI正大大规模成体系运用在游戏上,那时可能已经是70系列了
作者: nacoojohn (猫咪约翰)   2025-01-07 12:18:00
考虑CP值的 会跟你说学日文
作者: yys310 (有水当思无水之苦)   2025-01-07 12:18:00
这能翻色色吗 chatgpt不给翻麻烦
作者: dionysus7788 (饺子皮)   2025-01-07 12:19:00
我12G跑2K恶灵古堡4重制版会没办法画质全开 爆显存
作者: shirokase (氧化钢刺)   2025-01-07 12:19:00
现在吃VRAM到16G都还有点紧绷的游戏,除了荒野外还有吗?
作者: crazy6341556 (power_spike)   2025-01-07 12:20:00
本地inference一个大模型没必要吧
作者: Dheroblood (神手1号)   2025-01-07 12:21:00
还是要钱喔 4080不用钱?
作者: MonDaNai (冲锋战神)   2025-01-07 12:21:00
就20k的等级 你要求要有30k 50k 70k的效能本来就多啦
作者: arrenwu (键盘的战鬼)   2025-01-07 12:21:00
荒野建议配备是 RTX4060 喔,而且这个还是在开帧生成的情况下60fps
作者: YaKiSaBa (盐烤鲭鱼)   2025-01-07 12:22:00
12g是现有新游戏的门槛 真的不够
作者: yoyun10121 (yoyo)   2025-01-07 12:22:00
荒野那是已知, 现在怕的是GTA6
作者: arrenwu (键盘的战鬼)   2025-01-07 12:22:00
如果 MHWs 正式版没有更好的优化 要无脑60fps大概要至少
作者: Arashi0731 (狂舞)   2025-01-07 12:22:00
魔王猎人荒野2k就吃7G多了,8G真的不够
作者: yoyun10121 (yoyo)   2025-01-07 12:23:00
不过再怎样也不可能搞到要5080 5090才能顺跑, 不然怎么卖
作者: a19870704 (I AM I)   2025-01-07 12:23:00
当初为了4K游戏的买3080路过,如果5070没买就是等6系列
作者: rgbff ( ̄▽ ̄)   2025-01-07 12:23:00
vram大的你根本抢不到,不然也是芭乐价切这一刀至少一般玩家还有机会能入手
作者: arrenwu (键盘的战鬼)   2025-01-07 12:24:00
@yoyun10121 这倒是真的
作者: aegius1r (SC)   2025-01-07 12:24:00
一般人真的不会去烦恼AI模型这种东西啦
作者: crazy6341556 (power_spike)   2025-01-07 12:25:00
放上Collab之类的地方做推论不可行吗
作者: dragonjj (简简单单的伤过 就不算白)   2025-01-07 12:25:00
专业!
作者: e04su3no (钢铁毛毛虫)   2025-01-07 12:26:00
游戏厂商会配合主流硬件啦
作者: GGMouseKing (柴犬、黑猫与史莱姆)   2025-01-07 12:26:00
SakuraLLM我3080跑q6k效果跟即时性都蛮好的,赞叹时代进步
作者: SAptr   2025-01-07 12:28:00
真的是...你真的自己train过AI model吗 12G很够更别说你自己不train 只要inference 根本不用多少vram
作者: cccwahaha (死老百姓)   2025-01-07 12:30:00
"一般人" 看到套装机上面写个"电竞"就掏钱买了
作者: SAptr   2025-01-07 12:30:00
24G不够你有考虑过你batch size是设了什么吗
作者: lavendin82 (腰不好)   2025-01-07 12:31:00
你的世界是只有3060和5090吗
作者: pobby2266 (PO)   2025-01-07 12:32:00
现在potplay也能语音字幕+ai翻译真的屌
作者: h0103661 (路人喵)   2025-01-07 12:32:00
买90只是玩ai,跑ai都上100了
作者: LunaDance (s;omo;pbrupi)   2025-01-07 12:32:00
Inference没那么吃资源
作者: cross980115 (叹息之雨)   2025-01-07 12:33:00
我是建议内文换个例子啦 毕竟gal本来就小众gal常玩的人 看一般常见用语不太需要翻(只是差在啃原文还是要用心一点,会比较累),但真的搞的那几间…那种东西也不是一般训练得出来的,一堆自创词还是有的没有的设定用语 换个游戏就又不同套设定
作者: MonDaNai (冲锋战神)   2025-01-07 12:34:00
玩游戏想撑两代才换卡就至少70ti 16g啦 不然MHWs需求就要12g了 除非未来大作都当没看到或关这关那的 太不方便
作者: SAptr   2025-01-07 12:35:00
用个箭头就好了 OCR翻没这么吃资源
作者: a05150707 (Tw)   2025-01-07 12:35:00
8G还够吧 连荒野都能跑了
作者: SAptr   2025-01-07 12:36:00
你说你要自己产AI色图吃资源我还能当作你在说真话
作者: rgbff ( ̄▽ ̄)   2025-01-07 12:36:00
5070ti要多7000,蛋蛋都捏破了
作者: Stella (钢琴控)   2025-01-07 12:37:00
我现在最常用的是whisper日文转中文,也是需要大量的显存
作者: SuiseiTrain (彗星列车咻咻咻)   2025-01-07 12:37:00
不跑AI行8行
作者: reader2714 (无毁的湖光)   2025-01-07 12:40:00
3060魔物哪有惨 是3060ti ram不够才有问题
作者: zack867 (心里有佛看人便是佛)   2025-01-07 12:44:00
长久使用是多长 不就到下一代60xx推出而已
作者: jay920314 (Jay_9696)   2025-01-07 12:45:00
爱sakura 好用爱用 AI翻使我生活丰满
作者: Stella (钢琴控)   2025-01-07 12:46:00
现在的AI已经可以做到local端的全自动翻译了,准确率至少有个85%,很方便,whisper语言转文字+LLM翻译
作者: blackstyles (夜猫)   2025-01-07 12:49:00
会再出Vram 加强版啦
作者: LonyIce (小龙)   2025-01-07 12:49:00
你是不是有买4090?
作者: AkikaCat (阿喵)   2025-01-07 12:49:00
sakura翻小说是确实算满强,但也真的不是大众需求,有需要的自己会上 70ti 以上的卡,对于没必要且经费有限的人来说,70 还是可以选择的。另外,买张卡本来就不需要犹豫太久,会犹豫代表你还不需要,继续捏。
作者: parax (parax)   2025-01-07 12:51:00
4070s用Luna挂Sakura在游戏里即时翻译大概有0.5-1秒的延迟,如果用4090等级的能做到几乎0延迟吗?
作者: Ouroboros (Kronii's Snake)   2025-01-07 12:52:00
你是不是买4090被坑烂才在酸
作者: ringil (Ringil)   2025-01-07 12:59:00
SakuraLLM我10g也能加减跑 当然你会说完整版要更多vram但我之前租H100比较过觉得其实差异没那么大 有时甚至比较差 当然vram是越大越好啦 不然不够的时候会哭
作者: basara30 (我爱小狮子)   2025-01-07 13:00:00
一般没有换换病玩家升级都三五年,对应老黄就隔代升级,买5070ti比较还能应对未来三到五年游戏的成长
作者: zseineo (Zany)   2025-01-07 13:02:00
我是买了A卡才发现Sakurara 只能加减用XDD
作者: abcd5101888 (星羽)   2025-01-07 13:02:00
4090一般人根本不需要 5070爽买长久使用 = 0
作者: lsd25968 (cookie)   2025-01-07 13:03:00
我跑CNN模型用12G也能跑 我同学甚至不用4090也能跑transformer 拿AI吓普通人真的不必要==而且吃多少VRAM这个也可以靠超参数调整
作者: school4303 (某爬虫类)   2025-01-07 13:13:00
用参数多一点的SakuraLLM会比得上Claude3.5sonnet吗?我试过一些补丁是觉得C3.5S比较好耶
作者: TAKADO (朕没给的你不能抢)   2025-01-07 13:14:00
一张游戏卡还要想这么多卖点说服玩家掏钱是不是哪里怪怪的,一张60爽玩中等画质3A游戏的年代已经484回不去了。
作者: lolicon (三次元滚开啦)   2025-01-07 13:15:00
西洽人均N87(
作者: coollee (EloC)   2025-01-07 13:26:00
我可以理解推16g 但你的使用范例本来就是 特殊 需求了更何况现在steam大宗还是1080p的年代
作者: zseineo (Zany)   2025-01-07 13:32:00
大宗1080P根本不用升级啊XDD
作者: mao8082611 (阿高)   2025-01-07 13:39:00
两万块还要想用5年吗,现在早就不是一卡可以撑5年的时代了
作者: gm3252 (阿纶)   2025-01-07 13:52:00
所以看起来我不用未来AI那些的话,5070能打4090了
作者: lovehina9304   2025-01-07 13:53:00
简单来说不管怎样都是吊打我现在用的970...
作者: tomalex (托马列克斯)   2025-01-07 14:07:00
(′・ω・‵) 都比我的内显强
作者: hidexjapan (hide0504N￾ )   2025-01-07 14:11:00
这次就是把游戏卡和AI卡切开啊,老黄80、90的定价和规格是要把跑去MAC 跑阵列计算的拉回来M4Pro加到48GB RAM只加14000,M4 mini出来之后整个Mac mini cluster这两个月大爆发
作者: h75311418 (Wiz)   2025-01-07 14:20:00
要1070用40就跑的到了不用升12g以后会越来越不够跑是真的
作者: hinanaitenco (桃子好吃)   2025-01-07 14:39:00
载别人train好的做inference根本用不了多少vram正常人不会自己train要train用2×a100都比较好 96GB vram
作者: Vram (Gin)   2025-01-07 14:48:00
大小真的很重要
作者: lazioliz   2025-01-07 14:58:00
等应用出来再说啦 都还用不到谁会买张大vram起来放
作者: poor147 (等等,我先穿裤子)   2025-01-07 15:09:00
要跑ai的 还不会看显卡vram 那还真是笑死
作者: Puye (PUYE)   2025-01-07 15:48:00
想太远了 真的普及时 这么看重AI的 早换卡了

Links booklink

Contact Us: admin [ a t ] ucptt.com