GPT本质为用文字去计算机率以及最有可能的输出
并非逻辑理解, 且有token数目上限.
由于是用大量data + fine-tuning, 应用在生成code上面, 生成的code能不能用取决于:
1. 功能是否常见
2. 使用的语言(language), 函式库(libraries), Framework是否open source且常用
3. 你所提供的query是否足够精确
4. 你的codebase是否有特殊的patterns
即便是简单的CRUD仔, 如果公司有自己的内部framework, 内部tools,
想要让GPT产生还ok的回答你必须要提供更多的context, 就很容易超过token上限.
而LLM的training一次可是几百万美金在烧的.
所以反而工人智慧比GPT便宜得多.
在我眼中GPT只是一个好一点的stackoverflow跟GitHub issue搜寻器而已.
随着时间工作越久其实花在这些issue上面的搜寻时间并不太多.
大部分都在搜公司内部的讯息或是理解客户需求.
而这些东西都没办法透过GPT来解决
而GPT train完就不会再进步了
初阶工程师取决于个人造化但至少还有可能举一反三
如果你有试着跟GPT pair programming个一天应该就不会觉得初阶工程师会被取代
作者:
hhhomerun (HOMERUN家族哥哥)
2023-04-03 08:23:00确实很多公司内部产生的文化和know how,以现阶段的chatgpt大概无法协助
推工人智慧,model可以复制的,以后还是会进其他公司啦
但这也只是现阶段的能力,三五年后说不定真能把整个专案吃进去帮你开发
作者: yamagishi (山岸刑务官) 2023-04-03 10:12:00
变量命名还是挺好用的
作者:
oopFoo (3d)
2023-04-03 11:12:00整个专案怎么吃?瀑布式开发法?光是改规格,跟AI whisper就注定失败了。更何况,GPT本质是sentence generator
作者:
TAKADO (朕没给的你不能抢)
2023-04-03 11:24:00纯程式逻辑或CRUD也许有机会,但牵扯到UIUX或前端我觉得很难,user天天调整需求可能改到连AI都会跟你说,你行你来直接罢工。
作者: musie (Sirius) 2023-04-03 11:42:00
欸不是 coding至少一半时间都在写test 现在都直接生成了
作者:
kkes0001 (kkes0308)
2023-04-04 11:47:00token问题你可以事先拿自己project去fine tuning model,文件都有写……
作者: s06yji3 (阿南) 2023-04-04 12:03:00
还需要自己fine tune就是很大的阻力。
作者:
atpx (秋雨的心情)
2023-04-04 16:36:00整个专案花费多少时间在沟通上, 开发根本不是问题AI能帮忙沟通吗? 不行的话就没可能取代人
作者:
strlen (strlen)
2023-04-05 10:20:00你仔细静下心来想想 GPT这种找出最有机率出现的字 其实完全就跟你各位人类的思考模式一样好吗...当有个需求进来时 你脑中是不是会出现几个可能的选项然后你再根据各种因子去做权衡利弊 找作最有机会解决问题的解?GPT的原理 在方向上就跟人脑一样然后 AI需要工人智慧去fine tuning 这不也天经地义?难道婴儿生下来 你都不用去跟他互动说话 狂丢书本资料给他他就会好好长大不会歪掉?
按照这种定义那写个if/else都算gpt模式了,超棒