GPT本质为用文字去计算机率以及最有可能的输出
并非逻辑理解, 且有token数目上限.
由于是用大量data + fine-tuning, 应用在生成code上面, 生成的code能不能用取决于:
1. 功能是否常见
2. 使用的语言(language), 函式库(libraries), Framework是否open source且常用
3. 你所提供的query是否足够精确
4. 你的codebase是否有特殊的patterns
即便是简单的CRUD仔, 如果公司有自己的内部framework, 内部tools,
想要让GPT产生还ok的回答你必须要提供更多的context, 就很容易超过token上限.
而LLM的training一次可是几百万美金在烧的.
所以反而工人智慧比GPT便宜得多.
在我眼中GPT只是一个好一点的stackoverflow跟GitHub issue搜寻器而已.
随着时间工作越久其实花在这些issue上面的搜寻时间并不太多.
大部分都在搜公司内部的讯息或是理解客户需求.
而这些东西都没办法透过GPT来解决
而GPT train完就不会再进步了
初阶工程师取决于个人造化但至少还有可能举一反三
如果你有试着跟GPT pair programming个一天应该就不会觉得初阶工程师会被取代