[心得] 我做了一个几何语义模型引擎(PipeOwl)

楼主: galaxy4552 (无闻)   2026-02-19 20:35:11
最近把之前做的 pipowl(minimal SBERT)重构了一下
变成一个比较干净的几何语义引擎,叫做 PipeOwl
老实说也不是什么很大的模型
比较像是我自己在研究语义结构时拆出来的一层
作者: DrTech (竹科管理处网军研发人员)   2026-02-20 01:11:00
早期在没有Bert的时代,就有一堆类似工作。word2vec时代,都有许多变形了。只在特定垂直领域,训练短语级别,如果只是计算量比较低,可以做语意计算,看不出有什么特别新的东西。不使用 transformer或BERT,做短语embedding,其实早期大家都玩得蛮多了。看了一下,基底是用BGE 做词汇embedding,将预先计算的结果重复使用。就是用空间换时间啊。说不用S-Bert太牵强啦,还不是有用。最后benchmark只比时间,太取巧了吧,只比时间。你用储存空间换时间,当然时间上会硬赢阿。
楼主: galaxy4552 (无闻)   2026-02-20 05:15:00
确实我是从 S-BERT/BGE 的 embedding 出发做升级我也还在思考怎么验证 因为这是时间导向设计的没错
作者: USD5566 (美金五千五百六十六)   2026-02-20 11:13:00
唉 好不容易有人分享个实在点的专案 铁o伯又在硬聊了有够尬
作者: sarsman (DeNT15T♠)   2026-02-22 07:32:00
Benchmark 挑有利的讲是常识吧

Links booklink

Contact Us: admin [ a t ] ucptt.com