[分享] 自制网页服务:行天宫图书馆—馆藏追踪

楼主: odinxp (胖胖橘)   2019-04-26 23:20:40
大家好,小弟是行天宫图书馆的忠实读者,基于自己借阅上的痛点,写了一个网页服务,
主要的功能是可以新增自订追纵行天宫图书馆的待借书籍清单
这样做最大的好处是,当想借的书籍相对多时(10本以上),可以一口气轻松掌握这些书的
目前状态,不用再自己辛苦把各书籍页面收藏在浏覧器,然后不时再一一查看(很容易忘
记)
新增的书籍每天会自动更新2次,确保和官方的资料一致
有兴趣的人可以直接参考服务网页,首页并有简单的操作说明:
https://kyomind.tw
较详细之图文版介绍(包括GitHub原始码)可以参考:
http://intro.kyomind.tw
谢谢大家
作者: pase139 ( )   2019-04-27 01:07:00
好像很有趣
作者: viaggiatore (▁音)   2019-04-27 01:41:00
咦 python? 我之前想来学学这个自己做个自用大数据但是好奇是这个程式去抓取行天宫图书馆网页资料时,会额外给系统造成巨大负担吗?譬如其他使用者Lag之类
楼主: odinxp (胖胖橘)   2019-04-27 10:35:00
用简单的爬虫抓,而且除了第一次会抓书籍页的html(为了取得书名),此后的更新只抓ajax的状态资料,大小仅7-8KB,比亲自上书籍页查看流量更小,我更新的时间间隔也都设很开。爬虫就是要“温柔”XD所以馆方服务器应该是“几乎无感”才是这个问题不错,我会把它整理在介绍文的QA,感谢提问
作者: transfers (转转人)   2019-04-27 11:08:00
作者: RLH (我们很近也很远)   2019-04-27 11:14:00
好棒
作者: a031405 (a031405)   2019-04-27 16:23:00
下次去看看
作者: e20021104 (ying)   2019-04-27 17:57:00
好强!
作者: ecccj   2019-04-27 18:49:00
好厉害
作者: ppc ( )   2019-04-28 09:55:00
作者: rerun (礼让)   2019-05-01 21:47:00
只针对一个馆的意义是什么呢?

Links booklink

Contact Us: admin [ a t ] ucptt.com