前阵子挺热衷玩 QQ 机器人,经常会找一些第三方的 API 对接数据,实现简单功能,乐呵乐呵群友。
一个比较有代表性的例子,就是“每天 60 秒读懂世界”。
十来条简短的每日新闻和一条人生微语,功能虽简单,但内容却挺有意义,质量也还不错,特别是对于我们这种从来不看新闻的来说。
但是奈何很多的网站的 API 服务大都不稳定,间接性的挂或者直接跑路,于是我就去 Google 了一圈,最后发现绝大多数的接口数据来源都指向这个每天 60 秒读懂世界的知乎专栏。
于是,一顿操作下来(说白了就一个简单的 ),找到了他的专栏数据接口:JSON
请求,也没有任何加密、跨域、请求头限制等,一按 F12
就出来了
1 | https://www.zhihu.com/api/v4/columns/c_1261258401923026944/items |
URL 可选参数:
limit
返回的数据条数offset
分页参数
搞到了数据之后,为了快速创建一个高性能、低延迟同时具备缓存的 API,我选择了 deno
,并使用 Deno Deploy
进行部署。
这里设置了每次请求只返回我们需要的当天的一条数据。此外,还设置了缓存,也就是说,每天只会向知乎发送唯一一次请求,从第二次开始,直接使用缓存,加快了 API 响应速度的同时,还减缓知乎服务器的压力。
成品 API 地址(可以直接拿去用哦~):
API 源码:60s - GitHub,欢迎 star。