robots.txt
在 app
目录的根目录下添加或生成一个符合 Robots 排除标准 的 robots.txt
文件,以告知搜索引擎爬虫在你的网站上可以访问哪些 URL。
添加一个 robots.js
或 robots.ts
文件,该文件返回一个 Robots
对象。
小贴士: robots.js
是一个特殊的路由处理程序,默认情况下会被缓存,除非它使用了 动态 API 或 动态配置 选项。
输出结果:
你可以通过向 rules
属性传递一个用户代理数组来自定义各个搜索引擎机器人如何爬取你的网站。例如:
输出结果: