Robots
自动创建 robots.txt 文件的插件
配置参数
- filename string
The robots.txt file name
Default:"/robots.txt"
- allow string[] string
- Default:
"*"
- disallow string[] string
- rules object[]
Description
此插件允许自动创建 robots.txt 文件,用于配置哪些搜索引擎(和其他机器人,如 AI 数据抓取器)可以访问该网站。
Installation
要使用此插件,请将其导入到你的 _config.ts
文件中:
import lume from "lume/mod.ts";
import robots from "lume/plugins/robots.ts";
const site = lume();
site.use(robots(/* 选项 */));
export default site;
Usage
该插件接受一个数组,其中包含允许和禁止的机器人列表。例如:
// 显式允许 Google 和 Bing 访问
site.use(robots({
allow: ["Googlebot", "Bingbot"],
}));
请注意,此配置仅显式授予这些机器人权限,但不会阻止其他机器人扫描该网站。 如果你只想授予这些机器人权限,请将 *
值添加到 disallow
中:
// 仅允许 Google 和 Bing 访问
site.use(robots({
allow: ["Googlebot", "Bingbot"],
disallow: "*",
}));
Advanced options
rule
选项包含一个规则数组,用于更具体的配置。例如:
// 拒绝所有用户代理访问 /admin 文件夹
site.use(robots({
rules: [
{
userAgent: "*",
disallow: "/admin",
},
],
}));
More info
你可以在 Dark Visitors 查看完整的机器人列表。