mediawiki / crawlable-all-pages
MediaWiki中用于移除特殊:所有页面中机器人限制的扩展
1.0.0
2024-08-24 04:26 UTC
Requires (Dev)
- mediawiki/mediawiki-codesniffer: 44.0.0
- mediawiki/minus-x: 1.1.3
- php-parallel-lint/php-console-highlighter: 1.0.0
- php-parallel-lint/php-parallel-lint: 1.4.0
- phpmd/phpmd: ~2.1
This package is auto-updated.
Last update: 2024-09-21 21:01:13 UTC
README
此扩展通过更改页面HTML头部来覆盖 Special:AllPages
。这是允许搜索引擎爬虫索引您的维基百科中所有页面的相对简单方法。
移除的HTML很简单
<meta name="robots" content="noindex,nofollow"/>
不使用composer安装
- 下载并将文件放置在您的
extensions/
文件夹中名为CrawlableAllPages
的目录中。 - 在您的
LocalSettings.php
文件的底部添加以下代码
wfLoadExtension( 'CrawlableAllPages' );
- ✓ 完成 – 导航到您的维基百科中的
Special:Version
以验证扩展是否成功安装。
使用composer安装
- 如果您MediaWiki安装中没有
composer.local.json
文件,请创建一个
echo '{require: { "mediawiki/crawlable-all-pages": "dev-master" }' > composer.local.json
- 如果您已安装jq 和 moreutils 的 sponge,并且已经存在
composer.local.json
文件,您可以使用以下命令将此扩展添加到您的composer.local.json
文件中
jq '.require += { "mediawiki/crawlable-all-pages": "dev-master" }' \ composer.local.json | sponge composer.local.json
- 运行
composer update
composer update
- ✓ 完成 – 导航到您的维基百科中的
Special:Version
以验证扩展是否成功安装。