cybercog / robots-txt
此包的最新版本(v1.2.1)没有可用的许可证信息。
robots.txt 生成器
v1.2.1
2016-07-04 12:42 UTC
Requires
- php: ^5.6 || ^7.0
Requires (Dev)
- friendsofphp/php-cs-fixer: ^1.11
- phpunit/phpunit: ~5.2
README
RobotsTxt 是一个用于动态创建robots.txt文件的包。它专为与Laravel和原生PHP一起使用而设计。
查看 RobotsTxt.php
类以全面了解其功能。
安装
下载
与Composer包一样,有两种安装方式
您可以通过Composer安装。选择包的“master”版本。
composer require cybercog/robots-txt
或者将以下内容添加到您的 composer.json
文件的 require
部分,然后运行 composer update
来安装。
{ "require": { "cybercog/robots-txt": "^1.0" } }
使用方法
Laravel
通过Composer安装后,您需要添加服务提供者。通过将以下内容添加到应用程序配置的 'providers' 部分(通常是 app/config/app.php
)来完成此操作
Cog\RobotsTxt\Providers\RobotsTxtServiceProvider::class,
使用Robots的最快方法是直接在您的 /app/routes.php
文件中为 robots.txt
设置回调式路由。
<?php Route::get('robots.txt', function() { // If on the live server, serve a nice, welcoming robots.txt. if (App::environment() == 'production') { RobotsTxt::addUserAgent('*'); RobotsTxt::addSitemap('sitemap.xml'); } else { // If you're on any other server, tell everyone to go away. RobotsTxt::addDisallow('*'); } return Response::make(RobotsTxt::generate(), 200, array('Content-Type' => 'text/plain')); });
原生PHP
在您的 .htaccess
文件中添加一个指向新脚本/模板/控制器/路由等的规则,用于 robots.txt
。
代码可能如下所示
<?php use Cog\RobotsTxt\RobotsTxt; $robotsTxt = new RobotsTxt(); $robotsTxt->addUserAgent('*'); $robotsTxt->addSitemap('sitemap.xml'); header("HTTP/1.1 200 OK"); echo $robotsTxt->generate();
就这样!您可以根据需要显示不同的 robots.txt
文件,以实现简单或复杂的设置。
贡献
有关如何为RobotsTxt及其相关项目做出贡献的信息,请参阅 CONTRIBUTING.md。
许可证
RobotsTxt库是一个开源软件,许可协议为MIT。