infusionweb / laravel-robots-route
为Laravel 5.1+提供服务的robots.txt路由,基于配置设置。
0.1.0
2016-04-13 01:19 UTC
Requires
- php: >=5.5.9
- illuminate/support: ^5.1
Requires (Dev)
- codeclimate/php-test-reporter: dev-master
- phpunit/phpunit: ~4.6
This package is auto-updated.
Last update: 2024-08-28 09:43:12 UTC
README
为Laravel 5.1+提供服务的robots.txt路由,基于配置设置。
这是一个ellisthedev/laravel-5-robots的分支,后者是jayhealey/Robots的分支,基于早期工作。
此分支的目的是创建一个“设置后即可忘记”的包,可以轻松安装。因此,它具有强烈的意见,不是为配置而构建的。
启用时,允许所有客户端访问并提供sitemap.xml。否则,它几乎与Laravel默认配置完全相同,拒绝所有客户端访问。
安装
步骤1:Composer
通过Composer命令行
$ composer require infusionweb/laravel-robots-route
或将包添加到您的composer.json
{
"require": {
"infusionweb/laravel-robots-route": "~0.1.0"
}
}
步骤2:删除现有的robots.txt
Laravel附带了一个默认的robots.txt,拒绝所有客户端。为了使配置的路由正常工作,需要删除它。
$ rm public/robots.txt
步骤3:启用路由
将服务提供者添加到您的config/app.php
'providers' => [ // InfusionWeb\Laravel\Robots\RobotsServiceProvider::class, ];
发布包配置文件
$ php artisan vendor:publish --provider="InfusionWeb\Laravel\Robots\RobotsServiceProvider"
现在,您可以通过编辑config/robots.php文件来允许客户端通过robots.txt,从而向搜索引擎开放网站
return [ 'allow' => env('ROBOTS_ALLOW', true), ];
或者简单地将ROBOTS_ALLOW环境变量设置为true,通过Laravel的.env文件或托管环境。
ROBOTS_ALLOW=true
鸣谢
许可协议
MIT许可协议(MIT)。请参阅许可文件以获取更多信息。