modelflow-ai / ollama
ollama API 客户端。
0.2.0
2024-08-25 18:33 UTC
Requires
- php: ^8.2
- modelflow-ai/api-client: ^0.2
- webmozart/assert: ^1.11
Requires (Dev)
- asapo/remove-vendor-plugin: ^0.1
- jangregor/phpstan-prophecy: ^1.0
- php-cs-fixer/shim: ^3.15
- phpspec/prophecy-phpunit: ^2.1@stable
- phpstan/extension-installer: ^1.2
- phpstan/phpstan: ^1.10, <1.10.55
- phpstan/phpstan-phpunit: ^1.3@stable
- phpunit/phpunit: ^10.3
- rector/rector: ^0.18.1
This package is auto-updated.
Last update: 2024-08-25 18:52:47 UTC
README
Modelflow AI
Ollama
Ollama 是一个 PHP 包,提供了一个易于使用的 ollama API 客户端。
注意:这是 modelflow-ai 项目的部分,请在 主仓库 中创建问题。
注意:此项目正在积极开发中,任何反馈都备受欢迎。
安装
要安装 Ollama 包,您需要在您的机器上安装 PHP 8.2 或更高版本和 Composer。然后,您可以通过运行以下命令将包添加到您的项目中:
composer require modelflow-ai/ollama
示例
以下是一些如何在您的 PHP 应用程序中使用 Ollama 的示例。您可以在 示例目录 中找到更多详细示例。
用法
use ModelflowAi\Ollama\Ollama; // Create a client instance $client = Ollama::client(); // Use the client $chat = $client->chat(); $completion = $client->completion(); $embeddings = $client->embeddings(); // Example usage of chat $chatResponse = $chat->create([ 'model' => 'llama2', 'messages' => [['role' => 'user', 'content' => 'Hello, world!']], ]); echo $chatResponse->message->content; // Example usage of completion $completionResponse = $completion->create([ 'model' => 'llama2', 'prompt' => 'Once upon a time', ]); echo $completionResponse->response; // Example usage of embeddings $embeddingsResponse = $embeddings->create(['prompt' => 'Hello, world!']); echo $embeddingsResponse->embedding;
有关更多示例,请参阅 示例 目录。
测试 & 代码质量
要运行测试和所有代码质量工具,请使用以下命令:
composer fix
composer lint
composer test
开放点
模型 API
模型 API 是我们正在积极开发的一个领域。一旦完成,这将使用户能够直接从 Ollama 包中管理和交互他们的 AI 模型。
贡献
欢迎贡献。请在 https://github.com/modelflow-ai/.github 的主仓库中打开问题或提交拉取请求。
许可证
此项目根据 MIT 许可证授权。有关完整的版权和许可信息,请参阅与源代码一起分发的 LICENSE 文件。