Merge pull request #1662 from Sherlock113/cnlogcolle

Update cn log collection guides
This commit is contained in:
Sherlock113 2021-06-02 17:21:40 +08:00 committed by GitHub
commit a902a74a88
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
9 changed files with 41 additions and 41 deletions

View File

@ -16,21 +16,21 @@ weight: 8622
1. 以 `admin` 身份登录 KubeSphere 的 Web 控制台。点击左上角的**平台管理**,然后选择**集群管理**。
2. 如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。如果尚未启用该功能,请直接进行下一步。
{{< notice note >}}
3. 在**集群管理**页面,选择**集群设置**下的**日志收集**
如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群
4. 点击**添加日志接收器**并选择 **Elasticsearch**
{{</ notice >}}
![add-receiver](/images/docs/cluster-administration/cluster-settings/log-collections/add-es-as-receiver/add-receiver.png)
2. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
5. 提供 Elasticsearch 服务地址和端口信息,如下所示:
3. 点击**添加日志接收器**并选择 **Elasticsearch**
![add-es](/images/docs/cluster-administration/cluster-settings/log-collections/add-es-as-receiver/add-es.png)
4. 提供 Elasticsearch 服务地址和端口信息,如下所示:
6. Elasticsearch 会显示在**日志收集**页面的接收器列表中,状态为**收集中**。
![add-es](/images/docs/zh-cn/cluster-administration/cluster-settings/log-collection/add-es-as-receiver/add-es.png)
![receiver-list](/images/docs/cluster-administration/cluster-settings/log-collections/add-es-as-receiver/receiver-list.png)
5. Elasticsearch 会显示在**日志收集**页面的接收器列表中,状态为**收集中**。
7. 若要验证 Elasticsearch 是否从 Fluent Bit 接收日志,从右下角的**工具箱**中点击**日志查询**,在控制台中搜索日志。有关更多信息,请参阅[日志查询](../../../../toolbox/log-query/)。
6. 若要验证 Elasticsearch 是否从 Fluent Bit 接收日志,从右下角的**工具箱**中点击**日志查询**,在控制台中搜索日志。有关更多信息,请参阅[日志查询](../../../../toolbox/log-query/)。

View File

@ -123,20 +123,23 @@ EOF
## 步骤 2添加 Fluentd 作为日志接收器
1. 以 `admin` 身份登录 KubeSphere 的 Web 控制台。点击左上角的**平台管理**,然后选择**集群管理**。
2. 如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。如果尚未启用该功能,请直接进行下一步。
3. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
4. 点击**添加日志接收器**并选择 **Fluentd**
{{< notice note >}}
![add-receiver](/images/docs/cluster-administration/cluster-settings/log-collections/add-fluentd-as-receiver/add-receiver.png)
如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。
5. 输入 **Fluentd** 服务地址和端口信息,如下所示:
{{</ notice >}}
![add-fluentd](/images/docs/cluster-administration/cluster-settings/log-collections/add-fluentd-as-receiver/add-fluentd.png)
2. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
6. Fluentd 会显示在**日志收集**页面的接收器列表中,状态为**收集中**。
3. 点击**添加日志接收器**并选择 **Fluentd**
4. 输入 **Fluentd** 服务地址和端口信息,如下所示:
![add-fluentd](/images/docs/zh-cn/cluster-administration/cluster-settings/log-collection/add-fluentd-as-receiver/add-fluentd.png)
5. Fluentd 会显示在**日志收集**页面的接收器列表中,状态为**收集中**。
![receiver-list](/images/docs/cluster-administration/cluster-settings/log-collections/add-fluentd-as-receiver/receiver-list.png)
## 步骤 3验证 Fluentd 能否从 Fluent Bit 接收日志
@ -152,4 +155,4 @@ EOF
6. 您可以看到日志持续滚动输出。
![container-logs](/images/docs/cluster-administration/cluster-settings/log-collections/add-fluentd-as-receiver/container-logs.png)
![container-logs](/images/docs/zh-cn/cluster-administration/cluster-settings/log-collection/add-fluentd-as-receiver/container-logs.png)

View File

@ -103,21 +103,25 @@ weight: 8623
1. 以 `admin` 身份登录 KubeSphere 的 Web 控制台。点击左上角的**平台管理**,然后选择**集群管理**。
2. 如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。如果尚未启用该功能,请直接进行下一步。
{{< notice note >}}
3. 在**集群管理**页面,选择**集群设置**下的**日志收集**
如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群
4. 点击**添加日志接收器**并选择 **Kafka**。输入 Kafka 代理地址和端口信息,然后点击**确定**继续。
{{</ notice >}}
```bash
my-cluster-kafka-0.my-cluster-kafka-brokers.default.svc 9092
my-cluster-kafka-1.my-cluster-kafka-brokers.default.svc 9092
my-cluster-kafka-2.my-cluster-kafka-brokers.default.svc 9092
```
2. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
![add-kafka](/images/docs/cluster-administration/cluster-settings/log-collections/add-kafka-as-receiver/add-kafka.png)
3. 点击**添加日志接收器**并选择 **Kafka**。输入 Kafka 代理地址和端口信息,然后点击**确定**继续。
5. 运行以下命令验证 Kafka 集群是否能从 Fluent Bit 接收日志:
| 地址 | 端口 |
| ------------------------------------------------------- | ---- |
| my-cluster-kafka-0.my-cluster-kafka-brokers.default.svc | 9092 |
| my-cluster-kafka-1.my-cluster-kafka-brokers.default.svc | 9092 |
| my-cluster-kafka-2.my-cluster-kafka-brokers.default.svc | 9092 |
![add-kafka](/images/docs/zh-cn/cluster-administration/cluster-settings/log-collection/add-kafka-as-receiver/add-kafka.png)
4. 运行以下命令验证 Kafka 集群是否能从 Fluent Bit 接收日志:
```bash
# Start a util container

View File

@ -24,13 +24,15 @@ KubeSphere 提供灵活的日志收集配置方式。基于 [FluentBit Operator]
2. 点击左上角的**平台管理**,然后选择**集群管理**。
3. 如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。如果尚未启用该功能,请直接进行下一步。
{{< notice note >}}
4. 选择**集群设置**下的**日志收集**
如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群
5. 在**日志**选项卡下点击**添加日志接收器**。
{{</ notice >}}
![log-collections](/images/docs/cluster-administration/cluster-settings/log-collections/introduction/log-collections.png)
3. 选择**集群设置**下的**日志收集**。
4. 在**日志**选项卡下点击**添加日志接收器**。
{{< notice note >}}
@ -61,8 +63,6 @@ Kafka 往往用于接收日志,并作为 Spark 等处理系统的代理 (Broke
自 KubeSphere v3.0.0 起Kubernetes 事件和 Kubernetes 以及 KubeSphere 审计日志可以通过和容器日志相同的方式进行存档。如果在 [ClusterConfiguration](https://github.com/kubesphere/kubekey/blob/release-1.1/docs/config-example.md) 中启用了 `events``auditing`**日志收集**页面会对应显示**事件**或**审计**选项卡。您可以前往对应选项卡为 Kubernetes 事件或 Kubernetes 以及 KubeSphere 审计日志配置日志接收器。
![log-collections-events](/images/docs/cluster-administration/cluster-settings/log-collections/introduction/log-collections-events.png)
容器日志、Kubernetes 事件和 Kubernetes 以及 KubeSphere 审计日志应存储在不同的 Elasticsearch 索引中以便在 KubeSphere 中进行搜索,索引前缀如下:
- 容器日志:`ks-logstash-log`
@ -76,15 +76,10 @@ Kafka 往往用于接收日志,并作为 Spark 等处理系统的代理 (Broke
1. 在**日志收集**页面,点击一个日志接收器并进入其详情页面。
2. 点击**更多操作**并选择**更改状态**。
![more](/images/docs/cluster-administration/cluster-settings/log-collections/introduction/more.png)
3. 选择**激活**或**关闭**以启用或停用该日志接收器。
![change-status](/images/docs/cluster-administration/cluster-settings/log-collections/introduction/change-status.png)
4. 停用后,日志接收器的状态会变为**关闭**,激活时状态为**收集中**。
![receiver-status](/images/docs/cluster-administration/cluster-settings/log-collections/introduction/receiver-status.png)
## 修改或删除日志接收器
@ -93,6 +88,4 @@ Kafka 往往用于接收日志,并作为 Spark 等处理系统的代理 (Broke
1. 在**日志收集**页面,点击一个日志接收器并进入其详情页面。
2. 点击**编辑**或从下拉菜单中选择**编辑配置文件**以编辑日志接收器。
![more](/images/docs/cluster-administration/cluster-settings/log-collections/introduction/more.png)
3. 点击**删除日志接收器**进行删除。

Binary file not shown.

Before

Width:  |  Height:  |  Size: 145 KiB

After

Width:  |  Height:  |  Size: 52 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 48 KiB