mirror of
https://github.com/kubesphere/website.git
synced 2025-12-26 00:12:48 +00:00
Merge pull request #1662 from Sherlock113/cnlogcolle
Update cn log collection guides
This commit is contained in:
commit
a902a74a88
|
|
@ -16,21 +16,21 @@ weight: 8622
|
|||
|
||||
1. 以 `admin` 身份登录 KubeSphere 的 Web 控制台。点击左上角的**平台管理**,然后选择**集群管理**。
|
||||
|
||||
2. 如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。如果尚未启用该功能,请直接进行下一步。
|
||||
{{< notice note >}}
|
||||
|
||||
3. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
|
||||
如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。
|
||||
|
||||
4. 点击**添加日志接收器**并选择 **Elasticsearch**。
|
||||
{{</ notice >}}
|
||||
|
||||

|
||||
2. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
|
||||
|
||||
5. 提供 Elasticsearch 服务地址和端口信息,如下所示:
|
||||
3. 点击**添加日志接收器**并选择 **Elasticsearch**。
|
||||
|
||||

|
||||
4. 提供 Elasticsearch 服务地址和端口信息,如下所示:
|
||||
|
||||
6. Elasticsearch 会显示在**日志收集**页面的接收器列表中,状态为**收集中**。
|
||||

|
||||
|
||||

|
||||
5. Elasticsearch 会显示在**日志收集**页面的接收器列表中,状态为**收集中**。
|
||||
|
||||
7. 若要验证 Elasticsearch 是否从 Fluent Bit 接收日志,从右下角的**工具箱**中点击**日志查询**,在控制台中搜索日志。有关更多信息,请参阅[日志查询](../../../../toolbox/log-query/)。
|
||||
6. 若要验证 Elasticsearch 是否从 Fluent Bit 接收日志,从右下角的**工具箱**中点击**日志查询**,在控制台中搜索日志。有关更多信息,请参阅[日志查询](../../../../toolbox/log-query/)。
|
||||
|
||||
|
|
|
|||
|
|
@ -123,20 +123,23 @@ EOF
|
|||
## 步骤 2:添加 Fluentd 作为日志接收器
|
||||
|
||||
1. 以 `admin` 身份登录 KubeSphere 的 Web 控制台。点击左上角的**平台管理**,然后选择**集群管理**。
|
||||
2. 如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。如果尚未启用该功能,请直接进行下一步。
|
||||
3. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
|
||||
|
||||
4. 点击**添加日志接收器**并选择 **Fluentd**。
|
||||
{{< notice note >}}
|
||||
|
||||

|
||||
如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。
|
||||
|
||||
5. 输入 **Fluentd** 服务地址和端口信息,如下所示:
|
||||
{{</ notice >}}
|
||||
|
||||

|
||||
2. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
|
||||
|
||||
6. Fluentd 会显示在**日志收集**页面的接收器列表中,状态为**收集中**。
|
||||
3. 点击**添加日志接收器**并选择 **Fluentd**。
|
||||
|
||||
4. 输入 **Fluentd** 服务地址和端口信息,如下所示:
|
||||
|
||||

|
||||
|
||||
5. Fluentd 会显示在**日志收集**页面的接收器列表中,状态为**收集中**。
|
||||
|
||||

|
||||
|
||||
## 步骤 3:验证 Fluentd 能否从 Fluent Bit 接收日志
|
||||
|
||||
|
|
@ -152,4 +155,4 @@ EOF
|
|||
|
||||
6. 您可以看到日志持续滚动输出。
|
||||
|
||||

|
||||

|
||||
|
|
@ -103,21 +103,25 @@ weight: 8623
|
|||
|
||||
1. 以 `admin` 身份登录 KubeSphere 的 Web 控制台。点击左上角的**平台管理**,然后选择**集群管理**。
|
||||
|
||||
2. 如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。如果尚未启用该功能,请直接进行下一步。
|
||||
{{< notice note >}}
|
||||
|
||||
3. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
|
||||
如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。
|
||||
|
||||
4. 点击**添加日志接收器**并选择 **Kafka**。输入 Kafka 代理地址和端口信息,然后点击**确定**继续。
|
||||
{{</ notice >}}
|
||||
|
||||
```bash
|
||||
my-cluster-kafka-0.my-cluster-kafka-brokers.default.svc 9092
|
||||
my-cluster-kafka-1.my-cluster-kafka-brokers.default.svc 9092
|
||||
my-cluster-kafka-2.my-cluster-kafka-brokers.default.svc 9092
|
||||
```
|
||||
2. 在**集群管理**页面,选择**集群设置**下的**日志收集**。
|
||||
|
||||

|
||||
3. 点击**添加日志接收器**并选择 **Kafka**。输入 Kafka 代理地址和端口信息,然后点击**确定**继续。
|
||||
|
||||
5. 运行以下命令验证 Kafka 集群是否能从 Fluent Bit 接收日志:
|
||||
| 地址 | 端口 |
|
||||
| ------------------------------------------------------- | ---- |
|
||||
| my-cluster-kafka-0.my-cluster-kafka-brokers.default.svc | 9092 |
|
||||
| my-cluster-kafka-1.my-cluster-kafka-brokers.default.svc | 9092 |
|
||||
| my-cluster-kafka-2.my-cluster-kafka-brokers.default.svc | 9092 |
|
||||
|
||||

|
||||
|
||||
4. 运行以下命令验证 Kafka 集群是否能从 Fluent Bit 接收日志:
|
||||
|
||||
```bash
|
||||
# Start a util container
|
||||
|
|
|
|||
|
|
@ -24,13 +24,15 @@ KubeSphere 提供灵活的日志收集配置方式。基于 [FluentBit Operator]
|
|||
|
||||
2. 点击左上角的**平台管理**,然后选择**集群管理**。
|
||||
|
||||
3. 如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。如果尚未启用该功能,请直接进行下一步。
|
||||
{{< notice note >}}
|
||||
|
||||
4. 选择**集群设置**下的**日志收集**。
|
||||
如果您启用了[多集群功能](../../../../multicluster-management/),您可以选择一个集群。
|
||||
|
||||
5. 在**日志**选项卡下点击**添加日志接收器**。
|
||||
{{</ notice >}}
|
||||
|
||||

|
||||
3. 选择**集群设置**下的**日志收集**。
|
||||
|
||||
4. 在**日志**选项卡下点击**添加日志接收器**。
|
||||
|
||||
{{< notice note >}}
|
||||
|
||||
|
|
@ -61,8 +63,6 @@ Kafka 往往用于接收日志,并作为 Spark 等处理系统的代理 (Broke
|
|||
|
||||
自 KubeSphere v3.0.0 起,Kubernetes 事件和 Kubernetes 以及 KubeSphere 审计日志可以通过和容器日志相同的方式进行存档。如果在 [ClusterConfiguration](https://github.com/kubesphere/kubekey/blob/release-1.1/docs/config-example.md) 中启用了 `events` 或 `auditing`,**日志收集**页面会对应显示**事件**或**审计**选项卡。您可以前往对应选项卡为 Kubernetes 事件或 Kubernetes 以及 KubeSphere 审计日志配置日志接收器。
|
||||
|
||||

|
||||
|
||||
容器日志、Kubernetes 事件和 Kubernetes 以及 KubeSphere 审计日志应存储在不同的 Elasticsearch 索引中以便在 KubeSphere 中进行搜索,索引前缀如下:
|
||||
|
||||
- 容器日志:`ks-logstash-log`
|
||||
|
|
@ -76,15 +76,10 @@ Kafka 往往用于接收日志,并作为 Spark 等处理系统的代理 (Broke
|
|||
1. 在**日志收集**页面,点击一个日志接收器并进入其详情页面。
|
||||
2. 点击**更多操作**并选择**更改状态**。
|
||||
|
||||

|
||||
|
||||
3. 选择**激活**或**关闭**以启用或停用该日志接收器。
|
||||
|
||||

|
||||
|
||||
4. 停用后,日志接收器的状态会变为**关闭**,激活时状态为**收集中**。
|
||||
|
||||

|
||||
|
||||
## 修改或删除日志接收器
|
||||
|
||||
|
|
@ -93,6 +88,4 @@ Kafka 往往用于接收日志,并作为 Spark 等处理系统的代理 (Broke
|
|||
1. 在**日志收集**页面,点击一个日志接收器并进入其详情页面。
|
||||
2. 点击**编辑**或从下拉菜单中选择**编辑配置文件**以编辑日志接收器。
|
||||
|
||||

|
||||
|
||||
3. 点击**删除日志接收器**进行删除。
|
||||
|
|
|
|||
Binary file not shown.
|
Before Width: | Height: | Size: 145 KiB After Width: | Height: | Size: 52 KiB |
Binary file not shown.
|
After Width: | Height: | Size: 48 KiB |
Binary file not shown.
|
After Width: | Height: | Size: 30 KiB |
Binary file not shown.
|
After Width: | Height: | Size: 352 KiB |
Binary file not shown.
|
After Width: | Height: | Size: 52 KiB |
Loading…
Reference in New Issue