Signed-off-by: Sherlock113 <sherlockxu@yunify.com>
This commit is contained in:
Sherlock113 2021-05-14 18:03:51 +08:00
parent 9dcd151e7e
commit 4b85c9c4d7
20 changed files with 27 additions and 27 deletions

View File

@ -102,7 +102,7 @@ KubeSphere 集成了 [OpenPitrix](https://github.com/openpitrix/openpitrix)
{{</ notice >}}
8. 选择要部署应用的集和项目,为应用设置不同的配置,然后点击**部署**。
8. 选择要部署应用的集和项目,为应用设置不同的配置,然后点击**部署**。
![部署位置](/images/docs/zh-cn/appstore/application-lifecycle-management/deployment-place.PNG)

View File

@ -58,7 +58,7 @@ KubeSphere 监控集群中各种服务组件的健康状态。当关键组件发
标记为橙色的组件可能会由于各种原因在一段时间后变为绿色,例如重试拉取镜像或重新创建实例。您可以点击一个组件查看其服务详情。
{{</ notice >}}
### 集资源使用情况
### 集资源使用情况
**集群资源使用情况**显示集群中所有节点的 **CPU 使用情况**、**内存使用情况**、**磁盘利用率**和**容器组数量变化**。您可以点击左侧的饼图切换指标。右侧的曲线图显示一段时间内指示的变化趋势。
@ -146,7 +146,7 @@ IOPS 表示每秒读取和写入操作数。具体来说,磁盘的 IOPS 是每
| gRPC 流式消息 | 服务器端的 gRPC 流消息接收速率和发送速率,反映集群内是否正在进行大规模的数据读写操作。有关该指标的更多信息,请参阅[ go-grpc-prometheus](https://github.com/grpc-ecosystem/go-grpc-prometheus#counters)。 |
| WAL 日志同步时间 | WAL 调用 fsync 的延迟。在应用日志条目之前etcd 会在持久化日志条目到磁盘时调用 `wal_fsync`。有关该指标的更多信息,请参阅[ etcd Disk](https://etcd.io/docs/v3.3.12/metrics/#disk)。 |
| 库同步时间 | 后端调用提交延迟的分布。当 etcd 将其最新的增量快照提交到磁盘时,会调用 `backend_commit`。需要注意的是磁盘操作延迟较大WAL 日志同步时间或库同步时间较长)通常表示磁盘存在问题,这可能会导致请求延迟过高或集群不稳定。有关该指标的详细信息,请参阅[ etcd Disk](https://etcd.io/docs/v3.3.12/metrics/#disk)。 |
| Raft 提议 | - **提议提交速率**记录提交的协商一致提议的速率。如果集运行状况良好则该指标应随着时间的推移而增加。etcd 集群的几个健康成员可以同时具有不同的一般提议。单个成员与其 Leader 之间的持续较大滞后表示该成员缓慢或不健康。<br>- **提议应用速率**记录协商一致提议的总应用率。etcd 服务器异步地应用每个提交的提议。**提议提交速率**和**提议应用速率**的差异应该很小即使在高负载下也只有几千。如果它们之间的差异持续增大则表明 etcd 服务器过载。当使用大范围查询或大量 txn 操作等大规模查询时,可能会出现这种情况。<br>- **提议失败速率**记录提议失败的总速率。这通常与两个问题有关:与 Leader 选举相关的临时失败或由于集成员数目达不到规定数目而导致的长时间停机。<br>- **排队提议数**记录当前待处理提议的数量。待处理提议的增加表明客户端负载较高或成员无法提交提议。<br>目前,仪表板上显示的数据是 etcd 成员的平均数值。有关这些指标的详细信息,请参阅[ etcd Server](https://etcd.io/docs/v3.3.12/metrics/#server)。 |
| Raft 提议 | - **提议提交速率**记录提交的协商一致提议的速率。如果集运行状况良好则该指标应随着时间的推移而增加。etcd 集群的几个健康成员可以同时具有不同的一般提议。单个成员与其 Leader 之间的持续较大滞后表示该成员缓慢或不健康。<br>- **提议应用速率**记录协商一致提议的总应用率。etcd 服务器异步地应用每个提交的提议。**提议提交速率**和**提议应用速率**的差异应该很小即使在高负载下也只有几千。如果它们之间的差异持续增大则表明 etcd 服务器过载。当使用大范围查询或大量 txn 操作等大规模查询时,可能会出现这种情况。<br>- **提议失败速率**记录提议失败的总速率。这通常与两个问题有关:与 Leader 选举相关的临时失败或由于集成员数目达不到规定数目而导致的长时间停机。<br>- **排队提议数**记录当前待处理提议的数量。待处理提议的增加表明客户端负载较高或成员无法提交提议。<br>目前,仪表板上显示的数据是 etcd 成员的平均数值。有关这些指标的详细信息,请参阅[ etcd Server](https://etcd.io/docs/v3.3.12/metrics/#server)。 |
![ETCD Monitoring](/images/docs/zh-cn/cluster-administration/cluster-status-monitoring/etcd-monitoring.png)

View File

@ -24,7 +24,7 @@ icon: "/images/docs/docs.svg"
{{< notice tip >}}
- 关闭集群前,请您务必备份 etcd 数据,以便在重新启动集时如果遇到任何问题,可以通过 etcd 还原集群。
- 关闭集群前,请您务必备份 etcd 数据,以便在重新启动集时如果遇到任何问题,可以通过 etcd 还原集群。
- 使用本教程中的方法可以平稳关闭集群,但数据损坏的可能性仍然存在。
{{</ notice >}}

View File

@ -9,7 +9,7 @@ weight: 4000
icon: "/images/docs/docs.svg"
---
本章演示如何在云或本地托管的现有 Kubernetes 集上部署 KubeSphere 。作为容器编排的高度灵活的解决方案KubeSphere 允许用户在所有 Kubernetes 引擎上部署并使用其服务。
本章演示如何在云或本地托管的现有 Kubernetes 集上部署 KubeSphere 。作为容器编排的高度灵活的解决方案KubeSphere 允许用户在所有 Kubernetes 引擎上部署并使用其服务。
## 最受欢迎的页面
在下面的章节中,您将找到一些最受欢迎的页面。强烈建议您先参考它们。

View File

@ -1,7 +1,7 @@
---
title: "添加边缘节点"
keywords: 'Kubernetes, KubeSphere, KubeEdge'
description: '将边缘节点添加到集。'
description: '将边缘节点添加到集。'
linkTitle: "添加边缘节点"
weight: 3630
---

View File

@ -26,7 +26,7 @@ KubeSphere 使用一段时间之后,由于工作负载不断增加,您可能
{{< notice note >}}
如果您的机器上已有配置文件,就可以跳过此步骤。例如,若要将节点添加到由 KubeKey 设置的多节点集,如果您没有删除该集群,则可能仍拥有该配置文件。
如果您的机器上已有配置文件,就可以跳过此步骤。例如,若要将节点添加到由 KubeKey 设置的多节点集,如果您没有删除该集群,则可能仍拥有该配置文件。
{{</ notice >}}

View File

@ -22,7 +22,7 @@ weight: 3620
## 删除节点
1. 若要删除节点,您需要首先准备集群的配置文件(即在[设置集群](../../introduction/multioverview/#1-create-an-example-configuration-file)时所用的配置文件)。如果您没有该配置文件,请使用 [KubeKey](https://github.com/kubesphere/kubekey) 检索集信息(将默认创建文件 `sample.yaml`)。
1. 若要删除节点,您需要首先准备集群的配置文件(即在[设置集群](../../introduction/multioverview/#1-create-an-example-configuration-file)时所用的配置文件)。如果您没有该配置文件,请使用 [KubeKey](https://github.com/kubesphere/kubekey) 检索集信息(将默认创建文件 `sample.yaml`)。
```bash
./kk create config --from-cluster

View File

@ -42,7 +42,7 @@ weight: 3220
[Keepalived](https://www.keepalived.org/) 提供 VRPP 实现,并允许您配置 Linux 机器使负载均衡,预防单点故障。[HAProxy](http://www.haproxy.org/) 提供可靠、高性能的负载均衡,能与 Keepalived 完美配合。
由于 `lb1``lb2` 上安装了 Keepalived 和 HAproxy如果其中一个节点故障虚拟 IP 地址(即浮动 IP 地址)将自动与另一个节点关联,使集仍然可以正常运行,从而实现高可用。若有需要,也可以此为目的,添加更多安装 Keepalived 和 HAproxy 的节点。
由于 `lb1``lb2` 上安装了 Keepalived 和 HAproxy如果其中一个节点故障虚拟 IP 地址(即浮动 IP 地址)将自动与另一个节点关联,使集仍然可以正常运行,从而实现高可用。若有需要,也可以此为目的,添加更多安装 Keepalived 和 HAproxy 的节点。
先运行以下命令安装 Keepalived 和 HAproxy。

View File

@ -27,7 +27,7 @@ KubeKey 的几种使用场景:
- 以前基于 ansible 的安装程序依赖于许多软件,例如 Python。KubeKey 由 Go 语言开发,可以消除在多种环境中出现的问题,确保成功安装。
- KubeKey 支持多种安装选项,例如 [All-in-One](../../../quick-start/all-in-one-on-linux/)、[多节点安装](../multioverview/)以及[离线安装](../air-gapped-installation/)。
- KubeKey 使用 Kubeadm 在节点上尽可能多地并行安装 Kubernetes 集群,使安装更简便,提高效率。与旧版的安装程序相比,它极大地节省了安装时间。
- KubeKey 旨在将集作为对象来进行安装,即 CaaO。
- KubeKey 旨在将集作为对象来进行安装,即 CaaO。
## 下载 KubeKey

View File

@ -1,7 +1,7 @@
---
title: "在 VMware vSphere 安装 KubeSphere"
keywords: 'kubernetes, kubesphere, VMware vSphere, installation'
description: '了解如何在 VMware vSphere 上创建高可用 KubeSphere 集。'
description: '了解如何在 VMware vSphere 上创建高可用 KubeSphere 集。'
weight: 3510
---

View File

@ -133,7 +133,7 @@ chmod +x kk
```
{{< notice tip >}}
您可以使用高级安装来控制自定义参数或创建多节点集。具体来说,通过指定配置文件来创建集群。
您可以使用高级安装来控制自定义参数或创建多节点集。具体来说,通过指定配置文件来创建集群。
{{</ notice >}}
### 使用 KubeKey 部署集群

View File

@ -1,7 +1,7 @@
---
title: "在Azure VM实例上部署KubeSphere"
keywords: "KubeSphere, Installation, HA, high availability, load balancer, Azure"
description: "了解如何在 Azure 虚拟机上创建高可用 KubeSphere 集。"
description: "了解如何在 Azure 虚拟机上创建高可用 KubeSphere 集。"
Weight: 3410
---

View File

@ -128,7 +128,7 @@ chmod +x kk
{{< notice tip >}}
您可以使用高级安装来控制自定义参数或创建多节点集。具体来说,通过指定配置文件来创建集群。
您可以使用高级安装来控制自定义参数或创建多节点集。具体来说,通过指定配置文件来创建集群。
{{</ notice >}}

View File

@ -21,7 +21,7 @@ KubeSphere 将 [前端](https://github.com/kubesphere/console) 与 [后端](http
| ks-console | 提供 KubeSphere 的控制台服务。|
| ks-controller-manager | 实现业务逻辑的,例如创建企业空间时,为其创建对应的权限;或创建服务策略时,生成对应的 Istio 配置等。|
| metrics-server | Kubernetes 的监控组件,从每个节点的 Kubelet 采集指标信息。|
| Prometheus | 提供节点工作负载API对象的监视指标和服务。|
| Prometheus | 提供集节点工作负载API对象的监视指标和服务。|
| Elasticsearch | 提供集群的日志索引、查询、数据管理等服务,在安装时也可对接您已有的 ES 减少资源消耗。|
| Fluent Bit | 提供日志接收与转发,可将采集到的⽇志信息发送到 ElasticSearch、Kafka。 |
| Jenkins | 提供 CI/CD 流水线服务。|

View File

@ -23,7 +23,7 @@ KubeSphere 作为开源的企业级全栈化容器平台,为用户提供了一
### 部署 Kubernetes 集群
[KubeKey](https://github.com/kubesphere/kubekey) 允许用户直接在基础架构上部署 Kubernetes为 Kubernetes 集提供高可用性。建议在生产环境至少配置三个主节点。
[KubeKey](https://github.com/kubesphere/kubekey) 允许用户直接在基础架构上部署 Kubernetes为 Kubernetes 集提供高可用性。建议在生产环境至少配置三个主节点。
### Kubernetes 资源管理
@ -42,9 +42,9 @@ KubeSphere 作为开源的企业级全栈化容器平台,为用户提供了一
借助 KubeSphere的图形化 Web 控制台,用户可以管理底层的基础架构,例如添加或删除集群。可以使用相同的方式管理部署在任何基础架构(例如 Amazon EKS和Google Kubernetes Engine上的异构集群。
- **独立**:可以在 KubeSphere 容器平台中维护和管理独立部署的 Kubernetes 集群。
- **联邦**:多个 Kubernetes 集群可以聚合在一起作为 Kubernetes 资源池。当用户部署应用程序时,副本可以部署在资源池中的不同 Kubernetes 集上。由此,跨区域和多集实现了高可用性。
- **联邦**:多个 Kubernetes 集群可以聚合在一起作为 Kubernetes 资源池。当用户部署应用程序时,副本可以部署在资源池中的不同 Kubernetes 集上。由此,跨区域和多集实现了高可用性。
KubeSphere 允许用户跨集群部署应用程序。更重要的是,还可以将应用程序配置为在特定集上运行。此外,多集群功能与行业领先的应用程序管理平台 [OpenPitrix](https://github.com/openpitrix/openpitrix) 配合使用,使用户可以在整个生命周期内管理应用程序,包括发行、移除和分发。
KubeSphere 允许用户跨集群部署应用程序。更重要的是,还可以将应用程序配置为在特定集上运行。此外,多集群功能与行业领先的应用程序管理平台 [OpenPitrix](https://github.com/openpitrix/openpitrix) 配合使用,使用户可以在整个生命周期内管理应用程序,包括发行、移除和分发。
有关更多信息,请参阅[多集群管理](../../multicluster-management/)。
@ -103,7 +103,7 @@ KubeSphere 服务网络具有可视化微服务之间的连接以及它们如何
## 多租户管理
在 KubeSphere 中,资源(例如集)可以在租户之间共享。首先,管理员或运维人员需要使用不同的权限设置不同的帐户角色。可以将这些角色分配给平台中的成员,以对各种资源执行特定的操作。同时,由于 KubeSphere 完全隔离了租户,因此它们根本不会相互影响。
在 KubeSphere 中,资源(例如集)可以在租户之间共享。首先,管理员或运维人员需要使用不同的权限设置不同的帐户角色。可以将这些角色分配给平台中的成员,以对各种资源执行特定的操作。同时,由于 KubeSphere 完全隔离了租户,因此它们根本不会相互影响。
- **多租户**:它提供了基于角色的细粒度身份验证和三层授权的系统。
- **统一认证**KubeSphere 与 LDAP 或 AD 协议的中央身份验证系统兼容。还支持单点登录 (SSO),以实现租户身份的统一身份验证。

View File

@ -40,7 +40,7 @@ KubeEdge 的组件在两个单独的位置运行——云上和边缘节点上
enabled: true # 将“false”更改为“true”。
```
3. 将 `kubeedge.cloudCore.cloudHub.advertiseAddress` 的值设置为集的公共 IP 地址或边缘节点可以访问的 IP 地址。编辑完成后保存文件。
3. 将 `kubeedge.cloudCore.cloudHub.advertiseAddress` 的值设置为集的公共 IP 地址或边缘节点可以访问的 IP 地址。编辑完成后保存文件。
4. 使用该配置文件创建一个集群:
@ -65,7 +65,7 @@ KubeEdge 的组件在两个单独的位置运行——云上和边缘节点上
enabled: true # 将“false”更改为“true”。
```
3. 将 `kubeedge.cloudCore.cloudHub.advertiseAddress` 的值设置为集的公共 IP 地址或边缘节点可以访问的 IP 地址。
3. 将 `kubeedge.cloudCore.cloudHub.advertiseAddress` 的值设置为集的公共 IP 地址或边缘节点可以访问的 IP 地址。
4. 保存文件并执行以下命令开始安装:
@ -94,7 +94,7 @@ KubeEdge 的组件在两个单独的位置运行——云上和边缘节点上
enabled: true # 将“false”更改为“true”。
```
5. 将 `kubeedge.cloudCore.cloudHub.advertiseAddress` 的值设置为集的公共 IP 地址或边缘节点可以访问的 IP 地址。完成后,点击右下角的**更新**保存配置。
5. 将 `kubeedge.cloudCore.cloudHub.advertiseAddress` 的值设置为集的公共 IP 地址或边缘节点可以访问的 IP 地址。完成后,点击右下角的**更新**保存配置。
{{< notice note >}}

View File

@ -9,7 +9,7 @@ weight: 13100
KubeSphere 中的一个项目是一个 Kubernetes [命名空间](https://kubernetes.io/zh/docs/concepts/overview/working-with-objects/namespaces/),用于将资源划分成互不重叠的分组。这一功能可在多个租户之间分配集群资源,从而是一种逻辑分区功能。
多集群项目跨集群运行,能为用户提供高可用性,并在问题发生时将问题隔离在某个集群内,避免影响业务。有关更多信息,请参见[多集管理](../../multicluster-management/)。
多集群项目跨集群运行,能为用户提供高可用性,并在问题发生时将问题隔离在某个集群内,避免影响业务。有关更多信息,请参见[多集管理](../../multicluster-management/)。
本章介绍项目管理的基本操作,如创建项目和删除项目。
@ -29,7 +29,7 @@ KubeSphere 中的一个项目是一个 Kubernetes [命名空间](https://kuberne
{{< notice note >}}
- 您可以在**集群**下拉列表中更改创建项目的集群。该下拉列表只有在启用多集功能后才可见。
- 您可以在**集群**下拉列表中更改创建项目的集群。该下拉列表只有在启用多集功能后才可见。
- 如果页面上没有**创建**按钮,则表示您的企业空间没有可用的集群。您需要联系平台管理员或集群管理员,以便在集群中创建企业空间资源。平台管理员或集群管理员需要在**集群管理**页面设置[**集群可见性**](../../cluster-administration/cluster-settings/cluster-visibility-and-authorization/),才能将集群分配给企业空间。

View File

@ -71,7 +71,7 @@ HPA 功能会自动调整 Pod 的数量,将 Pod 的平均资源使用CPU
{{< notice note >}}
当 Pod 的数量达到最大值时,请确保集可以为所有 Pod 提供足够的资源。否则,一些 Pod 将创建失败。
当 Pod 的数量达到最大值时,请确保集可以为所有 Pod 提供足够的资源。否则,一些 Pod 将创建失败。
{{</ notice >}}

View File

@ -27,7 +27,7 @@ weight: 2600
{{< notice note >}}
- `multicluster` 不在本教程中介绍。如果要启用此功能,则需要为 `clusterRole` 设置相应的值。有关详细信息,请参见[多集管理](../../multicluster-management/)。
- `multicluster` 不在本教程中介绍。如果要启用此功能,则需要为 `clusterRole` 设置相应的值。有关详细信息,请参见[多集管理](../../multicluster-management/)。
- 在安装前请确保您的机器符合硬件要求。如果想启用所有的可插拔组件请参考推荐机器配置CPU ≥ 8 Core内存 ≥ 16 G磁盘空间 ≥ 100 G。
{{</ notice >}}

View File

@ -396,7 +396,7 @@ GlusterFS 和 Heketi 搭建好之后,就可以在客户端机器上安装 Glus
Created symlink from /etc/systemd/system/multi-user.target.wants/heketi.service to /lib/systemd/system/heketi.service.
```
9. 为 Heketi 创建拓扑配置文件,该文件包含添加到 Heketi 的集、节点和磁盘的信息。
9. 为 Heketi 创建拓扑配置文件,该文件包含添加到 Heketi 的集、节点和磁盘的信息。
```bash
vi /etc/heketi/topology.json