fix broken links in homepage

Signed-off-by: FeynmanZhou <pengfeizhou@yunify.com>
This commit is contained in:
FeynmanZhou 2020-09-08 00:04:02 +08:00
parent cab198dd0f
commit 20d2047820
3 changed files with 113 additions and 15 deletions

View File

@ -96,7 +96,7 @@ section4:
- name: Application Store
icon: /images/home/store.svg
content: Provide an application store for Helm-based applications, and offer application lifecycle management
link: "https://kubesphere.io/docs/installation/install-openpitrix/"
link: "/docs/pluggable-components/app-store/"
color: grape
- name: Service Mesh (Istio-based)
@ -120,20 +120,19 @@ section4:
- name: Multiple Storage Solutions
icon: /images/home/multiple.svg
content: Support GlusterFS, CephRBD, NFS, LocalPV solutions, and provide CSI plugins to consume storage from multiple cloud providers
link: "https://kubesphere.io/docs/introduction/features/#multiple-storage-solutions-support"
link: "/docs/introduction/features/#multiple-storage-solutions"
color: grape
- name: Multiple Network Solutions
icon: /images/home/network.svg
content: Provide a <a class='inner-a' target='_blank' href='https://porterlb.io'>load balancer Porter</a> for bare metal Kubernetes, and offers network policy management, support Calico and Flannel CNI
link: "https://kubesphere.io/docs/introduction/features/#multiple-network-solutions-support"
link: "/docs/introduction/features/#multiple-network-solutions"
color: green
- name: Multi-cluster Management
icon: /images/home/management.svg
content: Distribute applications across multiple clusters and cloud providers, and provide disaster recovery solutions and cross-cluster observability
check: true
link: ""
link: "/docs/multicluster-management/introduction/overview/"
color: orange
section5:

View File

@ -96,7 +96,7 @@ section4:
- name: 应用商店
icon: /images/home/store.svg
content: 提供基于 Helm 的应用商店与应用仓库,内置多个应用模板,支持应用生命周期管理
link: "https://kubesphere.io/docs/zh-CN/installation/install-openpitrix/"
link: "/zh/docs/pluggable-components/app-store/"
color: grape
- name: 基于 Istio 的微服务治理
@ -120,20 +120,19 @@ section4:
- name: 支持多种存储方案
icon: /images/home/multiple.svg
content: 支持 GlusterFS、Ceph RBD、NFS、LocalPV提供多个 CSI 插件对接使用云上的企业级存储产品
link: "https://kubesphere.io/docs/zh-CN/introduction/features/#multiple-storage-solutions-support"
link: "/zh/docs/introduction/features/#multiple-storage-solutions"
color: grape
- name: 网络管理
icon: /images/home/network.svg
content: 提供面向物理机 Kubernetes 环境的负载均衡器 <a class='inner-a' target='_blank' href='https://porterlb.io'>Porter</a>,支持网络策略的可视化管理,支持 Calico 与 Flannel CNI
link: "https://kubesphere.io/docs/zh-CN/introduction/features/#multiple-network-solutions-support"
link: "/zh/docs/introduction/features/#multiple-network-solutions"
color: green
- name: 多集群管理
icon: /images/home/management.svg
content: 跨多云与多集群统一分发应用,提供集群高可用与灾备的最佳实践,支持跨级群的可观察性
check: true
link: ""
link: "/zh/docs/multicluster-management/introduction/overview/"
color: orange
section5:

View File

@ -1,9 +1,109 @@
---
title: "Install KubeSphere on Huaweicloud CCE"
keywords: 'Kubernetes, KubeSphere, CCE, Installation, Huaweicloud'
description: 'How to install KubeSphere on Huaweicloud CCE'
title: "在华为云 CCE 安装 KubeSphere"
keywords: "kubesphere, kubernetes, docker, huawei, cce"
description: "介绍如何在华为云 CCE 容器引擎上部署 KubeSphere 3.0"
weight: 2268
weight: 2252
---
TBD
本指南将介绍如果在[华为云 CCE 容器引擎](https://support.huaweicloud.com/cce/)上部署并使用 KubeSphere 3.0.0 平台。
## 华为云 CCE 环境准备
### 创建 Kubernetes 集群
首先按使用环境的资源需求创建 Kubernetes 集群,满足以下一些条件即可(如已有环境并满足条件可跳过本节内容):
- KubeSphere 3.0.0 默认支持的 Kubernetes 版本为 `1.15.x`, `1.16.x`, `1.17.x`, `1.18.x`,需要选择其中支持的版本进行集群创建(如 `v1.15.11`, `v1.17.9`
- 需要确保 Kubernetes 集群所使用的云主机的网络可以,可以通过在创建集群的同时 “自动创建” 或 “使用已有” 弹性 IP或者在集群创建后自行配置网络如配置 [NAT 网关](https://support.huaweicloud.com/natgateway/)
- 工作节点规格方面建议选择 `s3.xlarge.2``4核8GB` 配置,并按需扩展工作节点数量(通常生产环境需要 3 个及以上工作节点)。
### 创建公网 kubectl 证书
- 创建完集群后,进入 `资源管理` > `集群管理` 界面,在 `基本信息` > `网络` 面板中,绑定 `公网apiserver地址`
- 而后在右侧面板中,选择 `kubectl` 标签页,并在 `下载kubectl配置文件` 列表项中 `点击此处下载`,即可获取公用可用的 kubectl 证书。
![生成 Kubectl 配置文件](/images/docs/huawei-cce/zh/generate-kubeconfig.png)
获取 kubectl 配置文件后,可通过 kubectl 命令行工具来验证集群连接:
```bash
$ kubectl version
Client Version: version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.8", GitCommit:"9f2892aab98fe339f3bd70e3c470144299398ace", GitTreeState:"clean", BuildDate:"2020-08-15T10:08:56Z", GoVersion:"go1.14.7", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"17+", GitVersion:"v1.17.9-r0-CCE20.7.1.B003-17.36.3", GitCommit:"136c81cf3bd314fcbc5154e07cbeece860777e93", GitTreeState:"clean", BuildDate:"2020-08-08T06:01:28Z", GoVersion:"go1.13.9", Compiler:"gc", Platform:"linux/amd64"}
```
## KubeSphere 平台部署
### 创建自定义 StorageClass
> 由于华为 CCE 自带的 Everest CSI 组件所提供的 StorageClass `csi-disk` 默认指定的是 SATA 磁盘(即普通 I/O 磁盘),但实际创建的 Kubernetes 集群所配置的磁盘基本只有 SAS高 I/O和 SSD (超高 I/O),因此建议额外创建对应的 StorageClass并设定为默认以方便后续部署使用。参见官方文档 - [使用 kubectl 创建云硬盘](https://support.huaweicloud.com/usermanual-cce/cce_01_0044.html#section7)。
以下示例展示如何创建一个 SAS高 I/O磁盘对应的 StorageClass
```yaml
# csi-disk-sas.yaml
---
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
annotations:
storageclass.kubernetes.io/is-default-class: "true"
storageclass.kubesphere.io/support-snapshot: "false"
name: csi-disk-sas
parameters:
csi.storage.k8s.io/csi-driver-name: disk.csi.everest.io
csi.storage.k8s.io/fstype: ext4
# 绑定华为 “高I/O” 磁盘,如需 “超高I/O“ 则此值改为 SSD
everest.io/disk-volume-type: SAS
everest.io/passthrough: "true"
provisioner: everest-csi-provisioner
allowVolumeExpansion: true
reclaimPolicy: Delete
volumeBindingMode: Immediate
```
关于如何设定/取消默认 StorageClass可参考 Kubernetes 官方文档 - [改变默认 StorageClass](https://kubernetes.io/zh/docs/tasks/administer-cluster/change-default-storage-class/)。
### 通过 ks-installer 执行最小化部署
接下来就可以使用 [ks-installer](https://github.com/kubesphere/ks-installer) 在已有的 Kubernetes 集群上来执行 KubeSphere 部署,建议首先还是以最小功能集进行安装,可执行以下命令:
```bash
$ kubectl apply -f https://raw.githubusercontent.com/kubesphere/ks-installer/master/deploy/kubesphere-installer.yaml
$ kubectl apply -f https://raw.githubusercontent.com/kubesphere/ks-installer/master/deploy/cluster-configuration.yaml
```
执行部署命令后,可以通过进入 `工作负载` > `容器组 Pod` 界面,在右侧面板中查询 `kubesphere-system` 命名空间下的 Pod 运行状态了解 KubeSphere 平台最小功能集的部署状态;通过该命名空间下 `ks-console-xxxx` 容器的状态来了解 KubeSphere 控制台应用的可用状态。
![部署 KubeSphere 最小功能集](/images/docs/huawei-cce/zh/deploy-ks-minimal.png)
### 开启 KubeSphere 外网访问
通过 `kubesphere-system` 命名空间下的 Pod 运行状态确认 KubeSphere 基础组件都已进入运行状态后,我们需要为 KubeSphere 控制台开启外网访问。
进入 `资源管理` > `网络管理`,在右侧面板中选择 `ks-console` 更改网络访问方式,建议选用 `负载均衡(``LoadBalancer` 访问方式(需绑定弹性公网 IP配置完成后如下图
![开启 KubeSphere 外网访问](/images/docs/huawei-cce/zh/expose-ks-console.png)
服务细节配置基本上选用默认选项即可,当然也可以按需进行调整:
![为 KubeSphere 控制台配置负载均衡访问](/images/docs/huawei-cce/zh/edit-ks-console-svc.png)
通过负载均衡绑定公网访问后,即可使用给定的访问地址进行访问,进入到 KubeSphere 的登陆界面并使用默认账号(用户名 `admin`,密码 `P@88w0rd`)即可登陆平台:
![登录 KubeSphere 平台](/images/docs/huawei-cce/zh/login-ks-console.png)
### 通过 KubeSphere 开启附加组件
KubeSphere 平台外网可访问后,接下来的操作即可都在平台内完成。开启附加组件的操作可以参考社区文档 - `KubeSphere 3.0 界面开启可插拔组件安装`
💡 需要留意:在开启 Istio 组件之前由于自定义资源定义CRD冲突的问题需要先删除华为 CCE 自带的 `applications.app.k8s.io` ,最直接的方式是通过 kubectl 工具来完成:
```bash
$ kubectl delete crd applications.app.k8s.io
```
全部附加组件开启并安装成功后,进入集群管理界面,可以得到如下界面呈现效果,特别是在 `服务组件` 部分可以看到已经开启的各个基础和附加组件:
![KubeSphere 全功能集管理界面](/images/docs/huawei-cce/zh/view-ks-console-full.png)