Openstack、Docker和Kubernetes是当前IaaS和PaaS领域最为火热的技术。随着Docker容器技术的兴起,容器编排调度引擎成为当前十分抢眼的技术,这其中尤以Google开源的Kubernetes(K8S)以Production-ready和各种完善的功能而最为人熟值。在容器及其编排引擎的推动下,Openstack的主流部署模式也在发生变化,目前的Openstack与Docker容器和Kubernetes已经形成了一种你中有我,我中有你的局面,本文主要探讨如何借助Openstack的Kolla-kubernets项目,通过Kubernetes对Openstack进行容器化部署,并最终部署一套ALL-IN-ONE类型的Openstack容器云。

一、Kubernetes集群部署主机及系统软件需求

■ 主机配置需求

1、操作系统:CentOS7.3,最小安装方式安装

2、网卡:2

3、内存:8GB可用内存

4、硬盘:40GB

■ 软件依赖

1、docker==1.12.5

2、helm >= 2.4.1

3、kubectl >=1.6.1

4、kubeadm >=1.6.1

5、kubelet >=1.6.1

6、kubernets-cni >=0.5.1

7、kolla-ansible==4.0.0

8、kolla-kubernets==0.6.0

9、kolla==4.0.0

本文所有操作都在非root用户权限下进行,如果以root用户权限进行本文介绍的部署操作,则在helm安装部分会出错。

 

二、Kubernetes集群部署

■ 系统环境配置

1、关闭系统防火墙

sudo systemctl stop firewalld

sudo systemctl disable firewalld

2、关闭SELinux

sudo setenforce 0

sudo sed -i 's/enforcing/disabled/g' /etc/selinux/config

3、网络配置

修改/etc/sysctl.conf,如下:

net.ipv4.ip_forward=1

net.ipv4.ip_nonlocal_bind=1

net.unix.max_dgram_qlen=128

net.bridge.bridge-nf-call-iptables=1

net.bridge.bridge-nf-call-ip6tables=1

net.ipv4.conf.all.rp_filter=0

net.ipv4.conf.default.rp_filter=0

■ Docker运行时环境安装准备

1、准备Docker安装源并安装Docker

sudo tee /etc/yum.repos.d/docker.repo << 'EOF'

[docker_repo]

name=Docker Repository

baseurl=https://yum.dockerproject.org/repo/main/centos/$releasever/

enabled=1

gpgcheck=0

EOF

//安装相关的依赖包

sudo yum install python-devel libffi-devel gcc openssl-devel git \

python-pip epel-release

//安装Docker

sudo yum install docker-engine-1.12.5 docker-engine-selinux-1.12.5

2、配置Docker引擎

Docker在CentOS中安装后默认的StorageDrive为lvm-loop模式的DeviceMapper,这里推荐采用lvm-direct模式的DeviceMapper。假设系统中规划由于存储Docker镜像的存储块为/dev/sdb,则Docker的lvm-direct模式DeviceMapper存储引擎配置如下:

sudo pvcreate /dev/sdb

sudo vgcreate docker /dev/sdb

sudo lvcreate --wipesignatures y -n thinpool docker -l 95%VG

sudo lvcreate --wipesignatures y -n thinpoolmeta docker -l 1%VG

sudo lvconvert -y --zero n -c 512K --thinpool docker/thinpool

--poolmetadata docker/thinpoolmeta

sudo echo -e "activation {\nthin_pool_autoextend_threshold=80

\nthin_pool_autoextend_percent=20\n}">/etc/lvm/profile/docker-thinpool.profile

sudo lvchange --metadataprofile docker-thinpool docker/thinpool"

sudo lvs -o+seg_monitor"

配置Docker引擎的MountFlags标志:

sudo mkdir /etc/systemd/system/docker.service.d

sudo echo -e "[Service]\n MountFlags=shared" >/etc/systemd/system

/docker.service.d/kolla.conf

配置Docker使用lvm-direct存储引擎、使用国内的DockerHub镜像(这里配置的为阿里云的DockerHub镜像)以及使用本地的Docker镜像Registry,如下:

sudo sed -i 's/\/usr\/bin\/dockerd/\/usr\/bin\/dockerd

--registry-mirror=https:\/\/v4wev6hv.mirror.aliyuncs.com

--insecure-registry 192.168.125.30:4000

--storage-driver=devicemapper

--storage-opt=dm.thinpooldev=\/dev\/mapper\/docker-thinpool

--storage-opt=dm.use_deferred_removal=true

--storage-opt=dm.use_deferred_deletion=true/'

/usr/lib/systemd/system/docker.service

3、启动Docker引擎

sudo /usr/bin/systemctl daemon-reload

sudo /usr/bin/systemctl start docker

sudo /usr/bin/systemctl enable docker

4、创建Docker本地Registry

sudo docker pull registry

sudo mkdir /data/registry

sudo docker run -d -v /data/registry:/var/lib/registry -p 4000:5000

--restart=always --name local_registry registry:latest

5、通过Kolla项目下载Openstack的Docker镜像源

在正式通过Kubernetes编排部署之前,需要准备好Openstack各个服务项目的容器镜像,本文采用基于Ocata版本的Kolla4.0编译(编译类型为Source)得到的Openstack镜像(下载地址为:http://tarballs.openstack.org/kolla/images/centos-source-registry-ocata.tar.gz),将centos-source-registry-ocata.tar.gz下载并上传到系统后,将其直接解压至Docker本地Registry的目录/data/registry即可:

sudo tar zxvf centos-source-registry-ocata.tar.gz -C /data/registry/

可以通过curl来访问验证本地Registry是否正常:

curl  http:// 192.168.125.30:4000/v2/_catalog

 

■ 安装Kubernetes集群软件

官方推荐的Kubernetes集群部署软件安装如下:

//准备kubernets安装源,位于google的packages管理仓库中

sudo tee /etc/yum.repos.d/kubernetes.repo<<EOF

[kubernetes]

name=Kubernetes

baseurl=http://yum.kubernetes.io/repos/kubernetes-el7-x86_64

enabled=1

gpgcheck=0

repo_gpgcheck=1

gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg

https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg

EOF

//采用yum直接安装

sudo yum install -y ebtables kubeadm kubectl kubelet kubernetes-cni

不翻墙的情况下,这种方式在国内几乎是不可能安装成功的,要访问google的服务器简直难于上青天!下面介绍一种相对简单可行的Kubernetes安装方式,首先确保你可以访问www.google.com,然后访问如下地址:

https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64/repodata/primary.xml

该地址显示的是XML文本,在其中可以找到需要安装的各个Kubernetes软件包源地址,如下:

利用上图中红色实线勾画部分构造RPM包下载地址(添加),如下:

https://packages.cloud.google.com/yum/pool/23961d0f7dca1ed118b948195f2fb5dd7a07503d69d7d8ab4433219ea98d033e-kubeadm-1.6.1-0.x86_64.rpm

在浏览器中输入上述地址,浏览器将会自动下载kubeadm-1.6.1-0.x86_64.rpm软件包,重复上述过程,下载全部所需的RPM包,如下:

将上述软件包全部上传到CentOS系统中,可以制作一个本地YUM仓库,然后通过YUM进行安装,也可以通过rpm命令行进行安装。记得通过yum形式安装ebtables和socat!

■  Kubernetes镜像获取

在Kubernetes1.6中,Kubernetes集群已经不再以系统进程形式部署在系统中了,而是以Docker容器形式部署。尽管kubeadm init命令会自动到Google容器仓库中Pull所需的镜像,但是这种方式绝对会让你崩溃到想放弃Kubernetes!因此,最好在运行kubeadm init之前准备好全部所需的镜像,在部署Kubernetes1.6.1时,需要的Kubernetes镜像如下(Kubernetes1.6.1仅需要以下镜像):

获取上述镜像的一个可行方法,就是通过github和dockerhub相互配合,在github上制作编译镜像的Dockerfile文件,然后自己账户下的dockerhub与github关联起来,并通过dockerhub从github上提取Dockerfile文件并编译Docker镜像,由于Dockerhub服务器本身位于海外,因此编译镜像的速度还是可以接受的,待Dockerhub编译完成后,便可通过docker pull命令将其抓取到本地,之后再通过docker tag命令对抓取到本地的镜像进行重命名即可,具体制作过程可参考:https://mritd.me/2016/10/29/set-up-kubernetes-cluster-by-kubeadm/这篇博客。如果安装的是Kubernetes1.6.1,则可直接到笔者的Dockerhub中下载上述Kubernetes镜像(https://hub.docker.com/r/warrior/),如下:

可通过如下命令进行镜像提取:

docker pull warrior/k8s-dns-dnsmasq-nanny-amd64:1.14.1

//镜像重命名

docker tag warrior/k8s-dns-dnsmasq-nanny-amd64:1.14.1 \

gcr.io/ google_containers/k8s-dns-dnsmasq-nanny-amd64:1.14.1

 

笔者在https://hub.docker.com/r/warrior/中的镜像编译Dockerfile文件位于Github项目https://github.com/ynwssjx/K8s-images中,有兴趣的读者可自行查看,其实Dockerfile文件内容非常简单,仅有一个FROM语句,如:FROM gcr.io/google_containers/etcd-amd64:3.0.17

其实在制作Kubernetes镜像时,有个问题就是如何知道kubeadm init命令所需的镜像版本号。在/etc/kubernetes/manifests目录中,有几个yaml文件,其中的image字段定义了所需的版本号,如下:

关于其他镜像的版本号查询,可参考前文提及的博客。

■  Kubernetes集群初始化

在Kubernetes集群中,POD和Service在创建时都会自动分配网络IP地址,这里假设POD网段为10.1.0.0/16,Service网段为10.3.3.0/24。设置Kubernetes集群的DNS 服务器,如下:

sudo sed -i 's/10.96.0.10/10.3.3.10/g' \

/etc/systemd/system/kubelet.service.d/10-kubeadm.conf

Kubernetes使用服务网段的x.x.x.10IP地址来作为DNS服务器地址,1到9被预留作为Kubernetes后续基础服务的扩展需求。启动kubelet服务,如下:

sudo systemctl daemon-reload

sudo systemctl stop kubelet

sudo systemctl enable kubelet

sudo systemctl start kubelet

此时如果通过systemctl status kubelet来查看kubelet的启动状态,将会发现kubelet启动失败,这个时候先不用在意报错,继续后续操作。使用kubeadm命令行进行Kubernetes集群初始化,如下:

sudo kubeadm init --pod-network-cidr=10.1.0.0/16 \

--service-cidr=10.3.3.0/24 \

--apiserver-advertise-address 192.168.125.30

 

apiserver-advertise-address为API Server的监听地址

等待一段时间,看到successful即说明Kubernetes集群初始化完成。加载kubeadm认证到系统环境变量中,如下:

mkdir -p $HOME/.kube

sudo -H cp /etc/kubernetes/admin.conf $HOME/.kube/config

sudo -H chown $(id -u):$(id -g) $HOME/.kube/config

此时,再开启一个终端,su到部署Kubernetes集群的用户home目录,输入如下命令,即可观察到Kubernetes集群中PODs变化过程:

watch -d kubectl get pods --all-namespaces -o wide

在当前阶段,Kolla-kubernets项目推介使用的Kubernetes集群网络驱动是Canal。部署Canal网络驱动,如下:

sudo curl -L https://raw.githubusercontent.com/projectcalico\

/canal/master/k8s-install/1.6/rbac.yaml -o rbac.yaml

sudo kubectl apply -f rbac.yaml

 

sudo curl -L https://raw.githubusercontent.com/projectcalico/canal\

/master/k8s-install/1.6/canal.yaml -o canal.yaml\

sudo sed -i "s@10.244.0.0/16@10.1.0.0/16@" canal.yaml

sudo kubectl apply -f canal.yaml

Canal网络驱动部署成功后,Kubernetes的kube-system命名空间中的全部pods应该是running状态(在此之前,dns并非running状态),如下:

因为此处采用的是AIO部署模式,而默认情况下Kubernetes的Master节点是不会被kube-scheduler分配PODs到其上的运行的,为了让PODs在Master上也能够运行,对Master进行untaint操作,如下:

kubectl taint nodes --all=true  \

node-role.kubernetes.io/master:NoSchedule-

■  Kubernetes集群验证

待kube-system命名空间中全部pods处于running状态之后,通过kubectl命令启动一个busybox容器,在该容器中进行DNS查询操作,如果操作成功则说明Kubernetes集群部署成功,否则Kubernetes集群是存在问题的,需要检查上述各个步骤。验证过程如下:

kubectl run -i -t $(uuidgen) --image=busybox --restart=Never

//进入容器后,执行nslookup操作

# nslookup kubernetes

Server:    10.3.3.10

Address 1: 10.3.3.10 kube-dns.kube-system.svc.cluster.local

 

Name:      kubernetes

Address 1: 10.3.3.1 kubernetes.default.svc.cluster.local

如果能够看到上述信息,说明Kubernetes集群部署是成功的,否则便是有问题的。

 

三、部署kolla-kubernets

■  覆盖默认的RBAC设置

通过kubectl replace命令进行默认RBAC设置的覆盖,如下:

kubectl update -f <(cat <<EOF

apiVersion: rbac.authorization.k8s.io/v1alpha1

kind: ClusterRoleBinding

metadata:

  name: cluster-admin

roleRef:

  apiGroup: rbac.authorization.k8s.io

  kind: ClusterRole

  name: cluster-admin

subjects:

- kind: Group

  name: system:masters

- kind: Group

  name: system:authenticated

- kind: Group

  name: system:unauthenticated

EOF

)

■  安装部署Helm

Helm是Kubernetes中的包管理器,类似yum包管理工具,yum用来安装RPM包,而Helm用来安装charts,这里的charts便类似RPM软件包。Helm分为客户端和服务器端,Helm的服务器端称为tiller,服务器端在Kubernetes中以Docker容器形式运行,为了便于Helm安装,可以实先将Tiller的容器镜像下载到本地,可使用如下命令下载:

docker pull warrior/kubernetes-helm:2.4.1

docker tag warrior/kubernetes-helm:2.4.1 \

gcr.io/kubernetes-helm/tiller:v2.4.1

安装Helm最简单的方式如下:

sudo curl -L https://raw.githubusercontent.com/kubernetes/helm\

/master/scripts/get > get_helm.sh

sudo chmod 700 get_helm.sh

sudo ./get_helm.sh

sudo helm init

Hel安装完成后,可以看到kube-system命名空间中新增了一个running状态的POD,名称为tiller-deploy-xxx,如下:

Helm安装成功后,通过helm version即可看到客户端和服务器端的信息,如下:

■  安装kolla-ansible和kolla-kubernets

Clone社区Kolla-ansible源代码,如下:

git clone http://github.com/openstack/kolla-ansible

git clone http://github.com/openstack/kolla-kubernetes

安装kolla-ansible和kolla-kubernets,如下:

sudo pip install -U kolla-ansible/ kolla-kubernetes/

复制默认的kolla配置文件到/etc目录,如下:

sudo cp -aR /usr/share/kolla-ansible/etc_examples/kolla /etc

复制 kolla-kubernetes 配置文件至/etc目录,如下:

sudo cp -aR kolla-kubernetes/etc/kolla-kubernetes /etc

为Openstack集群各个项目和用户生成密码文件,如下:

sudo kolla-kubernetes-genpwd

在kubernets中创建一个独立的密码空间kolla,如下:

kubectl create namespace kolla

将AIO节点标记为控制节点和计算节点,如下:

kubectl label node $(hostname) kolla_compute=true

kubectl label node $(hostname) kolla_controller=true

修改/etc/kolla/globals.yml配置文件,其中:network_interface和neutron_external_interface两个变量需要用户指定,network_interface是管理接口(如eth0),默认也是Openstack各个服务项目的API接口,neutron_external_interface是Neutron项目用于外网桥接的物理接口(如eth1),该接口上不要手工配置IP地址。

将需要启动的服务项目添加到/etc/kolla/globals.yml的末尾,如下:

cat <<EOF > add-to-globals.yml

kolla_install_type: "source"

tempest_image_alt_id: "{{ tempest_image_id }}"

tempest_flavor_ref_alt_id: "{{ tempest_flavor_ref_id }}"

 

neutron_plugin_agent: "openvswitch"

api_interface_address: 0.0.0.0

tunnel_interface_address: 0.0.0.0

orchestration_engine: KUBERNETES

memcached_servers: "memcached"

keystone_admin_url: "http://keystone-admin:35357/v3"

keystone_internal_url: "http://keystone-internal:5000/v3"

keystone_public_url: "http://keystone-public:5000/v3"

glance_registry_host: "glance-registry"

neutron_host: "neutron"

keystone_database_address: "mariadb"

glance_database_address: "mariadb"

nova_database_address: "mariadb"

nova_api_database_address: "mariadb"

neutron_database_address: "mariadb"

cinder_database_address: "mariadb"

ironic_database_address: "mariadb"

placement_database_address: "mariadb"

rabbitmq_servers: "rabbitmq"

openstack_logging_debug: "True"

enable_haproxy: "no"

enable_heat: "no"

enable_cinder: "yes"

enable_cinder_backend_lvm: "yes"

enable_cinder_backend_iscsi: "yes"

enable_cinder_backend_rbd: "no"

enable_ceph: "no"

enable_elasticsearch: "no"

enable_kibana: "no"

glance_backend_ceph: "no"

cinder_backend_ceph: "no"

nova_backend_ceph: "no"

EOF

cat ./add-to-globals.yml | sudo tee -a /etc/kolla/globals.yml

如果是在虚拟机上进行部署,则需要使用qemu虚拟化引擎,如下:

sudo mkdir /etc/kolla/config

sudo tee /etc/kolla/config/nova.conf<<EOF

[libvirt]

virt_type=qemu

cpu_mode=none

EOF

生成默认的Openstack各个项目配置文件,如下:

sudo kolla-ansible genconfig

为Openstack各个项目创建Kubernetes秘钥并将其注册到Kubernetes集群中,如下:

kolla-kubernetes/tools/secret-generator.py create

创建并注册kolla的config map,如下:

kollakube res create configmap \

mariadb keystone horizon rabbitmq memcached nova-api nova-conductor\

nova-scheduler glance-api-haproxy glance-registry-haproxy \

glance-api glance-registry neutron-server neutron-dhcp-agent \

neutron-l3-agent neutron-metadata-agent neutron-openvswitch-agent \

openvswitch-db-server  openvswitch-vswitchd nova-libvirt nova-compute\

nova-consoleauth  nova-novncproxy nova-novncproxy-haproxy\

neutron-server-haproxy nova-api-haproxy cinder-api cinder-api-haproxy\

cinder-backup inder-scheduler cinder-volume iscsid tgtd keepalived\   

placement-api placement-api-haproxy

启用resolv.conf解决方法,如下:

kolla-kubernetes/tools/setup-resolv-conf.sh kolla

编译Helm的microcharts、service charts和 metacharts,如下:

kolla-kubernetes/tools/helm_build_all.sh ./

编译过程会花费一定时间,编译完成会在当前目录上产生很多.tgz的文件,其数目至少要大于150个。

创建一个本地cloud.yaml文件,用户安装部署Helm的charts,如下:

global:

   kolla:

     all:

       docker_registry: 192.168.128.13:4000 //本地registry仓库地址

       image_tag: "4.0.0"

       kube_logger: false

       external_vip: "192.168.128.13"

       base_distro: "centos"

       install_type: "source"

       tunnel_interface: "ens34"   //管理接口

       resolve_conf_net_host_workaround: true

     keystone:

       all:

         admin_port_external: "true"

         dns_name: "192.168.128.13"

       public:

         all:

           port_external: "true"

     rabbitmq:

       all:

         cookie: 67

     glance:

       api:

         all:

           port_external: "true"

     cinder:

       api:

         all:

           port_external: "true"

       volume_lvm:

         all:

           element_name: cinder-volume

         daemonset:

           lvm_backends:

           - '192.168.128.13': 'cinder-volumes' //cinder后端VG名称

     ironic:

       conductor:

         daemonset:

           selector_key: "kolla_conductor"

     nova:

       placement_api:

         all:

           port_external: true

       novncproxy:

         all:

           port: 6080

           port_external: true

     openvwswitch:

       all:

         add_port: true

         ext_bridge_name: br-ex

         ext_interface_name: ens41 //Neutron外网桥接网口

         setup_bridge: true

     horizon:

       all:

         port_external: true

cloud.yaml文件需要根据用户各自的环境进行修改,上述文件中的192.168.128.13是笔者管理网口ens34上的IP地址,在使用过程中需要进行相应的修改。

 

■  使用Helm在Kubernetes上部署Openstack

首先部署MariaDB,并等待其进入running状态,如下:

helm install --debug kolla-kubernetes/helm/service/mariadb \

--namespace kolla --name mariadb --values ./cloud.yaml

待数据库稳定后,部署其他的Openstack服务,如下:

helm install --debug kolla-kubernetes/helm/service/rabbitmq \

--namespace kolla --name rabbitmq --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/memcached \

--namespace kolla --name memcached --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/keystone\

--namespace kolla --name keystone --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/glance \

--namespace kolla --name glance --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/cinder-control\

--namespace kolla --name cinder-control --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/horizon \

--namespace kolla --name horizon --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/openvswitch \

--namespace kolla --name openvswitch --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/neutron \

--namespace kolla --name neutron --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/nova-control\

--namespace kolla --name nova-control --values ./cloud.yaml

helm install --debug kolla-kubernetes/helm/service/nova-compute \

--namespace kolla --name nova-compute --values ./cloud.yaml

当nova-compute进入running状态后,创建cell0数据库,如下:

helm install --debug kolla-kubernetes/helm/microservice\

/nova-cell0-create-db-job --namespace kolla --name \

nova-cell0-create-db-job --values ./cloud.yaml

 

helm install --debug kolla-kubernetes/helm/microservice\

/nova-api-create-simple-cell-job --namespace kolla \

--name nova-api-create-simple-cell --values ./cloud.yaml

当上述全部POD进入running状态后,部署Cinder LVM。这里假设系统上已经有一个名为cinder-volumes的VG存在,如果还没有cinder-volume这个VG,则需要事先创建该VG,如下:

pvcreate /dev/sdb /dev/sdc

vgcreate cinder-volumes /dev/sdb /dev/sdc

安装部署cinder-volume,如下:

helm install --debug kolla-kubernetes/helm/service/cinder-volume-lvm\

--namespace kolla --name cinder-volume-lvm --values ./cloud.yaml

如果要删除helm部署的charts,如cinder-volume-lvm,则通过命令:

helm delete cinder-volume-lvm --purge

即可从kubernets集群中清除cinder-volume相关的PODs。

至此,全部Openstack服务已经部署完成,在操作Openstack集群之前,先等待所有Kubernetes集群中的PODs处于running状态,如下:

查看kubernets集群中的全部deployment,如下:

查看kubernets集群中的全部service,如下:

可以看到,每个service都被自动分配了10.3.3.0/24网段的IP地址,并且可以看到各个service对应的端口。在确认Kubernetes的各个API对象正常运行后,便可通过Openstack命令行客户端进行Openstack集群操作。首先,生成并加载openrc文件,如下:

kolla-kubernetes/tools/build_local_admin_keystonerc.sh ext

source ~/keystonerc_admin

通过kolla-ansible提供的init-runonce脚本初始化Openstack,并launch一个VM,如下:

kolla-ansible/tools/init-runonce

创建一个FloatingIP地址,并将其添加到VM上,如下:

openstack server add floating ip demo1 $(openstack floating ip \

create public1 -f value -c floating_ip_address)

查看创建的VM,如下:

登录Dashboard(http://192.168.128.13),如下:

在dashboard上查看创建的实例,如下:

创建一个块存储,并将其attach到实例demo1上,如下:

到此,Ocata版本的Openstack已经成功部署在Kubernetes集群上。由于诸多原因,目前Kolla-kubernets项目仍然不具备生产环境部署条件,社区目前也仅支持AIO的开发实验性质的部署,相信随着K8S的兴趣,Kolla-kubernets项目的重视程度也会与日俱增,而且可以预言,在不久的将来,通过K8S部署Openstack容器云将会是Openstack的一大主流方向!

 

 

参考文档:

1、https://github.com/openstack/kolla-kubernetes/blob/master/doc/deployment-guide.rst

2、https://mritd.me/2016/10/29/set-up-kubernetes-cluster-by-kubeadm/

3、http://yoyolive.com/2017/02/27/Kubernetes-1-5-3-Local-Install/

4、https://github.com/projectcalico/canal/tree/master/k8s-install

5、https://kubernetes.io/docs/admin/kubeadm/

6、https://kubernetes.io/docs/getting-started-guides/kubeadm/

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐