求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center   Code  
会员   
要资料
 
 
 

Kubernetes教程
Kubernetes概述
Kubernetes设计架构
kubernetes设计理念
创建Kubernetes集群
基于Docker本地运行Kubernetes
使用Vagrant
本地运行Kubrenetes v1.0
Google Computer Engine入门
AWS EC2快速入门
在Azure上使用CoreOS和Weave的 Kubernetes
从零开始k8s
CoreOS部署Kubernetes集群
CloudStack部署Kubernetes集群
vSphere部署Kubernetes集群
Ferdora部署Kubernetes集群
CentOS部署Kubernetes集群
Ubuntu物理节点上部署Kubernets集群
Mesos部署Kubernetes集群
Kubernetes用户指南:应用程序管理
名词解释 Pods
名词解释 Labels
名词解释:Namespace
名词解释 Replication Controller
名词解释:Node
名词解释:ReplicaSets
名词解释 Services
名词解释 Volumes
名词解释:PV/PVC/StorageClass
名称解释:Deployment
名词解释:Secret
名词解释:StatefulSet
名词解释:DaemonSet
名词解释:Service Account
名词解释:CronJob
名词解释:Job
名词解释:Security Context和PSP
名词解释:Resource Quotas
名词解释:Network Policy
名词解释:Ingress
名词解释:ThirdPartyResources
名词解释:ConfigMap
名词解释:PodPreset
配置Kubernetes
管理应用:部署持续运行的应用
Horizontal Pod Autoscaling
管理应用:连接应用
管理应用: 在生产环境中使用Pods和容器
Kubernetes UI
Kube-API Server
授权插件
认证插件
API Server端口配置
Admission Controller
Service Accounts集群管理指南
使用Kubernetes在云上原生部署cassandra
Spark例子
Storm 示例
示例: 分布式任务队列 Celery, RabbitMQ和Flower
Kubernetes在Hazelcast平台上部署原生云应用
Meteor on Kuberenetes
配置文件使用入门
环境向导示例
在Kubernetes上运行你的第一个容器
kubectl
安装和设置kubectl
kubectl annotate
kubectl api-versions
kubectl apply
kubectl attach
kubectl cluster-info
kubectl config
kubectl config set-cluster
kubectl config set-context
kubectl config set-credentials
kubectl config set
kubectl config unset
kubectl config use-context
kubectl config view
kubectl create
kubectl delete
kubectl describe
kubectl edit
kubectl exec
kubectl logs
kubectl version
故障排查
应用程序相关的故障排查
 
 

使用Kubernetes在云上原生部署cassandra
 
1595 次浏览
48次  

下面的文档描述了在Kubernetes上部署cloud native Cassandra的开发过程。当我们讲cloudnative时,我们是指这样一款应用,它运行在集群管理器中,并利用集群管理器的基础设施来实现应用的功能。特别的是,在本章介绍的实例中,一个定制好的Cassandra SeedProvider*可以确保Cassandra能够动态发现新的Cassandra节点并把它添加到集群中。

这篇文档也在努力描述Kubernetes中的核心概念:Pods,Services和Replication Controllers。

预备知识

下面的例子假设你已经安装和运行一个Kubernetes集群,并且你也下载好kubectl命令行工具以及配置在你的path中。请先阅读入门指南获取在你平台上安装Kubernetes的指令。

本文中的例子还需要一些代码和配置文件。为了避免重复输入(代码和配置文件),你可以使用git clone命令从Kubernetes仓库中克隆文件到本地计算机。

简单的单个Pod Cassandra节点

在Kubernetes中,应用的原子单元(【译者注】原子单元指不可再分的最小单元)是Pod。一个Pod指必须被部署在同一个主机的一个或者多个容器。同一个pod中的所有容器共享一个网络名称空间,以及可选地共享挂载卷。在这个简单的例子中,我们在pod中定义一个运行Cassandra的容器:

apiVersion: v1
kind: Pod
metadata:
labels:
name: cassandra
name: cassandra
spec:
containers:
- args:
- /run.sh
resources:
limits:
cpu: "0.5"
image: gcr.io/google_containers/cassandra:v5
name: cassandra
ports:
- name: cql
containerPort: 9042
- name: thrift
containerPort: 9160
volumeMounts:
- name: data
mountPath: /cassandra_data
env:
- name: MAX_HEAP_SIZE
value: 512M
- name: HEAP_NEWSIZE
value: 100M
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
volumes:
- name: data

上面的描述中有几点需要注意。首先我们运行的镜像是kubernetes/cassandra。这是一个标准的安装在Debian上的Cassandra镜像。但是它还给Cassandra添加一个定制的SeedProvider,

在Cassandra中, SeedProvider设置一个gossip协议用来发现其它Cassandra节点。KubernetesSeedProvider使用内置的Kubernetes发现服务找到KubernetesAPI服务器,然后利用Kubernetes API发现新的节点。

也许你注意到(在上面的脚本中)我们设置了一些Cassandra参数(MAX_HEAP_SIZE 和HEAP_NEWSIZE)以及添加了关于名称空间的信息。我们还告诉Kubernetes容器暴露了CQL和Thrift的API端口。最后,我们告诉集群管理器我们需要0.5个CPU(0.5个内核core)

理论上会立刻创建一个Cassandra pod,但是在Cassandra部署过程中,KubernetesSeedProvider需要知道现在哪个节点上创建服务(【译者注】这会消耗一些时间)

Cassandra服务

在Kubernetes中一个服务是指执行相同任务的一系列pods集合(【译者注】一个任务可能由多个pod协同完成)。例如,Cassandra集群中的pods集合可以是Kubernetes服务,甚至仅仅是一个pod也可以。服务的一个重要用途是在pods成员间分发流量实现负载均衡。服务另外一个用途也可以用作长期查询,查询调用Kubernetes API使得动态改变pod(或者是上面创建的一个pod)成为可能。这就是我们最初使用Cassandra服务的两种方式。

下面是服务的描述:

apiVersion: v1
kind: Service
metadata:
labels:
name: cassandra
name: cassandra
spec:
ports:
- port: 9042
selector:
name: cassandra

这里对于节点最重要的是选择器,(选择器)是建立在标签上的查询,标签则标记了服务中包含的pods集合。在这个例子中选择器是name=cassandra。如果你现在回头看Pod的描述,你会发现pod有和它对应的标签。所以这个pod会被选中成为服务中的成员。

通过下面命令创建服务:

$ kubectl create -f examples/cassandra/cassandra-service.yaml

现在服务运行起来了,我们可以使用前面提到的说明来创建第一个Cassandra。

$ kubectl create -f examples/cassandra/cassandra.yaml

不久,你会看到pod也运行了,以及pod中运行的单个容器:

$ kubectl get pods cassandra
NAME READY STATUS RESTARTS AGE
cassandra 1/1 Running 0 55s

你也可以查询服务的端点来检查pod是否被正确选中:

$ kubectl get endpoints cassandra -o yaml
apiVersion: v1
kind: Endpoints
metadata:
creationTimestamp: 2015-06-21T22:34:12Z
labels:
name: cassandra
name: cassandra
namespace: default
resourceVersion: "944373"
selfLink: /api/v1/namespaces/default/endpoints/cassandra
uid: a3d6c25f-1865-11e5-a34e-42010af01bcc
subsets:
- addresses:
- ip: 10.244.3.15
targetRef:
kind: Pod
name: cassandra
namespace: default
resourceVersion: "944372"
uid: 9ef9895d-1865-11e5-a34e-42010af01bcc
ports:
- port: 9042
protocol: TCP

添加复制节点

当然,单节点集群并不特别有趣。Kubernetes和Cassandra的真正能量在于可以很方便创建一个副本,使得Cassandra集群可扩展。(如果你想了解更多关于 副本控制器基础内容,请查看:Replication Controller)

在Kubernetes中一个复制控制器负责复制相同的pods。复制控制器的作用和服务的相同点在于复制控制器有选择器能查询集合中的指定成员。与服务不同的是复制控制器有预期数量的副本,所以它能创建或删除Pods确保pod数量达到预期状态。

复制控制器会”接受”已经存在并且符合查询条件的pods,现在我们会创建一个只有一个副本的复制控制器,用它来接收已经存在的Cassandra pod:

apiVersion: v1
kind: ReplicationController
metadata:
labels:
name: cassandra
name: cassandra
spec:
replicas: 1
selector:
name: cassandra
template:
metadata:
labels:
name: cassandra
spec:
containers:
- command:
- /run.sh
resources:
limits:
cpu: 0.5
env:
- name: MAX_HEAP_SIZE
value: 512M
- name: HEAP_NEWSIZE
value: 100M
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
image: gcr.io/google_containers/cassandra:v5
name: cassandra
ports:
- containerPort: 9042
name: cql
- containerPort: 9160
name: thrift
volumeMounts:
- mountPath: /cassandra_data
name: data
volumes:
- name: data
emptyDir: {}

大部分复制控制器的定义和上面的Cassandra pod的定义类似,定义简单地为复制控制器提供一个模板,创建新的Cassandra pod时可以很方便拿来使用。不同的部分是选择器属性 包含控制器的选择器查询以及副本属性中的副本的预期数量,在这个例子中是1。

创建控制器的指令:

$ kubectl create -f examples/cassandra/cassandra-controller.yaml

现在事实上已经不那么无趣了,因为之前没做新的事情。现在它会变得有趣。

现在我们把集群数量扩展到2:

$ kubectl scale rc cassandra --replicas=2

现在如果你列出集群中的pods,查询符合标签name=cassandra的pods,你会看到两个cassandra pod:

注意其中一个pod的名字是人们可读的cassandra,它是我们在配置文件中指定的。另一个是复制控制器随机生成的字符串。

为了证明所有的pods都正常工作,你可以使用nodetool命令检查集群的状态。使用kubectlexec命令在Cassandra Pod中运行nodetool。

$ kubectl exec -ti cassandra -- nodetool status
Datacenter: datacenter1
=======================
Status=Up/Down
|/ State=Normal/Leaving/Joining/Moving
-- Address Load Tokens Owns (effective) Host ID Rack
UN 10.244.0.5 74.09 KB 256 100.0% 86feda0f-f070-4a5b-bda1-2eeb0ad08b77 rack1
UN 10.244.3.3 51.28 KB 256 100.0% dafe3154-1d67-42e1-ac1d-78e7e80dce2b rack1

现在扩展集群到4个节点:

kubectl scale rc cassandra --replicas=4

一会后再次检查状态:

$ kubectl exec -ti cassandra -- nodetool status
Datacenter: datacenter1
=======================
Status=Up/Down
|/ State=Normal/Leaving/Joining/Moving
-- Address Load Tokens Owns (effective) Host ID Rack
UN 10.244.2.3 57.61 KB 256 49.1% 9d560d8e-dafb-4a88-8e2f-f554379c21c3 rack1
UN 10.244.1.7 41.1 KB 256 50.2% 68b8cc9c-2b76-44a4-b033-31402a77b839 rack1
UN 10.244.0.5 74.09 KB 256 49.7% 86feda0f-f070-4a5b-bda1-2eeb0ad08b77 rack1
UN 10.244.3.3 51.28 KB 256 51.0% dafe3154-1d67-42e1-ac1d-78e7e80dce2b rack1

tl; dr;

下面是给那些不耐心的小伙伴的,下面是以上命令的总结:

# create a service to track all cassandra nodes
kubectl create -f examples/cassandra/cassandra-service.yaml

# create a single cassandra node
kubectl create -f examples/cassandra/cassandra.yaml

# create a replication controller to replicate cassandra nodes
kubectl create -f examples/cassandra/cassandra-controller.yaml

# scale up to 2 nodes
kubectl scale rc cassandra --replicas=2

# validate the cluster
kubectl exec -ti cassandra -- nodetool status

# scale up to 4 nodes
kubectl scale rc cassandra --replicas=4


您可以捐助,支持我们的公益事业。

1元 10元 50元





认证码: 验证码,看不清楚?请点击刷新验证码 必填



1595 次浏览
48次
 捐助