Google、IBM和Lyft开源的微服务管理框架Istio安装与试用


声明:本文转载自https://my.oschina.net/ytqvip/blog/1589062,转载目的在于传递更多信息,仅供学习交流之用。如有侵权行为,请联系我,我会及时删除。

Istio是Google、IBM和Lyft联合开源的微服务Service Mesh框架,旨在解决大量微服务的发现、连接、管理、监控以及安全等问题。

Istio的主要特性包括:

  • HTTP、gRPC和TCP网络流量的自动负载均衡
  • 丰富的路由规则,细粒度的网络流量行为控制
  • 流量加密、服务间认证,以及强身份声明
  • 全范围(Fleet-wide)策略执行
  • 深度遥测和报告

原理

Istio从逻辑上可以分为数据平面和控制平面:

  • 数据平面主要由一系列的智能代理(Envoy)组成,管理微服务之间的网络通信
  • 控制平面负责管理和配置这些智能代理,并动态执行策略

Istio架构可以如下图所示

主要由以下组件构成

  • Envoy:Lyft开源的高性能代理总线,支持动态服务发现、负载均衡、TLS终止、HTTP/2和gPRC代理、健康检查、性能测量等功能。Envoy以sidecar的方式部署在相关的服务的Pod中。
  • Mixer:负责访问控制、执行策略并从Envoy代理中收集遥测数据。Mixer支持灵活的插件模型,方便扩展
  • Pilot:用户和Istio的接口,验证用户提供的配置和路由策略并发送给Istio组件,管理Envoy示例的生命周期
  • Istio-Auth:提供服务间和终端用户的认证机制

安装环境

  • CentOS 7.2
  • Docker 17.04.0-ce
  • Kubernetes 1.6.2
  • Istio 0.1.6

安装

1.下载安装包

下载地址:https://github.com/istio/istio/releases

下载Linux版本的当前最新版安装包

wget https://github.com/istio/istio/releases/download/0.1.6/istio-0.1.6-linux.tar.gz


2.解压

解压后,得到的目录结构如下:

[root@cz_fbsdb500_06 istio]# tree istio-0.1.6 istio-0.1.6 ├── bin │   └── istioctl ├── CONTRIBUTING.md ├── install │   ├── kubernetes │   │   ├── addons │   │   │   ├── grafana.yaml │   │   │   ├── prometheus.yaml │   │   │   ├── servicegraph.yaml │   │   │   └── zipkin.yaml │   │   ├── istio-auth-with-cluster-ca.yaml │   │   ├── istio-auth.yaml │   │   ├── istio-rbac-alpha.yaml │   │   ├── istio-rbac-beta.yaml │   │   ├── istio.yaml │   │   ├── README.md │   │   └── templates │   │       ├── istio-auth │   │       │   ├── istio-cluster-ca.yaml │   │       │   ├── istio-egress-auth.yaml │   │       │   ├── istio-ingress-auth.yaml │   │       │   └── istio-namespace-ca.yaml │   │       ├── istio-egress.yaml │   │       ├── istio-ingress.yaml │   │       ├── istio-mixer.yaml │   │       └── istio-pilot.yaml │   └── README.md ├── istio.VERSION ├── LICENSE ├── README.md └── samples     ├── apps     │   ├── bookinfo     │   │   ├── bookinfo-ingress.yaml     │   │   ├── bookinfo-v1.yaml     │   │   ├── bookinfo.yaml     │   │   ├── cleanup.sh     │   │   ├── destination-ratings-test-delay.yaml     │   │   ├── loadbalancing-policy-reviews.yaml     │   │   ├── mixer-rule-additional-telemetry.yaml     │   │   ├── mixer-rule-empty-rule.yaml     │   │   ├── mixer-rule-ratings-denial.yaml     │   │   ├── mixer-rule-ratings-ratelimit.yaml     │   │   ├── README.md     │   │   ├── route-rule-all-v1.yaml     │   │   ├── route-rule-delay.yaml     │   │   ├── route-rule-reviews-50-v3.yaml     │   │   ├── route-rule-reviews-test-v2.yaml     │   │   ├── route-rule-reviews-v2-v3.yaml     │   │   └── route-rule-reviews-v3.yaml     │   ├── httpbin     │   │   ├── httpbin.yaml     │   │   └── README.md     │   └── sleep     │       ├── README.md     │       └── sleep.yaml     └── README.md  11 directories, 46 files

3.安装istioctl
./bin/istioctl拷贝到你的$PATH目录下。

4.检查RBAC
因为我们安装的kuberentes版本是1.6.2默认支持RBAC,这一步可以跳过。如果你使用的其他版本的kubernetes,请参考官方文档操作。

执行以下命令,正确的输出是这样的:

$ kubectl api-versions | grep rbac rbac.authorization.k8s.io/v1alpha1 rbac.authorization.k8s.io/v1beta1

5.创建角色绑定

$ kubectl create -f install/kubernetes/istio-rbac-beta.yaml clusterrole "istio-manager" created clusterrole "istio-ca" created clusterrole "istio-sidecar" created clusterrolebinding "istio-manager-admin-role-binding" created clusterrolebinding "istio-ca-role-binding" created clusterrolebinding "istio-ingress-admin-role-binding" created clusterrolebinding "istio-sidecar-role-binding" created

注意:官网的安装包中的该文件中存在RoleBinding错误,应该是集群级别的clusterrolebinding,而release里的代码只是普通的rolebinding,查看该Issue Istio manager cannot list of create k8s TPR when RBAC enabled #327

6.安装istio核心组件
用到的镜像有:

docker.io/istio/mixer:0.1.6 docker.io/istio/pilot:0.1.6 docker.io/istio/proxy_debug:0.1.6

我们暂时不开启Istio Auth
注意:本文中用到的所有yaml文件中的type: LoadBalancer去掉,使用默认的ClusterIP,然后配置Traefik ingress,就可以在集群外部访问。请参考安装Traefik ingress

bash kubectl apply -f install/kubernetes/istio.yaml

7.安装监控插件
用到的镜像有:

docker.io/istio/grafana:0.1.6 quay.io/coreos/prometheus:v1.1.1 gcr.io/istio-testing/servicegraph:latest docker.io/openzipkin/zipkin:latest

安装插件

bash kubectl apply -f install/kubernetes/addons/prometheus.yaml kubectl apply -f install/kubernetes/addons/grafana.yaml kubectl apply -f install/kubernetes/addons/servicegraph.yaml kubectl apply -f install/kubernetes/addons/zipkin.yaml

在traefik ingress中增加以上几个服务的配置,同时增加istio-ingress配置。

Yaml - host: grafana.istio.io   http:     paths:     - path: /       backend:         serviceName: grafana         servicePort: 3000 - host: servicegraph.istio.io   http:     paths:     - path: /       backend:         serviceName: servicegraph         servicePort: 8088 - host: prometheus.istio.io   http:     paths:     - path: /       backend:         serviceName: prometheus         servicePort: 9090 - host: zipkin.istio.io   http:     paths:     - path: /       backend:         serviceName: zipkin         servicePort: 9411 - host: ingress.istio.io   http:     paths:     - path: /       backend:         serviceName: istio-ingress         servicePort: 80

测试

我们使用Istio提供的测试应用bookinfo微服务来进行测试。该应用架构图如下:

部署应用

kubectl create -f <(istioctl kube-inject -f samples/apps/bookinfo/bookinfo.yaml) 

Istio kube-inject命令会在bookinfo.yaml文件中增加Envoy sidecar信息。参考:https://istio.io/docs/referenc ... nject
在本机的/etc/hosts下增加VIP节点和ingress.istio.io的对应信息。具体步骤参考:边缘节点配置
在浏览器中访问http://ingress.istio.io/productpage

监控

不断刷新productpage页面,将可以在以下几个监控中看到如下界面。
Grafana页面
http://grafana.istio.io

Prometheus页面
http://prometheus.istio.io

Zipkin页面
http://zipkin.istio.io

ServiceGraph页面
http://servicegraph.istio.io/dotviz
可以用来查看服务间的依赖关系。
展示服务之间调用关系图 ,访问http://servicegraph.istio.io/graph

 

本文发表于2017年12月13日 12:33
(c)注:本文转载自https://my.oschina.net/ytqvip/blog/1589062,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如有侵权行为,请联系我们,我们会及时删除.

阅读 2262 讨论 0 喜欢 0

抢先体验

扫码体验
趣味小程序
文字表情生成器

闪念胶囊

你要过得好哇,这样我才能恨你啊,你要是过得不好,我都不知道该恨你还是拥抱你啊。

直抵黄龙府,与诸君痛饮尔。

那时陪伴我的人啊,你们如今在何方。

不出意外的话,我们再也不会见了,祝你前程似锦。

这世界真好,吃野东西也要留出这条命来看看

快捷链接
网站地图
提交友链
Copyright © 2016 - 2021 Cion.
All Rights Reserved.
京ICP备2021004668号-1