1简介Postgres-XL全称为 Postgres eXtensible Lattice,是一个横向扩展的开源数据库集群,是TransLattice公司及其收购数据库技术公司StormDB的产品。Postgres-XC更适合oltp型应用。Postgres-XL基于Postgres-XC,更适合olap型应用。
1.1功能特性license:Mozilla PublicLicense许可,允许将开源代码与闭源代码混在一起使用。完全的ACID支持。可横向扩展的关系型数据库(RDBMS)。支持OLAP应用,采用MPP(Massively Parallel Processing大规模并行处理系统)架构模式。支持OLTP应用,读写性能可扩展。集群级别的ACID特性。多租户安全。支持分布式Key-Value存储、支持JSON和XML格式。事务处理与数据分析处理混合型数据库。支持丰富的SQL语句类型,如关联子查询。支持绝大部分PostgreSQL的SQL语句。分布式多版本并发控制(MVCC:Multi-version Concurrency Control)。支持所有支持PostgresSQL类型的驱动JDBC, ODBC, OLE DB,Python,Ruby,perl DBI,Tcl。
1.2功能不足需要使用外部机制实现高可用,如pg流复制、Corosync/Pacemaker等。增删节点/重新分片数据(re-shard)的比较复杂。数据重分布(redistribution)期间会锁表。某些外键、唯一性约束功能欠缺。
2Postgres-XL架构 由GTM、GTM-Proxy、Coordinator、Datanode组成。 GTM(Gloable Transaction Manager)负责提供事务的ACID属性; Datanode负责存储表的数据和本地执行由Coordinator派发的SQL任务; Coordinator负责处理每个来自Application的SQL任务,并且决定由哪个Datanode执行,然后将任务计划派发给相应的Datanode,根据需要收集结果返还给Application; GTM通常由一台独立的服务器承担,GTM需要处理来自所有GTM-Proxy或者Coordinator和Datanode的事务请求。 每台机器最好同时配置一个Coordinator、一个Datanode与GTM-Proxy。 每台机器同时配置一个Coordinator和一个Datanode,可以负载均衡,同时降低网络流量。GTM-Proxy会减少GTM的负载,将Coordinator和Datanode上进程的请求和响应聚集到一台机器上,同时会帮助处理GTM失效的情况。 GTM可能会发生单点故障,可以配置一个GTM-Standby节点作为GTM的备用节点。
2.1协调器(Coordinator)处理客户端连接。分析查询语句,生成执行计划,并将计划传递给数据节点实际执行。对数据节点返回的查询中间结果集执行最后处理。管理事务两阶段提交(2PC)。存储全局目录(GlobalCatalog)信息。
2.2数据节点(DataNode)实际存储表和索引数据,数据自动打散分布(或者复制)到集群中各数据节点。只有协调器连接到数据节点才能可读写。执行协调器下传的查询,一个查询在所有相关节点上并行查询。两个数据节点间可建立一对一通讯连接,交换分布式表关联查询的相关信息。
2.3全局事务管理器(GTM)全局事务管理器(GTM:Global Transaction Manager)全集群只有一个GTM节点,会有单点故障问题,可以配置StranBy热备节点保证高可用。通过部署GTM Proxy,解决GTM性能瓶颈。提供事务间一致性视图。处理必须的MVCC任务: transaction IDs 事务ID。 snapshots 数据快照,MVCC使用。管理全局性数据值: timestamps 时间戳。 sequences 序列对象。
2.4GTM Proxy
Ø 与协调器(Coordinator)和数据节点(DataNode)在一起运行。Ø 协调器、数据节点直接与GTM Proxy交互替代GTM,它做为后端与GTM间的中间人。Ø 将对GTM的请求分组归集,多个请求一次提交给GTM。Ø 获取transaction ids(XIDs)范围。Ø 获取数据快照。2.5数据分布 数据分布有两种模式: 复制表(Replicated Table)与分布表(Distributed Table)复制表(Replicated Table):每行记录复制到集群中所有的数据节点,每节点一份。分布表(DistributedTable):记录分片存在不同节点,可用的分片策略方式Hash、Round Robin、Modulo。2.6高可用性全局事务管理器采用热备方式。多个协调器间负载均衡。数据节点使用流复制,复制数据到备节点。
3安装搭建Postgres-XL3.1环境列表操作系统:CentOS6.5postgres-xl版本:postgres-xl-9.5r1.3.tar.g
| 主机名 | ip | 角色 | 用户 |
| pgxlmaster | 192.168.204.197 | GTM | postgres |
| pgxlnode1 | 192.168.204.198 | Coordinator、Datanode与GTM-Proxy | postgres |
| Pgxlnode2 | 192.168.204.199 | Coordinator、Datanode与GTM-Proxy | postgres |
下载:http://www.postgres-xl.org/download/资料:http://postgres-xc.sourceforge.net/docs/1_1/pgxc-ctl.html http://files.postgres-xl.org/documentation/install-short.html
3.2设置操作系统环境准备(root用户在pgxlmaster操作) --配置主机名hostname vi /etc/sysconfig/networkvi /etc/hosts192.168.204.197 pgxlmaster192.168.204.198 pgxlnode1192.168.204.199 pgxlnode2--设置防火墙chkconfig iptablesoffservice iptables off--创建用户useradd postgrespasswd postgres--安装相关编译pgxl依赖包(我这里)ncurses-develreadline-develzlib-develflex
3.3解压至规划目录mkdik -p /pgxlmkdik -p /pgsolf拷贝postgres-xl-9.5r1.3.tar.gz至/pgsolfchown -R postgres:postgres /pgxlchown -R postgres:postgres /pgsolftar -zxvf /pgsolf/postgres-xl-9.5r1.3.tar.gz -C /pgsolf/
3.4编译安装cd /pgsolf/ postgres-xl-9.5r1.3./configure --prefix=/pgxl make make install
3.5配置环境变量vi /home/postgres/.bash_profile或者vi .bashrcexport PGUSER=postgresexport PGHOME=/pgxlexport LD_LIBRARY_PATH=$PGHOME/lib:$LD_LIBRARY_PATHexport PATH=$HOME/bin:$PGHOME/bin:$PATH
3.6在pgxlnode1、pgxlnode1同样如上操作3.7在pgxlmaster配置ssh免密码到pgxlnode1、pgxlnode1认证 postgres用户执行:ssh-keygen -t rsacd /home/postgres/.ssh/catid_rsa.pub>> authorized_keysroot用户执行:chmod 600 /home/postgres/.ssh/authorized_keyspostgres用户执行:scp /home/postgres/.ssh/authorized_keys postgres@pgxlnode1:/home/postgres/.ssh/
scp /home/postgres/.ssh/authorized_keys postgres@pgxlnode2:/home/postgres/.ssh/3.8在gtm主机;即pgxlmaster执行安装工具pgxc_ctlcd /pgsolf/postgres-xl-9.5r1.3/contribmake make install3.9 在pgxlmaster主机配置集群在/pgxl/bin命令执行pgxc_ctlPGXC工具中执行prepare 会在/home/postgres/pgxc_ctl下生成pgxc_ctl.conf配置修改pgxc_ctl.conf文件(重点关注黄色部分,其他默认即可)
| #!/usr/bin/env bashpgxcInstallDir=$HOME/pgxcpgxcOwner=$USERpgxcUser=$pgxcOwner tmpDir=/tmp localTmpDir=$tmpDirconfigBackup=n configBackupHost=pgxc-linker configBackupDir=$HOME/pgxc configBackupFile=pgxc_ctl.bak #---- GTM#---- GTM Master -----------------------------------------------gtmName=gtmgtmMasterServer=pgxlmastergtmMasterPort=20001gtmMasterDir=$HOME/pgxc/nodes/gtm#---- Configuration ---gtmExtraConfig=none gtmMasterSpecificExtraConfig=none #---- GTM Slave -----------------------------------------------gtmSlave=n #是否启用gtmSlavegtmSlaveName=gtmSlavegtmSlaveServer=pgxlnode1 gtmSlavePort=20002 gtmSlaveDir=$HOME/pgxc/nodes/gtm #---- GTM ProxygtmProxyDir=$HOME/pgxc/nodes/gtm_pxygtmProxy=y #是否启用gtmProxy gtmProxyNames=(gtm_pxy1 gtm_pxy2) gtmProxyServers=(pgxlnode1 pgxlnode2) gtmProxyPorts=(20001 20001) gtmProxyDirs=($gtmProxyDir $gtmProxyDir) #---- Configuration ----gtmPxyExtraConfig=none gtmPxySpecificExtraConfig=(none none)coordMasterDir=$HOME/pgxc/nodes/coordcoordSlaveDir=$HOME/pgxc/nodes/coord_slavecoordArchLogDir=$HOME/pgxc/nodes/coord_archlogcoordNames=(coord1 coord2) # 名称coordPorts=(20004 20005) # 端口poolerPorts=(20010 20011) # Master pooler portscoordPgHbaEntries=(192.168.204.0/24) #coordPgHbaEntries=(::1/128) #---- Master -------------coordMasterServers=(pgxlnode1 pgxlnode2) #主机名coordMasterDirs=($coordMasterDir $coordMasterDir)coordMaxWALsernder=0 # needed to configure slave. If zero value is specified,coordMaxWALSenders=($coordMaxWALsernder $coordMaxWALsernder)#---- Slave -------------coordSlave=n # 是否启用协调coordSlavecoordSlaveSync=y coordSlaveServers=(node07 node08 node09 node06) coordSlavePorts=(20004 20005 20004 20005) coordSlavePoolerPorts=(20010 20011 20010 20011) coordSlaveDirs=($coordSlaveDir $coordSlaveDir $coordSlaveDir $coordSlaveDir)coordArchLogDirs=($coordArchLogDir $coordArchLogDir $coordArchLogDir $coordArchLogDir)cat > $coordExtraConfig <<EOF#================================================# Added to all the coordinator postgresql.conf# Original: $coordExtraConfiglog_destination = "stderr"logging_collector = onlog_directory = "pg_log"listen_addresses = "*"max_connections = 100EOFcoordSpecificExtraConfig=(none none)coordExtraPgHba=none coordSpecificExtraPgHba=(none none)#----- Additional Slaves -----coordAdditionalSlaves=n coordAdditionalSlaveSet=(cad1) # configuredcad1_Sync=n cad1_Servers=(node08 node09 node06 node07) cad1_dir=$HOME/pgxc/nodes/coord_slave_cad1cad1_Dirs=($cad1_dir $cad1_dir $cad1_dir $cad1_dir)cad1_ArchLogDir=$HOME/pgxc/nodes/coord_archlog_cad1cad1_ArchLogDirs=($cad1_ArchLogDir $cad1_ArchLogDir $cad1_ArchLogDir $cad1_ArchLogDir)#---- DatanodesdatanodeMasterDir=$HOME/pgxc/nodes/dn_masterdatanodeSlaveDir=$HOME/pgxc/nodes/dn_slavedatanodeArchLogDir=$HOME/pgxc/nodes/datanode_archlogprimaryDatanode=datanode1 # Primary Node.datanodeNames=(datanode1 datanode2)datanodePorts=(20008 20009 ) # Master portsdatanodePoolerPorts=(20012 20013) # Master pooler portsdatanodePgHbaEntries=(192.168.204.0/24) #---- Master ----------------datanodeMasterServers=(pgxlnode1 pgxlnode2)datanodeMasterDirs=($datanodeMasterDir $datanodeMasterDir)datanodeMaxWalSender=0 datanodeMaxWALSenders=($datanodeMaxWalSender $datanodeMaxWalSender)#---- Slave -----------------datanodeSlave=n #是否启用datanodeSlave datanodeSlaveServers=(node07 node08 node09 node06) datanodeSlavePorts=(20008 20009 20008 20009) datanodeSlavePoolerPorts=(20012 20013 20012 20013)datanodeSlaveSync=y datanodeSlaveDirs=($datanodeSlaveDir $datanodeSlaveDir $datanodeSlaveDir $datanodeSlaveDir)datanodeArchLogDirs=($datanodeArchLogDir $datanodeArchLogDir $datanodeArchLogDir $datanodeArchLogDir )# ---- Configuration files ---datanodeExtraConfig=none datanodeSpecificExtraConfig=(none none )datanodeExtraPgHba=none datanodeSpecificExtraPgHba=(none none )#----- Additional Slaves -----datanodeAdditionalSlaves=n # datanodeAdditionalSlaveSet=(dad1 dad2) # configured# dad1_Sync=n # dad1_Servers=(node08 node09 node06 node07) # dad1_dir=$HOME/pgxc/nodes/coord_slave_cad1# dad1_Dirs=($cad1_dir $cad1_dir $cad1_dir $cad1_dir)# dad1_ArchLogDir=$HOME/pgxc/nodes/coord_archlog_cad1#dad1_ArchLogDirs=($cad1_ArchLogDir $cad1_ArchLogDir $cad1_ArchLogDir $cad1_ArchLogDir)#---- WAL archiveswalArchive=n walArchiveSet=(war1 war2)war1_source=(master) wal1_source=(slave)wal1_source=(additiona_coordinator_slave_set additional_datanode_slave_set)war1_host=node10 war1_backupdir=$HOME/pgxc/backup_war1wal2_source=(master)war2_host=node11war2_backupdir=$HOME/pgxc/backup_war2#=============<< End of future extension demonistration >> |
修改好之后在/pgxl/bin命令执行pgxc_ctl后PGXC工具中执行init all等待初始化成功。
3.10初步使用stop|start allpsql -h (pgxlnode1或者pgxlnode2) -p(20004或者20005)--通过协调节点可读写psql -h (pgxlnode1或者pgxlnode2) -p(20008或者20009)--通过数据节点只可读postgres=# select *from pgxc_node;创建表语法CREATE TABLEtest(...)DISTRIBUTE BYHASH(col)|MODULO(col)|ROUNDROBIN|REPLICATIONTONODE(nodename1,nodename2...)如果DISTRIBUTEBY 后面是REPLICATION,则是复制模式,其余则是分片模式,HASH指的是按照指定列的哈希值分布数据,MODULO指的是按照指定列的取摩运算分布数据,ROUNDROBIN指的是按照轮询的方式分布数据。TO NODE指定了数据分布的节点范围,如果没有指定则默认所有数据节点参与数据分布。如果没有指定分布模式,即使用普通的CREATE TABLE语句,PGXL会默认采用复制模式将数据复制到所有数据节点。通过协调节点操作:psql -h pgxlnode1 -p 20004CREATE TABLE test(idint primary key, name varchar(10)) DISTRIBUTE BY HASH(id) TO NODE(datanode1,datanode2);insert into testselect generate_series(1,1000),"lottu"||generate_series(1,1000);postgres=#select count(*) from test; count------- 1000(1 row)通过数据节点操作:完成。
本文永久更新链接地址