greenplum分布键的hash值计算分析
greenplum 数据分布策略
greenplum 是一个 MPP 架构的数据库,由一个 master 和多个 segment 组成(还可选配置一个 standby master),其数据会根据设置的分布策略分布到在不同的 segment 上。
在 6 版本中,gp 提供了 3 个策略:随机分布、复制分布、hash 分布。
随机分布
在创建表的时候,使用 "DISTRIBUTED RANDOMLY" 子句。
该策略会使数据随机分布到各个 segment,即使是完全一样的两行数据,也可能会被分散至不同的 segment。虽然随机分布可以使数据平均的分散至所有的 segment(不会出现数据倾斜),但进行表关联分析时,仍然会按照关联键进行重分布数据,所以该策略在生产环境中很少使用。
复制分布
在创建表的时候,使用 "DISTRIBUTED REPLICATED" 子句。
该策略会把数据发送至所有的 segment,即所有的 segment 都拥有该表的所有数据,所以在表关联分析时,可以减少数据重分布,但该数据会保存到所有的 segment,所以会产生大量的重复数据。所以,该策略适合一些小表使用。
hash 分布
在重建表的时候,使用 "DISTRIBUTED BY (column,[...])" 子句。
该策略需要用户指定哪些列作为分布键,且分布键必须是主键的子集。gp 会根据分布键的值,进行计算得出 hash key 值,再根据该 key 值计算得出该数据被分配到哪个 segment上。用户可以结合自己的数据特点,以及以后数据分析的规律,为不同的表指定不同的分布键,以提供良好的数据存储以及数据分析性能。
hash 流程
这里直接贴出调用堆栈,重点分析 directDispatchCalculateHash 函数:
调用堆栈
#0 cdbhashinit (h=0x2e4e738) at cdbhash.c:161
#1 0x0000000000b05017 in directDispatchCalculateHash (plan=0x2e4dce8, targetPolicy=0x2e4e178, hashfuncs=0x2e4e6b8)
at cdbmutate.c:197
#2 0x0000000000b0a989 in sri_optimize_for_result (root=0x2e4cf18, plan=0x2e4dce8, rte=0x2e4cd88,
targetPolicy=0x7ffe5fca0ec0, hashExprs_p=0x7ffe5fca0ed0, hashOpfamilies_p=0x7ffe5fca0ec8) at cdbmutate.c:3560
#3 0x0000000000810d6e in adjust_modifytable_flow (root=0x2e4cf18, node=0x2e4e068, is_split_updates=0x2e4d9b8)
at createplan.c:6608
#4 0x00000000008108bd in make_modifytable (root=0x2e4cf18, operation=CMD_INSERT, canSetTag=1 "01",
resultRelations=0x2e4e038, subplans=0x2e4dfe8, withCheckOptionLists=0x0, returningLists=0x0,
is_split_updates=0x2e4d9b8, rowMarks=0x0, epqParam=0) at createplan.c:6471
#5 0x0000000000817e24 in subquery_planner (glob=0x2cbcf70, parse=0x2d7cd80, parent_root=0x0, hasRecursion=0 "00",
tuple_fraction=0, subroot=0x7ffe5fca11b8, config=0x2e4cee8) at planner.c:907
#6 0x0000000000816d1d in standard_planner (parse=0x2d7cd80, cursorOptions=0, boundParams=0x0) at planner.c:345
#7 0x0000000000816904 in planner (parse=0x2cbd080, cursorOptions=0, boundParams=0x0) at planner.c:200
#8 0x00000000008e8f4a in pg_plan_query (querytree=0x2cbd080, cursorOptions=0, boundParams=0x0) at postgres.c:959
#9 0x00000000008e8ffd in pg_plan_queries (querytrees=0x2d7b458, cursorOptions=0, boundParams=0x0) at postgres.c:1018
#10 0x00000000008ea3e8 in exec_simple_query (
query_string=0x2cbc0d8 "insert INTO hash values (1,"asdf","fdsa","qwer");") at postgres.c:1748
#11 0x00000000008ef189 in PostgresMain (argc=1, argv=0x2c9bc10, dbname=0x2c9bac0 "postgres",
username=0x2c9baa8 "gpadmin") at postgres.c:5242
#12 0x000000000086db12 in BackendRun (port=0x2cc5830) at postmaster.c:4811
#13 0x000000000086d1da in BackendStartup (port=0x2cc5830) at postmaster.c:4468
#14 0x0000000000869424 in ServerLoop () at postmaster.c:1948
#15 0x00000000008689c3 in PostmasterMain (argc=6, argv=0x2c99c20) at postmaster.c:1518
#16 0x0000000000774e33 in main (argc=6, argv=0x2c99c20) at main.c:245
directDispatchCalculateHash
这里只贴出 directDispatchCalculateHash 函数的重点代码及注释:
static void
directDispatchCalculateHash(Plan *plan, GpPolicy *targetPolicy, Oid *hashfuncs)
{
// .....以上代码省略
// 为当前插入的数据会话创建 cdbHash 环境
// 主要包括:
// 1、当前 gp 的 segment 个数
// 2、hash key 值到 segment 的 reduce 函数
// 3、该表的分布键,以及该分布键类型对应计算 hash key 的函数
h = makeCdbHash(targetPolicy->numsegments, targetPolicy->nattrs, hashfuncs);
// 初始化 cdbHash,主要是初始化 hashkey 值
cdbhashinit(h);
// 遍历所有的分布键
// nattrs 是分布键个数
for (i = 0; i < targetPolicy->nattrs; i++)
{
// 进行 hash key 值计算
cdbhash(h, i + 1, values[i], nulls[i]);
}
// 根据前面计算出来的 hash key,
// 再算出该数据数据应该映射到哪个 segment
hashcode = cdbhashreduce(h);
// ......以下代码省略
}
cdbhash
void
cdbhash(CdbHash *h, int attno, Datum datum, bool isnull)
{
uint32 hashkey = h->hash;
// ......省略一些非关键代码
hashkey = (hashkey << 1) | ((hashkey & 0x80000000) ? 1 : 0);
if (!isnull)
{
FunctionCallInfoData fcinfo;
uint32 hkey;
InitFunctionCallInfoData(fcinfo, &h->hashfuncs[attno - 1], 1,
InvalidOid,
NULL, NULL);
fcinfo.arg[0] = datum;
fcinfo.argnull[0] = false;
hkey = DatumGetUInt32(FunctionCallInvoke(&fcinfo));
if (fcinfo.isnull)
elog(ERROR, "function %u returned NULL", fcinfo.flinfo->fn_oid);
hashkey ^= hkey;
}
// ......省略一些非关键代码
h->hash = hashkey;
}
分析:
InitFunctionCallInfoData
该宏展开为:
#define InitFunctionCallInfoData(Fcinfo, Flinfo, Nargs, Collation, Context, Resultinfo)
do {
(Fcinfo).flinfo = (Flinfo);
(Fcinfo).context = (Context);
(Fcinfo).resultinfo = (Resultinfo);
(Fcinfo).fncollation = (Collation);
(Fcinfo).isnull = false;
(Fcinfo).nargs = (Nargs);
} while (0)
这里主要是用来初始化 Fcinfo 结构体, fcinfo
类型为 FunctionCallInfoData
,其定义为: typedef Datum (*PGFunction) (FunctionCallInfo fcinfo);
。
FunctionCallInfoData
是一个通用的用于传递回调函数的入参结构体,
其中:
a、flinfo 字段是一个结构体,类型为 FmgrInfo
,该结构体里面最重要的是 fn_addr
字段,它存储了后面真正调用的 hash 回调函数的地址。
b、nargs 字段表示回调函数的入参个数,这里固定为1,说明所有的 hash 函数的入参个数都只有1个。
FunctionCallInfoData
中的 arg
字段表示回调函数入参列表,这里只使用了 datum
赋值,从外层函数可以看出来,该值即为当前列的值。
所以从这里可以确定,分布键使用的 hash 回调函数的入参通过封装的 FunctionCallInfoData
结构体进行传输,且最终里面使用的 hash 函数的入参只有 1 个,就是分布键的值。
FunctionCallInvoke
展开后为 ((* (fcinfo)->flinfo->fn_addr) (fcinfo))
,即这里真正调用了 hash 回调函数,并使用前面赋值好的 fcinfo
作为参数。
最终把 hash 回调函数的返回值强转为 uint32
类型,再与之前计算出来的 hash key 做异或操作后,作为最后的 hash key 保存到当前 cdbHash 环境中的 hash
里,即最后的赋值: h->hash = hashkey
。
总结
外层,先对当前的会话创建一个 hash 环境,然后遍历每个分布键做一次 hash 计算,根据最终的 hash key 值,做一次 reduce,计算出 segment id。
内层,先初始化通用的回调函数入参,再调用回调函数,并与之前的 hash key 值做一次异或操作,得出当前的 hash key。
hash 回调函数分析
smallint / int / bigint 类型
smallint 类型,对应的 hash 函数是 hashint2,
int 类型,对应的 hash 函数是 hashint4,
bigint 类型,对应的 hash 函数是 hashint8,
具体实现如下:
#define PG_GETARG_DATUM(n) (fcinfo->arg[n])
#define PG_GETARG_INT16(n) DatumGetInt16(PG_GETARG_DATUM(n))
#define PG_GETARG_INT32(n) DatumGetInt32(PG_GETARG_DATUM(n))
#define PG_GETARG_INT64(n) DatumGetInt64(PG_GETARG_DATUM(n))
Datum
hashint2(PG_FUNCTION_ARGS)
{
return hash_uint32((int32) PG_GETARG_INT16(0));
}
Datum
hashint4(PG_FUNCTION_ARGS)
{
return hash_uint32(PG_GETARG_INT32(0));
}
Datum
hashint8(PG_FUNCTION_ARGS)
{
int64 val = PG_GETARG_INT64(0);
uint32 lohalf = (uint32) val;
uint32 hihalf = (uint32) (val >> 32);
lohalf ^= (val >= 0) ? hihalf : ~hihalf;
return hash_uint32(lohalf);
}
把宏展开后,可以观察到,smallint 、int 和 bigint 实际上底层调用的 hash 函数都是 hash_uint32,唯一有区别的是 hash_uint32 的入参。
当类型是 smallint 或 int 时,入参就是其本身,而当类型是 bigint 时,该类型长度为8字节,所以需要对其处理一下:当被 hash 的值大于等于0时,则使用高4字节与第4字节异或的值进行 hash;当被 hash 的值小于0时,则使用高4字节的相反数,与低4字节异或的值进行 hash。
char / varchar / text 类型
char 类型,对应的 hash 函数是 hashbpchar,
text / varchar 类型,对应的 hash 函数是:hashtext,
具体实现如下:
typedef struct varlena text;
#define PG_GETARG_DATUM(n) (fcinfo->arg[n])
#define PG_DETOAST_DATUM_PACKED(datum)
pg_detoast_datum_packed((struct varlena *) DatumGetPointer(datum))
#define DatumGetTextPP(X) ((text *) PG_DETOAST_DATUM_PACKED(X))
#define PG_GETARG_TEXT_PP(n) DatumGetTextPP(PG_GETARG_DATUM(n))
Datum
hashtext(PG_FUNCTION_ARGS)
{
text *key = PG_GETARG_TEXT_PP(0);
Datum result;
result = hash_any((unsigned char *) VARDATA_ANY(key),
VARSIZE_ANY_EXHDR(key));
PG_FREE_IF_COPY(key, 0);
return result;
}
typedef struct varlena BpChar;
#define PG_GETARG_DATUM(n) (fcinfo->arg[n])
#define PG_DETOAST_DATUM_PACKED(datum)
pg_detoast_datum_packed((struct varlena *) DatumGetPointer(datum)
#define DatumGetBpCharPP(X) ((BpChar *) PG_DETOAST_DATUM_PACKED(X))
#define PG_GETARG_BPCHAR_PP(n) DatumGetBpCharPP(PG_GETARG_DATUM(n))
Datum
hashbpchar(PG_FUNCTION_ARGS)
{
BpChar *key = PG_GETARG_BPCHAR_PP(0);
char *keydata;
int keylen;
Datum result;
keydata = VARDATA_ANY(key);
keylen = bcTruelen(key);
result = hash_any((unsigned char *) keydata, keylen);
PG_FREE_IF_COPY(key, 0);
return result;
}
把上面的宏展开后,对比这三种类型的 hash 函数,其实不难发现,它们的 hash 函数底层都一样,都是通过 hash_any 函数进行计算,入参都是本身字符串值,以及字符串长度。
附:所有类型对应的 hash 函数
类型 | 别名 | 函数 |
---|---|---|
smallint | int2 | hashint2 |
integer | "int | int4" |
bigint | int8 | hashint8 |
bit | bithash | |
bit varying | varbit | bithash |
boolean | bool | hashchar |
bytea | hashvarlena | |
character [(n)] | char [(n)] | hashbpchar |
character varying [ (n) ] | varchar [(n)] | hashtext |
text | hashtext | |
cidr | hashinet | |
date | hashint4 | |
inet | hashinet | |
interval | interval_hash | |
jsonb | jsonb_hash | |
macaddr | hashmacaddr | |
numeric | decimal | hash_numeric |
real | float4 | hashfloat4 |
time [ without time zone ] | time_hash | |
time with time zone | timetz_hash | |
timestamp [ without time zone ] | timestamp_hash | |
timestamp with time zone | timestamp_hash | |
uuid | uuid_hash |
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341