aboutsummaryrefslogtreecommitdiff
diff options
context:
space:
mode:
authorJeff Bolz <jbolz@nvidia.com>2018-05-22 23:13:30 -0500
committerJeff Bolz <jbolz@nvidia.com>2018-05-24 21:08:20 -0500
commitaf7a94876c37d8d4757471f6e616f12c39caf0a6 (patch)
treef047873f712453a994039f2299ce6be423bcc3b6
parentc6d255396f93763bfe48b51acef41fd74532a480 (diff)
downloadglslang-af7a94876c37d8d4757471f6e616f12c39caf0a6.tar.gz
Add bit width of types to disassembleInstruction
-rwxr-xr-x[-rw-r--r--]SPIRV/disassemble.cpp27
-rw-r--r--Test/baseResults/hlsl.intrinsics.double.frag.out56
-rwxr-xr-xTest/baseResults/hlsl.matType.frag.out4
-rwxr-xr-xTest/baseResults/hlsl.overload.frag.out88
-rw-r--r--Test/baseResults/hlsl.promotions.frag.out136
-rw-r--r--Test/baseResults/hlsl.templatetypes.frag.out28
-rw-r--r--Test/baseResults/hlsl.wavebroadcast.comp.out68
-rw-r--r--Test/baseResults/hlsl.waveprefix.comp.out68
-rw-r--r--Test/baseResults/hlsl.wavequad.comp.out208
-rw-r--r--Test/baseResults/hlsl.wavereduction.comp.out124
-rw-r--r--Test/baseResults/hlsl.wavevote.comp.out22
-rw-r--r--Test/baseResults/remap.hlsl.templatetypes.none.frag.out28
-rw-r--r--Test/baseResults/remap.literal64.none.spv.out2
-rw-r--r--Test/baseResults/spv.400.frag.out1574
-rw-r--r--Test/baseResults/spv.atomicInt64.comp.out192
-rwxr-xr-xTest/baseResults/spv.double.comp.out26
-rwxr-xr-xTest/baseResults/spv.explicittypes.frag.out608
-rw-r--r--Test/baseResults/spv.float16.frag.out696
-rw-r--r--Test/baseResults/spv.float16Fetch.frag.out5210
-rw-r--r--Test/baseResults/spv.float32.frag.out60
-rw-r--r--Test/baseResults/spv.float64.frag.out690
-rw-r--r--Test/baseResults/spv.hlslOffsets.vert.out4
-rw-r--r--Test/baseResults/spv.int16.amd.frag.out758
-rw-r--r--Test/baseResults/spv.int16.frag.out618
-rw-r--r--Test/baseResults/spv.int32.frag.out138
-rw-r--r--Test/baseResults/spv.int64.frag.out598
-rw-r--r--Test/baseResults/spv.int8.frag.out632
-rw-r--r--Test/baseResults/spv.matrix.frag.out16
-rwxr-xr-xTest/baseResults/spv.rankShift.comp.out24
-rw-r--r--Test/baseResults/spv.shaderBallot.comp.out26
-rw-r--r--Test/baseResults/spv.shaderBallotAMD.comp.out1390
-rw-r--r--Test/baseResults/spv.specConstant.vert.out12
-rw-r--r--Test/baseResults/spv.specConstantComposite.vert.out2
-rw-r--r--Test/baseResults/spv.specConstantOperations.vert.out4
-rw-r--r--Test/baseResults/spv.subgroupArithmetic.comp.out348
-rw-r--r--Test/baseResults/spv.subgroupBallot.comp.out68
-rw-r--r--Test/baseResults/spv.subgroupClustered.comp.out124
-rwxr-xr-xTest/baseResults/spv.subgroupPartitioned.comp.out360
-rw-r--r--Test/baseResults/spv.subgroupQuad.comp.out124
-rw-r--r--Test/baseResults/spv.subgroupShuffle.comp.out68
-rw-r--r--Test/baseResults/spv.subgroupShuffleRelative.comp.out68
-rw-r--r--Test/baseResults/spv.subgroupVote.comp.out24
-rwxr-xr-xTest/baseResults/spv.vulkan110.int16.frag.out618
43 files changed, 7980 insertions, 7959 deletions
diff --git a/SPIRV/disassemble.cpp b/SPIRV/disassemble.cpp
index c07dfc78..b432e65d 100644..100755
--- a/SPIRV/disassemble.cpp
+++ b/SPIRV/disassemble.cpp
@@ -353,10 +353,21 @@ void SpirvStream::disassembleInstruction(Id resultId, Id /*typeId*/, Op opCode,
if (resultId != 0 && idDescriptor[resultId].size() == 0) {
switch (opCode) {
case OpTypeInt:
- idDescriptor[resultId] = "int";
+ switch (stream[word]) {
+ case 8: idDescriptor[resultId] = "int8_t"; break;
+ case 16: idDescriptor[resultId] = "int16_t"; break;
+ default: assert(0); // fallthrough
+ case 32: idDescriptor[resultId] = "int"; break;
+ case 64: idDescriptor[resultId] = "int64_t"; break;
+ }
break;
case OpTypeFloat:
- idDescriptor[resultId] = "float";
+ switch (stream[word]) {
+ case 16: idDescriptor[resultId] = "float16_t"; break;
+ default: assert(0); // fallthrough
+ case 32: idDescriptor[resultId] = "float"; break;
+ case 64: idDescriptor[resultId] = "float64_t"; break;
+ }
break;
case OpTypeBool:
idDescriptor[resultId] = "bool";
@@ -368,8 +379,18 @@ void SpirvStream::disassembleInstruction(Id resultId, Id /*typeId*/, Op opCode,
idDescriptor[resultId] = "ptr";
break;
case OpTypeVector:
- if (idDescriptor[stream[word]].size() > 0)
+ if (idDescriptor[stream[word]].size() > 0) {
idDescriptor[resultId].append(idDescriptor[stream[word]].begin(), idDescriptor[stream[word]].begin() + 1);
+ if (strstr(idDescriptor[stream[word]].c_str(), "8")) {
+ idDescriptor[resultId].append("8");
+ }
+ if (strstr(idDescriptor[stream[word]].c_str(), "16")) {
+ idDescriptor[resultId].append("16");
+ }
+ if (strstr(idDescriptor[stream[word]].c_str(), "64")) {
+ idDescriptor[resultId].append("64");
+ }
+ }
idDescriptor[resultId].append("vec");
switch (stream[word + 1]) {
case 2: idDescriptor[resultId].append("2"); break;
diff --git a/Test/baseResults/hlsl.intrinsics.double.frag.out b/Test/baseResults/hlsl.intrinsics.double.frag.out
index 29f70d26..c7c0e70e 100644
--- a/Test/baseResults/hlsl.intrinsics.double.frag.out
+++ b/Test/baseResults/hlsl.intrinsics.double.frag.out
@@ -231,28 +231,28 @@ gl_FragCoord origin is upper left
2: TypeVoid
3: TypeFunction 2
6: TypeFloat 64
- 7: TypePointer Function 6(float)
- 8: TypeVector 6(float) 2
- 9: TypePointer Function 8(fvec2)
- 10: TypeVector 6(float) 3
- 11: TypePointer Function 10(fvec3)
- 12: TypeVector 6(float) 4
- 13: TypePointer Function 12(fvec4)
+ 7: TypePointer Function 6(float64_t)
+ 8: TypeVector 6(float64_t) 2
+ 9: TypePointer Function 8(f64vec2)
+ 10: TypeVector 6(float64_t) 3
+ 11: TypePointer Function 10(f64vec3)
+ 12: TypeVector 6(float64_t) 4
+ 13: TypePointer Function 12(f64vec4)
14: TypeInt 32 0
15: TypePointer Function 14(int)
16: TypeFloat 32
17: TypeFunction 16(float) 7(ptr) 7(ptr) 7(ptr) 9(ptr) 11(ptr) 13(ptr) 15(ptr) 15(ptr)
36: TypeVector 14(int) 2
39: 16(float) Constant 0
- 43: TypePointer Input 6(float)
+ 43: TypePointer Input 6(float64_t)
44(inDV1a): 43(ptr) Variable Input
47(inDV1b): 43(ptr) Variable Input
50(inDV1c): 43(ptr) Variable Input
- 53: TypePointer Input 8(fvec2)
+ 53: TypePointer Input 8(f64vec2)
54(inDV2): 53(ptr) Variable Input
- 57: TypePointer Input 10(fvec3)
+ 57: TypePointer Input 10(f64vec3)
58(inDV3): 57(ptr) Variable Input
- 61: TypePointer Input 12(fvec4)
+ 61: TypePointer Input 12(f64vec4)
62(inDV4): 61(ptr) Variable Input
65: TypePointer Input 14(int)
66(inU1a): 65(ptr) Variable Input
@@ -277,33 +277,33 @@ gl_FragCoord origin is upper left
83(param): 13(ptr) Variable Function
85(param): 15(ptr) Variable Function
87(param): 15(ptr) Variable Function
- 45: 6(float) Load 44(inDV1a)
+ 45:6(float64_t) Load 44(inDV1a)
Store 42(inDV1a) 45
- 48: 6(float) Load 47(inDV1b)
+ 48:6(float64_t) Load 47(inDV1b)
Store 46(inDV1b) 48
- 51: 6(float) Load 50(inDV1c)
+ 51:6(float64_t) Load 50(inDV1c)
Store 49(inDV1c) 51
- 55: 8(fvec2) Load 54(inDV2)
+ 55: 8(f64vec2) Load 54(inDV2)
Store 52(inDV2) 55
- 59: 10(fvec3) Load 58(inDV3)
+ 59: 10(f64vec3) Load 58(inDV3)
Store 56(inDV3) 59
- 63: 12(fvec4) Load 62(inDV4)
+ 63: 12(f64vec4) Load 62(inDV4)
Store 60(inDV4) 63
67: 14(int) Load 66(inU1a)
Store 64(inU1a) 67
70: 14(int) Load 69(inU1b)
Store 68(inU1b) 70
- 74: 6(float) Load 42(inDV1a)
+ 74:6(float64_t) Load 42(inDV1a)
Store 73(param) 74
- 76: 6(float) Load 46(inDV1b)
+ 76:6(float64_t) Load 46(inDV1b)
Store 75(param) 76
- 78: 6(float) Load 49(inDV1c)
+ 78:6(float64_t) Load 49(inDV1c)
Store 77(param) 78
- 80: 8(fvec2) Load 52(inDV2)
+ 80: 8(f64vec2) Load 52(inDV2)
Store 79(param) 80
- 82: 10(fvec3) Load 56(inDV3)
+ 82: 10(f64vec3) Load 56(inDV3)
Store 81(param) 82
- 84: 12(fvec4) Load 60(inDV4)
+ 84: 12(f64vec4) Load 60(inDV4)
Store 83(param) 84
86: 14(int) Load 64(inU1a)
Store 85(param) 86
@@ -325,15 +325,15 @@ gl_FragCoord origin is upper left
27: Label
28(r00): 7(ptr) Variable Function
33(r01): 7(ptr) Variable Function
- 29: 6(float) Load 18(inDV1a)
- 30: 6(float) Load 19(inDV1b)
- 31: 6(float) Load 20(inDV1c)
- 32: 6(float) ExtInst 1(GLSL.std.450) 50(Fma) 29 30 31
+ 29:6(float64_t) Load 18(inDV1a)
+ 30:6(float64_t) Load 19(inDV1b)
+ 31:6(float64_t) Load 20(inDV1c)
+ 32:6(float64_t) ExtInst 1(GLSL.std.450) 50(Fma) 29 30 31
Store 28(r00) 32
34: 14(int) Load 24(inU1a)
35: 14(int) Load 25(inU1b)
37: 36(ivec2) CompositeConstruct 34 35
- 38: 6(float) Bitcast 37
+ 38:6(float64_t) Bitcast 37
Store 33(r01) 38
ReturnValue 39
FunctionEnd
diff --git a/Test/baseResults/hlsl.matType.frag.out b/Test/baseResults/hlsl.matType.frag.out
index 58d275ca..280141f7 100755
--- a/Test/baseResults/hlsl.matType.frag.out
+++ b/Test/baseResults/hlsl.matType.frag.out
@@ -82,8 +82,8 @@ gl_FragCoord origin is upper left
19: TypeVector 6(float) 2
20: TypeMatrix 19(fvec2) 1
21: TypeFloat 64
- 22: TypeVector 21(float) 3
- 23: TypeMatrix 22(fvec3) 2
+ 22: TypeVector 21(float64_t) 3
+ 23: TypeMatrix 22(f64vec3) 2
24: TypeInt 32 1
25: TypeVector 24(int) 4
26: TypeMatrix 25(ivec4) 4
diff --git a/Test/baseResults/hlsl.overload.frag.out b/Test/baseResults/hlsl.overload.frag.out
index 0141a6b1..da40b572 100755
--- a/Test/baseResults/hlsl.overload.frag.out
+++ b/Test/baseResults/hlsl.overload.frag.out
@@ -937,7 +937,7 @@ gl_FragCoord origin is upper left
2: TypeVoid
3: TypeFunction 2
6: TypeFloat 64
- 7: TypePointer Function 6(float)
+ 7: TypePointer Function 6(float64_t)
8: TypeBool
9: TypePointer Function 8(bool)
10: TypeFunction 2 7(ptr) 9(ptr)
@@ -967,8 +967,8 @@ gl_FragCoord origin is upper left
113: TypeVector 22(int) 3
114: TypePointer Function 113(ivec3)
115: TypeFunction 2 114(ptr)
- 125: TypeVector 6(float) 3
- 126: TypePointer Function 125(fvec3)
+ 125: TypeVector 6(float64_t) 3
+ 126: TypePointer Function 125(f64vec3)
127: TypeFunction 2 126(ptr)
134: TypeVector 15(int) 2
135: TypePointer Function 134(ivec2)
@@ -976,14 +976,14 @@ gl_FragCoord origin is upper left
149: TypeVector 29(float) 4
150: TypePointer Function 149(fvec4)
151: TypeFunction 149(fvec4) 150(ptr)
- 334: 6(float) Constant 0 0
+ 334:6(float64_t) Constant 0 0
339: 15(int) Constant 0
348: 29(float) Constant 0
353: 15(int) Constant 1
373: 22(int) Constant 0
374: 22(int) Constant 1
394: 29(float) Constant 1065353216
- 414: 6(float) Constant 0 1072693248
+ 414:6(float64_t) Constant 0 1072693248
484: TypeVector 22(int) 2
494: TypeVector 22(int) 4
503: TypeVector 8(bool) 3
@@ -1283,117 +1283,117 @@ gl_FragCoord origin is upper left
497(param): 23(ptr) Variable Function
500(param): 9(ptr) Variable Function
506(param): 9(ptr) Variable Function
- 158: 6(float) Load 155(d)
+ 158:6(float64_t) Load 155(d)
Store 157(param) 158
160: 8(bool) Load 156(b)
Store 159(param) 160
161: 2 FunctionCall 13(foo1(d1;b1;) 157(param) 159(param)
- 163: 6(float) Load 155(d)
+ 163:6(float64_t) Load 155(d)
Store 162(param) 163
- 165: 6(float) Load 155(d)
+ 165:6(float64_t) Load 155(d)
Store 164(param) 165
166: 2 FunctionCall 39(foo1(d1;d1;) 162(param) 164(param)
- 169: 6(float) Load 155(d)
+ 169:6(float64_t) Load 155(d)
Store 168(param) 169
171: 15(int) Load 167(u)
Store 170(param) 171
172: 2 FunctionCall 20(foo1(d1;u1;) 168(param) 170(param)
- 175: 6(float) Load 155(d)
+ 175:6(float64_t) Load 155(d)
Store 174(param) 175
177: 22(int) Load 173(i)
Store 176(param) 177
178: 2 FunctionCall 27(foo1(d1;i1;) 174(param) 176(param)
- 181: 6(float) Load 155(d)
+ 181:6(float64_t) Load 155(d)
Store 180(param) 181
183: 29(float) Load 179(f)
Store 182(param) 183
184: 2 FunctionCall 34(foo1(d1;f1;) 180(param) 182(param)
185: 29(float) Load 179(f)
- 186: 6(float) FConvert 185
+ 186:6(float64_t) FConvert 185
Store 187(param) 186
189: 8(bool) Load 156(b)
Store 188(param) 189
190: 2 FunctionCall 13(foo1(d1;b1;) 187(param) 188(param)
191: 29(float) Load 179(f)
- 192: 6(float) FConvert 191
+ 192:6(float64_t) FConvert 191
Store 193(param) 192
- 195: 6(float) Load 155(d)
+ 195:6(float64_t) Load 155(d)
Store 194(param) 195
196: 2 FunctionCall 39(foo1(d1;d1;) 193(param) 194(param)
197: 29(float) Load 179(f)
- 198: 6(float) FConvert 197
+ 198:6(float64_t) FConvert 197
Store 199(param) 198
201: 15(int) Load 167(u)
Store 200(param) 201
202: 2 FunctionCall 20(foo1(d1;u1;) 199(param) 200(param)
203: 29(float) Load 179(f)
- 204: 6(float) FConvert 203
+ 204:6(float64_t) FConvert 203
Store 205(param) 204
207: 22(int) Load 173(i)
Store 206(param) 207
208: 2 FunctionCall 27(foo1(d1;i1;) 205(param) 206(param)
209: 29(float) Load 179(f)
- 210: 6(float) FConvert 209
+ 210:6(float64_t) FConvert 209
Store 211(param) 210
213: 29(float) Load 179(f)
Store 212(param) 213
214: 2 FunctionCall 34(foo1(d1;f1;) 211(param) 212(param)
215: 15(int) Load 167(u)
- 216: 6(float) ConvertUToF 215
+ 216:6(float64_t) ConvertUToF 215
Store 217(param) 216
219: 8(bool) Load 156(b)
Store 218(param) 219
220: 2 FunctionCall 13(foo1(d1;b1;) 217(param) 218(param)
221: 15(int) Load 167(u)
- 222: 6(float) ConvertUToF 221
+ 222:6(float64_t) ConvertUToF 221
Store 223(param) 222
- 225: 6(float) Load 155(d)
+ 225:6(float64_t) Load 155(d)
Store 224(param) 225
226: 2 FunctionCall 39(foo1(d1;d1;) 223(param) 224(param)
227: 15(int) Load 167(u)
- 228: 6(float) ConvertUToF 227
+ 228:6(float64_t) ConvertUToF 227
Store 229(param) 228
231: 15(int) Load 167(u)
Store 230(param) 231
232: 2 FunctionCall 20(foo1(d1;u1;) 229(param) 230(param)
233: 15(int) Load 167(u)
- 234: 6(float) ConvertUToF 233
+ 234:6(float64_t) ConvertUToF 233
Store 235(param) 234
237: 22(int) Load 173(i)
Store 236(param) 237
238: 2 FunctionCall 27(foo1(d1;i1;) 235(param) 236(param)
239: 15(int) Load 167(u)
- 240: 6(float) ConvertUToF 239
+ 240:6(float64_t) ConvertUToF 239
Store 241(param) 240
243: 29(float) Load 179(f)
Store 242(param) 243
244: 2 FunctionCall 34(foo1(d1;f1;) 241(param) 242(param)
245: 22(int) Load 173(i)
- 246: 6(float) ConvertSToF 245
+ 246:6(float64_t) ConvertSToF 245
Store 247(param) 246
249: 8(bool) Load 156(b)
Store 248(param) 249
250: 2 FunctionCall 13(foo1(d1;b1;) 247(param) 248(param)
251: 22(int) Load 173(i)
- 252: 6(float) ConvertSToF 251
+ 252:6(float64_t) ConvertSToF 251
Store 253(param) 252
- 255: 6(float) Load 155(d)
+ 255:6(float64_t) Load 155(d)
Store 254(param) 255
256: 2 FunctionCall 39(foo1(d1;d1;) 253(param) 254(param)
257: 22(int) Load 173(i)
- 258: 6(float) ConvertSToF 257
+ 258:6(float64_t) ConvertSToF 257
Store 259(param) 258
261: 15(int) Load 167(u)
Store 260(param) 261
262: 2 FunctionCall 20(foo1(d1;u1;) 259(param) 260(param)
263: 22(int) Load 173(i)
- 264: 6(float) ConvertSToF 263
+ 264:6(float64_t) ConvertSToF 263
Store 265(param) 264
267: 22(int) Load 173(i)
Store 266(param) 267
268: 2 FunctionCall 27(foo1(d1;i1;) 265(param) 266(param)
269: 22(int) Load 173(i)
- 270: 6(float) ConvertSToF 269
+ 270:6(float64_t) ConvertSToF 269
Store 271(param) 270
273: 29(float) Load 179(f)
Store 272(param) 273
@@ -1407,7 +1407,7 @@ gl_FragCoord origin is upper left
281: 15(int) Load 167(u)
282: 22(int) Bitcast 281
Store 283(param) 282
- 285: 6(float) Load 155(d)
+ 285:6(float64_t) Load 155(d)
Store 284(param) 285
286: 2 FunctionCall 64(foo2(i1;d1;) 283(param) 284(param)
287: 15(int) Load 167(u)
@@ -1435,7 +1435,7 @@ gl_FragCoord origin is upper left
309: 2 FunctionCall 44(foo2(i1;b1;) 305(param) 307(param)
311: 22(int) Load 173(i)
Store 310(param) 311
- 313: 6(float) Load 155(d)
+ 313:6(float64_t) Load 155(d)
Store 312(param) 313
314: 2 FunctionCall 64(foo2(i1;d1;) 310(param) 312(param)
316: 22(int) Load 173(i)
@@ -1456,7 +1456,7 @@ gl_FragCoord origin is upper left
331: 8(bool) Load 156(b)
Store 330(param) 331
332: 2 FunctionCall 68(foo3(b1;) 330(param)
- 333: 6(float) Load 155(d)
+ 333:6(float64_t) Load 155(d)
335: 8(bool) FOrdNotEqual 333 334
Store 336(param) 335
337: 2 FunctionCall 68(foo3(b1;) 336(param)
@@ -1476,7 +1476,7 @@ gl_FragCoord origin is upper left
354: 15(int) Select 352 353 339
Store 355(param) 354
356: 2 FunctionCall 72(foo4(u1;) 355(param)
- 357: 6(float) Load 155(d)
+ 357:6(float64_t) Load 155(d)
358: 15(int) ConvertFToU 357
Store 359(param) 358
360: 2 FunctionCall 72(foo4(u1;) 359(param)
@@ -1495,7 +1495,7 @@ gl_FragCoord origin is upper left
375: 22(int) Select 372 374 373
Store 376(param) 375
377: 2 FunctionCall 76(foo5(i1;) 376(param)
- 378: 6(float) Load 155(d)
+ 378:6(float64_t) Load 155(d)
379: 22(int) ConvertFToS 378
Store 380(param) 379
381: 2 FunctionCall 76(foo5(i1;) 380(param)
@@ -1514,7 +1514,7 @@ gl_FragCoord origin is upper left
395: 29(float) Select 393 394 348
Store 396(param) 395
397: 2 FunctionCall 80(foo6(f1;) 396(param)
- 398: 6(float) Load 155(d)
+ 398:6(float64_t) Load 155(d)
399: 29(float) FConvert 398
Store 400(param) 399
401: 2 FunctionCall 80(foo6(f1;) 400(param)
@@ -1530,22 +1530,22 @@ gl_FragCoord origin is upper left
Store 410(param) 411
412: 2 FunctionCall 80(foo6(f1;) 410(param)
413: 8(bool) Load 156(b)
- 415: 6(float) Select 413 414 334
+ 415:6(float64_t) Select 413 414 334
Store 416(param) 415
417: 2 FunctionCall 84(foo7(d1;) 416(param)
- 419: 6(float) Load 155(d)
+ 419:6(float64_t) Load 155(d)
Store 418(param) 419
420: 2 FunctionCall 84(foo7(d1;) 418(param)
421: 15(int) Load 167(u)
- 422: 6(float) ConvertUToF 421
+ 422:6(float64_t) ConvertUToF 421
Store 423(param) 422
424: 2 FunctionCall 84(foo7(d1;) 423(param)
425: 22(int) Load 173(i)
- 426: 6(float) ConvertSToF 425
+ 426:6(float64_t) ConvertSToF 425
Store 427(param) 426
428: 2 FunctionCall 84(foo7(d1;) 427(param)
429: 29(float) Load 179(f)
- 430: 6(float) FConvert 429
+ 430:6(float64_t) FConvert 429
Store 431(param) 430
432: 2 FunctionCall 84(foo7(d1;) 431(param)
433: 8(bool) Load 156(b)
@@ -1568,7 +1568,7 @@ gl_FragCoord origin is upper left
450: 15(int) ConvertFToU 449
Store 451(param) 450
452: 2 FunctionCall 96(foo9(u1;) 451(param)
- 453: 6(float) Load 155(d)
+ 453:6(float64_t) Load 155(d)
454: 15(int) ConvertFToU 453
Store 455(param) 454
456: 2 FunctionCall 96(foo9(u1;) 455(param)
@@ -1580,7 +1580,7 @@ gl_FragCoord origin is upper left
462: 22(int) ConvertFToS 461
Store 463(param) 462
464: 2 FunctionCall 102(foo10(i1;) 463(param)
- 465: 6(float) Load 155(d)
+ 465:6(float64_t) Load 155(d)
466: 22(int) ConvertFToS 465
Store 467(param) 466
468: 2 FunctionCall 102(foo10(i1;) 467(param)
@@ -1589,12 +1589,12 @@ gl_FragCoord origin is upper left
Store 471(param) 470
472: 2 FunctionCall 120(foo11(u1;) 471(param)
473: 29(float) Load 179(f)
- 474: 6(float) FConvert 473
+ 474:6(float64_t) FConvert 473
Store 475(param) 474
476: 2 FunctionCall 111(foo11(d1;) 475(param)
477: 29(float) Load 179(f)
478: 104(fvec3) CompositeConstruct 477 477 477
- 479: 125(fvec3) FConvert 478
+ 479:125(f64vec3) FConvert 478
Store 480(param) 479
481: 2 FunctionCall 129(foo12(vd3;) 480(param)
482: 22(int) Load 173(i)
diff --git a/Test/baseResults/hlsl.promotions.frag.out b/Test/baseResults/hlsl.promotions.frag.out
index bdad6ca5..0fcb6b7f 100644
--- a/Test/baseResults/hlsl.promotions.frag.out
+++ b/Test/baseResults/hlsl.promotions.frag.out
@@ -1715,18 +1715,18 @@ gl_FragCoord origin is upper left
29: TypePointer Function 28(bvec3)
30: TypeFunction 2 29(ptr)
34: TypeFloat 64
- 35: TypeVector 34(float) 3
- 36: TypePointer Function 35(fvec3)
+ 35: TypeVector 34(float64_t) 3
+ 36: TypePointer Function 35(f64vec3)
37: TypeFunction 2 36(ptr)
41: TypeFunction 7(fvec3) 8(ptr)
54: TypeFunction 14(ivec3) 15(ptr)
67: TypeFunction 21(ivec3) 22(ptr)
80: TypeFunction 28(bvec3) 29(ptr)
- 93: TypeFunction 35(fvec3) 36(ptr)
+ 93: TypeFunction 35(f64vec3) 36(ptr)
106: TypeVector 6(float) 4
107(PS_OUTPUT): TypeStruct 106(fvec4)
108: TypeFunction 107(PS_OUTPUT)
- 111($Global): TypeStruct 14(ivec3) 21(ivec3) 7(fvec3) 21(ivec3) 35(fvec3) 13(int) 20(int) 6(float) 20(int) 34(float)
+ 111($Global): TypeStruct 14(ivec3) 21(ivec3) 7(fvec3) 21(ivec3) 35(f64vec3) 13(int) 20(int) 6(float) 20(int) 34(float64_t)
112: TypePointer Uniform 111($Global)
113: 112(ptr) Variable Uniform
114: 13(int) Constant 0
@@ -1741,24 +1741,24 @@ gl_FragCoord origin is upper left
142: 7(fvec3) ConstantComposite 140 140 140
143: 7(fvec3) ConstantComposite 141 141 141
151: 13(int) Constant 4
- 152: TypePointer Uniform 35(fvec3)
+ 152: TypePointer Uniform 35(f64vec3)
172: 14(ivec3) ConstantComposite 114 114 114
173: 14(ivec3) ConstantComposite 134 134 134
181: 13(int) Constant 2
182: TypePointer Uniform 7(fvec3)
218: 20(int) Constant 1
219: 21(ivec3) ConstantComposite 218 218 218
- 261: 34(float) Constant 0 0
- 262: 35(fvec3) ConstantComposite 261 261 261
- 288: 34(float) Constant 0 1072693248
- 289: 35(fvec3) ConstantComposite 288 288 288
+ 261:34(float64_t) Constant 0 0
+ 262: 35(f64vec3) ConstantComposite 261 261 261
+ 288:34(float64_t) Constant 0 1072693248
+ 289: 35(f64vec3) ConstantComposite 288 288 288
473: 13(int) Constant 5
474: TypePointer Uniform 13(int)
480: 13(int) Constant 6
481: TypePointer Uniform 20(int)
488: 13(int) Constant 8
494: 13(int) Constant 9
- 495: TypePointer Uniform 34(float)
+ 495: TypePointer Uniform 34(float64_t)
514: 13(int) Constant 7
515: TypePointer Uniform 6(float)
574: TypePointer Function 13(int)
@@ -1841,11 +1841,11 @@ gl_FragCoord origin is upper left
51(p): 8(ptr) FunctionParameter
53: Label
153: 152(ptr) AccessChain 113 151
- 154: 35(fvec3) Load 153
+ 154: 35(f64vec3) Load 153
155: 7(fvec3) FConvert 154
Store 51(p) 155
156: 152(ptr) AccessChain 113 151
- 157: 35(fvec3) Load 156
+ 157: 35(f64vec3) Load 156
158: 7(fvec3) FConvert 157
ReturnValue 158
FunctionEnd
@@ -1891,11 +1891,11 @@ gl_FragCoord origin is upper left
64(p): 15(ptr) FunctionParameter
66: Label
191: 152(ptr) AccessChain 113 151
- 192: 35(fvec3) Load 191
+ 192: 35(f64vec3) Load 191
193: 14(ivec3) ConvertFToS 192
Store 64(p) 193
194: 152(ptr) AccessChain 113 151
- 195: 35(fvec3) Load 194
+ 195: 35(f64vec3) Load 194
196: 14(ivec3) ConvertFToS 195
ReturnValue 196
FunctionEnd
@@ -1941,11 +1941,11 @@ gl_FragCoord origin is upper left
77(p): 22(ptr) FunctionParameter
79: Label
227: 152(ptr) AccessChain 113 151
- 228: 35(fvec3) Load 227
+ 228: 35(f64vec3) Load 227
229: 21(ivec3) ConvertFToU 228
Store 77(p) 229
230: 152(ptr) AccessChain 113 151
- 231: 35(fvec3) Load 230
+ 231: 35(f64vec3) Load 230
232: 21(ivec3) ConvertFToU 231
ReturnValue 232
FunctionEnd
@@ -1989,62 +1989,62 @@ gl_FragCoord origin is upper left
90(p): 29(ptr) FunctionParameter
92: Label
259: 152(ptr) AccessChain 113 151
- 260: 35(fvec3) Load 259
+ 260: 35(f64vec3) Load 259
263: 28(bvec3) FOrdNotEqual 260 262
Store 90(p) 263
264: 152(ptr) AccessChain 113 151
- 265: 35(fvec3) Load 264
+ 265: 35(f64vec3) Load 264
266: 28(bvec3) FOrdNotEqual 265 262
ReturnValue 266
FunctionEnd
-95(Fn_R_D3I(vd3;): 35(fvec3) Function None 93
+95(Fn_R_D3I(vd3;): 35(f64vec3) Function None 93
94(p): 36(ptr) FunctionParameter
96: Label
269: 115(ptr) AccessChain 113 114
270: 14(ivec3) Load 269
- 271: 35(fvec3) ConvertSToF 270
+ 271: 35(f64vec3) ConvertSToF 270
Store 94(p) 271
272: 115(ptr) AccessChain 113 114
273: 14(ivec3) Load 272
- 274: 35(fvec3) ConvertSToF 273
+ 274: 35(f64vec3) ConvertSToF 273
ReturnValue 274
FunctionEnd
-98(Fn_R_D3U(vd3;): 35(fvec3) Function None 93
+98(Fn_R_D3U(vd3;): 35(f64vec3) Function None 93
97(p): 36(ptr) FunctionParameter
99: Label
277: 125(ptr) AccessChain 113 124
278: 21(ivec3) Load 277
- 279: 35(fvec3) ConvertUToF 278
+ 279: 35(f64vec3) ConvertUToF 278
Store 97(p) 279
280: 125(ptr) AccessChain 113 124
281: 21(ivec3) Load 280
- 282: 35(fvec3) ConvertUToF 281
+ 282: 35(f64vec3) ConvertUToF 281
ReturnValue 282
FunctionEnd
-101(Fn_R_D3B(vd3;): 35(fvec3) Function None 93
+101(Fn_R_D3B(vd3;): 35(f64vec3) Function None 93
100(p): 36(ptr) FunctionParameter
102: Label
285: 125(ptr) AccessChain 113 134
286: 21(ivec3) Load 285
287: 28(bvec3) INotEqual 286 138
- 290: 35(fvec3) Select 287 289 262
+ 290: 35(f64vec3) Select 287 289 262
Store 100(p) 290
291: 125(ptr) AccessChain 113 134
292: 21(ivec3) Load 291
293: 28(bvec3) INotEqual 292 138
- 294: 35(fvec3) Select 293 289 262
+ 294: 35(f64vec3) Select 293 289 262
ReturnValue 294
FunctionEnd
-104(Fn_R_D3F(vd3;): 35(fvec3) Function None 93
+104(Fn_R_D3F(vd3;): 35(f64vec3) Function None 93
103(p): 36(ptr) FunctionParameter
105: Label
297: 182(ptr) AccessChain 113 181
298: 7(fvec3) Load 297
- 299: 35(fvec3) FConvert 298
+ 299: 35(f64vec3) FConvert 298
Store 103(p) 299
300: 182(ptr) AccessChain 113 181
301: 7(fvec3) Load 300
- 302: 35(fvec3) FConvert 301
+ 302: 35(f64vec3) FConvert 301
ReturnValue 302
FunctionEnd
109(@main():107(PS_OUTPUT) Function None 108
@@ -2087,7 +2087,7 @@ gl_FragCoord origin is upper left
317: 7(fvec3) ConvertUToF 316
Store 314(r02) 317
319: 152(ptr) AccessChain 113 151
- 320: 35(fvec3) Load 319
+ 320: 35(f64vec3) Load 319
321: 7(fvec3) FConvert 320
Store 318(r03) 321
323: 125(ptr) AccessChain 113 134
@@ -2104,7 +2104,7 @@ gl_FragCoord origin is upper left
334: 14(ivec3) ConvertFToS 333
Store 331(r12) 334
336: 152(ptr) AccessChain 113 151
- 337: 35(fvec3) Load 336
+ 337: 35(f64vec3) Load 336
338: 14(ivec3) ConvertFToS 337
Store 335(r13) 338
340: 125(ptr) AccessChain 113 134
@@ -2121,7 +2121,7 @@ gl_FragCoord origin is upper left
351: 21(ivec3) ConvertFToU 350
Store 348(r22) 351
353: 152(ptr) AccessChain 113 151
- 354: 35(fvec3) Load 353
+ 354: 35(f64vec3) Load 353
355: 21(ivec3) ConvertFToU 354
Store 352(r23) 355
357: 115(ptr) AccessChain 113 114
@@ -2137,25 +2137,25 @@ gl_FragCoord origin is upper left
367: 28(bvec3) FOrdNotEqual 366 142
Store 364(r32) 367
369: 152(ptr) AccessChain 113 151
- 370: 35(fvec3) Load 369
+ 370: 35(f64vec3) Load 369
371: 28(bvec3) FOrdNotEqual 370 262
Store 368(r33) 371
373: 115(ptr) AccessChain 113 114
374: 14(ivec3) Load 373
- 375: 35(fvec3) ConvertSToF 374
+ 375: 35(f64vec3) ConvertSToF 374
Store 372(r40) 375
377: 125(ptr) AccessChain 113 124
378: 21(ivec3) Load 377
- 379: 35(fvec3) ConvertUToF 378
+ 379: 35(f64vec3) ConvertUToF 378
Store 376(r41) 379
381: 182(ptr) AccessChain 113 181
382: 7(fvec3) Load 381
- 383: 35(fvec3) FConvert 382
+ 383: 35(f64vec3) FConvert 382
Store 380(r42) 383
385: 125(ptr) AccessChain 113 134
386: 21(ivec3) Load 385
387: 28(bvec3) INotEqual 386 138
- 388: 35(fvec3) Select 387 289 262
+ 388: 35(f64vec3) Select 387 289 262
Store 384(r43) 388
389: 115(ptr) AccessChain 113 114
390: 14(ivec3) Load 389
@@ -2177,7 +2177,7 @@ gl_FragCoord origin is upper left
404: 7(fvec3) FMul 403 402
Store 314(r02) 404
405: 152(ptr) AccessChain 113 151
- 406: 35(fvec3) Load 405
+ 406: 35(f64vec3) Load 405
407: 7(fvec3) FConvert 406
408: 7(fvec3) Load 318(r03)
409: 7(fvec3) FMul 408 407
@@ -2202,7 +2202,7 @@ gl_FragCoord origin is upper left
425: 14(ivec3) IMul 424 423
Store 331(r12) 425
426: 152(ptr) AccessChain 113 151
- 427: 35(fvec3) Load 426
+ 427: 35(f64vec3) Load 426
428: 14(ivec3) ConvertFToS 427
429: 14(ivec3) Load 335(r13)
430: 14(ivec3) IMul 429 428
@@ -2227,35 +2227,35 @@ gl_FragCoord origin is upper left
446: 21(ivec3) IMul 445 444
Store 348(r22) 446
447: 152(ptr) AccessChain 113 151
- 448: 35(fvec3) Load 447
+ 448: 35(f64vec3) Load 447
449: 21(ivec3) ConvertFToU 448
450: 21(ivec3) Load 352(r23)
451: 21(ivec3) IMul 450 449
Store 352(r23) 451
452: 115(ptr) AccessChain 113 114
453: 14(ivec3) Load 452
- 454: 35(fvec3) ConvertSToF 453
- 455: 35(fvec3) Load 372(r40)
- 456: 35(fvec3) FMul 455 454
+ 454: 35(f64vec3) ConvertSToF 453
+ 455: 35(f64vec3) Load 372(r40)
+ 456: 35(f64vec3) FMul 455 454
Store 372(r40) 456
457: 125(ptr) AccessChain 113 124
458: 21(ivec3) Load 457
- 459: 35(fvec3) ConvertUToF 458
- 460: 35(fvec3) Load 376(r41)
- 461: 35(fvec3) FMul 460 459
+ 459: 35(f64vec3) ConvertUToF 458
+ 460: 35(f64vec3) Load 376(r41)
+ 461: 35(f64vec3) FMul 460 459
Store 376(r41) 461
462: 182(ptr) AccessChain 113 181
463: 7(fvec3) Load 462
- 464: 35(fvec3) FConvert 463
- 465: 35(fvec3) Load 380(r42)
- 466: 35(fvec3) FMul 465 464
+ 464: 35(f64vec3) FConvert 463
+ 465: 35(f64vec3) Load 380(r42)
+ 466: 35(f64vec3) FMul 465 464
Store 380(r42) 466
467: 125(ptr) AccessChain 113 134
468: 21(ivec3) Load 467
469: 28(bvec3) INotEqual 468 138
- 470: 35(fvec3) Select 469 289 262
- 471: 35(fvec3) Load 384(r43)
- 472: 35(fvec3) FMul 471 470
+ 470: 35(f64vec3) Select 469 289 262
+ 471: 35(f64vec3) Load 384(r43)
+ 472: 35(f64vec3) FMul 471 470
Store 384(r43) 472
475: 474(ptr) AccessChain 113 473
476: 13(int) Load 475
@@ -2277,7 +2277,7 @@ gl_FragCoord origin is upper left
493: 7(fvec3) VectorTimesScalar 492 491
Store 314(r02) 493
496: 495(ptr) AccessChain 113 494
- 497: 34(float) Load 496
+ 497:34(float64_t) Load 496
498: 6(float) FConvert 497
499: 7(fvec3) Load 318(r03)
500: 7(fvec3) VectorTimesScalar 499 498
@@ -2305,7 +2305,7 @@ gl_FragCoord origin is upper left
521: 14(ivec3) IMul 519 520
Store 331(r12) 521
522: 495(ptr) AccessChain 113 494
- 523: 34(float) Load 522
+ 523:34(float64_t) Load 522
524: 13(int) ConvertFToS 523
525: 14(ivec3) Load 335(r13)
526: 14(ivec3) CompositeConstruct 524 524 524
@@ -2334,7 +2334,7 @@ gl_FragCoord origin is upper left
546: 21(ivec3) IMul 544 545
Store 348(r22) 546
547: 495(ptr) AccessChain 113 494
- 548: 34(float) Load 547
+ 548:34(float64_t) Load 547
549: 20(int) ConvertFToU 548
550: 21(ivec3) Load 352(r23)
551: 21(ivec3) CompositeConstruct 549 549 549
@@ -2342,28 +2342,28 @@ gl_FragCoord origin is upper left
Store 352(r23) 552
553: 474(ptr) AccessChain 113 473
554: 13(int) Load 553
- 555: 34(float) ConvertSToF 554
- 556: 35(fvec3) Load 372(r40)
- 557: 35(fvec3) VectorTimesScalar 556 555
+ 555:34(float64_t) ConvertSToF 554
+ 556: 35(f64vec3) Load 372(r40)
+ 557: 35(f64vec3) VectorTimesScalar 556 555
Store 372(r40) 557
558: 481(ptr) AccessChain 113 488
559: 20(int) Load 558
- 560: 34(float) ConvertUToF 559
- 561: 35(fvec3) Load 376(r41)
- 562: 35(fvec3) VectorTimesScalar 561 560
+ 560:34(float64_t) ConvertUToF 559
+ 561: 35(f64vec3) Load 376(r41)
+ 562: 35(f64vec3) VectorTimesScalar 561 560
Store 376(r41) 562
563: 515(ptr) AccessChain 113 514
564: 6(float) Load 563
- 565: 34(float) FConvert 564
- 566: 35(fvec3) Load 380(r42)
- 567: 35(fvec3) VectorTimesScalar 566 565
+ 565:34(float64_t) FConvert 564
+ 566: 35(f64vec3) Load 380(r42)
+ 567: 35(f64vec3) VectorTimesScalar 566 565
Store 380(r42) 567
568: 481(ptr) AccessChain 113 480
569: 20(int) Load 568
570: 27(bool) INotEqual 569 137
- 571: 34(float) Select 570 288 261
- 572: 35(fvec3) Load 384(r43)
- 573: 35(fvec3) VectorTimesScalar 572 571
+ 571:34(float64_t) Select 570 288 261
+ 572: 35(f64vec3) Load 384(r43)
+ 573: 35(f64vec3) VectorTimesScalar 572 571
Store 384(r43) 573
Store 575(c1) 124
Store 576(c2) 124
diff --git a/Test/baseResults/hlsl.templatetypes.frag.out b/Test/baseResults/hlsl.templatetypes.frag.out
index 7ca8f11c..dca8c4d4 100644
--- a/Test/baseResults/hlsl.templatetypes.frag.out
+++ b/Test/baseResults/hlsl.templatetypes.frag.out
@@ -571,8 +571,8 @@ gl_FragCoord origin is upper left
28: 25(int) Constant 1
29: TypePointer Function 6(float)
31: TypeFloat 64
- 32: TypePointer Function 31(float)
- 34: 31(float) Constant 0 1072693248
+ 32: TypePointer Function 31(float64_t)
+ 34:31(float64_t) Constant 0 1072693248
35: TypeInt 32 0
36: TypePointer Function 35(int)
38: 35(int) Constant 1
@@ -587,10 +587,10 @@ gl_FragCoord origin is upper left
49: TypeVector 6(float) 2
50: TypePointer Function 49(fvec2)
52: 49(fvec2) ConstantComposite 13 14
- 53: TypeVector 31(float) 2
- 54: TypePointer Function 53(fvec2)
- 56: 31(float) Constant 0 1073741824
- 57: 53(fvec2) ConstantComposite 34 56
+ 53: TypeVector 31(float64_t) 2
+ 54: TypePointer Function 53(f64vec2)
+ 56:31(float64_t) Constant 0 1073741824
+ 57: 53(f64vec2) ConstantComposite 34 56
58: TypeVector 35(int) 2
59: TypePointer Function 58(ivec2)
61: 35(int) Constant 2
@@ -605,10 +605,10 @@ gl_FragCoord origin is upper left
72: TypeVector 6(float) 3
73: TypePointer Function 72(fvec3)
75: 72(fvec3) ConstantComposite 13 14 15
- 76: TypeVector 31(float) 3
- 77: TypePointer Function 76(fvec3)
- 79: 31(float) Constant 0 1074266112
- 80: 76(fvec3) ConstantComposite 34 56 79
+ 76: TypeVector 31(float64_t) 3
+ 77: TypePointer Function 76(f64vec3)
+ 79:31(float64_t) Constant 0 1074266112
+ 80: 76(f64vec3) ConstantComposite 34 56 79
81: TypeVector 35(int) 3
82: TypePointer Function 81(ivec3)
84: 35(int) Constant 3
@@ -620,10 +620,10 @@ gl_FragCoord origin is upper left
91: TypePointer Function 90(ivec4)
93: 25(int) Constant 4
94: 90(ivec4) ConstantComposite 28 47 70 93
- 96: TypeVector 31(float) 4
- 97: TypePointer Function 96(fvec4)
- 99: 31(float) Constant 0 1074790400
- 100: 96(fvec4) ConstantComposite 34 56 79 99
+ 96: TypeVector 31(float64_t) 4
+ 97: TypePointer Function 96(f64vec4)
+ 99:31(float64_t) Constant 0 1074790400
+ 100: 96(f64vec4) ConstantComposite 34 56 79 99
101: TypeVector 35(int) 4
102: TypePointer Function 101(ivec4)
104: 35(int) Constant 4
diff --git a/Test/baseResults/hlsl.wavebroadcast.comp.out b/Test/baseResults/hlsl.wavebroadcast.comp.out
index 5c84fb38..48a87c6d 100644
--- a/Test/baseResults/hlsl.wavebroadcast.comp.out
+++ b/Test/baseResults/hlsl.wavebroadcast.comp.out
@@ -2346,8 +2346,8 @@ local_size = (32, 16, 1)
16: TypeFloat 32
17: TypeVector 16(float) 4
18: TypeFloat 64
- 19: TypeVector 18(float) 4
- 20(Types): TypeStruct 13(ivec4) 15(ivec4) 17(fvec4) 19(fvec4)
+ 19: TypeVector 18(float64_t) 4
+ 20(Types): TypeStruct 13(ivec4) 15(ivec4) 17(fvec4) 19(f64vec4)
21: TypeRuntimeArray 20(Types)
22(data): TypeStruct 21
23: TypePointer Uniform 22(data)
@@ -2371,10 +2371,10 @@ local_size = (32, 16, 1)
137: TypeVector 16(float) 2
149: TypeVector 16(float) 3
159: 14(int) Constant 3
- 162: TypePointer Uniform 19(fvec4)
- 171: TypePointer Uniform 18(float)
- 180: TypeVector 18(float) 2
- 192: TypeVector 18(float) 3
+ 162: TypePointer Uniform 19(f64vec4)
+ 171: TypePointer Uniform 18(float64_t)
+ 180: TypeVector 18(float64_t) 2
+ 192: TypeVector 18(float64_t) 3
353: TypePointer Input 7(ivec3)
354(dti): 353(ptr) Variable Input
4(CSMain): 2 Function None 3
@@ -2522,8 +2522,8 @@ local_size = (32, 16, 1)
160: 27(ptr) AccessChain 10(dti) 26
161: 6(int) Load 160
163: 162(ptr) AccessChain 24(data) 25 161 159
- 164: 19(fvec4) Load 163
- 165: 19(fvec4) GroupNonUniformBroadcastFirst 36 164
+ 164: 19(f64vec4) Load 163
+ 165: 19(f64vec4) GroupNonUniformBroadcastFirst 36 164
166: 162(ptr) AccessChain 24(data) 25 158 159
Store 166 165
167: 27(ptr) AccessChain 10(dti) 26
@@ -2531,8 +2531,8 @@ local_size = (32, 16, 1)
169: 27(ptr) AccessChain 10(dti) 26
170: 6(int) Load 169
172: 171(ptr) AccessChain 24(data) 25 170 159 26
- 173: 18(float) Load 172
- 174: 18(float) GroupNonUniformBroadcastFirst 36 173
+ 173:18(float64_t) Load 172
+ 174:18(float64_t) GroupNonUniformBroadcastFirst 36 173
175: 171(ptr) AccessChain 24(data) 25 168 159 26
Store 175 174
176: 27(ptr) AccessChain 10(dti) 26
@@ -2540,24 +2540,24 @@ local_size = (32, 16, 1)
178: 27(ptr) AccessChain 10(dti) 26
179: 6(int) Load 178
181: 162(ptr) AccessChain 24(data) 25 179 159
- 182: 19(fvec4) Load 181
- 183: 180(fvec2) VectorShuffle 182 182 0 1
- 184: 180(fvec2) GroupNonUniformBroadcastFirst 36 183
+ 182: 19(f64vec4) Load 181
+ 183:180(f64vec2) VectorShuffle 182 182 0 1
+ 184:180(f64vec2) GroupNonUniformBroadcastFirst 36 183
185: 162(ptr) AccessChain 24(data) 25 177 159
- 186: 19(fvec4) Load 185
- 187: 19(fvec4) VectorShuffle 186 184 4 5 2 3
+ 186: 19(f64vec4) Load 185
+ 187: 19(f64vec4) VectorShuffle 186 184 4 5 2 3
Store 185 187
188: 27(ptr) AccessChain 10(dti) 26
189: 6(int) Load 188
190: 27(ptr) AccessChain 10(dti) 26
191: 6(int) Load 190
193: 162(ptr) AccessChain 24(data) 25 191 159
- 194: 19(fvec4) Load 193
- 195: 192(fvec3) VectorShuffle 194 194 0 1 2
- 196: 192(fvec3) GroupNonUniformBroadcastFirst 36 195
+ 194: 19(f64vec4) Load 193
+ 195:192(f64vec3) VectorShuffle 194 194 0 1 2
+ 196:192(f64vec3) GroupNonUniformBroadcastFirst 36 195
197: 162(ptr) AccessChain 24(data) 25 189 159
- 198: 19(fvec4) Load 197
- 199: 19(fvec4) VectorShuffle 198 196 4 5 6 3
+ 198: 19(f64vec4) Load 197
+ 199: 19(f64vec4) VectorShuffle 198 196 4 5 6 3
Store 197 199
200: 27(ptr) AccessChain 10(dti) 26
201: 6(int) Load 200
@@ -2690,8 +2690,8 @@ local_size = (32, 16, 1)
316: 27(ptr) AccessChain 10(dti) 26
317: 6(int) Load 316
318: 162(ptr) AccessChain 24(data) 25 317 159
- 319: 19(fvec4) Load 318
- 320: 19(fvec4) GroupNonUniformBroadcastFirst 36 319
+ 319: 19(f64vec4) Load 318
+ 320: 19(f64vec4) GroupNonUniformBroadcastFirst 36 319
321: 162(ptr) AccessChain 24(data) 25 315 159
Store 321 320
322: 27(ptr) AccessChain 10(dti) 26
@@ -2699,8 +2699,8 @@ local_size = (32, 16, 1)
324: 27(ptr) AccessChain 10(dti) 26
325: 6(int) Load 324
326: 171(ptr) AccessChain 24(data) 25 325 159 26
- 327: 18(float) Load 326
- 328: 18(float) GroupNonUniformBroadcastFirst 36 327
+ 327:18(float64_t) Load 326
+ 328:18(float64_t) GroupNonUniformBroadcastFirst 36 327
329: 171(ptr) AccessChain 24(data) 25 323 159 26
Store 329 328
330: 27(ptr) AccessChain 10(dti) 26
@@ -2708,24 +2708,24 @@ local_size = (32, 16, 1)
332: 27(ptr) AccessChain 10(dti) 26
333: 6(int) Load 332
334: 162(ptr) AccessChain 24(data) 25 333 159
- 335: 19(fvec4) Load 334
- 336: 180(fvec2) VectorShuffle 335 335 0 1
- 337: 180(fvec2) GroupNonUniformBroadcastFirst 36 336
+ 335: 19(f64vec4) Load 334
+ 336:180(f64vec2) VectorShuffle 335 335 0 1
+ 337:180(f64vec2) GroupNonUniformBroadcastFirst 36 336
338: 162(ptr) AccessChain 24(data) 25 331 159
- 339: 19(fvec4) Load 338
- 340: 19(fvec4) VectorShuffle 339 337 4 5 2 3
+ 339: 19(f64vec4) Load 338
+ 340: 19(f64vec4) VectorShuffle 339 337 4 5 2 3
Store 338 340
341: 27(ptr) AccessChain 10(dti) 26
342: 6(int) Load 341
343: 27(ptr) AccessChain 10(dti) 26
344: 6(int) Load 343
345: 162(ptr) AccessChain 24(data) 25 344 159
- 346: 19(fvec4) Load 345
- 347: 192(fvec3) VectorShuffle 346 346 0 1 2
- 348: 192(fvec3) GroupNonUniformBroadcastFirst 36 347
+ 346: 19(f64vec4) Load 345
+ 347:192(f64vec3) VectorShuffle 346 346 0 1 2
+ 348:192(f64vec3) GroupNonUniformBroadcastFirst 36 347
349: 162(ptr) AccessChain 24(data) 25 342 159
- 350: 19(fvec4) Load 349
- 351: 19(fvec4) VectorShuffle 350 348 4 5 6 3
+ 350: 19(f64vec4) Load 349
+ 351: 19(f64vec4) VectorShuffle 350 348 4 5 6 3
Store 349 351
Return
FunctionEnd
diff --git a/Test/baseResults/hlsl.waveprefix.comp.out b/Test/baseResults/hlsl.waveprefix.comp.out
index fbc2055e..637b8bac 100644
--- a/Test/baseResults/hlsl.waveprefix.comp.out
+++ b/Test/baseResults/hlsl.waveprefix.comp.out
@@ -2370,8 +2370,8 @@ local_size = (32, 16, 1)
16: TypeFloat 32
17: TypeVector 16(float) 4
18: TypeFloat 64
- 19: TypeVector 18(float) 4
- 20(Types): TypeStruct 13(ivec4) 15(ivec4) 17(fvec4) 19(fvec4)
+ 19: TypeVector 18(float64_t) 4
+ 20(Types): TypeStruct 13(ivec4) 15(ivec4) 17(fvec4) 19(f64vec4)
21: TypeRuntimeArray 20(Types)
22(data): TypeStruct 21
23: TypePointer Uniform 22(data)
@@ -2394,10 +2394,10 @@ local_size = (32, 16, 1)
136: TypeVector 16(float) 2
148: TypeVector 16(float) 3
158: 14(int) Constant 3
- 161: TypePointer Uniform 19(fvec4)
- 170: TypePointer Uniform 18(float)
- 179: TypeVector 18(float) 2
- 191: TypeVector 18(float) 3
+ 161: TypePointer Uniform 19(f64vec4)
+ 170: TypePointer Uniform 18(float64_t)
+ 179: TypeVector 18(float64_t) 2
+ 191: TypeVector 18(float64_t) 3
357: TypeBool
363: TypePointer Input 7(ivec3)
364(dti): 363(ptr) Variable Input
@@ -2546,8 +2546,8 @@ local_size = (32, 16, 1)
159: 27(ptr) AccessChain 10(dti) 26
160: 6(int) Load 159
162: 161(ptr) AccessChain 24(data) 25 160 158
- 163: 19(fvec4) Load 162
- 164: 19(fvec4) GroupNonUniformFAdd 35 InclusiveScan 163
+ 163: 19(f64vec4) Load 162
+ 164: 19(f64vec4) GroupNonUniformFAdd 35 InclusiveScan 163
165: 161(ptr) AccessChain 24(data) 25 157 158
Store 165 164
166: 27(ptr) AccessChain 10(dti) 26
@@ -2555,8 +2555,8 @@ local_size = (32, 16, 1)
168: 27(ptr) AccessChain 10(dti) 26
169: 6(int) Load 168
171: 170(ptr) AccessChain 24(data) 25 169 158 26
- 172: 18(float) Load 171
- 173: 18(float) GroupNonUniformFAdd 35 InclusiveScan 172
+ 172:18(float64_t) Load 171
+ 173:18(float64_t) GroupNonUniformFAdd 35 InclusiveScan 172
174: 170(ptr) AccessChain 24(data) 25 167 158 26
Store 174 173
175: 27(ptr) AccessChain 10(dti) 26
@@ -2564,24 +2564,24 @@ local_size = (32, 16, 1)
177: 27(ptr) AccessChain 10(dti) 26
178: 6(int) Load 177
180: 161(ptr) AccessChain 24(data) 25 178 158
- 181: 19(fvec4) Load 180
- 182: 179(fvec2) VectorShuffle 181 181 0 1
- 183: 179(fvec2) GroupNonUniformFAdd 35 InclusiveScan 182
+ 181: 19(f64vec4) Load 180
+ 182:179(f64vec2) VectorShuffle 181 181 0 1
+ 183:179(f64vec2) GroupNonUniformFAdd 35 InclusiveScan 182
184: 161(ptr) AccessChain 24(data) 25 176 158
- 185: 19(fvec4) Load 184
- 186: 19(fvec4) VectorShuffle 185 183 4 5 2 3
+ 185: 19(f64vec4) Load 184
+ 186: 19(f64vec4) VectorShuffle 185 183 4 5 2 3
Store 184 186
187: 27(ptr) AccessChain 10(dti) 26
188: 6(int) Load 187
189: 27(ptr) AccessChain 10(dti) 26
190: 6(int) Load 189
192: 161(ptr) AccessChain 24(data) 25 190 158
- 193: 19(fvec4) Load 192
- 194: 191(fvec3) VectorShuffle 193 193 0 1 2
- 195: 191(fvec3) GroupNonUniformFAdd 35 InclusiveScan 194
+ 193: 19(f64vec4) Load 192
+ 194:191(f64vec3) VectorShuffle 193 193 0 1 2
+ 195:191(f64vec3) GroupNonUniformFAdd 35 InclusiveScan 194
196: 161(ptr) AccessChain 24(data) 25 188 158
- 197: 19(fvec4) Load 196
- 198: 19(fvec4) VectorShuffle 197 195 4 5 6 3
+ 197: 19(f64vec4) Load 196
+ 198: 19(f64vec4) VectorShuffle 197 195 4 5 6 3
Store 196 198
199: 27(ptr) AccessChain 10(dti) 26
200: 6(int) Load 199
@@ -2714,8 +2714,8 @@ local_size = (32, 16, 1)
315: 27(ptr) AccessChain 10(dti) 26
316: 6(int) Load 315
317: 161(ptr) AccessChain 24(data) 25 316 158
- 318: 19(fvec4) Load 317
- 319: 19(fvec4) GroupNonUniformFMul 35 InclusiveScan 318
+ 318: 19(f64vec4) Load 317
+ 319: 19(f64vec4) GroupNonUniformFMul 35 InclusiveScan 318
320: 161(ptr) AccessChain 24(data) 25 314 158
Store 320 319
321: 27(ptr) AccessChain 10(dti) 26
@@ -2723,8 +2723,8 @@ local_size = (32, 16, 1)
323: 27(ptr) AccessChain 10(dti) 26
324: 6(int) Load 323
325: 170(ptr) AccessChain 24(data) 25 324 158 26
- 326: 18(float) Load 325
- 327: 18(float) GroupNonUniformFMul 35 InclusiveScan 326
+ 326:18(float64_t) Load 325
+ 327:18(float64_t) GroupNonUniformFMul 35 InclusiveScan 326
328: 170(ptr) AccessChain 24(data) 25 322 158 26
Store 328 327
329: 27(ptr) AccessChain 10(dti) 26
@@ -2732,24 +2732,24 @@ local_size = (32, 16, 1)
331: 27(ptr) AccessChain 10(dti) 26
332: 6(int) Load 331
333: 161(ptr) AccessChain 24(data) 25 332 158
- 334: 19(fvec4) Load 333
- 335: 179(fvec2) VectorShuffle 334 334 0 1
- 336: 179(fvec2) GroupNonUniformFMul 35 InclusiveScan 335
+ 334: 19(f64vec4) Load 333
+ 335:179(f64vec2) VectorShuffle 334 334 0 1
+ 336:179(f64vec2) GroupNonUniformFMul 35 InclusiveScan 335
337: 161(ptr) AccessChain 24(data) 25 330 158
- 338: 19(fvec4) Load 337
- 339: 19(fvec4) VectorShuffle 338 336 4 5 2 3
+ 338: 19(f64vec4) Load 337
+ 339: 19(f64vec4) VectorShuffle 338 336 4 5 2 3
Store 337 339
340: 27(ptr) AccessChain 10(dti) 26
341: 6(int) Load 340
342: 27(ptr) AccessChain 10(dti) 26
343: 6(int) Load 342
344: 161(ptr) AccessChain 24(data) 25 343 158
- 345: 19(fvec4) Load 344
- 346: 191(fvec3) VectorShuffle 345 345 0 1 2
- 347: 191(fvec3) GroupNonUniformFMul 35 InclusiveScan 346
+ 345: 19(f64vec4) Load 344
+ 346:191(f64vec3) VectorShuffle 345 345 0 1 2
+ 347:191(f64vec3) GroupNonUniformFMul 35 InclusiveScan 346
348: 161(ptr) AccessChain 24(data) 25 341 158
- 349: 19(fvec4) Load 348
- 350: 19(fvec4) VectorShuffle 349 347 4 5 6 3
+ 349: 19(f64vec4) Load 348
+ 350: 19(f64vec4) VectorShuffle 349 347 4 5 6 3
Store 348 350
351: 27(ptr) AccessChain 10(dti) 26
352: 6(int) Load 351
diff --git a/Test/baseResults/hlsl.wavequad.comp.out b/Test/baseResults/hlsl.wavequad.comp.out
index 5e6af598..8030b4b9 100644
--- a/Test/baseResults/hlsl.wavequad.comp.out
+++ b/Test/baseResults/hlsl.wavequad.comp.out
@@ -8073,8 +8073,8 @@ local_size = (32, 16, 1)
16: TypeFloat 32
17: TypeVector 16(float) 4
18: TypeFloat 64
- 19: TypeVector 18(float) 4
- 20(Types): TypeStruct 13(ivec4) 15(ivec4) 17(fvec4) 19(fvec4)
+ 19: TypeVector 18(float64_t) 4
+ 20(Types): TypeStruct 13(ivec4) 15(ivec4) 17(fvec4) 19(f64vec4)
21: TypeRuntimeArray 20(Types)
22(data): TypeStruct 21
23: TypePointer Uniform 22(data)
@@ -8097,10 +8097,10 @@ local_size = (32, 16, 1)
136: TypeVector 16(float) 2
148: TypeVector 16(float) 3
158: 14(int) Constant 3
- 161: TypePointer Uniform 19(fvec4)
- 170: TypePointer Uniform 18(float)
- 179: TypeVector 18(float) 2
- 191: TypeVector 18(float) 3
+ 161: TypePointer Uniform 19(f64vec4)
+ 170: TypePointer Uniform 18(float64_t)
+ 179: TypeVector 18(float64_t) 2
+ 191: TypeVector 18(float64_t) 3
205: 6(int) Constant 1
358: 6(int) Constant 2
1114: TypePointer Input 7(ivec3)
@@ -8250,8 +8250,8 @@ local_size = (32, 16, 1)
159: 27(ptr) AccessChain 10(dti) 26
160: 6(int) Load 159
162: 161(ptr) AccessChain 24(data) 25 160 158
- 163: 19(fvec4) Load 162
- 164: 19(fvec4) GroupNonUniformQuadBroadcast 35 163 26
+ 163: 19(f64vec4) Load 162
+ 164: 19(f64vec4) GroupNonUniformQuadBroadcast 35 163 26
165: 161(ptr) AccessChain 24(data) 25 157 158
Store 165 164
166: 27(ptr) AccessChain 10(dti) 26
@@ -8259,8 +8259,8 @@ local_size = (32, 16, 1)
168: 27(ptr) AccessChain 10(dti) 26
169: 6(int) Load 168
171: 170(ptr) AccessChain 24(data) 25 169 158 26
- 172: 18(float) Load 171
- 173: 18(float) GroupNonUniformQuadBroadcast 35 172 26
+ 172:18(float64_t) Load 171
+ 173:18(float64_t) GroupNonUniformQuadBroadcast 35 172 26
174: 170(ptr) AccessChain 24(data) 25 167 158 26
Store 174 173
175: 27(ptr) AccessChain 10(dti) 26
@@ -8268,24 +8268,24 @@ local_size = (32, 16, 1)
177: 27(ptr) AccessChain 10(dti) 26
178: 6(int) Load 177
180: 161(ptr) AccessChain 24(data) 25 178 158
- 181: 19(fvec4) Load 180
- 182: 179(fvec2) VectorShuffle 181 181 0 1
- 183: 179(fvec2) GroupNonUniformQuadBroadcast 35 182 26
+ 181: 19(f64vec4) Load 180
+ 182:179(f64vec2) VectorShuffle 181 181 0 1
+ 183:179(f64vec2) GroupNonUniformQuadBroadcast 35 182 26
184: 161(ptr) AccessChain 24(data) 25 176 158
- 185: 19(fvec4) Load 184
- 186: 19(fvec4) VectorShuffle 185 183 4 5 2 3
+ 185: 19(f64vec4) Load 184
+ 186: 19(f64vec4) VectorShuffle 185 183 4 5 2 3
Store 184 186
187: 27(ptr) AccessChain 10(dti) 26
188: 6(int) Load 187
189: 27(ptr) AccessChain 10(dti) 26
190: 6(int) Load 189
192: 161(ptr) AccessChain 24(data) 25 190 158
- 193: 19(fvec4) Load 192
- 194: 191(fvec3) VectorShuffle 193 193 0 1 2
- 195: 191(fvec3) GroupNonUniformQuadBroadcast 35 194 26
+ 193: 19(f64vec4) Load 192
+ 194:191(f64vec3) VectorShuffle 193 193 0 1 2
+ 195:191(f64vec3) GroupNonUniformQuadBroadcast 35 194 26
196: 161(ptr) AccessChain 24(data) 25 188 158
- 197: 19(fvec4) Load 196
- 198: 19(fvec4) VectorShuffle 197 195 4 5 6 3
+ 197: 19(f64vec4) Load 196
+ 198: 19(f64vec4) VectorShuffle 197 195 4 5 6 3
Store 196 198
199: 27(ptr) AccessChain 10(dti) 26
200: 6(int) Load 199
@@ -8418,8 +8418,8 @@ local_size = (32, 16, 1)
316: 27(ptr) AccessChain 10(dti) 26
317: 6(int) Load 316
318: 161(ptr) AccessChain 24(data) 25 317 158
- 319: 19(fvec4) Load 318
- 320: 19(fvec4) GroupNonUniformQuadBroadcast 35 319 205
+ 319: 19(f64vec4) Load 318
+ 320: 19(f64vec4) GroupNonUniformQuadBroadcast 35 319 205
321: 161(ptr) AccessChain 24(data) 25 315 158
Store 321 320
322: 27(ptr) AccessChain 10(dti) 26
@@ -8427,8 +8427,8 @@ local_size = (32, 16, 1)
324: 27(ptr) AccessChain 10(dti) 26
325: 6(int) Load 324
326: 170(ptr) AccessChain 24(data) 25 325 158 26
- 327: 18(float) Load 326
- 328: 18(float) GroupNonUniformQuadBroadcast 35 327 205
+ 327:18(float64_t) Load 326
+ 328:18(float64_t) GroupNonUniformQuadBroadcast 35 327 205
329: 170(ptr) AccessChain 24(data) 25 323 158 26
Store 329 328
330: 27(ptr) AccessChain 10(dti) 26
@@ -8436,24 +8436,24 @@ local_size = (32, 16, 1)
332: 27(ptr) AccessChain 10(dti) 26
333: 6(int) Load 332
334: 161(ptr) AccessChain 24(data) 25 333 158
- 335: 19(fvec4) Load 334
- 336: 179(fvec2) VectorShuffle 335 335 0 1
- 337: 179(fvec2) GroupNonUniformQuadBroadcast 35 336 205
+ 335: 19(f64vec4) Load 334
+ 336:179(f64vec2) VectorShuffle 335 335 0 1
+ 337:179(f64vec2) GroupNonUniformQuadBroadcast 35 336 205
338: 161(ptr) AccessChain 24(data) 25 331 158
- 339: 19(fvec4) Load 338
- 340: 19(fvec4) VectorShuffle 339 337 4 5 2 3
+ 339: 19(f64vec4) Load 338
+ 340: 19(f64vec4) VectorShuffle 339 337 4 5 2 3
Store 338 340
341: 27(ptr) AccessChain 10(dti) 26
342: 6(int) Load 341
343: 27(ptr) AccessChain 10(dti) 26
344: 6(int) Load 343
345: 161(ptr) AccessChain 24(data) 25 344 158
- 346: 19(fvec4) Load 345
- 347: 191(fvec3) VectorShuffle 346 346 0 1 2
- 348: 191(fvec3) GroupNonUniformQuadBroadcast 35 347 205
+ 346: 19(f64vec4) Load 345
+ 347:191(f64vec3) VectorShuffle 346 346 0 1 2
+ 348:191(f64vec3) GroupNonUniformQuadBroadcast 35 347 205
349: 161(ptr) AccessChain 24(data) 25 342 158
- 350: 19(fvec4) Load 349
- 351: 19(fvec4) VectorShuffle 350 348 4 5 6 3
+ 350: 19(f64vec4) Load 349
+ 351: 19(f64vec4) VectorShuffle 350 348 4 5 6 3
Store 349 351
352: 27(ptr) AccessChain 10(dti) 26
353: 6(int) Load 352
@@ -8586,8 +8586,8 @@ local_size = (32, 16, 1)
469: 27(ptr) AccessChain 10(dti) 26
470: 6(int) Load 469
471: 161(ptr) AccessChain 24(data) 25 470 158
- 472: 19(fvec4) Load 471
- 473: 19(fvec4) GroupNonUniformQuadBroadcast 35 472 358
+ 472: 19(f64vec4) Load 471
+ 473: 19(f64vec4) GroupNonUniformQuadBroadcast 35 472 358
474: 161(ptr) AccessChain 24(data) 25 468 158
Store 474 473
475: 27(ptr) AccessChain 10(dti) 26
@@ -8595,8 +8595,8 @@ local_size = (32, 16, 1)
477: 27(ptr) AccessChain 10(dti) 26
478: 6(int) Load 477
479: 170(ptr) AccessChain 24(data) 25 478 158 26
- 480: 18(float) Load 479
- 481: 18(float) GroupNonUniformQuadBroadcast 35 480 358
+ 480:18(float64_t) Load 479
+ 481:18(float64_t) GroupNonUniformQuadBroadcast 35 480 358
482: 170(ptr) AccessChain 24(data) 25 476 158 26
Store 482 481
483: 27(ptr) AccessChain 10(dti) 26
@@ -8604,24 +8604,24 @@ local_size = (32, 16, 1)
485: 27(ptr) AccessChain 10(dti) 26
486: 6(int) Load 485
487: 161(ptr) AccessChain 24(data) 25 486 158
- 488: 19(fvec4) Load 487
- 489: 179(fvec2) VectorShuffle 488 488 0 1
- 490: 179(fvec2) GroupNonUniformQuadBroadcast 35 489 358
+ 488: 19(f64vec4) Load 487
+ 489:179(f64vec2) VectorShuffle 488 488 0 1
+ 490:179(f64vec2) GroupNonUniformQuadBroadcast 35 489 358
491: 161(ptr) AccessChain 24(data) 25 484 158
- 492: 19(fvec4) Load 491
- 493: 19(fvec4) VectorShuffle 492 490 4 5 2 3
+ 492: 19(f64vec4) Load 491
+ 493: 19(f64vec4) VectorShuffle 492 490 4 5 2 3
Store 491 493
494: 27(ptr) AccessChain 10(dti) 26
495: 6(int) Load 494
496: 27(ptr) AccessChain 10(dti) 26
497: 6(int) Load 496
498: 161(ptr) AccessChain 24(data) 25 497 158
- 499: 19(fvec4) Load 498
- 500: 191(fvec3) VectorShuffle 499 499 0 1 2
- 501: 191(fvec3) GroupNonUniformQuadBroadcast 35 500 358
+ 499: 19(f64vec4) Load 498
+ 500:191(f64vec3) VectorShuffle 499 499 0 1 2
+ 501:191(f64vec3) GroupNonUniformQuadBroadcast 35 500 358
502: 161(ptr) AccessChain 24(data) 25 495 158
- 503: 19(fvec4) Load 502
- 504: 19(fvec4) VectorShuffle 503 501 4 5 6 3
+ 503: 19(f64vec4) Load 502
+ 504: 19(f64vec4) VectorShuffle 503 501 4 5 6 3
Store 502 504
505: 27(ptr) AccessChain 10(dti) 26
506: 6(int) Load 505
@@ -8754,8 +8754,8 @@ local_size = (32, 16, 1)
621: 27(ptr) AccessChain 10(dti) 26
622: 6(int) Load 621
623: 161(ptr) AccessChain 24(data) 25 622 158
- 624: 19(fvec4) Load 623
- 625: 19(fvec4) GroupNonUniformQuadBroadcast 35 624 35
+ 624: 19(f64vec4) Load 623
+ 625: 19(f64vec4) GroupNonUniformQuadBroadcast 35 624 35
626: 161(ptr) AccessChain 24(data) 25 620 158
Store 626 625
627: 27(ptr) AccessChain 10(dti) 26
@@ -8763,8 +8763,8 @@ local_size = (32, 16, 1)
629: 27(ptr) AccessChain 10(dti) 26
630: 6(int) Load 629
631: 170(ptr) AccessChain 24(data) 25 630 158 26
- 632: 18(float) Load 631
- 633: 18(float) GroupNonUniformQuadBroadcast 35 632 35
+ 632:18(float64_t) Load 631
+ 633:18(float64_t) GroupNonUniformQuadBroadcast 35 632 35
634: 170(ptr) AccessChain 24(data) 25 628 158 26
Store 634 633
635: 27(ptr) AccessChain 10(dti) 26
@@ -8772,24 +8772,24 @@ local_size = (32, 16, 1)
637: 27(ptr) AccessChain 10(dti) 26
638: 6(int) Load 637
639: 161(ptr) AccessChain 24(data) 25 638 158
- 640: 19(fvec4) Load 639
- 641: 179(fvec2) VectorShuffle 640 640 0 1
- 642: 179(fvec2) GroupNonUniformQuadBroadcast 35 641 35
+ 640: 19(f64vec4) Load 639
+ 641:179(f64vec2) VectorShuffle 640 640 0 1
+ 642:179(f64vec2) GroupNonUniformQuadBroadcast 35 641 35
643: 161(ptr) AccessChain 24(data) 25 636 158
- 644: 19(fvec4) Load 643
- 645: 19(fvec4) VectorShuffle 644 642 4 5 2 3
+ 644: 19(f64vec4) Load 643
+ 645: 19(f64vec4) VectorShuffle 644 642 4 5 2 3
Store 643 645
646: 27(ptr) AccessChain 10(dti) 26
647: 6(int) Load 646
648: 27(ptr) AccessChain 10(dti) 26
649: 6(int) Load 648
650: 161(ptr) AccessChain 24(data) 25 649 158
- 651: 19(fvec4) Load 650
- 652: 191(fvec3) VectorShuffle 651 651 0 1 2
- 653: 191(fvec3) GroupNonUniformQuadBroadcast 35 652 35
+ 651: 19(f64vec4) Load 650
+ 652:191(f64vec3) VectorShuffle 651 651 0 1 2
+ 653:191(f64vec3) GroupNonUniformQuadBroadcast 35 652 35
654: 161(ptr) AccessChain 24(data) 25 647 158
- 655: 19(fvec4) Load 654
- 656: 19(fvec4) VectorShuffle 655 653 4 5 6 3
+ 655: 19(f64vec4) Load 654
+ 656: 19(f64vec4) VectorShuffle 655 653 4 5 6 3
Store 654 656
657: 27(ptr) AccessChain 10(dti) 26
658: 6(int) Load 657
@@ -8922,8 +8922,8 @@ local_size = (32, 16, 1)
773: 27(ptr) AccessChain 10(dti) 26
774: 6(int) Load 773
775: 161(ptr) AccessChain 24(data) 25 774 158
- 776: 19(fvec4) Load 775
- 777: 19(fvec4) GroupNonUniformQuadSwap 35 776 26
+ 776: 19(f64vec4) Load 775
+ 777: 19(f64vec4) GroupNonUniformQuadSwap 35 776 26
778: 161(ptr) AccessChain 24(data) 25 772 158
Store 778 777
779: 27(ptr) AccessChain 10(dti) 26
@@ -8931,8 +8931,8 @@ local_size = (32, 16, 1)
781: 27(ptr) AccessChain 10(dti) 26
782: 6(int) Load 781
783: 170(ptr) AccessChain 24(data) 25 782 158 26
- 784: 18(float) Load 783
- 785: 18(float) GroupNonUniformQuadSwap 35 784 26
+ 784:18(float64_t) Load 783
+ 785:18(float64_t) GroupNonUniformQuadSwap 35 784 26
786: 170(ptr) AccessChain 24(data) 25 780 158 26
Store 786 785
787: 27(ptr) AccessChain 10(dti) 26
@@ -8940,24 +8940,24 @@ local_size = (32, 16, 1)
789: 27(ptr) AccessChain 10(dti) 26
790: 6(int) Load 789
791: 161(ptr) AccessChain 24(data) 25 790 158
- 792: 19(fvec4) Load 791
- 793: 179(fvec2) VectorShuffle 792 792 0 1
- 794: 179(fvec2) GroupNonUniformQuadSwap 35 793 26
+ 792: 19(f64vec4) Load 791
+ 793:179(f64vec2) VectorShuffle 792 792 0 1
+ 794:179(f64vec2) GroupNonUniformQuadSwap 35 793 26
795: 161(ptr) AccessChain 24(data) 25 788 158
- 796: 19(fvec4) Load 795
- 797: 19(fvec4) VectorShuffle 796 794 4 5 2 3
+ 796: 19(f64vec4) Load 795
+ 797: 19(f64vec4) VectorShuffle 796 794 4 5 2 3
Store 795 797
798: 27(ptr) AccessChain 10(dti) 26
799: 6(int) Load 798
800: 27(ptr) AccessChain 10(dti) 26
801: 6(int) Load 800
802: 161(ptr) AccessChain 24(data) 25 801 158
- 803: 19(fvec4) Load 802
- 804: 191(fvec3) VectorShuffle 803 803 0 1 2
- 805: 191(fvec3) GroupNonUniformQuadSwap 35 804 26
+ 803: 19(f64vec4) Load 802
+ 804:191(f64vec3) VectorShuffle 803 803 0 1 2
+ 805:191(f64vec3) GroupNonUniformQuadSwap 35 804 26
806: 161(ptr) AccessChain 24(data) 25 799 158
- 807: 19(fvec4) Load 806
- 808: 19(fvec4) VectorShuffle 807 805 4 5 6 3
+ 807: 19(f64vec4) Load 806
+ 808: 19(f64vec4) VectorShuffle 807 805 4 5 6 3
Store 806 808
809: 27(ptr) AccessChain 10(dti) 26
810: 6(int) Load 809
@@ -9090,8 +9090,8 @@ local_size = (32, 16, 1)
925: 27(ptr) AccessChain 10(dti) 26
926: 6(int) Load 925
927: 161(ptr) AccessChain 24(data) 25 926 158
- 928: 19(fvec4) Load 927
- 929: 19(fvec4) GroupNonUniformQuadSwap 35 928 205
+ 928: 19(f64vec4) Load 927
+ 929: 19(f64vec4) GroupNonUniformQuadSwap 35 928 205
930: 161(ptr) AccessChain 24(data) 25 924 158
Store 930 929
931: 27(ptr) AccessChain 10(dti) 26
@@ -9099,8 +9099,8 @@ local_size = (32, 16, 1)
933: 27(ptr) AccessChain 10(dti) 26
934: 6(int) Load 933
935: 170(ptr) AccessChain 24(data) 25 934 158 26
- 936: 18(float) Load 935
- 937: 18(float) GroupNonUniformQuadSwap 35 936 205
+ 936:18(float64_t) Load 935
+ 937:18(float64_t) GroupNonUniformQuadSwap 35 936 205
938: 170(ptr) AccessChain 24(data) 25 932 158 26
Store 938 937
939: 27(ptr) AccessChain 10(dti) 26
@@ -9108,24 +9108,24 @@ local_size = (32, 16, 1)
941: 27(ptr) AccessChain 10(dti) 26
942: 6(int) Load 941
943: 161(ptr) AccessChain 24(data) 25 942 158
- 944: 19(fvec4) Load 943
- 945: 179(fvec2) VectorShuffle 944 944 0 1
- 946: 179(fvec2) GroupNonUniformQuadSwap 35 945 205
+ 944: 19(f64vec4) Load 943
+ 945:179(f64vec2) VectorShuffle 944 944 0 1
+ 946:179(f64vec2) GroupNonUniformQuadSwap 35 945 205
947: 161(ptr) AccessChain 24(data) 25 940 158
- 948: 19(fvec4) Load 947
- 949: 19(fvec4) VectorShuffle 948 946 4 5 2 3
+ 948: 19(f64vec4) Load 947
+ 949: 19(f64vec4) VectorShuffle 948 946 4 5 2 3
Store 947 949
950: 27(ptr) AccessChain 10(dti) 26
951: 6(int) Load 950
952: 27(ptr) AccessChain 10(dti) 26
953: 6(int) Load 952
954: 161(ptr) AccessChain 24(data) 25 953 158
- 955: 19(fvec4) Load 954
- 956: 191(fvec3) VectorShuffle 955 955 0 1 2
- 957: 191(fvec3) GroupNonUniformQuadSwap 35 956 205
+ 955: 19(f64vec4) Load 954
+ 956:191(f64vec3) VectorShuffle 955 955 0 1 2
+ 957:191(f64vec3) GroupNonUniformQuadSwap 35 956 205
958: 161(ptr) AccessChain 24(data) 25 951 158
- 959: 19(fvec4) Load 958
- 960: 19(fvec4) VectorShuffle 959 957 4 5 6 3
+ 959: 19(f64vec4) Load 958
+ 960: 19(f64vec4) VectorShuffle 959 957 4 5 6 3
Store 958 960
961: 27(ptr) AccessChain 10(dti) 26
962: 6(int) Load 961
@@ -9258,8 +9258,8 @@ local_size = (32, 16, 1)
1077: 27(ptr) AccessChain 10(dti) 26
1078: 6(int) Load 1077
1079: 161(ptr) AccessChain 24(data) 25 1078 158
- 1080: 19(fvec4) Load 1079
- 1081: 19(fvec4) GroupNonUniformQuadSwap 35 1080 358
+ 1080: 19(f64vec4) Load 1079
+ 1081: 19(f64vec4) GroupNonUniformQuadSwap 35 1080 358
1082: 161(ptr) AccessChain 24(data) 25 1076 158
Store 1082 1081
1083: 27(ptr) AccessChain 10(dti) 26
@@ -9267,8 +9267,8 @@ local_size = (32, 16, 1)
1085: 27(ptr) AccessChain 10(dti) 26
1086: 6(int) Load 1085
1087: 170(ptr) AccessChain 24(data) 25 1086 158 26
- 1088: 18(float) Load 1087
- 1089: 18(float) GroupNonUniformQuadSwap 35 1088 358
+ 1088:18(float64_t) Load 1087
+ 1089:18(float64_t) GroupNonUniformQuadSwap 35 1088 358
1090: 170(ptr) AccessChain 24(data) 25 1084 158 26
Store 1090 1089
1091: 27(ptr) AccessChain 10(dti) 26
@@ -9276,24 +9276,24 @@ local_size = (32, 16, 1)
1093: 27(ptr) AccessChain 10(dti) 26
1094: 6(int) Load 1093
1095: 161(ptr) AccessChain 24(data) 25 1094 158
- 1096: 19(fvec4) Load 1095
- 1097: 179(fvec2) VectorShuffle 1096 1096 0 1
- 1098: 179(fvec2) GroupNonUniformQuadSwap 35 1097 358
+ 1096: 19(f64vec4) Load 1095
+ 1097:179(f64vec2) VectorShuffle 1096 1096 0 1
+ 1098:179(f64vec2) GroupNonUniformQuadSwap 35 1097 358
1099: 161(ptr) AccessChain 24(data) 25 1092 158
- 1100: 19(fvec4) Load 1099
- 1101: 19(fvec4) VectorShuffle 1100 1098 4 5 2 3
+ 1100: 19(f64vec4) Load 1099
+ 1101: 19(f64vec4) VectorShuffle 1100 1098 4 5 2 3
Store 1099 1101
1102: 27(ptr) AccessChain 10(dti) 26
1103: 6(int) Load 1102
1104: 27(ptr) AccessChain 10(dti) 26
1105: 6(int) Load 1104
1106: 161(ptr) AccessChain 24(data) 25 1105 158
- 1107: 19(fvec4) Load 1106
- 1108: 191(fvec3) VectorShuffle 1107 1107 0 1 2
- 1109: 191(fvec3) GroupNonUniformQuadSwap 35 1108 358
+ 1107: 19(f64vec4) Load 1106
+ 1108:191(f64vec3) VectorShuffle 1107 1107 0 1 2
+ 1109:191(f64vec3) GroupNonUniformQuadSwap 35 1108 358
1110: 161(ptr) AccessChain 24(data) 25 1103 158
- 1111: 19(fvec4) Load 1110
- 1112: 19(fvec4) VectorShuffle 1111 1109 4 5 6 3
+ 1111: 19(f64vec4) Load 1110
+ 1112: 19(f64vec4) VectorShuffle 1111 1109 4 5 6 3
Store 1110 1112
Return
FunctionEnd
diff --git a/Test/baseResults/hlsl.wavereduction.comp.out b/Test/baseResults/hlsl.wavereduction.comp.out
index e8e840eb..f088063a 100644
--- a/Test/baseResults/hlsl.wavereduction.comp.out
+++ b/Test/baseResults/hlsl.wavereduction.comp.out
@@ -6234,8 +6234,8 @@ local_size = (32, 16, 1)
16: TypeFloat 32
17: TypeVector 16(float) 4
18: TypeFloat 64
- 19: TypeVector 18(float) 4
- 20(Types): TypeStruct 13(ivec4) 15(ivec4) 17(fvec4) 19(fvec4)
+ 19: TypeVector 18(float64_t) 4
+ 20(Types): TypeStruct 13(ivec4) 15(ivec4) 17(fvec4) 19(f64vec4)
21: TypeRuntimeArray 20(Types)
22(data): TypeStruct 21
23: TypePointer Uniform 22(data)
@@ -6258,10 +6258,10 @@ local_size = (32, 16, 1)
136: TypeVector 16(float) 2
148: TypeVector 16(float) 3
158: 14(int) Constant 3
- 161: TypePointer Uniform 19(fvec4)
- 170: TypePointer Uniform 18(float)
- 179: TypeVector 18(float) 2
- 191: TypeVector 18(float) 3
+ 161: TypePointer Uniform 19(f64vec4)
+ 170: TypePointer Uniform 18(float64_t)
+ 179: TypeVector 18(float64_t) 2
+ 191: TypeVector 18(float64_t) 3
889: TypeBool
895: TypePointer Input 7(ivec3)
896(dti): 895(ptr) Variable Input
@@ -6410,8 +6410,8 @@ local_size = (32, 16, 1)
159: 27(ptr) AccessChain 10(dti) 26
160: 6(int) Load 159
162: 161(ptr) AccessChain 24(data) 25 160 158
- 163: 19(fvec4) Load 162
- 164: 19(fvec4) GroupNonUniformFAdd 35 Reduce 163
+ 163: 19(f64vec4) Load 162
+ 164: 19(f64vec4) GroupNonUniformFAdd 35 Reduce 163
165: 161(ptr) AccessChain 24(data) 25 157 158
Store 165 164
166: 27(ptr) AccessChain 10(dti) 26
@@ -6419,8 +6419,8 @@ local_size = (32, 16, 1)
168: 27(ptr) AccessChain 10(dti) 26
169: 6(int) Load 168
171: 170(ptr) AccessChain 24(data) 25 169 158 26
- 172: 18(float) Load 171
- 173: 18(float) GroupNonUniformFAdd 35 Reduce 172
+ 172:18(float64_t) Load 171
+ 173:18(float64_t) GroupNonUniformFAdd 35 Reduce 172
174: 170(ptr) AccessChain 24(data) 25 167 158 26
Store 174 173
175: 27(ptr) AccessChain 10(dti) 26
@@ -6428,24 +6428,24 @@ local_size = (32, 16, 1)
177: 27(ptr) AccessChain 10(dti) 26
178: 6(int) Load 177
180: 161(ptr) AccessChain 24(data) 25 178 158
- 181: 19(fvec4) Load 180
- 182: 179(fvec2) VectorShuffle 181 181 0 1
- 183: 179(fvec2) GroupNonUniformFAdd 35 Reduce 182
+ 181: 19(f64vec4) Load 180
+ 182:179(f64vec2) VectorShuffle 181 181 0 1
+ 183:179(f64vec2) GroupNonUniformFAdd 35 Reduce 182
184: 161(ptr) AccessChain 24(data) 25 176 158
- 185: 19(fvec4) Load 184
- 186: 19(fvec4) VectorShuffle 185 183 4 5 2 3
+ 185: 19(f64vec4) Load 184
+ 186: 19(f64vec4) VectorShuffle 185 183 4 5 2 3
Store 184 186
187: 27(ptr) AccessChain 10(dti) 26
188: 6(int) Load 187
189: 27(ptr) AccessChain 10(dti) 26
190: 6(int) Load 189
192: 161(ptr) AccessChain 24(data) 25 190 158
- 193: 19(fvec4) Load 192
- 194: 191(fvec3) VectorShuffle 193 193 0 1 2
- 195: 191(fvec3) GroupNonUniformFAdd 35 Reduce 194
+ 193: 19(f64vec4) Load 192
+ 194:191(f64vec3) VectorShuffle 193 193 0 1 2
+ 195:191(f64vec3) GroupNonUniformFAdd 35 Reduce 194
196: 161(ptr) AccessChain 24(data) 25 188 158
- 197: 19(fvec4) Load 196
- 198: 19(fvec4) VectorShuffle 197 195 4 5 6 3
+ 197: 19(f64vec4) Load 196
+ 198: 19(f64vec4) VectorShuffle 197 195 4 5 6 3
Store 196 198
199: 27(ptr) AccessChain 10(dti) 26
200: 6(int) Load 199
@@ -6578,8 +6578,8 @@ local_size = (32, 16, 1)
315: 27(ptr) AccessChain 10(dti) 26
316: 6(int) Load 315
317: 161(ptr) AccessChain 24(data) 25 316 158
- 318: 19(fvec4) Load 317
- 319: 19(fvec4) GroupNonUniformFMul 35 Reduce 318
+ 318: 19(f64vec4) Load 317
+ 319: 19(f64vec4) GroupNonUniformFMul 35 Reduce 318
320: 161(ptr) AccessChain 24(data) 25 314 158
Store 320 319
321: 27(ptr) AccessChain 10(dti) 26
@@ -6587,8 +6587,8 @@ local_size = (32, 16, 1)
323: 27(ptr) AccessChain 10(dti) 26
324: 6(int) Load 323
325: 170(ptr) AccessChain 24(data) 25 324 158 26
- 326: 18(float) Load 325
- 327: 18(float) GroupNonUniformFMul 35 Reduce 326
+ 326:18(float64_t) Load 325
+ 327:18(float64_t) GroupNonUniformFMul 35 Reduce 326
328: 170(ptr) AccessChain 24(data) 25 322 158 26
Store 328 327
329: 27(ptr) AccessChain 10(dti) 26
@@ -6596,24 +6596,24 @@ local_size = (32, 16, 1)
331: 27(ptr) AccessChain 10(dti) 26
332: 6(int) Load 331
333: 161(ptr) AccessChain 24(data) 25 332 158
- 334: 19(fvec4) Load 333
- 335: 179(fvec2) VectorShuffle 334 334 0 1
- 336: 179(fvec2) GroupNonUniformFMul 35 Reduce 335
+ 334: 19(f64vec4) Load 333
+ 335:179(f64vec2) VectorShuffle 334 334 0 1
+ 336:179(f64vec2) GroupNonUniformFMul 35 Reduce 335
337: 161(ptr) AccessChain 24(data) 25 330 158
- 338: 19(fvec4) Load 337
- 339: 19(fvec4) VectorShuffle 338 336 4 5 2 3
+ 338: 19(f64vec4) Load 337
+ 339: 19(f64vec4) VectorShuffle 338 336 4 5 2 3
Store 337 339
340: 27(ptr) AccessChain 10(dti) 26
341: 6(int) Load 340
342: 27(ptr) AccessChain 10(dti) 26
343: 6(int) Load 342
344: 161(ptr) AccessChain 24(data) 25 343 158
- 345: 19(fvec4) Load 344
- 346: 191(fvec3) VectorShuffle 345 345 0 1 2
- 347: 191(fvec3) GroupNonUniformFMul 35 Reduce 346
+ 345: 19(f64vec4) Load 344
+ 346:191(f64vec3) VectorShuffle 345 345 0 1 2
+ 347:191(f64vec3) GroupNonUniformFMul 35 Reduce 346
348: 161(ptr) AccessChain 24(data) 25 341 158
- 349: 19(fvec4) Load 348
- 350: 19(fvec4) VectorShuffle 349 347 4 5 6 3
+ 349: 19(f64vec4) Load 348
+ 350: 19(f64vec4) VectorShuffle 349 347 4 5 6 3
Store 348 350
351: 27(ptr) AccessChain 10(dti) 26
352: 6(int) Load 351
@@ -6746,8 +6746,8 @@ local_size = (32, 16, 1)
467: 27(ptr) AccessChain 10(dti) 26
468: 6(int) Load 467
469: 161(ptr) AccessChain 24(data) 25 468 158
- 470: 19(fvec4) Load 469
- 471: 19(fvec4) GroupNonUniformFMin 35 Reduce 470
+ 470: 19(f64vec4) Load 469
+ 471: 19(f64vec4) GroupNonUniformFMin 35 Reduce 470
472: 161(ptr) AccessChain 24(data) 25 466 158
Store 472 471
473: 27(ptr) AccessChain 10(dti) 26
@@ -6755,8 +6755,8 @@ local_size = (32, 16, 1)
475: 27(ptr) AccessChain 10(dti) 26
476: 6(int) Load 475
477: 170(ptr) AccessChain 24(data) 25 476 158 26
- 478: 18(float) Load 477
- 479: 18(float) GroupNonUniformFMin 35 Reduce 478
+ 478:18(float64_t) Load 477
+ 479:18(float64_t) GroupNonUniformFMin 35 Reduce 478
480: 170(ptr) AccessChain 24(data) 25 474 158 26
Store 480 479
481: 27(ptr) AccessChain 10(dti) 26
@@ -6764,24 +6764,24 @@ local_size = (32, 16, 1)
483: 27(ptr) AccessChain 10(dti) 26
484: 6(int) Load 483
485: 161(ptr) AccessChain 24(data) 25 484 158
- 486: 19(fvec4) Load 485
- 487: 179(fvec2) VectorShuffle 486 486 0 1
- 488: 179(fvec2) GroupNonUniformFMin 35 Reduce 487
+ 486: 19(f64vec4) Load 485
+ 487:179(f64vec2) VectorShuffle 486 486 0 1
+ 488:179(f64vec2) GroupNonUniformFMin 35 Reduce 487
489: 161(ptr) AccessChain 24(data) 25 482 158
- 490: 19(fvec4) Load 489
- 491: 19(fvec4) VectorShuffle 490 488 4 5 2 3
+ 490: 19(f64vec4) Load 489
+ 491: 19(f64vec4) VectorShuffle 490 488 4 5 2 3
Store 489 491
492: 27(ptr) AccessChain 10(dti) 26
493: 6(int) Load 492
494: 27(ptr) AccessChain 10(dti) 26
495: 6(int) Load 494
496: 161(ptr) AccessChain 24(data) 25 495 158
- 497: 19(fvec4) Load 496
- 498: 191(fvec3) VectorShuffle 497 497 0 1 2
- 499: 191(fvec3) GroupNonUniformFMin 35 Reduce 498
+ 497: 19(f64vec4) Load 496
+ 498:191(f64vec3) VectorShuffle 497 497 0 1 2
+ 499:191(f64vec3) GroupNonUniformFMin 35 Reduce 498
500: 161(ptr) AccessChain 24(data) 25 493 158
- 501: 19(fvec4) Load 500
- 502: 19(fvec4) VectorShuffle 501 499 4 5 6 3
+ 501: 19(f64vec4) Load 500
+ 502: 19(f64vec4) VectorShuffle 501 499 4 5 6 3
Store 500 502
503: 27(ptr) AccessChain 10(dti) 26
504: 6(int) Load 503
@@ -6914,8 +6914,8 @@ local_size = (32, 16, 1)
619: 27(ptr) AccessChain 10(dti) 26
620: 6(int) Load 619
621: 161(ptr) AccessChain 24(data) 25 620 158
- 622: 19(fvec4) Load 621
- 623: 19(fvec4) GroupNonUniformFMax 35 Reduce 622
+ 622: 19(f64vec4) Load 621
+ 623: 19(f64vec4) GroupNonUniformFMax 35 Reduce 622
624: 161(ptr) AccessChain 24(data) 25 618 158
Store 624 623
625: 27(ptr) AccessChain 10(dti) 26
@@ -6923,8 +6923,8 @@ local_size = (32, 16, 1)
627: 27(ptr) AccessChain 10(dti) 26
628: 6(int) Load 627
629: 170(ptr) AccessChain 24(data) 25 628 158 26
- 630: 18(float) Load 629
- 631: 18(float) GroupNonUniformFMax 35 Reduce 630
+ 630:18(float64_t) Load 629
+ 631:18(float64_t) GroupNonUniformFMax 35 Reduce 630
632: 170(ptr) AccessChain 24(data) 25 626 158 26
Store 632 631
633: 27(ptr) AccessChain 10(dti) 26
@@ -6932,24 +6932,24 @@ local_size = (32, 16, 1)
635: 27(ptr) AccessChain 10(dti) 26
636: 6(int) Load 635
637: 161(ptr) AccessChain 24(data) 25 636 158
- 638: 19(fvec4) Load 637
- 639: 179(fvec2) VectorShuffle 638 638 0 1
- 640: 179(fvec2) GroupNonUniformFMax 35 Reduce 639
+ 638: 19(f64vec4) Load 637
+ 639:179(f64vec2) VectorShuffle 638 638 0 1
+ 640:179(f64vec2) GroupNonUniformFMax 35 Reduce 639
641: 161(ptr) AccessChain 24(data) 25 634 158
- 642: 19(fvec4) Load 641
- 643: 19(fvec4) VectorShuffle 642 640 4 5 2 3
+ 642: 19(f64vec4) Load 641
+ 643: 19(f64vec4) VectorShuffle 642 640 4 5 2 3
Store 641 643
644: 27(ptr) AccessChain 10(dti) 26
645: 6(int) Load 644
646: 27(ptr) AccessChain 10(dti) 26
647: 6(int) Load 646
648: 161(ptr) AccessChain 24(data) 25 647 158
- 649: 19(fvec4) Load 648
- 650: 191(fvec3) VectorShuffle 649 649 0 1 2
- 651: 191(fvec3) GroupNonUniformFMax 35 Reduce 650
+ 649: 19(f64vec4) Load 648
+ 650:191(f64vec3) VectorShuffle 649 649 0 1 2
+ 651:191(f64vec3) GroupNonUniformFMax 35 Reduce 650
652: 161(ptr) AccessChain 24(data) 25 645 158
- 653: 19(fvec4) Load 652
- 654: 19(fvec4) VectorShuffle 653 651 4 5 6 3
+ 653: 19(f64vec4) Load 652
+ 654: 19(f64vec4) VectorShuffle 653 651 4 5 6 3
Store 652 654
655: 27(ptr) AccessChain 10(dti) 26
656: 6(int) Load 655
diff --git a/Test/baseResults/hlsl.wavevote.comp.out b/Test/baseResults/hlsl.wavevote.comp.out
index 004ee8b6..0e330673 100644
--- a/Test/baseResults/hlsl.wavevote.comp.out
+++ b/Test/baseResults/hlsl.wavevote.comp.out
@@ -238,7 +238,7 @@ local_size = (32, 16, 1)
8: TypePointer Function 7(ivec3)
9: TypeFunction 2 8(ptr)
13: TypeInt 64 0
- 14: TypeRuntimeArray 13(int)
+ 14: TypeRuntimeArray 13(int64_t)
15(data): TypeStruct 14
16: TypePointer Uniform 15(data)
17(data): 16(ptr) Variable Uniform
@@ -249,8 +249,8 @@ local_size = (32, 16, 1)
26: TypeBool
28: 6(int) Constant 3
30: TypeVector 6(int) 4
- 32: TypeVector 13(int) 4
- 35: TypePointer Uniform 13(int)
+ 32: TypeVector 13(int64_t) 4
+ 35: TypePointer Uniform 13(int64_t)
37: 6(int) Constant 1
48: 6(int) Constant 2
69: TypePointer Input 7(ivec3)
@@ -276,8 +276,8 @@ local_size = (32, 16, 1)
27: 26(bool) IEqual 25 20
29: 26(bool) GroupNonUniformAny 28 27
31: 30(ivec4) GroupNonUniformBallot 28 29
- 33: 32(ivec4) UConvert 31
- 34: 13(int) CompositeExtract 33 0
+ 33: 32(i64vec4) UConvert 31
+ 34: 13(int64_t) CompositeExtract 33 0
36: 35(ptr) AccessChain 17(data) 19 23
Store 36 34
38: 21(ptr) AccessChain 10(dti) 37
@@ -287,8 +287,8 @@ local_size = (32, 16, 1)
42: 26(bool) IEqual 41 20
43: 26(bool) GroupNonUniformAll 28 42
44: 30(ivec4) GroupNonUniformBallot 28 43
- 45: 32(ivec4) UConvert 44
- 46: 13(int) CompositeExtract 45 0
+ 45: 32(i64vec4) UConvert 44
+ 46: 13(int64_t) CompositeExtract 45 0
47: 35(ptr) AccessChain 17(data) 19 39
Store 47 46
49: 21(ptr) AccessChain 10(dti) 48
@@ -298,8 +298,8 @@ local_size = (32, 16, 1)
53: 26(bool) IEqual 52 20
54: 26(bool) GroupNonUniformAllEqual 28 53
55: 30(ivec4) GroupNonUniformBallot 28 54
- 56: 32(ivec4) UConvert 55
- 57: 13(int) CompositeExtract 56 0
+ 56: 32(i64vec4) UConvert 55
+ 57: 13(int64_t) CompositeExtract 56 0
58: 35(ptr) AccessChain 17(data) 19 50
Store 58 57
59: 21(ptr) AccessChain 10(dti) 48
@@ -308,8 +308,8 @@ local_size = (32, 16, 1)
62: 6(int) Load 61
63: 26(bool) GroupNonUniformAllEqual 28 62
64: 30(ivec4) GroupNonUniformBallot 28 63
- 65: 32(ivec4) UConvert 64
- 66: 13(int) CompositeExtract 65 0
+ 65: 32(i64vec4) UConvert 64
+ 66: 13(int64_t) CompositeExtract 65 0
67: 35(ptr) AccessChain 17(data) 19 60
Store 67 66
Return
diff --git a/Test/baseResults/remap.hlsl.templatetypes.none.frag.out b/Test/baseResults/remap.hlsl.templatetypes.none.frag.out
index a17b7446..f37403c5 100644
--- a/Test/baseResults/remap.hlsl.templatetypes.none.frag.out
+++ b/Test/baseResults/remap.hlsl.templatetypes.none.frag.out
@@ -68,8 +68,8 @@ remap.hlsl.templatetypes.none.frag
29: 26(int) Constant 1
30: TypePointer Function 6(float)
32: TypeFloat 64
- 33: TypePointer Function 32(float)
- 35: 32(float) Constant 0 1072693248
+ 33: TypePointer Function 32(float64_t)
+ 35:32(float64_t) Constant 0 1072693248
36: TypeInt 32 0
37: TypePointer Function 36(int)
39: 36(int) Constant 1
@@ -84,10 +84,10 @@ remap.hlsl.templatetypes.none.frag
50: TypeVector 6(float) 2
51: TypePointer Function 50(fvec2)
53: 50(fvec2) ConstantComposite 14 15
- 54: TypeVector 32(float) 2
- 55: TypePointer Function 54(fvec2)
- 57: 32(float) Constant 0 1073741824
- 58: 54(fvec2) ConstantComposite 35 57
+ 54: TypeVector 32(float64_t) 2
+ 55: TypePointer Function 54(f64vec2)
+ 57:32(float64_t) Constant 0 1073741824
+ 58: 54(f64vec2) ConstantComposite 35 57
59: TypeVector 36(int) 2
60: TypePointer Function 59(ivec2)
62: 36(int) Constant 2
@@ -102,10 +102,10 @@ remap.hlsl.templatetypes.none.frag
73: TypeVector 6(float) 3
74: TypePointer Function 73(fvec3)
76: 73(fvec3) ConstantComposite 14 15 16
- 77: TypeVector 32(float) 3
- 78: TypePointer Function 77(fvec3)
- 80: 32(float) Constant 0 1074266112
- 81: 77(fvec3) ConstantComposite 35 57 80
+ 77: TypeVector 32(float64_t) 3
+ 78: TypePointer Function 77(f64vec3)
+ 80:32(float64_t) Constant 0 1074266112
+ 81: 77(f64vec3) ConstantComposite 35 57 80
82: TypeVector 36(int) 3
83: TypePointer Function 82(ivec3)
85: 36(int) Constant 3
@@ -117,10 +117,10 @@ remap.hlsl.templatetypes.none.frag
92: TypePointer Function 91(ivec4)
94: 26(int) Constant 4
95: 91(ivec4) ConstantComposite 29 48 71 94
- 97: TypeVector 32(float) 4
- 98: TypePointer Function 97(fvec4)
- 100: 32(float) Constant 0 1074790400
- 101: 97(fvec4) ConstantComposite 35 57 80 100
+ 97: TypeVector 32(float64_t) 4
+ 98: TypePointer Function 97(f64vec4)
+ 100:32(float64_t) Constant 0 1074790400
+ 101: 97(f64vec4) ConstantComposite 35 57 80 100
102: TypeVector 36(int) 4
103: TypePointer Function 102(ivec4)
105: 36(int) Constant 4
diff --git a/Test/baseResults/remap.literal64.none.spv.out b/Test/baseResults/remap.literal64.none.spv.out
index 792b13a6..d88992fc 100644
--- a/Test/baseResults/remap.literal64.none.spv.out
+++ b/Test/baseResults/remap.literal64.none.spv.out
@@ -8,7 +8,7 @@ remap.literal64.none.spv
1: TypeVoid
2: TypeInt 64 1
3: TypeFunction 1
- 4: 2(int) Constant 0 0
+ 4: 2(int64_t) Constant 0 0
5: 1 Function None 3
6: Label
SelectionMerge 7 None
diff --git a/Test/baseResults/spv.400.frag.out b/Test/baseResults/spv.400.frag.out
index bbcd3718..b5c9b8eb 100644
--- a/Test/baseResults/spv.400.frag.out
+++ b/Test/baseResults/spv.400.frag.out
@@ -85,18 +85,18 @@ spv.400.frag
33: 32(int) Constant 0
34: TypePointer Output 10(float)
39: TypeFloat 64
- 40: TypePointer Function 39(float)
- 42: 39(float) Constant 2507418074 1073430332
- 43: TypeVector 39(float) 2
- 44: TypePointer Function 43(fvec2)
- 46: 39(float) Constant 796182188 1073367658
- 47: 43(fvec2) ConstantComposite 46 46
- 48: TypeVector 39(float) 3
- 49: TypePointer Function 48(fvec3)
- 51: 39(float) Constant 1719614413 1073127582
- 52: 48(fvec3) ConstantComposite 51 51 51
- 53: TypeVector 39(float) 4
- 54: TypePointer Function 53(fvec4)
+ 40: TypePointer Function 39(float64_t)
+ 42:39(float64_t) Constant 2507418074 1073430332
+ 43: TypeVector 39(float64_t) 2
+ 44: TypePointer Function 43(f64vec2)
+ 46:39(float64_t) Constant 796182188 1073367658
+ 47: 43(f64vec2) ConstantComposite 46 46
+ 48: TypeVector 39(float64_t) 3
+ 49: TypePointer Function 48(f64vec3)
+ 51:39(float64_t) Constant 1719614413 1073127582
+ 52: 48(f64vec3) ConstantComposite 51 51 51
+ 53: TypeVector 39(float64_t) 4
+ 54: TypePointer Function 53(f64vec4)
428: TypeBool
429: TypePointer Function 428(bool)
437: TypeVector 428(bool) 2
@@ -110,23 +110,23 @@ spv.400.frag
581: 446(bvec3) ConstantComposite 563 563 563
590: 455(bvec4) ConstantComposite 563 563 563 563
715: 10(float) Constant 1067869798
- 734: TypeMatrix 43(fvec2) 2
+ 734: TypeMatrix 43(f64vec2) 2
735: TypePointer Function 734
- 740: TypeMatrix 48(fvec3) 3
+ 740: TypeMatrix 48(f64vec3) 3
741: TypePointer Function 740
- 746: TypeMatrix 53(fvec4) 4
+ 746: TypeMatrix 53(f64vec4) 4
747: TypePointer Function 746
- 752: TypeMatrix 48(fvec3) 2
+ 752: TypeMatrix 48(f64vec3) 2
753: TypePointer Function 752
- 758: TypeMatrix 43(fvec2) 3
+ 758: TypeMatrix 43(f64vec2) 3
759: TypePointer Function 758
- 764: TypeMatrix 53(fvec4) 2
+ 764: TypeMatrix 53(f64vec4) 2
765: TypePointer Function 764
- 770: TypeMatrix 43(fvec2) 4
+ 770: TypeMatrix 43(f64vec2) 4
771: TypePointer Function 770
- 776: TypeMatrix 53(fvec4) 3
+ 776: TypeMatrix 53(f64vec4) 3
777: TypePointer Function 776
- 782: TypeMatrix 48(fvec3) 4
+ 782: TypeMatrix 48(f64vec3) 4
783: TypePointer Function 782
951: 32(int) Constant 1
955: 32(int) Constant 2
@@ -290,597 +290,597 @@ spv.400.frag
Store 41(doublev) 42
Store 45(dvec2v) 47
Store 50(dvec3v) 52
- 56: 39(float) Load 41(doublev)
- 57: 53(fvec4) CompositeConstruct 56 56 56 56
- 58: 53(fvec4) ExtInst 1(GLSL.std.450) 31(Sqrt) 57
+ 56:39(float64_t) Load 41(doublev)
+ 57: 53(f64vec4) CompositeConstruct 56 56 56 56
+ 58: 53(f64vec4) ExtInst 1(GLSL.std.450) 31(Sqrt) 57
Store 55(dvec4v) 58
- 59: 39(float) Load 41(doublev)
- 60: 39(float) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 59
- 61: 39(float) Load 41(doublev)
- 62: 39(float) FAdd 61 60
+ 59:39(float64_t) Load 41(doublev)
+ 60:39(float64_t) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 59
+ 61:39(float64_t) Load 41(doublev)
+ 62:39(float64_t) FAdd 61 60
Store 41(doublev) 62
- 63: 43(fvec2) Load 45(dvec2v)
- 64: 43(fvec2) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 63
- 65: 43(fvec2) Load 45(dvec2v)
- 66: 43(fvec2) FAdd 65 64
+ 63: 43(f64vec2) Load 45(dvec2v)
+ 64: 43(f64vec2) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 63
+ 65: 43(f64vec2) Load 45(dvec2v)
+ 66: 43(f64vec2) FAdd 65 64
Store 45(dvec2v) 66
- 67: 48(fvec3) Load 50(dvec3v)
- 68: 48(fvec3) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 67
- 69: 48(fvec3) Load 50(dvec3v)
- 70: 48(fvec3) FAdd 69 68
+ 67: 48(f64vec3) Load 50(dvec3v)
+ 68: 48(f64vec3) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 67
+ 69: 48(f64vec3) Load 50(dvec3v)
+ 70: 48(f64vec3) FAdd 69 68
Store 50(dvec3v) 70
- 71: 53(fvec4) Load 55(dvec4v)
- 72: 53(fvec4) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 71
- 73: 53(fvec4) Load 55(dvec4v)
- 74: 53(fvec4) FAdd 73 72
+ 71: 53(f64vec4) Load 55(dvec4v)
+ 72: 53(f64vec4) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 71
+ 73: 53(f64vec4) Load 55(dvec4v)
+ 74: 53(f64vec4) FAdd 73 72
Store 55(dvec4v) 74
- 75: 39(float) Load 41(doublev)
- 76: 39(float) ExtInst 1(GLSL.std.450) 4(FAbs) 75
- 77: 39(float) Load 41(doublev)
- 78: 39(float) FAdd 77 76
+ 75:39(float64_t) Load 41(doublev)
+ 76:39(float64_t) ExtInst 1(GLSL.std.450) 4(FAbs) 75
+ 77:39(float64_t) Load 41(doublev)
+ 78:39(float64_t) FAdd 77 76
Store 41(doublev) 78
- 79: 43(fvec2) Load 45(dvec2v)
- 80: 43(fvec2) ExtInst 1(GLSL.std.450) 4(FAbs) 79
- 81: 43(fvec2) Load 45(dvec2v)
- 82: 43(fvec2) FAdd 81 80
+ 79: 43(f64vec2) Load 45(dvec2v)
+ 80: 43(f64vec2) ExtInst 1(GLSL.std.450) 4(FAbs) 79
+ 81: 43(f64vec2) Load 45(dvec2v)
+ 82: 43(f64vec2) FAdd 81 80
Store 45(dvec2v) 82
- 83: 48(fvec3) Load 50(dvec3v)
- 84: 48(fvec3) ExtInst 1(GLSL.std.450) 4(FAbs) 83
- 85: 48(fvec3) Load 50(dvec3v)
- 86: 48(fvec3) FAdd 85 84
+ 83: 48(f64vec3) Load 50(dvec3v)
+ 84: 48(f64vec3) ExtInst 1(GLSL.std.450) 4(FAbs) 83
+ 85: 48(f64vec3) Load 50(dvec3v)
+ 86: 48(f64vec3) FAdd 85 84
Store 50(dvec3v) 86
- 87: 53(fvec4) Load 55(dvec4v)
- 88: 53(fvec4) ExtInst 1(GLSL.std.450) 4(FAbs) 87
- 89: 53(fvec4) Load 55(dvec4v)
- 90: 53(fvec4) FAdd 89 88
+ 87: 53(f64vec4) Load 55(dvec4v)
+ 88: 53(f64vec4) ExtInst 1(GLSL.std.450) 4(FAbs) 87
+ 89: 53(f64vec4) Load 55(dvec4v)
+ 90: 53(f64vec4) FAdd 89 88
Store 55(dvec4v) 90
- 91: 39(float) Load 41(doublev)
- 92: 39(float) ExtInst 1(GLSL.std.450) 6(FSign) 91
- 93: 39(float) Load 41(doublev)
- 94: 39(float) FAdd 93 92
+ 91:39(float64_t) Load 41(doublev)
+ 92:39(float64_t) ExtInst 1(GLSL.std.450) 6(FSign) 91
+ 93:39(float64_t) Load 41(doublev)
+ 94:39(float64_t) FAdd 93 92
Store 41(doublev) 94
- 95: 43(fvec2) Load 45(dvec2v)
- 96: 43(fvec2) ExtInst 1(GLSL.std.450) 6(FSign) 95
- 97: 43(fvec2) Load 45(dvec2v)
- 98: 43(fvec2) FAdd 97 96
+ 95: 43(f64vec2) Load 45(dvec2v)
+ 96: 43(f64vec2) ExtInst 1(GLSL.std.450) 6(FSign) 95
+ 97: 43(f64vec2) Load 45(dvec2v)
+ 98: 43(f64vec2) FAdd 97 96
Store 45(dvec2v) 98
- 99: 48(fvec3) Load 50(dvec3v)
- 100: 48(fvec3) ExtInst 1(GLSL.std.450) 6(FSign) 99
- 101: 48(fvec3) Load 50(dvec3v)
- 102: 48(fvec3) FAdd 101 100
+ 99: 48(f64vec3) Load 50(dvec3v)
+ 100: 48(f64vec3) ExtInst 1(GLSL.std.450) 6(FSign) 99
+ 101: 48(f64vec3) Load 50(dvec3v)
+ 102: 48(f64vec3) FAdd 101 100
Store 50(dvec3v) 102
- 103: 53(fvec4) Load 55(dvec4v)
- 104: 53(fvec4) ExtInst 1(GLSL.std.450) 6(FSign) 103
- 105: 53(fvec4) Load 55(dvec4v)
- 106: 53(fvec4) FAdd 105 104
+ 103: 53(f64vec4) Load 55(dvec4v)
+ 104: 53(f64vec4) ExtInst 1(GLSL.std.450) 6(FSign) 103
+ 105: 53(f64vec4) Load 55(dvec4v)
+ 106: 53(f64vec4) FAdd 105 104
Store 55(dvec4v) 106
- 107: 39(float) Load 41(doublev)
- 108: 39(float) ExtInst 1(GLSL.std.450) 8(Floor) 107
- 109: 39(float) Load 41(doublev)
- 110: 39(float) FAdd 109 108
+ 107:39(float64_t) Load 41(doublev)
+ 108:39(float64_t) ExtInst 1(GLSL.std.450) 8(Floor) 107
+ 109:39(float64_t) Load 41(doublev)
+ 110:39(float64_t) FAdd 109 108
Store 41(doublev) 110
- 111: 43(fvec2) Load 45(dvec2v)
- 112: 43(fvec2) ExtInst 1(GLSL.std.450) 8(Floor) 111
- 113: 43(fvec2) Load 45(dvec2v)
- 114: 43(fvec2) FAdd 113 112
+ 111: 43(f64vec2) Load 45(dvec2v)
+ 112: 43(f64vec2) ExtInst 1(GLSL.std.450) 8(Floor) 111
+ 113: 43(f64vec2) Load 45(dvec2v)
+ 114: 43(f64vec2) FAdd 113 112
Store 45(dvec2v) 114
- 115: 48(fvec3) Load 50(dvec3v)
- 116: 48(fvec3) ExtInst 1(GLSL.std.450) 8(Floor) 115
- 117: 48(fvec3) Load 50(dvec3v)
- 118: 48(fvec3) FAdd 117 116
+ 115: 48(f64vec3) Load 50(dvec3v)
+ 116: 48(f64vec3) ExtInst 1(GLSL.std.450) 8(Floor) 115
+ 117: 48(f64vec3) Load 50(dvec3v)
+ 118: 48(f64vec3) FAdd 117 116
Store 50(dvec3v) 118
- 119: 53(fvec4) Load 55(dvec4v)
- 120: 53(fvec4) ExtInst 1(GLSL.std.450) 8(Floor) 119
- 121: 53(fvec4) Load 55(dvec4v)
- 122: 53(fvec4) FAdd 121 120
+ 119: 53(f64vec4) Load 55(dvec4v)
+ 120: 53(f64vec4) ExtInst 1(GLSL.std.450) 8(Floor) 119
+ 121: 53(f64vec4) Load 55(dvec4v)
+ 122: 53(f64vec4) FAdd 121 120
Store 55(dvec4v) 122
- 123: 39(float) Load 41(doublev)
- 124: 39(float) ExtInst 1(GLSL.std.450) 3(Trunc) 123
- 125: 39(float) Load 41(doublev)
- 126: 39(float) FAdd 125 124
+ 123:39(float64_t) Load 41(doublev)
+ 124:39(float64_t) ExtInst 1(GLSL.std.450) 3(Trunc) 123
+ 125:39(float64_t) Load 41(doublev)
+ 126:39(float64_t) FAdd 125 124
Store 41(doublev) 126
- 127: 43(fvec2) Load 45(dvec2v)
- 128: 43(fvec2) ExtInst 1(GLSL.std.450) 3(Trunc) 127
- 129: 43(fvec2) Load 45(dvec2v)
- 130: 43(fvec2) FAdd 129 128
+ 127: 43(f64vec2) Load 45(dvec2v)
+ 128: 43(f64vec2) ExtInst 1(GLSL.std.450) 3(Trunc) 127
+ 129: 43(f64vec2) Load 45(dvec2v)
+ 130: 43(f64vec2) FAdd 129 128
Store 45(dvec2v) 130
- 131: 48(fvec3) Load 50(dvec3v)
- 132: 48(fvec3) ExtInst 1(GLSL.std.450) 3(Trunc) 131
- 133: 48(fvec3) Load 50(dvec3v)
- 134: 48(fvec3) FAdd 133 132
+ 131: 48(f64vec3) Load 50(dvec3v)
+ 132: 48(f64vec3) ExtInst 1(GLSL.std.450) 3(Trunc) 131
+ 133: 48(f64vec3) Load 50(dvec3v)
+ 134: 48(f64vec3) FAdd 133 132
Store 50(dvec3v) 134
- 135: 53(fvec4) Load 55(dvec4v)
- 136: 53(fvec4) ExtInst 1(GLSL.std.450) 3(Trunc) 135
- 137: 53(fvec4) Load 55(dvec4v)
- 138: 53(fvec4) FAdd 137 136
+ 135: 53(f64vec4) Load 55(dvec4v)
+ 136: 53(f64vec4) ExtInst 1(GLSL.std.450) 3(Trunc) 135
+ 137: 53(f64vec4) Load 55(dvec4v)
+ 138: 53(f64vec4) FAdd 137 136
Store 55(dvec4v) 138
- 139: 39(float) Load 41(doublev)
- 140: 39(float) ExtInst 1(GLSL.std.450) 1(Round) 139
- 141: 39(float) Load 41(doublev)
- 142: 39(float) FAdd 141 140
+ 139:39(float64_t) Load 41(doublev)
+ 140:39(float64_t) ExtInst 1(GLSL.std.450) 1(Round) 139
+ 141:39(float64_t) Load 41(doublev)
+ 142:39(float64_t) FAdd 141 140
Store 41(doublev) 142
- 143: 43(fvec2) Load 45(dvec2v)
- 144: 43(fvec2) ExtInst 1(GLSL.std.450) 1(Round) 143
- 145: 43(fvec2) Load 45(dvec2v)
- 146: 43(fvec2) FAdd 145 144
+ 143: 43(f64vec2) Load 45(dvec2v)
+ 144: 43(f64vec2) ExtInst 1(GLSL.std.450) 1(Round) 143
+ 145: 43(f64vec2) Load 45(dvec2v)
+ 146: 43(f64vec2) FAdd 145 144
Store 45(dvec2v) 146
- 147: 48(fvec3) Load 50(dvec3v)
- 148: 48(fvec3) ExtInst 1(GLSL.std.450) 1(Round) 147
- 149: 48(fvec3) Load 50(dvec3v)
- 150: 48(fvec3) FAdd 149 148
+ 147: 48(f64vec3) Load 50(dvec3v)
+ 148: 48(f64vec3) ExtInst 1(GLSL.std.450) 1(Round) 147
+ 149: 48(f64vec3) Load 50(dvec3v)
+ 150: 48(f64vec3) FAdd 149 148
Store 50(dvec3v) 150
- 151: 53(fvec4) Load 55(dvec4v)
- 152: 53(fvec4) ExtInst 1(GLSL.std.450) 1(Round) 151
- 153: 53(fvec4) Load 55(dvec4v)
- 154: 53(fvec4) FAdd 153 152
+ 151: 53(f64vec4) Load 55(dvec4v)
+ 152: 53(f64vec4) ExtInst 1(GLSL.std.450) 1(Round) 151
+ 153: 53(f64vec4) Load 55(dvec4v)
+ 154: 53(f64vec4) FAdd 153 152
Store 55(dvec4v) 154
- 155: 39(float) Load 41(doublev)
- 156: 39(float) ExtInst 1(GLSL.std.450) 2(RoundEven) 155
- 157: 39(float) Load 41(doublev)
- 158: 39(float) FAdd 157 156
+ 155:39(float64_t) Load 41(doublev)
+ 156:39(float64_t) ExtInst 1(GLSL.std.450) 2(RoundEven) 155
+ 157:39(float64_t) Load 41(doublev)
+ 158:39(float64_t) FAdd 157 156
Store 41(doublev) 158
- 159: 43(fvec2) Load 45(dvec2v)
- 160: 43(fvec2) ExtInst 1(GLSL.std.450) 2(RoundEven) 159
- 161: 43(fvec2) Load 45(dvec2v)
- 162: 43(fvec2) FAdd 161 160
+ 159: 43(f64vec2) Load 45(dvec2v)
+ 160: 43(f64vec2) ExtInst 1(GLSL.std.450) 2(RoundEven) 159
+ 161: 43(f64vec2) Load 45(dvec2v)
+ 162: 43(f64vec2) FAdd 161 160
Store 45(dvec2v) 162
- 163: 48(fvec3) Load 50(dvec3v)
- 164: 48(fvec3) ExtInst 1(GLSL.std.450) 2(RoundEven) 163
- 165: 48(fvec3) Load 50(dvec3v)
- 166: 48(fvec3) FAdd 165 164
+ 163: 48(f64vec3) Load 50(dvec3v)
+ 164: 48(f64vec3) ExtInst 1(GLSL.std.450) 2(RoundEven) 163
+ 165: 48(f64vec3) Load 50(dvec3v)
+ 166: 48(f64vec3) FAdd 165 164
Store 50(dvec3v) 166
- 167: 53(fvec4) Load 55(dvec4v)
- 168: 53(fvec4) ExtInst 1(GLSL.std.450) 2(RoundEven) 167
- 169: 53(fvec4) Load 55(dvec4v)
- 170: 53(fvec4) FAdd 169 168
+ 167: 53(f64vec4) Load 55(dvec4v)
+ 168: 53(f64vec4) ExtInst 1(GLSL.std.450) 2(RoundEven) 167
+ 169: 53(f64vec4) Load 55(dvec4v)
+ 170: 53(f64vec4) FAdd 169 168
Store 55(dvec4v) 170
- 171: 39(float) Load 41(doublev)
- 172: 39(float) ExtInst 1(GLSL.std.450) 9(Ceil) 171
- 173: 39(float) Load 41(doublev)
- 174: 39(float) FAdd 173 172
+ 171:39(float64_t) Load 41(doublev)
+ 172:39(float64_t) ExtInst 1(GLSL.std.450) 9(Ceil) 171
+ 173:39(float64_t) Load 41(doublev)
+ 174:39(float64_t) FAdd 173 172
Store 41(doublev) 174
- 175: 43(fvec2) Load 45(dvec2v)
- 176: 43(fvec2) ExtInst 1(GLSL.std.450) 9(Ceil) 175
- 177: 43(fvec2) Load 45(dvec2v)
- 178: 43(fvec2) FAdd 177 176
+ 175: 43(f64vec2) Load 45(dvec2v)
+ 176: 43(f64vec2) ExtInst 1(GLSL.std.450) 9(Ceil) 175
+ 177: 43(f64vec2) Load 45(dvec2v)
+ 178: 43(f64vec2) FAdd 177 176
Store 45(dvec2v) 178
- 179: 48(fvec3) Load 50(dvec3v)
- 180: 48(fvec3) ExtInst 1(GLSL.std.450) 9(Ceil) 179
- 181: 48(fvec3) Load 50(dvec3v)
- 182: 48(fvec3) FAdd 181 180
+ 179: 48(f64vec3) Load 50(dvec3v)
+ 180: 48(f64vec3) ExtInst 1(GLSL.std.450) 9(Ceil) 179
+ 181: 48(f64vec3) Load 50(dvec3v)
+ 182: 48(f64vec3) FAdd 181 180
Store 50(dvec3v) 182
- 183: 53(fvec4) Load 55(dvec4v)
- 184: 53(fvec4) ExtInst 1(GLSL.std.450) 9(Ceil) 183
- 185: 53(fvec4) Load 55(dvec4v)
- 186: 53(fvec4) FAdd 185 184
+ 183: 53(f64vec4) Load 55(dvec4v)
+ 184: 53(f64vec4) ExtInst 1(GLSL.std.450) 9(Ceil) 183
+ 185: 53(f64vec4) Load 55(dvec4v)
+ 186: 53(f64vec4) FAdd 185 184
Store 55(dvec4v) 186
- 187: 39(float) Load 41(doublev)
- 188: 39(float) ExtInst 1(GLSL.std.450) 10(Fract) 187
- 189: 39(float) Load 41(doublev)
- 190: 39(float) FAdd 189 188
+ 187:39(float64_t) Load 41(doublev)
+ 188:39(float64_t) ExtInst 1(GLSL.std.450) 10(Fract) 187
+ 189:39(float64_t) Load 41(doublev)
+ 190:39(float64_t) FAdd 189 188
Store 41(doublev) 190
- 191: 43(fvec2) Load 45(dvec2v)
- 192: 43(fvec2) ExtInst 1(GLSL.std.450) 10(Fract) 191
- 193: 43(fvec2) Load 45(dvec2v)
- 194: 43(fvec2) FAdd 193 192
+ 191: 43(f64vec2) Load 45(dvec2v)
+ 192: 43(f64vec2) ExtInst 1(GLSL.std.450) 10(Fract) 191
+ 193: 43(f64vec2) Load 45(dvec2v)
+ 194: 43(f64vec2) FAdd 193 192
Store 45(dvec2v) 194
- 195: 48(fvec3) Load 50(dvec3v)
- 196: 48(fvec3) ExtInst 1(GLSL.std.450) 10(Fract) 195
- 197: 48(fvec3) Load 50(dvec3v)
- 198: 48(fvec3) FAdd 197 196
+ 195: 48(f64vec3) Load 50(dvec3v)
+ 196: 48(f64vec3) ExtInst 1(GLSL.std.450) 10(Fract) 195
+ 197: 48(f64vec3) Load 50(dvec3v)
+ 198: 48(f64vec3) FAdd 197 196
Store 50(dvec3v) 198
- 199: 53(fvec4) Load 55(dvec4v)
- 200: 53(fvec4) ExtInst 1(GLSL.std.450) 10(Fract) 199
- 201: 53(fvec4) Load 55(dvec4v)
- 202: 53(fvec4) FAdd 201 200
+ 199: 53(f64vec4) Load 55(dvec4v)
+ 200: 53(f64vec4) ExtInst 1(GLSL.std.450) 10(Fract) 199
+ 201: 53(f64vec4) Load 55(dvec4v)
+ 202: 53(f64vec4) FAdd 201 200
Store 55(dvec4v) 202
- 203: 39(float) Load 41(doublev)
- 204: 39(float) Load 41(doublev)
- 205: 39(float) FMod 203 204
- 206: 39(float) Load 41(doublev)
- 207: 39(float) FAdd 206 205
+ 203:39(float64_t) Load 41(doublev)
+ 204:39(float64_t) Load 41(doublev)
+ 205:39(float64_t) FMod 203 204
+ 206:39(float64_t) Load 41(doublev)
+ 207:39(float64_t) FAdd 206 205
Store 41(doublev) 207
- 208: 43(fvec2) Load 45(dvec2v)
- 209: 39(float) Load 41(doublev)
- 210: 43(fvec2) CompositeConstruct 209 209
- 211: 43(fvec2) FMod 208 210
- 212: 43(fvec2) Load 45(dvec2v)
- 213: 43(fvec2) FAdd 212 211
+ 208: 43(f64vec2) Load 45(dvec2v)
+ 209:39(float64_t) Load 41(doublev)
+ 210: 43(f64vec2) CompositeConstruct 209 209
+ 211: 43(f64vec2) FMod 208 210
+ 212: 43(f64vec2) Load 45(dvec2v)
+ 213: 43(f64vec2) FAdd 212 211
Store 45(dvec2v) 213
- 214: 48(fvec3) Load 50(dvec3v)
- 215: 39(float) Load 41(doublev)
- 216: 48(fvec3) CompositeConstruct 215 215 215
- 217: 48(fvec3) FMod 214 216
- 218: 48(fvec3) Load 50(dvec3v)
- 219: 48(fvec3) FAdd 218 217
+ 214: 48(f64vec3) Load 50(dvec3v)
+ 215:39(float64_t) Load 41(doublev)
+ 216: 48(f64vec3) CompositeConstruct 215 215 215
+ 217: 48(f64vec3) FMod 214 216
+ 218: 48(f64vec3) Load 50(dvec3v)
+ 219: 48(f64vec3) FAdd 218 217
Store 50(dvec3v) 219
- 220: 53(fvec4) Load 55(dvec4v)
- 221: 39(float) Load 41(doublev)
- 222: 53(fvec4) CompositeConstruct 221 221 221 221
- 223: 53(fvec4) FMod 220 222
- 224: 53(fvec4) Load 55(dvec4v)
- 225: 53(fvec4) FAdd 224 223
+ 220: 53(f64vec4) Load 55(dvec4v)
+ 221:39(float64_t) Load 41(doublev)
+ 222: 53(f64vec4) CompositeConstruct 221 221 221 221
+ 223: 53(f64vec4) FMod 220 222
+ 224: 53(f64vec4) Load 55(dvec4v)
+ 225: 53(f64vec4) FAdd 224 223
Store 55(dvec4v) 225
- 226: 43(fvec2) Load 45(dvec2v)
- 227: 43(fvec2) Load 45(dvec2v)
- 228: 43(fvec2) FMod 226 227
- 229: 43(fvec2) Load 45(dvec2v)
- 230: 43(fvec2) FAdd 229 228
+ 226: 43(f64vec2) Load 45(dvec2v)
+ 227: 43(f64vec2) Load 45(dvec2v)
+ 228: 43(f64vec2) FMod 226 227
+ 229: 43(f64vec2) Load 45(dvec2v)
+ 230: 43(f64vec2) FAdd 229 228
Store 45(dvec2v) 230
- 231: 48(fvec3) Load 50(dvec3v)
- 232: 48(fvec3) Load 50(dvec3v)
- 233: 48(fvec3) FMod 231 232
- 234: 48(fvec3) Load 50(dvec3v)
- 235: 48(fvec3) FAdd 234 233
+ 231: 48(f64vec3) Load 50(dvec3v)
+ 232: 48(f64vec3) Load 50(dvec3v)
+ 233: 48(f64vec3) FMod 231 232
+ 234: 48(f64vec3) Load 50(dvec3v)
+ 235: 48(f64vec3) FAdd 234 233
Store 50(dvec3v) 235
- 236: 53(fvec4) Load 55(dvec4v)
- 237: 53(fvec4) Load 55(dvec4v)
- 238: 53(fvec4) FMod 236 237
- 239: 53(fvec4) Load 55(dvec4v)
- 240: 53(fvec4) FAdd 239 238
+ 236: 53(f64vec4) Load 55(dvec4v)
+ 237: 53(f64vec4) Load 55(dvec4v)
+ 238: 53(f64vec4) FMod 236 237
+ 239: 53(f64vec4) Load 55(dvec4v)
+ 240: 53(f64vec4) FAdd 239 238
Store 55(dvec4v) 240
- 241: 39(float) Load 41(doublev)
- 242: 39(float) ExtInst 1(GLSL.std.450) 35(Modf) 241 41(doublev)
- 243: 39(float) Load 41(doublev)
- 244: 39(float) FAdd 243 242
+ 241:39(float64_t) Load 41(doublev)
+ 242:39(float64_t) ExtInst 1(GLSL.std.450) 35(Modf) 241 41(doublev)
+ 243:39(float64_t) Load 41(doublev)
+ 244:39(float64_t) FAdd 243 242
Store 41(doublev) 244
- 245: 43(fvec2) Load 45(dvec2v)
- 246: 43(fvec2) ExtInst 1(GLSL.std.450) 35(Modf) 245 45(dvec2v)
- 247: 43(fvec2) Load 45(dvec2v)
- 248: 43(fvec2) FAdd 247 246
+ 245: 43(f64vec2) Load 45(dvec2v)
+ 246: 43(f64vec2) ExtInst 1(GLSL.std.450) 35(Modf) 245 45(dvec2v)
+ 247: 43(f64vec2) Load 45(dvec2v)
+ 248: 43(f64vec2) FAdd 247 246
Store 45(dvec2v) 248
- 249: 48(fvec3) Load 50(dvec3v)
- 250: 48(fvec3) ExtInst 1(GLSL.std.450) 35(Modf) 249 50(dvec3v)
- 251: 48(fvec3) Load 50(dvec3v)
- 252: 48(fvec3) FAdd 251 250
+ 249: 48(f64vec3) Load 50(dvec3v)
+ 250: 48(f64vec3) ExtInst 1(GLSL.std.450) 35(Modf) 249 50(dvec3v)
+ 251: 48(f64vec3) Load 50(dvec3v)
+ 252: 48(f64vec3) FAdd 251 250
Store 50(dvec3v) 252
- 253: 53(fvec4) Load 55(dvec4v)
- 254: 53(fvec4) ExtInst 1(GLSL.std.450) 35(Modf) 253 55(dvec4v)
- 255: 53(fvec4) Load 55(dvec4v)
- 256: 53(fvec4) FAdd 255 254
+ 253: 53(f64vec4) Load 55(dvec4v)
+ 254: 53(f64vec4) ExtInst 1(GLSL.std.450) 35(Modf) 253 55(dvec4v)
+ 255: 53(f64vec4) Load 55(dvec4v)
+ 256: 53(f64vec4) FAdd 255 254
Store 55(dvec4v) 256
- 257: 39(float) Load 41(doublev)
- 258: 39(float) Load 41(doublev)
- 259: 39(float) ExtInst 1(GLSL.std.450) 37(FMin) 257 258
- 260: 39(float) Load 41(doublev)
- 261: 39(float) FAdd 260 259
+ 257:39(float64_t) Load 41(doublev)
+ 258:39(float64_t) Load 41(doublev)
+ 259:39(float64_t) ExtInst 1(GLSL.std.450) 37(FMin) 257 258
+ 260:39(float64_t) Load 41(doublev)
+ 261:39(float64_t) FAdd 260 259
Store 41(doublev) 261
- 262: 43(fvec2) Load 45(dvec2v)
- 263: 39(float) Load 41(doublev)
- 264: 43(fvec2) CompositeConstruct 263 263
- 265: 43(fvec2) ExtInst 1(GLSL.std.450) 37(FMin) 262 264
- 266: 43(fvec2) Load 45(dvec2v)
- 267: 43(fvec2) FAdd 266 265
+ 262: 43(f64vec2) Load 45(dvec2v)
+ 263:39(float64_t) Load 41(doublev)
+ 264: 43(f64vec2) CompositeConstruct 263 263
+ 265: 43(f64vec2) ExtInst 1(GLSL.std.450) 37(FMin) 262 264
+ 266: 43(f64vec2) Load 45(dvec2v)
+ 267: 43(f64vec2) FAdd 266 265
Store 45(dvec2v) 267
- 268: 48(fvec3) Load 50(dvec3v)
- 269: 39(float) Load 41(doublev)
- 270: 48(fvec3) CompositeConstruct 269 269 269
- 271: 48(fvec3) ExtInst 1(GLSL.std.450) 37(FMin) 268 270
- 272: 48(fvec3) Load 50(dvec3v)
- 273: 48(fvec3) FAdd 272 271
+ 268: 48(f64vec3) Load 50(dvec3v)
+ 269:39(float64_t) Load 41(doublev)
+ 270: 48(f64vec3) CompositeConstruct 269 269 269
+ 271: 48(f64vec3) ExtInst 1(GLSL.std.450) 37(FMin) 268 270
+ 272: 48(f64vec3) Load 50(dvec3v)
+ 273: 48(f64vec3) FAdd 272 271
Store 50(dvec3v) 273
- 274: 53(fvec4) Load 55(dvec4v)
- 275: 39(float) Load 41(doublev)
- 276: 53(fvec4) CompositeConstruct 275 275 275 275
- 277: 53(fvec4) ExtInst 1(GLSL.std.450) 37(FMin) 274 276
- 278: 53(fvec4) Load 55(dvec4v)
- 279: 53(fvec4) FAdd 278 277
+ 274: 53(f64vec4) Load 55(dvec4v)
+ 275:39(float64_t) Load 41(doublev)
+ 276: 53(f64vec4) CompositeConstruct 275 275 275 275
+ 277: 53(f64vec4) ExtInst 1(GLSL.std.450) 37(FMin) 274 276
+ 278: 53(f64vec4) Load 55(dvec4v)
+ 279: 53(f64vec4) FAdd 278 277
Store 55(dvec4v) 279
- 280: 43(fvec2) Load 45(dvec2v)
- 281: 43(fvec2) Load 45(dvec2v)
- 282: 43(fvec2) ExtInst 1(GLSL.std.450) 37(FMin) 280 281
- 283: 43(fvec2) Load 45(dvec2v)
- 284: 43(fvec2) FAdd 283 282
+ 280: 43(f64vec2) Load 45(dvec2v)
+ 281: 43(f64vec2) Load 45(dvec2v)
+ 282: 43(f64vec2) ExtInst 1(GLSL.std.450) 37(FMin) 280 281
+ 283: 43(f64vec2) Load 45(dvec2v)
+ 284: 43(f64vec2) FAdd 283 282
Store 45(dvec2v) 284
- 285: 48(fvec3) Load 50(dvec3v)
- 286: 48(fvec3) Load 50(dvec3v)
- 287: 48(fvec3) ExtInst 1(GLSL.std.450) 37(FMin) 285 286
- 288: 48(fvec3) Load 50(dvec3v)
- 289: 48(fvec3) FAdd 288 287
+ 285: 48(f64vec3) Load 50(dvec3v)
+ 286: 48(f64vec3) Load 50(dvec3v)
+ 287: 48(f64vec3) ExtInst 1(GLSL.std.450) 37(FMin) 285 286
+ 288: 48(f64vec3) Load 50(dvec3v)
+ 289: 48(f64vec3) FAdd 288 287
Store 50(dvec3v) 289
- 290: 53(fvec4) Load 55(dvec4v)
- 291: 53(fvec4) Load 55(dvec4v)
- 292: 53(fvec4) ExtInst 1(GLSL.std.450) 37(FMin) 290 291
- 293: 53(fvec4) Load 55(dvec4v)
- 294: 53(fvec4) FAdd 293 292
+ 290: 53(f64vec4) Load 55(dvec4v)
+ 291: 53(f64vec4) Load 55(dvec4v)
+ 292: 53(f64vec4) ExtInst 1(GLSL.std.450) 37(FMin) 290 291
+ 293: 53(f64vec4) Load 55(dvec4v)
+ 294: 53(f64vec4) FAdd 293 292
Store 55(dvec4v) 294
- 295: 39(float) Load 41(doublev)
- 296: 39(float) Load 41(doublev)
- 297: 39(float) ExtInst 1(GLSL.std.450) 40(FMax) 295 296
- 298: 39(float) Load 41(doublev)
- 299: 39(float) FAdd 298 297
+ 295:39(float64_t) Load 41(doublev)
+ 296:39(float64_t) Load 41(doublev)
+ 297:39(float64_t) ExtInst 1(GLSL.std.450) 40(FMax) 295 296
+ 298:39(float64_t) Load 41(doublev)
+ 299:39(float64_t) FAdd 298 297
Store 41(doublev) 299
- 300: 43(fvec2) Load 45(dvec2v)
- 301: 39(float) Load 41(doublev)
- 302: 43(fvec2) CompositeConstruct 301 301
- 303: 43(fvec2) ExtInst 1(GLSL.std.450) 40(FMax) 300 302
- 304: 43(fvec2) Load 45(dvec2v)
- 305: 43(fvec2) FAdd 304 303
+ 300: 43(f64vec2) Load 45(dvec2v)
+ 301:39(float64_t) Load 41(doublev)
+ 302: 43(f64vec2) CompositeConstruct 301 301
+ 303: 43(f64vec2) ExtInst 1(GLSL.std.450) 40(FMax) 300 302
+ 304: 43(f64vec2) Load 45(dvec2v)
+ 305: 43(f64vec2) FAdd 304 303
Store 45(dvec2v) 305
- 306: 48(fvec3) Load 50(dvec3v)
- 307: 39(float) Load 41(doublev)
- 308: 48(fvec3) CompositeConstruct 307 307 307
- 309: 48(fvec3) ExtInst 1(GLSL.std.450) 40(FMax) 306 308
- 310: 48(fvec3) Load 50(dvec3v)
- 311: 48(fvec3) FAdd 310 309
+ 306: 48(f64vec3) Load 50(dvec3v)
+ 307:39(float64_t) Load 41(doublev)
+ 308: 48(f64vec3) CompositeConstruct 307 307 307
+ 309: 48(f64vec3) ExtInst 1(GLSL.std.450) 40(FMax) 306 308
+ 310: 48(f64vec3) Load 50(dvec3v)
+ 311: 48(f64vec3) FAdd 310 309
Store 50(dvec3v) 311
- 312: 53(fvec4) Load 55(dvec4v)
- 313: 39(float) Load 41(doublev)
- 314: 53(fvec4) CompositeConstruct 313 313 313 313
- 315: 53(fvec4) ExtInst 1(GLSL.std.450) 40(FMax) 312 314
- 316: 53(fvec4) Load 55(dvec4v)
- 317: 53(fvec4) FAdd 316 315
+ 312: 53(f64vec4) Load 55(dvec4v)
+ 313:39(float64_t) Load 41(doublev)
+ 314: 53(f64vec4) CompositeConstruct 313 313 313 313
+ 315: 53(f64vec4) ExtInst 1(GLSL.std.450) 40(FMax) 312 314
+ 316: 53(f64vec4) Load 55(dvec4v)
+ 317: 53(f64vec4) FAdd 316 315
Store 55(dvec4v) 317
- 318: 43(fvec2) Load 45(dvec2v)
- 319: 43(fvec2) Load 45(dvec2v)
- 320: 43(fvec2) ExtInst 1(GLSL.std.450) 40(FMax) 318 319
- 321: 43(fvec2) Load 45(dvec2v)
- 322: 43(fvec2) FAdd 321 320
+ 318: 43(f64vec2) Load 45(dvec2v)
+ 319: 43(f64vec2) Load 45(dvec2v)
+ 320: 43(f64vec2) ExtInst 1(GLSL.std.450) 40(FMax) 318 319
+ 321: 43(f64vec2) Load 45(dvec2v)
+ 322: 43(f64vec2) FAdd 321 320
Store 45(dvec2v) 322
- 323: 48(fvec3) Load 50(dvec3v)
- 324: 48(fvec3) Load 50(dvec3v)
- 325: 48(fvec3) ExtInst 1(GLSL.std.450) 40(FMax) 323 324
- 326: 48(fvec3) Load 50(dvec3v)
- 327: 48(fvec3) FAdd 326 325
+ 323: 48(f64vec3) Load 50(dvec3v)
+ 324: 48(f64vec3) Load 50(dvec3v)
+ 325: 48(f64vec3) ExtInst 1(GLSL.std.450) 40(FMax) 323 324
+ 326: 48(f64vec3) Load 50(dvec3v)
+ 327: 48(f64vec3) FAdd 326 325
Store 50(dvec3v) 327
- 328: 53(fvec4) Load 55(dvec4v)
- 329: 53(fvec4) Load 55(dvec4v)
- 330: 53(fvec4) ExtInst 1(GLSL.std.450) 40(FMax) 328 329
- 331: 53(fvec4) Load 55(dvec4v)
- 332: 53(fvec4) FAdd 331 330
+ 328: 53(f64vec4) Load 55(dvec4v)
+ 329: 53(f64vec4) Load 55(dvec4v)
+ 330: 53(f64vec4) ExtInst 1(GLSL.std.450) 40(FMax) 328 329
+ 331: 53(f64vec4) Load 55(dvec4v)
+ 332: 53(f64vec4) FAdd 331 330
Store 55(dvec4v) 332
- 333: 39(float) Load 41(doublev)
- 334: 39(float) Load 41(doublev)
- 335: 39(float) Load 41(doublev)
- 336: 39(float) ExtInst 1(GLSL.std.450) 43(FClamp) 333 334 335
- 337: 39(float) Load 41(doublev)
- 338: 39(float) FAdd 337 336
+ 333:39(float64_t) Load 41(doublev)
+ 334:39(float64_t) Load 41(doublev)
+ 335:39(float64_t) Load 41(doublev)
+ 336:39(float64_t) ExtInst 1(GLSL.std.450) 43(FClamp) 333 334 335
+ 337:39(float64_t) Load 41(doublev)
+ 338:39(float64_t) FAdd 337 336
Store 41(doublev) 338
- 339: 43(fvec2) Load 45(dvec2v)
- 340: 39(float) Load 41(doublev)
- 341: 39(float) Load 41(doublev)
- 342: 43(fvec2) CompositeConstruct 340 340
- 343: 43(fvec2) CompositeConstruct 341 341
- 344: 43(fvec2) ExtInst 1(GLSL.std.450) 43(FClamp) 339 342 343
- 345: 43(fvec2) Load 45(dvec2v)
- 346: 43(fvec2) FAdd 345 344
+ 339: 43(f64vec2) Load 45(dvec2v)
+ 340:39(float64_t) Load 41(doublev)
+ 341:39(float64_t) Load 41(doublev)
+ 342: 43(f64vec2) CompositeConstruct 340 340
+ 343: 43(f64vec2) CompositeConstruct 341 341
+ 344: 43(f64vec2) ExtInst 1(GLSL.std.450) 43(FClamp) 339 342 343
+ 345: 43(f64vec2) Load 45(dvec2v)
+ 346: 43(f64vec2) FAdd 345 344
Store 45(dvec2v) 346
- 347: 48(fvec3) Load 50(dvec3v)
- 348: 39(float) Load 41(doublev)
- 349: 39(float) Load 41(doublev)
- 350: 48(fvec3) CompositeConstruct 348 348 348
- 351: 48(fvec3) CompositeConstruct 349 349 349
- 352: 48(fvec3) ExtInst 1(GLSL.std.450) 43(FClamp) 347 350 351
- 353: 48(fvec3) Load 50(dvec3v)
- 354: 48(fvec3) FAdd 353 352
+ 347: 48(f64vec3) Load 50(dvec3v)
+ 348:39(float64_t) Load 41(doublev)
+ 349:39(float64_t) Load 41(doublev)
+ 350: 48(f64vec3) CompositeConstruct 348 348 348
+ 351: 48(f64vec3) CompositeConstruct 349 349 349
+ 352: 48(f64vec3) ExtInst 1(GLSL.std.450) 43(FClamp) 347 350 351
+ 353: 48(f64vec3) Load 50(dvec3v)
+ 354: 48(f64vec3) FAdd 353 352
Store 50(dvec3v) 354
- 355: 53(fvec4) Load 55(dvec4v)
- 356: 39(float) Load 41(doublev)
- 357: 39(float) Load 41(doublev)
- 358: 53(fvec4) CompositeConstruct 356 356 356 356
- 359: 53(fvec4) CompositeConstruct 357 357 357 357
- 360: 53(fvec4) ExtInst 1(GLSL.std.450) 43(FClamp) 355 358 359
- 361: 53(fvec4) Load 55(dvec4v)
- 362: 53(fvec4) FAdd 361 360
+ 355: 53(f64vec4) Load 55(dvec4v)
+ 356:39(float64_t) Load 41(doublev)
+ 357:39(float64_t) Load 41(doublev)
+ 358: 53(f64vec4) CompositeConstruct 356 356 356 356
+ 359: 53(f64vec4) CompositeConstruct 357 357 357 357
+ 360: 53(f64vec4) ExtInst 1(GLSL.std.450) 43(FClamp) 355 358 359
+ 361: 53(f64vec4) Load 55(dvec4v)
+ 362: 53(f64vec4) FAdd 361 360
Store 55(dvec4v) 362
- 363: 43(fvec2) Load 45(dvec2v)
- 364: 43(fvec2) Load 45(dvec2v)
- 365: 43(fvec2) Load 45(dvec2v)
- 366: 43(fvec2) ExtInst 1(GLSL.std.450) 43(FClamp) 363 364 365
- 367: 43(fvec2) Load 45(dvec2v)
- 368: 43(fvec2) FAdd 367 366
+ 363: 43(f64vec2) Load 45(dvec2v)
+ 364: 43(f64vec2) Load 45(dvec2v)
+ 365: 43(f64vec2) Load 45(dvec2v)
+ 366: 43(f64vec2) ExtInst 1(GLSL.std.450) 43(FClamp) 363 364 365
+ 367: 43(f64vec2) Load 45(dvec2v)
+ 368: 43(f64vec2) FAdd 367 366
Store 45(dvec2v) 368
- 369: 48(fvec3) Load 50(dvec3v)
- 370: 48(fvec3) Load 50(dvec3v)
- 371: 48(fvec3) Load 50(dvec3v)
- 372: 48(fvec3) ExtInst 1(GLSL.std.450) 43(FClamp) 369 370 371
- 373: 48(fvec3) Load 50(dvec3v)
- 374: 48(fvec3) FAdd 373 372
+ 369: 48(f64vec3) Load 50(dvec3v)
+ 370: 48(f64vec3) Load 50(dvec3v)
+ 371: 48(f64vec3) Load 50(dvec3v)
+ 372: 48(f64vec3) ExtInst 1(GLSL.std.450) 43(FClamp) 369 370 371
+ 373: 48(f64vec3) Load 50(dvec3v)
+ 374: 48(f64vec3) FAdd 373 372
Store 50(dvec3v) 374
- 375: 53(fvec4) Load 55(dvec4v)
- 376: 53(fvec4) Load 55(dvec4v)
- 377: 53(fvec4) Load 55(dvec4v)
- 378: 53(fvec4) ExtInst 1(GLSL.std.450) 43(FClamp) 375 376 377
- 379: 53(fvec4) Load 55(dvec4v)
- 380: 53(fvec4) FAdd 379 378
+ 375: 53(f64vec4) Load 55(dvec4v)
+ 376: 53(f64vec4) Load 55(dvec4v)
+ 377: 53(f64vec4) Load 55(dvec4v)
+ 378: 53(f64vec4) ExtInst 1(GLSL.std.450) 43(FClamp) 375 376 377
+ 379: 53(f64vec4) Load 55(dvec4v)
+ 380: 53(f64vec4) FAdd 379 378
Store 55(dvec4v) 380
- 381: 39(float) Load 41(doublev)
- 382: 39(float) Load 41(doublev)
- 383: 39(float) Load 41(doublev)
- 384: 39(float) ExtInst 1(GLSL.std.450) 46(FMix) 381 382 383
- 385: 39(float) Load 41(doublev)
- 386: 39(float) FAdd 385 384
+ 381:39(float64_t) Load 41(doublev)
+ 382:39(float64_t) Load 41(doublev)
+ 383:39(float64_t) Load 41(doublev)
+ 384:39(float64_t) ExtInst 1(GLSL.std.450) 46(FMix) 381 382 383
+ 385:39(float64_t) Load 41(doublev)
+ 386:39(float64_t) FAdd 385 384
Store 41(doublev) 386
- 387: 43(fvec2) Load 45(dvec2v)
- 388: 43(fvec2) Load 45(dvec2v)
- 389: 39(float) Load 41(doublev)
- 390: 43(fvec2) CompositeConstruct 389 389
- 391: 43(fvec2) ExtInst 1(GLSL.std.450) 46(FMix) 387 388 390
- 392: 43(fvec2) Load 45(dvec2v)
- 393: 43(fvec2) FAdd 392 391
+ 387: 43(f64vec2) Load 45(dvec2v)
+ 388: 43(f64vec2) Load 45(dvec2v)
+ 389:39(float64_t) Load 41(doublev)
+ 390: 43(f64vec2) CompositeConstruct 389 389
+ 391: 43(f64vec2) ExtInst 1(GLSL.std.450) 46(FMix) 387 388 390
+ 392: 43(f64vec2) Load 45(dvec2v)
+ 393: 43(f64vec2) FAdd 392 391
Store 45(dvec2v) 393
- 394: 48(fvec3) Load 50(dvec3v)
- 395: 48(fvec3) Load 50(dvec3v)
- 396: 39(float) Load 41(doublev)
- 397: 48(fvec3) CompositeConstruct 396 396 396
- 398: 48(fvec3) ExtInst 1(GLSL.std.450) 46(FMix) 394 395 397
- 399: 48(fvec3) Load 50(dvec3v)
- 400: 48(fvec3) FAdd 399 398
+ 394: 48(f64vec3) Load 50(dvec3v)
+ 395: 48(f64vec3) Load 50(dvec3v)
+ 396:39(float64_t) Load 41(doublev)
+ 397: 48(f64vec3) CompositeConstruct 396 396 396
+ 398: 48(f64vec3) ExtInst 1(GLSL.std.450) 46(FMix) 394 395 397
+ 399: 48(f64vec3) Load 50(dvec3v)
+ 400: 48(f64vec3) FAdd 399 398
Store 50(dvec3v) 400
- 401: 53(fvec4) Load 55(dvec4v)
- 402: 53(fvec4) Load 55(dvec4v)
- 403: 39(float) Load 41(doublev)
- 404: 53(fvec4) CompositeConstruct 403 403 403 403
- 405: 53(fvec4) ExtInst 1(GLSL.std.450) 46(FMix) 401 402 404
- 406: 53(fvec4) Load 55(dvec4v)
- 407: 53(fvec4) FAdd 406 405
+ 401: 53(f64vec4) Load 55(dvec4v)
+ 402: 53(f64vec4) Load 55(dvec4v)
+ 403:39(float64_t) Load 41(doublev)
+ 404: 53(f64vec4) CompositeConstruct 403 403 403 403
+ 405: 53(f64vec4) ExtInst 1(GLSL.std.450) 46(FMix) 401 402 404
+ 406: 53(f64vec4) Load 55(dvec4v)
+ 407: 53(f64vec4) FAdd 406 405
Store 55(dvec4v) 407
- 408: 43(fvec2) Load 45(dvec2v)
- 409: 43(fvec2) Load 45(dvec2v)
- 410: 43(fvec2) Load 45(dvec2v)
- 411: 43(fvec2) ExtInst 1(GLSL.std.450) 46(FMix) 408 409 410
- 412: 43(fvec2) Load 45(dvec2v)
- 413: 43(fvec2) FAdd 412 411
+ 408: 43(f64vec2) Load 45(dvec2v)
+ 409: 43(f64vec2) Load 45(dvec2v)
+ 410: 43(f64vec2) Load 45(dvec2v)
+ 411: 43(f64vec2) ExtInst 1(GLSL.std.450) 46(FMix) 408 409 410
+ 412: 43(f64vec2) Load 45(dvec2v)
+ 413: 43(f64vec2) FAdd 412 411
Store 45(dvec2v) 413
- 414: 48(fvec3) Load 50(dvec3v)
- 415: 48(fvec3) Load 50(dvec3v)
- 416: 48(fvec3) Load 50(dvec3v)
- 417: 48(fvec3) ExtInst 1(GLSL.std.450) 46(FMix) 414 415 416
- 418: 48(fvec3) Load 50(dvec3v)
- 419: 48(fvec3) FAdd 418 417
+ 414: 48(f64vec3) Load 50(dvec3v)
+ 415: 48(f64vec3) Load 50(dvec3v)
+ 416: 48(f64vec3) Load 50(dvec3v)
+ 417: 48(f64vec3) ExtInst 1(GLSL.std.450) 46(FMix) 414 415 416
+ 418: 48(f64vec3) Load 50(dvec3v)
+ 419: 48(f64vec3) FAdd 418 417
Store 50(dvec3v) 419
- 420: 53(fvec4) Load 55(dvec4v)
- 421: 53(fvec4) Load 55(dvec4v)
- 422: 53(fvec4) Load 55(dvec4v)
- 423: 53(fvec4) ExtInst 1(GLSL.std.450) 46(FMix) 420 421 422
- 424: 53(fvec4) Load 55(dvec4v)
- 425: 53(fvec4) FAdd 424 423
+ 420: 53(f64vec4) Load 55(dvec4v)
+ 421: 53(f64vec4) Load 55(dvec4v)
+ 422: 53(f64vec4) Load 55(dvec4v)
+ 423: 53(f64vec4) ExtInst 1(GLSL.std.450) 46(FMix) 420 421 422
+ 424: 53(f64vec4) Load 55(dvec4v)
+ 425: 53(f64vec4) FAdd 424 423
Store 55(dvec4v) 425
- 426: 39(float) Load 41(doublev)
- 427: 39(float) Load 41(doublev)
+ 426:39(float64_t) Load 41(doublev)
+ 427:39(float64_t) Load 41(doublev)
431: 428(bool) Load 430(boolv)
- 432: 39(float) Select 431 427 426
- 433: 39(float) Load 41(doublev)
- 434: 39(float) FAdd 433 432
+ 432:39(float64_t) Select 431 427 426
+ 433:39(float64_t) Load 41(doublev)
+ 434:39(float64_t) FAdd 433 432
Store 41(doublev) 434
- 435: 43(fvec2) Load 45(dvec2v)
- 436: 43(fvec2) Load 45(dvec2v)
+ 435: 43(f64vec2) Load 45(dvec2v)
+ 436: 43(f64vec2) Load 45(dvec2v)
440: 437(bvec2) Load 439(bvec2v)
- 441: 43(fvec2) Select 440 436 435
- 442: 43(fvec2) Load 45(dvec2v)
- 443: 43(fvec2) FAdd 442 441
+ 441: 43(f64vec2) Select 440 436 435
+ 442: 43(f64vec2) Load 45(dvec2v)
+ 443: 43(f64vec2) FAdd 442 441
Store 45(dvec2v) 443
- 444: 48(fvec3) Load 50(dvec3v)
- 445: 48(fvec3) Load 50(dvec3v)
+ 444: 48(f64vec3) Load 50(dvec3v)
+ 445: 48(f64vec3) Load 50(dvec3v)
449: 446(bvec3) Load 448(bvec3v)
- 450: 48(fvec3) Select 449 445 444
- 451: 48(fvec3) Load 50(dvec3v)
- 452: 48(fvec3) FAdd 451 450
+ 450: 48(f64vec3) Select 449 445 444
+ 451: 48(f64vec3) Load 50(dvec3v)
+ 452: 48(f64vec3) FAdd 451 450
Store 50(dvec3v) 452
- 453: 53(fvec4) Load 55(dvec4v)
- 454: 53(fvec4) Load 55(dvec4v)
+ 453: 53(f64vec4) Load 55(dvec4v)
+ 454: 53(f64vec4) Load 55(dvec4v)
458: 455(bvec4) Load 457(bvec4v)
- 459: 53(fvec4) Select 458 454 453
- 460: 53(fvec4) Load 55(dvec4v)
- 461: 53(fvec4) FAdd 460 459
+ 459: 53(f64vec4) Select 458 454 453
+ 460: 53(f64vec4) Load 55(dvec4v)
+ 461: 53(f64vec4) FAdd 460 459
Store 55(dvec4v) 461
- 462: 39(float) Load 41(doublev)
- 463: 39(float) Load 41(doublev)
- 464: 39(float) ExtInst 1(GLSL.std.450) 48(Step) 462 463
- 465: 39(float) Load 41(doublev)
- 466: 39(float) FAdd 465 464
+ 462:39(float64_t) Load 41(doublev)
+ 463:39(float64_t) Load 41(doublev)
+ 464:39(float64_t) ExtInst 1(GLSL.std.450) 48(Step) 462 463
+ 465:39(float64_t) Load 41(doublev)
+ 466:39(float64_t) FAdd 465 464
Store 41(doublev) 466
- 467: 43(fvec2) Load 45(dvec2v)
- 468: 43(fvec2) Load 45(dvec2v)
- 469: 43(fvec2) ExtInst 1(GLSL.std.450) 48(Step) 467 468
- 470: 43(fvec2) Load 45(dvec2v)
- 471: 43(fvec2) FAdd 470 469
+ 467: 43(f64vec2) Load 45(dvec2v)
+ 468: 43(f64vec2) Load 45(dvec2v)
+ 469: 43(f64vec2) ExtInst 1(GLSL.std.450) 48(Step) 467 468
+ 470: 43(f64vec2) Load 45(dvec2v)
+ 471: 43(f64vec2) FAdd 470 469
Store 45(dvec2v) 471
- 472: 48(fvec3) Load 50(dvec3v)
- 473: 48(fvec3) Load 50(dvec3v)
- 474: 48(fvec3) ExtInst 1(GLSL.std.450) 48(Step) 472 473
- 475: 48(fvec3) Load 50(dvec3v)
- 476: 48(fvec3) FAdd 475 474
+ 472: 48(f64vec3) Load 50(dvec3v)
+ 473: 48(f64vec3) Load 50(dvec3v)
+ 474: 48(f64vec3) ExtInst 1(GLSL.std.450) 48(Step) 472 473
+ 475: 48(f64vec3) Load 50(dvec3v)
+ 476: 48(f64vec3) FAdd 475 474
Store 50(dvec3v) 476
- 477: 53(fvec4) Load 55(dvec4v)
- 478: 53(fvec4) Load 55(dvec4v)
- 479: 53(fvec4) ExtInst 1(GLSL.std.450) 48(Step) 477 478
- 480: 53(fvec4) Load 55(dvec4v)
- 481: 53(fvec4) FAdd 480 479
+ 477: 53(f64vec4) Load 55(dvec4v)
+ 478: 53(f64vec4) Load 55(dvec4v)
+ 479: 53(f64vec4) ExtInst 1(GLSL.std.450) 48(Step) 477 478
+ 480: 53(f64vec4) Load 55(dvec4v)
+ 481: 53(f64vec4) FAdd 480 479
Store 55(dvec4v) 481
- 482: 39(float) Load 41(doublev)
- 483: 43(fvec2) Load 45(dvec2v)
- 484: 43(fvec2) CompositeConstruct 482 482
- 485: 43(fvec2) ExtInst 1(GLSL.std.450) 48(Step) 484 483
- 486: 43(fvec2) Load 45(dvec2v)
- 487: 43(fvec2) FAdd 486 485
+ 482:39(float64_t) Load 41(doublev)
+ 483: 43(f64vec2) Load 45(dvec2v)
+ 484: 43(f64vec2) CompositeConstruct 482 482
+ 485: 43(f64vec2) ExtInst 1(GLSL.std.450) 48(Step) 484 483
+ 486: 43(f64vec2) Load 45(dvec2v)
+ 487: 43(f64vec2) FAdd 486 485
Store 45(dvec2v) 487
- 488: 39(float) Load 41(doublev)
- 489: 48(fvec3) Load 50(dvec3v)
- 490: 48(fvec3) CompositeConstruct 488 488 488
- 491: 48(fvec3) ExtInst 1(GLSL.std.450) 48(Step) 490 489
- 492: 48(fvec3) Load 50(dvec3v)
- 493: 48(fvec3) FAdd 492 491
+ 488:39(float64_t) Load 41(doublev)
+ 489: 48(f64vec3) Load 50(dvec3v)
+ 490: 48(f64vec3) CompositeConstruct 488 488 488
+ 491: 48(f64vec3) ExtInst 1(GLSL.std.450) 48(Step) 490 489
+ 492: 48(f64vec3) Load 50(dvec3v)
+ 493: 48(f64vec3) FAdd 492 491
Store 50(dvec3v) 493
- 494: 39(float) Load 41(doublev)
- 495: 53(fvec4) Load 55(dvec4v)
- 496: 53(fvec4) CompositeConstruct 494 494 494 494
- 497: 53(fvec4) ExtInst 1(GLSL.std.450) 48(Step) 496 495
- 498: 53(fvec4) Load 55(dvec4v)
- 499: 53(fvec4) FAdd 498 497
+ 494:39(float64_t) Load 41(doublev)
+ 495: 53(f64vec4) Load 55(dvec4v)
+ 496: 53(f64vec4) CompositeConstruct 494 494 494 494
+ 497: 53(f64vec4) ExtInst 1(GLSL.std.450) 48(Step) 496 495
+ 498: 53(f64vec4) Load 55(dvec4v)
+ 499: 53(f64vec4) FAdd 498 497
Store 55(dvec4v) 499
- 500: 39(float) Load 41(doublev)
- 501: 39(float) Load 41(doublev)
- 502: 39(float) Load 41(doublev)
- 503: 39(float) ExtInst 1(GLSL.std.450) 49(SmoothStep) 500 501 502
- 504: 39(float) Load 41(doublev)
- 505: 39(float) FAdd 504 503
+ 500:39(float64_t) Load 41(doublev)
+ 501:39(float64_t) Load 41(doublev)
+ 502:39(float64_t) Load 41(doublev)
+ 503:39(float64_t) ExtInst 1(GLSL.std.450) 49(SmoothStep) 500 501 502
+ 504:39(float64_t) Load 41(doublev)
+ 505:39(float64_t) FAdd 504 503
Store 41(doublev) 505
- 506: 43(fvec2) Load 45(dvec2v)
- 507: 43(fvec2) Load 45(dvec2v)
- 508: 43(fvec2) Load 45(dvec2v)
- 509: 43(fvec2) ExtInst 1(GLSL.std.450) 49(SmoothStep) 506 507 508
- 510: 43(fvec2) Load 45(dvec2v)
- 511: 43(fvec2) FAdd 510 509
+ 506: 43(f64vec2) Load 45(dvec2v)
+ 507: 43(f64vec2) Load 45(dvec2v)
+ 508: 43(f64vec2) Load 45(dvec2v)
+ 509: 43(f64vec2) ExtInst 1(GLSL.std.450) 49(SmoothStep) 506 507 508
+ 510: 43(f64vec2) Load 45(dvec2v)
+ 511: 43(f64vec2) FAdd 510 509
Store 45(dvec2v) 511
- 512: 48(fvec3) Load 50(dvec3v)
- 513: 48(fvec3) Load 50(dvec3v)
- 514: 48(fvec3) Load 50(dvec3v)
- 515: 48(fvec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 512 513 514
- 516: 48(fvec3) Load 50(dvec3v)
- 517: 48(fvec3) FAdd 516 515
+ 512: 48(f64vec3) Load 50(dvec3v)
+ 513: 48(f64vec3) Load 50(dvec3v)
+ 514: 48(f64vec3) Load 50(dvec3v)
+ 515: 48(f64vec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 512 513 514
+ 516: 48(f64vec3) Load 50(dvec3v)
+ 517: 48(f64vec3) FAdd 516 515
Store 50(dvec3v) 517
- 518: 53(fvec4) Load 55(dvec4v)
- 519: 53(fvec4) Load 55(dvec4v)
- 520: 53(fvec4) Load 55(dvec4v)
- 521: 53(fvec4) ExtInst 1(GLSL.std.450) 49(SmoothStep) 518 519 520
- 522: 53(fvec4) Load 55(dvec4v)
- 523: 53(fvec4) FAdd 522 521
+ 518: 53(f64vec4) Load 55(dvec4v)
+ 519: 53(f64vec4) Load 55(dvec4v)
+ 520: 53(f64vec4) Load 55(dvec4v)
+ 521: 53(f64vec4) ExtInst 1(GLSL.std.450) 49(SmoothStep) 518 519 520
+ 522: 53(f64vec4) Load 55(dvec4v)
+ 523: 53(f64vec4) FAdd 522 521
Store 55(dvec4v) 523
- 524: 39(float) Load 41(doublev)
- 525: 39(float) Load 41(doublev)
- 526: 43(fvec2) Load 45(dvec2v)
- 527: 43(fvec2) CompositeConstruct 524 524
- 528: 43(fvec2) CompositeConstruct 525 525
- 529: 43(fvec2) ExtInst 1(GLSL.std.450) 49(SmoothStep) 527 528 526
- 530: 43(fvec2) Load 45(dvec2v)
- 531: 43(fvec2) FAdd 530 529
+ 524:39(float64_t) Load 41(doublev)
+ 525:39(float64_t) Load 41(doublev)
+ 526: 43(f64vec2) Load 45(dvec2v)
+ 527: 43(f64vec2) CompositeConstruct 524 524
+ 528: 43(f64vec2) CompositeConstruct 525 525
+ 529: 43(f64vec2) ExtInst 1(GLSL.std.450) 49(SmoothStep) 527 528 526
+ 530: 43(f64vec2) Load 45(dvec2v)
+ 531: 43(f64vec2) FAdd 530 529
Store 45(dvec2v) 531
- 532: 39(float) Load 41(doublev)
- 533: 39(float) Load 41(doublev)
- 534: 48(fvec3) Load 50(dvec3v)
- 535: 48(fvec3) CompositeConstruct 532 532 532
- 536: 48(fvec3) CompositeConstruct 533 533 533
- 537: 48(fvec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 535 536 534
- 538: 48(fvec3) Load 50(dvec3v)
- 539: 48(fvec3) FAdd 538 537
+ 532:39(float64_t) Load 41(doublev)
+ 533:39(float64_t) Load 41(doublev)
+ 534: 48(f64vec3) Load 50(dvec3v)
+ 535: 48(f64vec3) CompositeConstruct 532 532 532
+ 536: 48(f64vec3) CompositeConstruct 533 533 533
+ 537: 48(f64vec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 535 536 534
+ 538: 48(f64vec3) Load 50(dvec3v)
+ 539: 48(f64vec3) FAdd 538 537
Store 50(dvec3v) 539
- 540: 39(float) Load 41(doublev)
- 541: 39(float) Load 41(doublev)
- 542: 53(fvec4) Load 55(dvec4v)
- 543: 53(fvec4) CompositeConstruct 540 540 540 540
- 544: 53(fvec4) CompositeConstruct 541 541 541 541
- 545: 53(fvec4) ExtInst 1(GLSL.std.450) 49(SmoothStep) 543 544 542
- 546: 53(fvec4) Load 55(dvec4v)
- 547: 53(fvec4) FAdd 546 545
+ 540:39(float64_t) Load 41(doublev)
+ 541:39(float64_t) Load 41(doublev)
+ 542: 53(f64vec4) Load 55(dvec4v)
+ 543: 53(f64vec4) CompositeConstruct 540 540 540 540
+ 544: 53(f64vec4) CompositeConstruct 541 541 541 541
+ 545: 53(f64vec4) ExtInst 1(GLSL.std.450) 49(SmoothStep) 543 544 542
+ 546: 53(f64vec4) Load 55(dvec4v)
+ 547: 53(f64vec4) FAdd 546 545
Store 55(dvec4v) 547
- 548: 39(float) Load 41(doublev)
+ 548:39(float64_t) Load 41(doublev)
549: 428(bool) IsNan 548
Store 430(boolv) 549
- 550: 43(fvec2) Load 45(dvec2v)
+ 550: 43(f64vec2) Load 45(dvec2v)
551: 437(bvec2) IsNan 550
Store 439(bvec2v) 551
- 552: 48(fvec3) Load 50(dvec3v)
+ 552: 48(f64vec3) Load 50(dvec3v)
553: 446(bvec3) IsNan 552
Store 448(bvec3v) 553
- 554: 53(fvec4) Load 55(dvec4v)
+ 554: 53(f64vec4) Load 55(dvec4v)
555: 455(bvec4) IsNan 554
Store 457(bvec4v) 555
556: 428(bool) Load 430(boolv)
SelectionMerge 559 None
BranchConditional 556 558 562
558: Label
- 560: 39(float) Load 41(doublev)
+ 560:39(float64_t) Load 41(doublev)
561: 428(bool) IsInf 560
Store 557 561
Branch 559
@@ -894,7 +894,7 @@ spv.400.frag
SelectionMerge 568 None
BranchConditional 565 567 571
567: Label
- 569: 43(fvec2) Load 45(dvec2v)
+ 569: 43(f64vec2) Load 45(dvec2v)
570: 437(bvec2) IsInf 569
Store 566 570
Branch 568
@@ -908,7 +908,7 @@ spv.400.frag
SelectionMerge 577 None
BranchConditional 574 576 580
576: Label
- 578: 48(fvec3) Load 50(dvec3v)
+ 578: 48(f64vec3) Load 50(dvec3v)
579: 446(bvec3) IsInf 578
Store 575 579
Branch 577
@@ -922,7 +922,7 @@ spv.400.frag
SelectionMerge 586 None
BranchConditional 583 585 589
585: Label
- 587: 53(fvec4) Load 55(dvec4v)
+ 587: 53(f64vec4) Load 55(dvec4v)
588: 455(bvec4) IsInf 587
Store 584 588
Branch 586
@@ -932,333 +932,333 @@ spv.400.frag
586: Label
591: 455(bvec4) Load 584
Store 457(bvec4v) 591
- 592: 39(float) Load 41(doublev)
- 593: 39(float) ExtInst 1(GLSL.std.450) 66(Length) 592
- 594: 39(float) Load 41(doublev)
- 595: 39(float) FAdd 594 593
+ 592:39(float64_t) Load 41(doublev)
+ 593:39(float64_t) ExtInst 1(GLSL.std.450) 66(Length) 592
+ 594:39(float64_t) Load 41(doublev)
+ 595:39(float64_t) FAdd 594 593
Store 41(doublev) 595
- 596: 43(fvec2) Load 45(dvec2v)
- 597: 39(float) ExtInst 1(GLSL.std.450) 66(Length) 596
- 598: 39(float) Load 41(doublev)
- 599: 39(float) FAdd 598 597
+ 596: 43(f64vec2) Load 45(dvec2v)
+ 597:39(float64_t) ExtInst 1(GLSL.std.450) 66(Length) 596
+ 598:39(float64_t) Load 41(doublev)
+ 599:39(float64_t) FAdd 598 597
Store 41(doublev) 599
- 600: 48(fvec3) Load 50(dvec3v)
- 601: 39(float) ExtInst 1(GLSL.std.450) 66(Length) 600
- 602: 39(float) Load 41(doublev)
- 603: 39(float) FAdd 602 601
+ 600: 48(f64vec3) Load 50(dvec3v)
+ 601:39(float64_t) ExtInst 1(GLSL.std.450) 66(Length) 600
+ 602:39(float64_t) Load 41(doublev)
+ 603:39(float64_t) FAdd 602 601
Store 41(doublev) 603
- 604: 53(fvec4) Load 55(dvec4v)
- 605: 39(float) ExtInst 1(GLSL.std.450) 66(Length) 604
- 606: 39(float) Load 41(doublev)
- 607: 39(float) FAdd 606 605
+ 604: 53(f64vec4) Load 55(dvec4v)
+ 605:39(float64_t) ExtInst 1(GLSL.std.450) 66(Length) 604
+ 606:39(float64_t) Load 41(doublev)
+ 607:39(float64_t) FAdd 606 605
Store 41(doublev) 607
- 608: 39(float) Load 41(doublev)
- 609: 39(float) Load 41(doublev)
- 610: 39(float) ExtInst 1(GLSL.std.450) 67(Distance) 608 609
- 611: 39(float) Load 41(doublev)
- 612: 39(float) FAdd 611 610
+ 608:39(float64_t) Load 41(doublev)
+ 609:39(float64_t) Load 41(doublev)
+ 610:39(float64_t) ExtInst 1(GLSL.std.450) 67(Distance) 608 609
+ 611:39(float64_t) Load 41(doublev)
+ 612:39(float64_t) FAdd 611 610
Store 41(doublev) 612
- 613: 43(fvec2) Load 45(dvec2v)
- 614: 43(fvec2) Load 45(dvec2v)
- 615: 39(float) ExtInst 1(GLSL.std.450) 67(Distance) 613 614
- 616: 39(float) Load 41(doublev)
- 617: 39(float) FAdd 616 615
+ 613: 43(f64vec2) Load 45(dvec2v)
+ 614: 43(f64vec2) Load 45(dvec2v)
+ 615:39(float64_t) ExtInst 1(GLSL.std.450) 67(Distance) 613 614
+ 616:39(float64_t) Load 41(doublev)
+ 617:39(float64_t) FAdd 616 615
Store 41(doublev) 617
- 618: 48(fvec3) Load 50(dvec3v)
- 619: 48(fvec3) Load 50(dvec3v)
- 620: 39(float) ExtInst 1(GLSL.std.450) 67(Distance) 618 619
- 621: 39(float) Load 41(doublev)
- 622: 39(float) FAdd 621 620
+ 618: 48(f64vec3) Load 50(dvec3v)
+ 619: 48(f64vec3) Load 50(dvec3v)
+ 620:39(float64_t) ExtInst 1(GLSL.std.450) 67(Distance) 618 619
+ 621:39(float64_t) Load 41(doublev)
+ 622:39(float64_t) FAdd 621 620
Store 41(doublev) 622
- 623: 53(fvec4) Load 55(dvec4v)
- 624: 53(fvec4) Load 55(dvec4v)
- 625: 39(float) ExtInst 1(GLSL.std.450) 67(Distance) 623 624
- 626: 39(float) Load 41(doublev)
- 627: 39(float) FAdd 626 625
+ 623: 53(f64vec4) Load 55(dvec4v)
+ 624: 53(f64vec4) Load 55(dvec4v)
+ 625:39(float64_t) ExtInst 1(GLSL.std.450) 67(Distance) 623 624
+ 626:39(float64_t) Load 41(doublev)
+ 627:39(float64_t) FAdd 626 625
Store 41(doublev) 627
- 628: 39(float) Load 41(doublev)
- 629: 39(float) Load 41(doublev)
- 630: 39(float) FMul 628 629
- 631: 39(float) Load 41(doublev)
- 632: 39(float) FAdd 631 630
+ 628:39(float64_t) Load 41(doublev)
+ 629:39(float64_t) Load 41(doublev)
+ 630:39(float64_t) FMul 628 629
+ 631:39(float64_t) Load 41(doublev)
+ 632:39(float64_t) FAdd 631 630
Store 41(doublev) 632
- 633: 43(fvec2) Load 45(dvec2v)
- 634: 43(fvec2) Load 45(dvec2v)
- 635: 39(float) Dot 633 634
- 636: 39(float) Load 41(doublev)
- 637: 39(float) FAdd 636 635
+ 633: 43(f64vec2) Load 45(dvec2v)
+ 634: 43(f64vec2) Load 45(dvec2v)
+ 635:39(float64_t) Dot 633 634
+ 636:39(float64_t) Load 41(doublev)
+ 637:39(float64_t) FAdd 636 635
Store 41(doublev) 637
- 638: 48(fvec3) Load 50(dvec3v)
- 639: 48(fvec3) Load 50(dvec3v)
- 640: 39(float) Dot 638 639
- 641: 39(float) Load 41(doublev)
- 642: 39(float) FAdd 641 640
+ 638: 48(f64vec3) Load 50(dvec3v)
+ 639: 48(f64vec3) Load 50(dvec3v)
+ 640:39(float64_t) Dot 638 639
+ 641:39(float64_t) Load 41(doublev)
+ 642:39(float64_t) FAdd 641 640
Store 41(doublev) 642
- 643: 53(fvec4) Load 55(dvec4v)
- 644: 53(fvec4) Load 55(dvec4v)
- 645: 39(float) Dot 643 644
- 646: 39(float) Load 41(doublev)
- 647: 39(float) FAdd 646 645
+ 643: 53(f64vec4) Load 55(dvec4v)
+ 644: 53(f64vec4) Load 55(dvec4v)
+ 645:39(float64_t) Dot 643 644
+ 646:39(float64_t) Load 41(doublev)
+ 647:39(float64_t) FAdd 646 645
Store 41(doublev) 647
- 648: 48(fvec3) Load 50(dvec3v)
- 649: 48(fvec3) Load 50(dvec3v)
- 650: 48(fvec3) ExtInst 1(GLSL.std.450) 68(Cross) 648 649
- 651: 48(fvec3) Load 50(dvec3v)
- 652: 48(fvec3) FAdd 651 650
+ 648: 48(f64vec3) Load 50(dvec3v)
+ 649: 48(f64vec3) Load 50(dvec3v)
+ 650: 48(f64vec3) ExtInst 1(GLSL.std.450) 68(Cross) 648 649
+ 651: 48(f64vec3) Load 50(dvec3v)
+ 652: 48(f64vec3) FAdd 651 650
Store 50(dvec3v) 652
- 653: 39(float) Load 41(doublev)
- 654: 39(float) ExtInst 1(GLSL.std.450) 69(Normalize) 653
- 655: 39(float) Load 41(doublev)
- 656: 39(float) FAdd 655 654
+ 653:39(float64_t) Load 41(doublev)
+ 654:39(float64_t) ExtInst 1(GLSL.std.450) 69(Normalize) 653
+ 655:39(float64_t) Load 41(doublev)
+ 656:39(float64_t) FAdd 655 654
Store 41(doublev) 656
- 657: 43(fvec2) Load 45(dvec2v)
- 658: 43(fvec2) ExtInst 1(GLSL.std.450) 69(Normalize) 657
- 659: 43(fvec2) Load 45(dvec2v)
- 660: 43(fvec2) FAdd 659 658
+ 657: 43(f64vec2) Load 45(dvec2v)
+ 658: 43(f64vec2) ExtInst 1(GLSL.std.450) 69(Normalize) 657
+ 659: 43(f64vec2) Load 45(dvec2v)
+ 660: 43(f64vec2) FAdd 659 658
Store 45(dvec2v) 660
- 661: 48(fvec3) Load 50(dvec3v)
- 662: 48(fvec3) ExtInst 1(GLSL.std.450) 69(Normalize) 661
- 663: 48(fvec3) Load 50(dvec3v)
- 664: 48(fvec3) FAdd 663 662
+ 661: 48(f64vec3) Load 50(dvec3v)
+ 662: 48(f64vec3) ExtInst 1(GLSL.std.450) 69(Normalize) 661
+ 663: 48(f64vec3) Load 50(dvec3v)
+ 664: 48(f64vec3) FAdd 663 662
Store 50(dvec3v) 664
- 665: 53(fvec4) Load 55(dvec4v)
- 666: 53(fvec4) ExtInst 1(GLSL.std.450) 69(Normalize) 665
- 667: 53(fvec4) Load 55(dvec4v)
- 668: 53(fvec4) FAdd 667 666
+ 665: 53(f64vec4) Load 55(dvec4v)
+ 666: 53(f64vec4) ExtInst 1(GLSL.std.450) 69(Normalize) 665
+ 667: 53(f64vec4) Load 55(dvec4v)
+ 668: 53(f64vec4) FAdd 667 666
Store 55(dvec4v) 668
- 669: 39(float) Load 41(doublev)
- 670: 39(float) Load 41(doublev)
- 671: 39(float) Load 41(doublev)
- 672: 39(float) ExtInst 1(GLSL.std.450) 70(FaceForward) 669 670 671
- 673: 39(float) Load 41(doublev)
- 674: 39(float) FAdd 673 672
+ 669:39(float64_t) Load 41(doublev)
+ 670:39(float64_t) Load 41(doublev)
+ 671:39(float64_t) Load 41(doublev)
+ 672:39(float64_t) ExtInst 1(GLSL.std.450) 70(FaceForward) 669 670 671
+ 673:39(float64_t) Load 41(doublev)
+ 674:39(float64_t) FAdd 673 672
Store 41(doublev) 674
- 675: 43(fvec2) Load 45(dvec2v)
- 676: 43(fvec2) Load 45(dvec2v)
- 677: 43(fvec2) Load 45(dvec2v)
- 678: 43(fvec2) ExtInst 1(GLSL.std.450) 70(FaceForward) 675 676 677
- 679: 43(fvec2) Load 45(dvec2v)
- 680: 43(fvec2) FAdd 679 678
+ 675: 43(f64vec2) Load 45(dvec2v)
+ 676: 43(f64vec2) Load 45(dvec2v)
+ 677: 43(f64vec2) Load 45(dvec2v)
+ 678: 43(f64vec2) ExtInst 1(GLSL.std.450) 70(FaceForward) 675 676 677
+ 679: 43(f64vec2) Load 45(dvec2v)
+ 680: 43(f64vec2) FAdd 679 678
Store 45(dvec2v) 680
- 681: 48(fvec3) Load 50(dvec3v)
- 682: 48(fvec3) Load 50(dvec3v)
- 683: 48(fvec3) Load 50(dvec3v)
- 684: 48(fvec3) ExtInst 1(GLSL.std.450) 70(FaceForward) 681 682 683
- 685: 48(fvec3) Load 50(dvec3v)
- 686: 48(fvec3) FAdd 685 684
+ 681: 48(f64vec3) Load 50(dvec3v)
+ 682: 48(f64vec3) Load 50(dvec3v)
+ 683: 48(f64vec3) Load 50(dvec3v)
+ 684: 48(f64vec3) ExtInst 1(GLSL.std.450) 70(FaceForward) 681 682 683
+ 685: 48(f64vec3) Load 50(dvec3v)
+ 686: 48(f64vec3) FAdd 685 684
Store 50(dvec3v) 686
- 687: 53(fvec4) Load 55(dvec4v)
- 688: 53(fvec4) Load 55(dvec4v)
- 689: 53(fvec4) Load 55(dvec4v)
- 690: 53(fvec4) ExtInst 1(GLSL.std.450) 70(FaceForward) 687 688 689
- 691: 53(fvec4) Load 55(dvec4v)
- 692: 53(fvec4) FAdd 691 690
+ 687: 53(f64vec4) Load 55(dvec4v)
+ 688: 53(f64vec4) Load 55(dvec4v)
+ 689: 53(f64vec4) Load 55(dvec4v)
+ 690: 53(f64vec4) ExtInst 1(GLSL.std.450) 70(FaceForward) 687 688 689
+ 691: 53(f64vec4) Load 55(dvec4v)
+ 692: 53(f64vec4) FAdd 691 690
Store 55(dvec4v) 692
- 693: 39(float) Load 41(doublev)
- 694: 39(float) Load 41(doublev)
- 695: 39(float) ExtInst 1(GLSL.std.450) 71(Reflect) 693 694
- 696: 39(float) Load 41(doublev)
- 697: 39(float) FAdd 696 695
+ 693:39(float64_t) Load 41(doublev)
+ 694:39(float64_t) Load 41(doublev)
+ 695:39(float64_t) ExtInst 1(GLSL.std.450) 71(Reflect) 693 694
+ 696:39(float64_t) Load 41(doublev)
+ 697:39(float64_t) FAdd 696 695
Store 41(doublev) 697
- 698: 43(fvec2) Load 45(dvec2v)
- 699: 43(fvec2) Load 45(dvec2v)
- 700: 43(fvec2) ExtInst 1(GLSL.std.450) 71(Reflect) 698 699
- 701: 43(fvec2) Load 45(dvec2v)
- 702: 43(fvec2) FAdd 701 700
+ 698: 43(f64vec2) Load 45(dvec2v)
+ 699: 43(f64vec2) Load 45(dvec2v)
+ 700: 43(f64vec2) ExtInst 1(GLSL.std.450) 71(Reflect) 698 699
+ 701: 43(f64vec2) Load 45(dvec2v)
+ 702: 43(f64vec2) FAdd 701 700
Store 45(dvec2v) 702
- 703: 48(fvec3) Load 50(dvec3v)
- 704: 48(fvec3) Load 50(dvec3v)
- 705: 48(fvec3) ExtInst 1(GLSL.std.450) 71(Reflect) 703 704
- 706: 48(fvec3) Load 50(dvec3v)
- 707: 48(fvec3) FAdd 706 705
+ 703: 48(f64vec3) Load 50(dvec3v)
+ 704: 48(f64vec3) Load 50(dvec3v)
+ 705: 48(f64vec3) ExtInst 1(GLSL.std.450) 71(Reflect) 703 704
+ 706: 48(f64vec3) Load 50(dvec3v)
+ 707: 48(f64vec3) FAdd 706 705
Store 50(dvec3v) 707
- 708: 53(fvec4) Load 55(dvec4v)
- 709: 53(fvec4) Load 55(dvec4v)
- 710: 53(fvec4) ExtInst 1(GLSL.std.450) 71(Reflect) 708 709
- 711: 53(fvec4) Load 55(dvec4v)
- 712: 53(fvec4) FAdd 711 710
+ 708: 53(f64vec4) Load 55(dvec4v)
+ 709: 53(f64vec4) Load 55(dvec4v)
+ 710: 53(f64vec4) ExtInst 1(GLSL.std.450) 71(Reflect) 708 709
+ 711: 53(f64vec4) Load 55(dvec4v)
+ 712: 53(f64vec4) FAdd 711 710
Store 55(dvec4v) 712
- 713: 39(float) Load 41(doublev)
- 714: 39(float) Load 41(doublev)
- 716: 39(float) ExtInst 1(GLSL.std.450) 72(Refract) 713 714 715
- 717: 39(float) Load 41(doublev)
- 718: 39(float) FAdd 717 716
+ 713:39(float64_t) Load 41(doublev)
+ 714:39(float64_t) Load 41(doublev)
+ 716:39(float64_t) ExtInst 1(GLSL.std.450) 72(Refract) 713 714 715
+ 717:39(float64_t) Load 41(doublev)
+ 718:39(float64_t) FAdd 717 716
Store 41(doublev) 718
- 719: 43(fvec2) Load 45(dvec2v)
- 720: 43(fvec2) Load 45(dvec2v)
- 721: 43(fvec2) ExtInst 1(GLSL.std.450) 72(Refract) 719 720 715
- 722: 43(fvec2) Load 45(dvec2v)
- 723: 43(fvec2) FAdd 722 721
+ 719: 43(f64vec2) Load 45(dvec2v)
+ 720: 43(f64vec2) Load 45(dvec2v)
+ 721: 43(f64vec2) ExtInst 1(GLSL.std.450) 72(Refract) 719 720 715
+ 722: 43(f64vec2) Load 45(dvec2v)
+ 723: 43(f64vec2) FAdd 722 721
Store 45(dvec2v) 723
- 724: 48(fvec3) Load 50(dvec3v)
- 725: 48(fvec3) Load 50(dvec3v)
- 726: 48(fvec3) ExtInst 1(GLSL.std.450) 72(Refract) 724 725 715
- 727: 48(fvec3) Load 50(dvec3v)
- 728: 48(fvec3) FAdd 727 726
+ 724: 48(f64vec3) Load 50(dvec3v)
+ 725: 48(f64vec3) Load 50(dvec3v)
+ 726: 48(f64vec3) ExtInst 1(GLSL.std.450) 72(Refract) 724 725 715
+ 727: 48(f64vec3) Load 50(dvec3v)
+ 728: 48(f64vec3) FAdd 727 726
Store 50(dvec3v) 728
- 729: 53(fvec4) Load 55(dvec4v)
- 730: 53(fvec4) Load 55(dvec4v)
- 731: 53(fvec4) ExtInst 1(GLSL.std.450) 72(Refract) 729 730 715
- 732: 53(fvec4) Load 55(dvec4v)
- 733: 53(fvec4) FAdd 732 731
+ 729: 53(f64vec4) Load 55(dvec4v)
+ 730: 53(f64vec4) Load 55(dvec4v)
+ 731: 53(f64vec4) ExtInst 1(GLSL.std.450) 72(Refract) 729 730 715
+ 732: 53(f64vec4) Load 55(dvec4v)
+ 733: 53(f64vec4) FAdd 732 731
Store 55(dvec4v) 733
- 737: 43(fvec2) Load 45(dvec2v)
- 738: 43(fvec2) Load 45(dvec2v)
+ 737: 43(f64vec2) Load 45(dvec2v)
+ 738: 43(f64vec2) Load 45(dvec2v)
739: 734 OuterProduct 737 738
Store 736(dmat2v) 739
- 743: 48(fvec3) Load 50(dvec3v)
- 744: 48(fvec3) Load 50(dvec3v)
+ 743: 48(f64vec3) Load 50(dvec3v)
+ 744: 48(f64vec3) Load 50(dvec3v)
745: 740 OuterProduct 743 744
Store 742(dmat3v) 745
- 749: 53(fvec4) Load 55(dvec4v)
- 750: 53(fvec4) Load 55(dvec4v)
+ 749: 53(f64vec4) Load 55(dvec4v)
+ 750: 53(f64vec4) Load 55(dvec4v)
751: 746 OuterProduct 749 750
Store 748(dmat4v) 751
- 755: 48(fvec3) Load 50(dvec3v)
- 756: 43(fvec2) Load 45(dvec2v)
+ 755: 48(f64vec3) Load 50(dvec3v)
+ 756: 43(f64vec2) Load 45(dvec2v)
757: 752 OuterProduct 755 756
Store 754(dmat2x3v) 757
- 761: 43(fvec2) Load 45(dvec2v)
- 762: 48(fvec3) Load 50(dvec3v)
+ 761: 43(f64vec2) Load 45(dvec2v)
+ 762: 48(f64vec3) Load 50(dvec3v)
763: 758 OuterProduct 761 762
Store 760(dmat3x2v) 763
- 767: 53(fvec4) Load 55(dvec4v)
- 768: 43(fvec2) Load 45(dvec2v)
+ 767: 53(f64vec4) Load 55(dvec4v)
+ 768: 43(f64vec2) Load 45(dvec2v)
769: 764 OuterProduct 767 768
Store 766(dmat2x4v) 769
- 773: 43(fvec2) Load 45(dvec2v)
- 774: 53(fvec4) Load 55(dvec4v)
+ 773: 43(f64vec2) Load 45(dvec2v)
+ 774: 53(f64vec4) Load 55(dvec4v)
775: 770 OuterProduct 773 774
Store 772(dmat4x2v) 775
- 779: 53(fvec4) Load 55(dvec4v)
- 780: 48(fvec3) Load 50(dvec3v)
+ 779: 53(f64vec4) Load 55(dvec4v)
+ 780: 48(f64vec3) Load 50(dvec3v)
781: 776 OuterProduct 779 780
Store 778(dmat3x4v) 781
- 785: 48(fvec3) Load 50(dvec3v)
- 786: 53(fvec4) Load 55(dvec4v)
+ 785: 48(f64vec3) Load 50(dvec3v)
+ 786: 53(f64vec4) Load 55(dvec4v)
787: 782 OuterProduct 785 786
Store 784(dmat4x3v) 787
788: 734 Load 736(dmat2v)
789: 734 Load 736(dmat2v)
- 790: 43(fvec2) CompositeExtract 788 0
- 791: 43(fvec2) CompositeExtract 789 0
- 792: 43(fvec2) FMul 790 791
- 793: 43(fvec2) CompositeExtract 788 1
- 794: 43(fvec2) CompositeExtract 789 1
- 795: 43(fvec2) FMul 793 794
+ 790: 43(f64vec2) CompositeExtract 788 0
+ 791: 43(f64vec2) CompositeExtract 789 0
+ 792: 43(f64vec2) FMul 790 791
+ 793: 43(f64vec2) CompositeExtract 788 1
+ 794: 43(f64vec2) CompositeExtract 789 1
+ 795: 43(f64vec2) FMul 793 794
796: 734 CompositeConstruct 792 795
797: 734 Load 736(dmat2v)
798: 734 MatrixTimesMatrix 797 796
Store 736(dmat2v) 798
799: 740 Load 742(dmat3v)
800: 740 Load 742(dmat3v)
- 801: 48(fvec3) CompositeExtract 799 0
- 802: 48(fvec3) CompositeExtract 800 0
- 803: 48(fvec3) FMul 801 802
- 804: 48(fvec3) CompositeExtract 799 1
- 805: 48(fvec3) CompositeExtract 800 1
- 806: 48(fvec3) FMul 804 805
- 807: 48(fvec3) CompositeExtract 799 2
- 808: 48(fvec3) CompositeExtract 800 2
- 809: 48(fvec3) FMul 807 808
+ 801: 48(f64vec3) CompositeExtract 799 0
+ 802: 48(f64vec3) CompositeExtract 800 0
+ 803: 48(f64vec3) FMul 801 802
+ 804: 48(f64vec3) CompositeExtract 799 1
+ 805: 48(f64vec3) CompositeExtract 800 1
+ 806: 48(f64vec3) FMul 804 805
+ 807: 48(f64vec3) CompositeExtract 799 2
+ 808: 48(f64vec3) CompositeExtract 800 2
+ 809: 48(f64vec3) FMul 807 808
810: 740 CompositeConstruct 803 806 809
811: 740 Load 742(dmat3v)
812: 740 MatrixTimesMatrix 811 810
Store 742(dmat3v) 812
813: 746 Load 748(dmat4v)
814: 746 Load 748(dmat4v)
- 815: 53(fvec4) CompositeExtract 813 0
- 816: 53(fvec4) CompositeExtract 814 0
- 817: 53(fvec4) FMul 815 816
- 818: 53(fvec4) CompositeExtract 813 1
- 819: 53(fvec4) CompositeExtract 814 1
- 820: 53(fvec4) FMul 818 819
- 821: 53(fvec4) CompositeExtract 813 2
- 822: 53(fvec4) CompositeExtract 814 2
- 823: 53(fvec4) FMul 821 822
- 824: 53(fvec4) CompositeExtract 813 3
- 825: 53(fvec4) CompositeExtract 814 3
- 826: 53(fvec4) FMul 824 825
+ 815: 53(f64vec4) CompositeExtract 813 0
+ 816: 53(f64vec4) CompositeExtract 814 0
+ 817: 53(f64vec4) FMul 815 816
+ 818: 53(f64vec4) CompositeExtract 813 1
+ 819: 53(f64vec4) CompositeExtract 814 1
+ 820: 53(f64vec4) FMul 818 819
+ 821: 53(f64vec4) CompositeExtract 813 2
+ 822: 53(f64vec4) CompositeExtract 814 2
+ 823: 53(f64vec4) FMul 821 822
+ 824: 53(f64vec4) CompositeExtract 813 3
+ 825: 53(f64vec4) CompositeExtract 814 3
+ 826: 53(f64vec4) FMul 824 825
827: 746 CompositeConstruct 817 820 823 826
828: 746 Load 748(dmat4v)
829: 746 MatrixTimesMatrix 828 827
Store 748(dmat4v) 829
830: 752 Load 754(dmat2x3v)
831: 752 Load 754(dmat2x3v)
- 832: 48(fvec3) CompositeExtract 830 0
- 833: 48(fvec3) CompositeExtract 831 0
- 834: 48(fvec3) FMul 832 833
- 835: 48(fvec3) CompositeExtract 830 1
- 836: 48(fvec3) CompositeExtract 831 1
- 837: 48(fvec3) FMul 835 836
+ 832: 48(f64vec3) CompositeExtract 830 0
+ 833: 48(f64vec3) CompositeExtract 831 0
+ 834: 48(f64vec3) FMul 832 833
+ 835: 48(f64vec3) CompositeExtract 830 1
+ 836: 48(f64vec3) CompositeExtract 831 1
+ 837: 48(f64vec3) FMul 835 836
838: 752 CompositeConstruct 834 837
Store 754(dmat2x3v) 838
839: 764 Load 766(dmat2x4v)
840: 764 Load 766(dmat2x4v)
- 841: 53(fvec4) CompositeExtract 839 0
- 842: 53(fvec4) CompositeExtract 840 0
- 843: 53(fvec4) FMul 841 842
- 844: 53(fvec4) CompositeExtract 839 1
- 845: 53(fvec4) CompositeExtract 840 1
- 846: 53(fvec4) FMul 844 845
+ 841: 53(f64vec4) CompositeExtract 839 0
+ 842: 53(f64vec4) CompositeExtract 840 0
+ 843: 53(f64vec4) FMul 841 842
+ 844: 53(f64vec4) CompositeExtract 839 1
+ 845: 53(f64vec4) CompositeExtract 840 1
+ 846: 53(f64vec4) FMul 844 845
847: 764 CompositeConstruct 843 846
Store 766(dmat2x4v) 847
848: 758 Load 760(dmat3x2v)
849: 758 Load 760(dmat3x2v)
- 850: 43(fvec2) CompositeExtract 848 0
- 851: 43(fvec2) CompositeExtract 849 0
- 852: 43(fvec2) FMul 850 851
- 853: 43(fvec2) CompositeExtract 848 1
- 854: 43(fvec2) CompositeExtract 849 1
- 855: 43(fvec2) FMul 853 854
- 856: 43(fvec2) CompositeExtract 848 2
- 857: 43(fvec2) CompositeExtract 849 2
- 858: 43(fvec2) FMul 856 857
+ 850: 43(f64vec2) CompositeExtract 848 0
+ 851: 43(f64vec2) CompositeExtract 849 0
+ 852: 43(f64vec2) FMul 850 851
+ 853: 43(f64vec2) CompositeExtract 848 1
+ 854: 43(f64vec2) CompositeExtract 849 1
+ 855: 43(f64vec2) FMul 853 854
+ 856: 43(f64vec2) CompositeExtract 848 2
+ 857: 43(f64vec2) CompositeExtract 849 2
+ 858: 43(f64vec2) FMul 856 857
859: 758 CompositeConstruct 852 855 858
Store 760(dmat3x2v) 859
860: 776 Load 778(dmat3x4v)
861: 776 Load 778(dmat3x4v)
- 862: 53(fvec4) CompositeExtract 860 0
- 863: 53(fvec4) CompositeExtract 861 0
- 864: 53(fvec4) FMul 862 863
- 865: 53(fvec4) CompositeExtract 860 1
- 866: 53(fvec4) CompositeExtract 861 1
- 867: 53(fvec4) FMul 865 866
- 868: 53(fvec4) CompositeExtract 860 2
- 869: 53(fvec4) CompositeExtract 861 2
- 870: 53(fvec4) FMul 868 869
+ 862: 53(f64vec4) CompositeExtract 860 0
+ 863: 53(f64vec4) CompositeExtract 861 0
+ 864: 53(f64vec4) FMul 862 863
+ 865: 53(f64vec4) CompositeExtract 860 1
+ 866: 53(f64vec4) CompositeExtract 861 1
+ 867: 53(f64vec4) FMul 865 866
+ 868: 53(f64vec4) CompositeExtract 860 2
+ 869: 53(f64vec4) CompositeExtract 861 2
+ 870: 53(f64vec4) FMul 868 869
871: 776 CompositeConstruct 864 867 870
Store 778(dmat3x4v) 871
872: 770 Load 772(dmat4x2v)
873: 770 Load 772(dmat4x2v)
- 874: 43(fvec2) CompositeExtract 872 0
- 875: 43(fvec2) CompositeExtract 873 0
- 876: 43(fvec2) FMul 874 875
- 877: 43(fvec2) CompositeExtract 872 1
- 878: 43(fvec2) CompositeExtract 873 1
- 879: 43(fvec2) FMul 877 878
- 880: 43(fvec2) CompositeExtract 872 2
- 881: 43(fvec2) CompositeExtract 873 2
- 882: 43(fvec2) FMul 880 881
- 883: 43(fvec2) CompositeExtract 872 3
- 884: 43(fvec2) CompositeExtract 873 3
- 885: 43(fvec2) FMul 883 884
+ 874: 43(f64vec2) CompositeExtract 872 0
+ 875: 43(f64vec2) CompositeExtract 873 0
+ 876: 43(f64vec2) FMul 874 875
+ 877: 43(f64vec2) CompositeExtract 872 1
+ 878: 43(f64vec2) CompositeExtract 873 1
+ 879: 43(f64vec2) FMul 877 878
+ 880: 43(f64vec2) CompositeExtract 872 2
+ 881: 43(f64vec2) CompositeExtract 873 2
+ 882: 43(f64vec2) FMul 880 881
+ 883: 43(f64vec2) CompositeExtract 872 3
+ 884: 43(f64vec2) CompositeExtract 873 3
+ 885: 43(f64vec2) FMul 883 884
886: 770 CompositeConstruct 876 879 882 885
Store 772(dmat4x2v) 886
887: 782 Load 784(dmat4x3v)
888: 782 Load 784(dmat4x3v)
- 889: 48(fvec3) CompositeExtract 887 0
- 890: 48(fvec3) CompositeExtract 888 0
- 891: 48(fvec3) FMul 889 890
- 892: 48(fvec3) CompositeExtract 887 1
- 893: 48(fvec3) CompositeExtract 888 1
- 894: 48(fvec3) FMul 892 893
- 895: 48(fvec3) CompositeExtract 887 2
- 896: 48(fvec3) CompositeExtract 888 2
- 897: 48(fvec3) FMul 895 896
- 898: 48(fvec3) CompositeExtract 887 3
- 899: 48(fvec3) CompositeExtract 888 3
- 900: 48(fvec3) FMul 898 899
+ 889: 48(f64vec3) CompositeExtract 887 0
+ 890: 48(f64vec3) CompositeExtract 888 0
+ 891: 48(f64vec3) FMul 889 890
+ 892: 48(f64vec3) CompositeExtract 887 1
+ 893: 48(f64vec3) CompositeExtract 888 1
+ 894: 48(f64vec3) FMul 892 893
+ 895: 48(f64vec3) CompositeExtract 887 2
+ 896: 48(f64vec3) CompositeExtract 888 2
+ 897: 48(f64vec3) FMul 895 896
+ 898: 48(f64vec3) CompositeExtract 887 3
+ 899: 48(f64vec3) CompositeExtract 888 3
+ 900: 48(f64vec3) FMul 898 899
901: 782 CompositeConstruct 891 894 897 900
Store 784(dmat4x3v) 901
902: 734 Load 736(dmat2v)
@@ -1295,19 +1295,19 @@ spv.400.frag
925: 782 Transpose 924
Store 784(dmat4x3v) 925
926: 734 Load 736(dmat2v)
- 927: 39(float) ExtInst 1(GLSL.std.450) 33(Determinant) 926
- 928: 39(float) Load 41(doublev)
- 929: 39(float) FAdd 928 927
+ 927:39(float64_t) ExtInst 1(GLSL.std.450) 33(Determinant) 926
+ 928:39(float64_t) Load 41(doublev)
+ 929:39(float64_t) FAdd 928 927
Store 41(doublev) 929
930: 740 Load 742(dmat3v)
- 931: 39(float) ExtInst 1(GLSL.std.450) 33(Determinant) 930
- 932: 39(float) Load 41(doublev)
- 933: 39(float) FAdd 932 931
+ 931:39(float64_t) ExtInst 1(GLSL.std.450) 33(Determinant) 930
+ 932:39(float64_t) Load 41(doublev)
+ 933:39(float64_t) FAdd 932 931
Store 41(doublev) 933
934: 746 Load 748(dmat4v)
- 935: 39(float) ExtInst 1(GLSL.std.450) 33(Determinant) 934
- 936: 39(float) Load 41(doublev)
- 937: 39(float) FAdd 936 935
+ 935:39(float64_t) ExtInst 1(GLSL.std.450) 33(Determinant) 934
+ 936:39(float64_t) Load 41(doublev)
+ 937:39(float64_t) FAdd 936 935
Store 41(doublev) 937
938: 734 Load 736(dmat2v)
939: 734 ExtInst 1(GLSL.std.450) 34(MatrixInverse) 938
@@ -1324,62 +1324,62 @@ spv.400.frag
948: 746 Load 748(dmat4v)
949: 746 MatrixTimesMatrix 948 947
Store 748(dmat4v) 949
- 950: 39(float) Load 41(doublev)
+ 950:39(float64_t) Load 41(doublev)
952: 40(ptr) AccessChain 45(dvec2v) 951
- 953: 39(float) Load 952
- 954: 39(float) FAdd 950 953
+ 953:39(float64_t) Load 952
+ 954:39(float64_t) FAdd 950 953
956: 40(ptr) AccessChain 50(dvec3v) 955
- 957: 39(float) Load 956
- 958: 39(float) FAdd 954 957
+ 957:39(float64_t) Load 956
+ 958:39(float64_t) FAdd 954 957
960: 40(ptr) AccessChain 55(dvec4v) 959
- 961: 39(float) Load 960
- 962: 39(float) FAdd 958 961
+ 961:39(float64_t) Load 960
+ 962:39(float64_t) FAdd 958 961
964: 40(ptr) AccessChain 736(dmat2v) 963 951
- 965: 39(float) Load 964
- 966: 39(float) FAdd 962 965
+ 965:39(float64_t) Load 964
+ 966:39(float64_t) FAdd 962 965
968: 40(ptr) AccessChain 742(dmat3v) 967 955
- 969: 39(float) Load 968
- 970: 39(float) FAdd 966 969
+ 969:39(float64_t) Load 968
+ 970:39(float64_t) FAdd 966 969
971: 40(ptr) AccessChain 748(dmat4v) 25 959
- 972: 39(float) Load 971
- 973: 39(float) FAdd 970 972
+ 972:39(float64_t) Load 971
+ 973:39(float64_t) FAdd 970 972
974: 40(ptr) AccessChain 754(dmat2x3v) 963 951
- 975: 39(float) Load 974
- 976: 39(float) FAdd 973 975
+ 975:39(float64_t) Load 974
+ 976:39(float64_t) FAdd 973 975
977: 40(ptr) AccessChain 760(dmat3x2v) 963 951
- 978: 39(float) Load 977
- 979: 39(float) FAdd 976 978
+ 978:39(float64_t) Load 977
+ 979:39(float64_t) FAdd 976 978
980: 40(ptr) AccessChain 778(dmat3x4v) 967 955
- 981: 39(float) Load 980
- 982: 39(float) FAdd 979 981
+ 981:39(float64_t) Load 980
+ 982:39(float64_t) FAdd 979 981
983: 40(ptr) AccessChain 784(dmat4x3v) 967 955
- 984: 39(float) Load 983
- 985: 39(float) FAdd 982 984
+ 984:39(float64_t) Load 983
+ 985:39(float64_t) FAdd 982 984
986: 40(ptr) AccessChain 766(dmat2x4v) 963 951
- 987: 39(float) Load 986
- 988: 39(float) FAdd 985 987
+ 987:39(float64_t) Load 986
+ 988:39(float64_t) FAdd 985 987
989: 40(ptr) AccessChain 772(dmat4x2v) 963 951
- 990: 39(float) Load 989
- 991: 39(float) FAdd 988 990
+ 990:39(float64_t) Load 989
+ 991:39(float64_t) FAdd 988 990
992: 428(bool) Load 430(boolv)
994: 10(float) Select 992 993 21
- 995: 39(float) FConvert 994
- 996: 39(float) FAdd 991 995
+ 995:39(float64_t) FConvert 994
+ 996:39(float64_t) FAdd 991 995
997: 429(ptr) AccessChain 439(bvec2v) 33
998: 428(bool) Load 997
999: 10(float) Select 998 993 21
- 1000: 39(float) FConvert 999
- 1001: 39(float) FAdd 996 1000
+ 1000:39(float64_t) FConvert 999
+ 1001:39(float64_t) FAdd 996 1000
1002: 429(ptr) AccessChain 448(bvec3v) 33
1003: 428(bool) Load 1002
1004: 10(float) Select 1003 993 21
- 1005: 39(float) FConvert 1004
- 1006: 39(float) FAdd 1001 1005
+ 1005:39(float64_t) FConvert 1004
+ 1006:39(float64_t) FAdd 1001 1005
1007: 429(ptr) AccessChain 457(bvec4v) 33
1008: 428(bool) Load 1007
1009: 10(float) Select 1008 993 21
- 1010: 39(float) FConvert 1009
- 1011: 39(float) FAdd 1006 1010
+ 1010:39(float64_t) FConvert 1009
+ 1011:39(float64_t) FAdd 1006 1010
1012: 10(float) FConvert 1011
1013: 11(fvec4) Load 13(outp)
1014: 11(fvec4) VectorTimesScalar 1013 1012
diff --git a/Test/baseResults/spv.atomicInt64.comp.out b/Test/baseResults/spv.atomicInt64.comp.out
index 720e316a..0e1f89fc 100644
--- a/Test/baseResults/spv.atomicInt64.comp.out
+++ b/Test/baseResults/spv.atomicInt64.comp.out
@@ -33,29 +33,29 @@ spv.atomicInt64.comp
2: TypeVoid
3: TypeFunction 2
6: TypeInt 64 1
- 7: TypePointer Function 6(int)
- 9: 6(int) Constant 0 0
+ 7: TypePointer Function 6(int64_t)
+ 9: 6(int64_t) Constant 0 0
10: TypeInt 64 0
- 11: TypePointer Function 10(int)
- 13: 10(int) Constant 0 0
- 14(Buffer): TypeStruct 6(int) 10(int)
+ 11: TypePointer Function 10(int64_t)
+ 13: 10(int64_t) Constant 0 0
+ 14(Buffer): TypeStruct 6(int64_t) 10(int64_t)
15: TypePointer Uniform 14(Buffer)
16(buf): 15(ptr) Variable Uniform
17: TypeInt 32 1
18: 17(int) Constant 0
- 19: TypePointer Uniform 6(int)
- 21: 6(int) Constant 4294967272 4294967295
+ 19: TypePointer Uniform 6(int64_t)
+ 21: 6(int64_t) Constant 4294967272 4294967295
22: TypeInt 32 0
23: 22(int) Constant 1
24: 22(int) Constant 0
28: 17(int) Constant 1
- 29: TypePointer Uniform 10(int)
- 31: 10(int) Constant 15 240
- 84(Struct): TypeStruct 6(int) 10(int)
+ 29: TypePointer Uniform 10(int64_t)
+ 31: 10(int64_t) Constant 15 240
+ 84(Struct): TypeStruct 6(int64_t) 10(int64_t)
85: TypePointer Workgroup 84(Struct)
86(s): 85(ptr) Variable Workgroup
- 87: TypePointer Workgroup 6(int)
- 92: TypePointer Workgroup 10(int)
+ 87: TypePointer Workgroup 6(int64_t)
+ 92: TypePointer Workgroup 10(int64_t)
146: TypeVector 22(int) 3
147: 22(int) Constant 16
148: 146(ivec3) ConstantComposite 147 147 23
@@ -66,149 +66,149 @@ spv.atomicInt64.comp
Store 8(i64) 9
Store 12(u64) 13
20: 19(ptr) AccessChain 16(buf) 18
- 25: 6(int) AtomicSMin 20 23 24 21
- 26: 6(int) Load 8(i64)
- 27: 6(int) IAdd 26 25
+ 25: 6(int64_t) AtomicSMin 20 23 24 21
+ 26: 6(int64_t) Load 8(i64)
+ 27: 6(int64_t) IAdd 26 25
Store 8(i64) 27
30: 29(ptr) AccessChain 16(buf) 28
- 32: 10(int) AtomicUMin 30 23 24 31
- 33: 10(int) Load 12(u64)
- 34: 10(int) IAdd 33 32
+ 32: 10(int64_t) AtomicUMin 30 23 24 31
+ 33: 10(int64_t) Load 12(u64)
+ 34: 10(int64_t) IAdd 33 32
Store 12(u64) 34
35: 19(ptr) AccessChain 16(buf) 18
- 36: 6(int) AtomicSMax 35 23 24 21
- 37: 6(int) Load 8(i64)
- 38: 6(int) IAdd 37 36
+ 36: 6(int64_t) AtomicSMax 35 23 24 21
+ 37: 6(int64_t) Load 8(i64)
+ 38: 6(int64_t) IAdd 37 36
Store 8(i64) 38
39: 29(ptr) AccessChain 16(buf) 28
- 40: 10(int) AtomicUMax 39 23 24 31
- 41: 10(int) Load 12(u64)
- 42: 10(int) IAdd 41 40
+ 40: 10(int64_t) AtomicUMax 39 23 24 31
+ 41: 10(int64_t) Load 12(u64)
+ 42: 10(int64_t) IAdd 41 40
Store 12(u64) 42
43: 19(ptr) AccessChain 16(buf) 18
- 44: 6(int) AtomicAnd 43 23 24 21
- 45: 6(int) Load 8(i64)
- 46: 6(int) IAdd 45 44
+ 44: 6(int64_t) AtomicAnd 43 23 24 21
+ 45: 6(int64_t) Load 8(i64)
+ 46: 6(int64_t) IAdd 45 44
Store 8(i64) 46
47: 29(ptr) AccessChain 16(buf) 28
- 48: 10(int) AtomicAnd 47 23 24 31
- 49: 10(int) Load 12(u64)
- 50: 10(int) IAdd 49 48
+ 48: 10(int64_t) AtomicAnd 47 23 24 31
+ 49: 10(int64_t) Load 12(u64)
+ 50: 10(int64_t) IAdd 49 48
Store 12(u64) 50
51: 19(ptr) AccessChain 16(buf) 18
- 52: 6(int) AtomicOr 51 23 24 21
- 53: 6(int) Load 8(i64)
- 54: 6(int) IAdd 53 52
+ 52: 6(int64_t) AtomicOr 51 23 24 21
+ 53: 6(int64_t) Load 8(i64)
+ 54: 6(int64_t) IAdd 53 52
Store 8(i64) 54
55: 29(ptr) AccessChain 16(buf) 28
- 56: 10(int) AtomicOr 55 23 24 31
- 57: 10(int) Load 12(u64)
- 58: 10(int) IAdd 57 56
+ 56: 10(int64_t) AtomicOr 55 23 24 31
+ 57: 10(int64_t) Load 12(u64)
+ 58: 10(int64_t) IAdd 57 56
Store 12(u64) 58
59: 19(ptr) AccessChain 16(buf) 18
- 60: 6(int) AtomicXor 59 23 24 21
- 61: 6(int) Load 8(i64)
- 62: 6(int) IAdd 61 60
+ 60: 6(int64_t) AtomicXor 59 23 24 21
+ 61: 6(int64_t) Load 8(i64)
+ 62: 6(int64_t) IAdd 61 60
Store 8(i64) 62
63: 29(ptr) AccessChain 16(buf) 28
- 64: 10(int) AtomicXor 63 23 24 31
- 65: 10(int) Load 12(u64)
- 66: 10(int) IAdd 65 64
+ 64: 10(int64_t) AtomicXor 63 23 24 31
+ 65: 10(int64_t) Load 12(u64)
+ 66: 10(int64_t) IAdd 65 64
Store 12(u64) 66
67: 19(ptr) AccessChain 16(buf) 18
- 68: 6(int) AtomicIAdd 67 23 24 21
- 69: 6(int) Load 8(i64)
- 70: 6(int) IAdd 69 68
+ 68: 6(int64_t) AtomicIAdd 67 23 24 21
+ 69: 6(int64_t) Load 8(i64)
+ 70: 6(int64_t) IAdd 69 68
Store 8(i64) 70
71: 19(ptr) AccessChain 16(buf) 18
- 72: 6(int) AtomicExchange 71 23 24 21
- 73: 6(int) Load 8(i64)
- 74: 6(int) IAdd 73 72
+ 72: 6(int64_t) AtomicExchange 71 23 24 21
+ 73: 6(int64_t) Load 8(i64)
+ 74: 6(int64_t) IAdd 73 72
Store 8(i64) 74
75: 19(ptr) AccessChain 16(buf) 18
- 76: 6(int) Load 8(i64)
- 77: 6(int) AtomicCompareExchange 75 23 24 24 76 21
- 78: 6(int) Load 8(i64)
- 79: 6(int) IAdd 78 77
+ 76: 6(int64_t) Load 8(i64)
+ 77: 6(int64_t) AtomicCompareExchange 75 23 24 24 76 21
+ 78: 6(int64_t) Load 8(i64)
+ 79: 6(int64_t) IAdd 78 77
Store 8(i64) 79
- 80: 6(int) Load 8(i64)
+ 80: 6(int64_t) Load 8(i64)
81: 19(ptr) AccessChain 16(buf) 18
Store 81 80
- 82: 10(int) Load 12(u64)
+ 82: 10(int64_t) Load 12(u64)
83: 29(ptr) AccessChain 16(buf) 28
Store 83 82
Store 8(i64) 9
Store 12(u64) 13
88: 87(ptr) AccessChain 86(s) 18
- 89: 6(int) AtomicSMin 88 23 24 21
- 90: 6(int) Load 8(i64)
- 91: 6(int) IAdd 90 89
+ 89: 6(int64_t) AtomicSMin 88 23 24 21
+ 90: 6(int64_t) Load 8(i64)
+ 91: 6(int64_t) IAdd 90 89
Store 8(i64) 91
93: 92(ptr) AccessChain 86(s) 28
- 94: 10(int) AtomicUMin 93 23 24 31
- 95: 10(int) Load 12(u64)
- 96: 10(int) IAdd 95 94
+ 94: 10(int64_t) AtomicUMin 93 23 24 31
+ 95: 10(int64_t) Load 12(u64)
+ 96: 10(int64_t) IAdd 95 94
Store 12(u64) 96
97: 87(ptr) AccessChain 86(s) 18
- 98: 6(int) AtomicSMax 97 23 24 21
- 99: 6(int) Load 8(i64)
- 100: 6(int) IAdd 99 98
+ 98: 6(int64_t) AtomicSMax 97 23 24 21
+ 99: 6(int64_t) Load 8(i64)
+ 100: 6(int64_t) IAdd 99 98
Store 8(i64) 100
101: 92(ptr) AccessChain 86(s) 28
- 102: 10(int) AtomicUMax 101 23 24 31
- 103: 10(int) Load 12(u64)
- 104: 10(int) IAdd 103 102
+ 102: 10(int64_t) AtomicUMax 101 23 24 31
+ 103: 10(int64_t) Load 12(u64)
+ 104: 10(int64_t) IAdd 103 102
Store 12(u64) 104
105: 87(ptr) AccessChain 86(s) 18
- 106: 6(int) AtomicAnd 105 23 24 21
- 107: 6(int) Load 8(i64)
- 108: 6(int) IAdd 107 106
+ 106: 6(int64_t) AtomicAnd 105 23 24 21
+ 107: 6(int64_t) Load 8(i64)
+ 108: 6(int64_t) IAdd 107 106
Store 8(i64) 108
109: 92(ptr) AccessChain 86(s) 28
- 110: 10(int) AtomicAnd 109 23 24 31
- 111: 10(int) Load 12(u64)
- 112: 10(int) IAdd 111 110
+ 110: 10(int64_t) AtomicAnd 109 23 24 31
+ 111: 10(int64_t) Load 12(u64)
+ 112: 10(int64_t) IAdd 111 110
Store 12(u64) 112
113: 87(ptr) AccessChain 86(s) 18
- 114: 6(int) AtomicOr 113 23 24 21
- 115: 6(int) Load 8(i64)
- 116: 6(int) IAdd 115 114
+ 114: 6(int64_t) AtomicOr 113 23 24 21
+ 115: 6(int64_t) Load 8(i64)
+ 116: 6(int64_t) IAdd 115 114
Store 8(i64) 116
117: 92(ptr) AccessChain 86(s) 28
- 118: 10(int) AtomicOr 117 23 24 31
- 119: 10(int) Load 12(u64)
- 120: 10(int) IAdd 119 118
+ 118: 10(int64_t) AtomicOr 117 23 24 31
+ 119: 10(int64_t) Load 12(u64)
+ 120: 10(int64_t) IAdd 119 118
Store 12(u64) 120
121: 87(ptr) AccessChain 86(s) 18
- 122: 6(int) AtomicXor 121 23 24 21
- 123: 6(int) Load 8(i64)
- 124: 6(int) IAdd 123 122
+ 122: 6(int64_t) AtomicXor 121 23 24 21
+ 123: 6(int64_t) Load 8(i64)
+ 124: 6(int64_t) IAdd 123 122
Store 8(i64) 124
125: 92(ptr) AccessChain 86(s) 28
- 126: 10(int) AtomicXor 125 23 24 31
- 127: 10(int) Load 12(u64)
- 128: 10(int) IAdd 127 126
+ 126: 10(int64_t) AtomicXor 125 23 24 31
+ 127: 10(int64_t) Load 12(u64)
+ 128: 10(int64_t) IAdd 127 126
Store 12(u64) 128
129: 87(ptr) AccessChain 86(s) 18
- 130: 6(int) AtomicIAdd 129 23 24 21
- 131: 6(int) Load 8(i64)
- 132: 6(int) IAdd 131 130
+ 130: 6(int64_t) AtomicIAdd 129 23 24 21
+ 131: 6(int64_t) Load 8(i64)
+ 132: 6(int64_t) IAdd 131 130
Store 8(i64) 132
133: 87(ptr) AccessChain 86(s) 18
- 134: 6(int) AtomicExchange 133 23 24 21
- 135: 6(int) Load 8(i64)
- 136: 6(int) IAdd 135 134
+ 134: 6(int64_t) AtomicExchange 133 23 24 21
+ 135: 6(int64_t) Load 8(i64)
+ 136: 6(int64_t) IAdd 135 134
Store 8(i64) 136
137: 87(ptr) AccessChain 86(s) 18
- 138: 6(int) Load 8(i64)
- 139: 6(int) AtomicCompareExchange 137 23 24 24 138 21
- 140: 6(int) Load 8(i64)
- 141: 6(int) IAdd 140 139
+ 138: 6(int64_t) Load 8(i64)
+ 139: 6(int64_t) AtomicCompareExchange 137 23 24 24 138 21
+ 140: 6(int64_t) Load 8(i64)
+ 141: 6(int64_t) IAdd 140 139
Store 8(i64) 141
- 142: 6(int) Load 8(i64)
+ 142: 6(int64_t) Load 8(i64)
143: 87(ptr) AccessChain 86(s) 18
Store 143 142
- 144: 10(int) Load 12(u64)
+ 144: 10(int64_t) Load 12(u64)
145: 92(ptr) AccessChain 86(s) 28
Store 145 144
Return
diff --git a/Test/baseResults/spv.double.comp.out b/Test/baseResults/spv.double.comp.out
index d4525cd6..6f825c9e 100755
--- a/Test/baseResults/spv.double.comp.out
+++ b/Test/baseResults/spv.double.comp.out
@@ -34,13 +34,13 @@ spv.double.comp
3: TypeFunction 2
6: TypeFloat 32
7: TypeFloat 64
- 8(bufName): TypeStruct 6(float) 7(float)
+ 8(bufName): TypeStruct 6(float) 7(float64_t)
9: TypePointer Uniform 8(bufName)
10(bufInst): 9(ptr) Variable Uniform
11: TypeInt 32 1
12: 11(int) Constant 1
- 13: 7(float) Constant 1413754136 1074340347
- 14: TypePointer Uniform 7(float)
+ 13:7(float64_t) Constant 1413754136 1074340347
+ 14: TypePointer Uniform 7(float64_t)
16: 11(int) Constant 0
17: 6(float) Constant 1095307129
18: TypePointer Uniform 6(float)
@@ -51,19 +51,19 @@ spv.double.comp
25: TypePointer Input 24(ivec3)
26(gl_GlobalInvocationID): 25(ptr) Variable Input
27: TypeVector 23(int) 2
- 31: TypePointer Function 7(float)
+ 31: TypePointer Function 7(float64_t)
33(gl_LocalInvocationID): 25(ptr) Variable Input
37: 11(int) Constant 8
40: TypeVector 6(float) 2
42: 6(float) Constant 1090519040
- 47: TypeVector 7(float) 4
- 48: TypePointer Function 47(fvec4)
- 50: 7(float) Constant 2576980378 1071225241
- 51: 7(float) Constant 2576980378 1070176665
- 52: 7(float) Constant 858993459 1070805811
- 53: 47(fvec4) ConstantComposite 50 51 52 50
- 55: 7(float) Constant 0 1072693248
- 56: 7(float) Constant 3229815407 1074340298
+ 47: TypeVector 7(float64_t) 4
+ 48: TypePointer Function 47(f64vec4)
+ 50:7(float64_t) Constant 2576980378 1071225241
+ 51:7(float64_t) Constant 2576980378 1070176665
+ 52:7(float64_t) Constant 858993459 1070805811
+ 53: 47(f64vec4) ConstantComposite 50 51 52 50
+ 55:7(float64_t) Constant 0 1072693248
+ 56:7(float64_t) Constant 3229815407 1074340298
57: TypeImage 6(float) 2D nonsampled format:Unknown
58: TypePointer UniformConstant 57
59(destTex): 58(ptr) Variable UniformConstant
@@ -90,7 +90,7 @@ spv.double.comp
43: 40(fvec2) CompositeConstruct 42 42
44: 40(fvec2) FDiv 41 43
45: 6(float) ExtInst 1(GLSL.std.450) 66(Length) 44
- 46: 7(float) FConvert 45
+ 46:7(float64_t) FConvert 45
Store 32(localCoef) 46
Store 49(aa) 53
Store 54(globalCoef) 55
diff --git a/Test/baseResults/spv.explicittypes.frag.out b/Test/baseResults/spv.explicittypes.frag.out
index b6fcb850..1fb2485a 100755
--- a/Test/baseResults/spv.explicittypes.frag.out
+++ b/Test/baseResults/spv.explicittypes.frag.out
@@ -140,13 +140,13 @@ spv.explicittypes.frag
2: TypeVoid
3: TypeFunction 2
16: TypeInt 64 1
- 17: TypePointer Function 16(int)
+ 17: TypePointer Function 16(int64_t)
19: TypeInt 32 0
20: 19(int) Constant 3
- 21: TypeArray 16(int) 20
- 22: 16(int) Constant 4008636143 4008636142
- 23: 16(int) Constant 4294967295 4294967295
- 24: 16(int) Constant 0 1
+ 21: TypeArray 16(int64_t) 20
+ 22: 16(int64_t) Constant 4008636143 4008636142
+ 23: 16(int64_t) Constant 4294967295 4294967295
+ 24: 16(int64_t) Constant 0 1
25: 21 ConstantComposite 22 23 24
26(Uniforms): TypeStruct 19(int)
27: TypePointer Uniform 26(Uniforms)
@@ -156,11 +156,11 @@ spv.explicittypes.frag
31: TypePointer Uniform 19(int)
34: TypePointer Function 21
38: TypeInt 64 0
- 39: TypePointer Function 38(int)
- 41: TypeArray 38(int) 20
- 42: 38(int) Constant 4294967295 4294967295
- 43: 38(int) Constant 0 1
- 44: 38(int) Constant 4294967295 1
+ 39: TypePointer Function 38(int64_t)
+ 41: TypeArray 38(int64_t) 20
+ 42: 38(int64_t) Constant 4294967295 4294967295
+ 43: 38(int64_t) Constant 0 1
+ 44: 38(int64_t) Constant 4294967295 1
45: 41 ConstantComposite 42 43 44
48: TypePointer Function 41
52: TypePointer Function 29(int)
@@ -177,78 +177,78 @@ spv.explicittypes.frag
70: 67 ConstantComposite 68 68 69
73: TypePointer Function 67
77: TypeInt 16 1
- 78: TypePointer Function 77(int)
- 80: TypeArray 77(int) 20
- 81: 77(int) Constant 4294962927
- 82: 77(int) Constant 4294967295
- 83: 77(int) Constant 16384
+ 78: TypePointer Function 77(int16_t)
+ 80: TypeArray 77(int16_t) 20
+ 81: 77(int16_t) Constant 4294962927
+ 82: 77(int16_t) Constant 4294967295
+ 83: 77(int16_t) Constant 16384
84: 80 ConstantComposite 81 82 83
87: TypePointer Function 80
91: TypeInt 16 0
- 92: TypePointer Function 91(int)
- 94: TypeArray 91(int) 20
- 95: 91(int) Constant 65535
- 96: 91(int) Constant 32767
+ 92: TypePointer Function 91(int16_t)
+ 94: TypeArray 91(int16_t) 20
+ 95: 91(int16_t) Constant 65535
+ 96: 91(int16_t) Constant 32767
97: 94 ConstantComposite 95 95 96
100: TypePointer Function 94
104: TypeInt 8 1
- 105: TypePointer Function 104(int)
- 107: TypeArray 104(int) 20
- 108: 104(int) Constant 4294967279
- 109: 104(int) Constant 4294967295
- 110: 104(int) Constant 0
+ 105: TypePointer Function 104(int8_t)
+ 107: TypeArray 104(int8_t) 20
+ 108: 104(int8_t) Constant 4294967279
+ 109: 104(int8_t) Constant 4294967295
+ 110: 104(int8_t) Constant 0
111: 107 ConstantComposite 108 109 110
114: TypePointer Function 107
118: TypeInt 8 0
- 119: TypePointer Function 118(int)
- 121: TypeArray 118(int) 20
- 122: 118(int) Constant 255
- 123: 118(int) Constant 127
+ 119: TypePointer Function 118(int8_t)
+ 121: TypeArray 118(int8_t) 20
+ 122: 118(int8_t) Constant 255
+ 123: 118(int8_t) Constant 127
124: 121 ConstantComposite 122 122 123
127: TypePointer Function 121
- 131: TypeVector 118(int) 2
- 132: TypePointer Function 131(ivec2)
- 134: TypeVector 104(int) 2
- 135: TypePointer Function 134(ivec2)
- 139: TypeVector 77(int) 2
- 140: TypePointer Function 139(ivec2)
+ 131: TypeVector 118(int8_t) 2
+ 132: TypePointer Function 131(i8vec2)
+ 134: TypeVector 104(int8_t) 2
+ 135: TypePointer Function 134(i8vec2)
+ 139: TypeVector 77(int16_t) 2
+ 140: TypePointer Function 139(i16vec2)
147: TypeVector 29(int) 2
148: TypePointer Function 147(ivec2)
155: TypeVector 19(int) 2
156: TypePointer Function 155(ivec2)
- 161: TypeVector 16(int) 2
- 162: TypePointer Function 161(ivec2)
- 166: TypeVector 38(int) 2
- 167: TypePointer Function 166(ivec2)
+ 161: TypeVector 16(int64_t) 2
+ 162: TypePointer Function 161(i64vec2)
+ 166: TypeVector 38(int64_t) 2
+ 167: TypePointer Function 166(i64vec2)
179: TypeFloat 16
- 180: TypeVector 179(float) 2
- 181: TypePointer Function 180(fvec2)
+ 180: TypeVector 179(float16_t) 2
+ 181: TypePointer Function 180(f16vec2)
185: TypeFloat 32
186: TypeVector 185(float) 2
187: TypePointer Function 186(fvec2)
191: TypeFloat 64
- 192: TypeVector 191(float) 2
- 193: TypePointer Function 192(fvec2)
- 220: TypeVector 91(int) 2
- 221: TypePointer Function 220(ivec2)
+ 192: TypeVector 191(float64_t) 2
+ 193: TypePointer Function 192(f64vec2)
+ 220: TypeVector 91(int16_t) 2
+ 221: TypePointer Function 220(i16vec2)
249: TypeBool
250: TypeVector 249(bool) 2
251: TypePointer Function 250(bvec2)
- 254: 104(int) Constant 1
- 255: 134(ivec2) ConstantComposite 110 110
- 256: 134(ivec2) ConstantComposite 254 254
- 259: 118(int) Constant 0
- 260: 118(int) Constant 1
- 261: 131(ivec2) ConstantComposite 259 259
- 262: 131(ivec2) ConstantComposite 260 260
- 365: 77(int) Constant 0
- 366: 77(int) Constant 1
- 367: 139(ivec2) ConstantComposite 365 365
- 368: 139(ivec2) ConstantComposite 366 366
- 371: 91(int) Constant 0
- 372: 91(int) Constant 1
- 373: 220(ivec2) ConstantComposite 371 371
- 374: 220(ivec2) ConstantComposite 372 372
+ 254: 104(int8_t) Constant 1
+ 255: 134(i8vec2) ConstantComposite 110 110
+ 256: 134(i8vec2) ConstantComposite 254 254
+ 259: 118(int8_t) Constant 0
+ 260: 118(int8_t) Constant 1
+ 261: 131(i8vec2) ConstantComposite 259 259
+ 262: 131(i8vec2) ConstantComposite 260 260
+ 365: 77(int16_t) Constant 0
+ 366: 77(int16_t) Constant 1
+ 367:139(i16vec2) ConstantComposite 365 365
+ 368:139(i16vec2) ConstantComposite 366 366
+ 371: 91(int16_t) Constant 0
+ 372: 91(int16_t) Constant 1
+ 373:220(i16vec2) ConstantComposite 371 371
+ 374:220(i16vec2) ConstantComposite 372 372
467: 29(int) Constant 1
468: 147(ivec2) ConstantComposite 30 30
469: 147(ivec2) ConstantComposite 467 467
@@ -256,23 +256,23 @@ spv.explicittypes.frag
473: 19(int) Constant 1
474: 155(ivec2) ConstantComposite 472 472
475: 155(ivec2) ConstantComposite 473 473
- 550: 16(int) Constant 0 0
- 551: 16(int) Constant 1 0
- 552: 161(ivec2) ConstantComposite 550 550
- 553: 161(ivec2) ConstantComposite 551 551
- 556: 38(int) Constant 0 0
- 557: 38(int) Constant 1 0
- 558: 166(ivec2) ConstantComposite 556 556
- 559: 166(ivec2) ConstantComposite 557 557
- 565: TypeVector 77(int) 3
- 566: TypeVector 77(int) 4
- 567: TypeVector 91(int) 3
- 568: TypeVector 91(int) 4
+ 550: 16(int64_t) Constant 0 0
+ 551: 16(int64_t) Constant 1 0
+ 552:161(i64vec2) ConstantComposite 550 550
+ 553:161(i64vec2) ConstantComposite 551 551
+ 556: 38(int64_t) Constant 0 0
+ 557: 38(int64_t) Constant 1 0
+ 558:166(i64vec2) ConstantComposite 556 556
+ 559:166(i64vec2) ConstantComposite 557 557
+ 565: TypeVector 77(int16_t) 3
+ 566: TypeVector 77(int16_t) 4
+ 567: TypeVector 91(int16_t) 3
+ 568: TypeVector 91(int16_t) 4
569: TypeVector 29(int) 3
570: TypeVector 29(int) 4
571: TypeVector 19(int) 3
572: TypeVector 19(int) 4
- 573(Block): TypeStruct 77(int) 139(ivec2) 565(ivec3) 566(ivec4) 91(int) 220(ivec2) 567(ivec3) 568(ivec4) 29(int) 147(ivec2) 569(ivec3) 570(ivec4) 19(int) 155(ivec2) 571(ivec3) 572(ivec4)
+ 573(Block): TypeStruct 77(int16_t) 139(i16vec2) 565(i16vec3) 566(i16vec4) 91(int16_t) 220(i16vec2) 567(i16vec3) 568(i16vec4) 29(int) 147(ivec2) 569(ivec3) 570(ivec4) 19(int) 155(ivec2) 571(ivec3) 572(ivec4)
574: TypePointer Uniform 573(Block)
575(block): 574(ptr) Variable Uniform
4(main): 2 Function None 3
@@ -301,13 +301,13 @@ spv.explicittypes.frag
33: 19(int) Load 32
Store 35(indexable) 25
36: 17(ptr) AccessChain 35(indexable) 33
- 37: 16(int) Load 36
+ 37: 16(int64_t) Load 36
Store 18(i64) 37
46: 31(ptr) AccessChain 28 30
47: 19(int) Load 46
Store 49(indexable) 45
50: 39(ptr) AccessChain 49(indexable) 47
- 51: 38(int) Load 50
+ 51: 38(int64_t) Load 50
Store 40(u64) 51
59: 31(ptr) AccessChain 28 30
60: 19(int) Load 59
@@ -325,25 +325,25 @@ spv.explicittypes.frag
86: 19(int) Load 85
Store 88(indexable) 84
89: 78(ptr) AccessChain 88(indexable) 86
- 90: 77(int) Load 89
+ 90: 77(int16_t) Load 89
Store 79(i16) 90
98: 31(ptr) AccessChain 28 30
99: 19(int) Load 98
Store 101(indexable) 97
102: 92(ptr) AccessChain 101(indexable) 99
- 103: 91(int) Load 102
+ 103: 91(int16_t) Load 102
Store 93(u16) 103
112: 31(ptr) AccessChain 28 30
113: 19(int) Load 112
Store 115(indexable) 111
116: 105(ptr) AccessChain 115(indexable) 113
- 117: 104(int) Load 116
+ 117: 104(int8_t) Load 116
Store 106(i8) 117
125: 31(ptr) AccessChain 28 30
126: 19(int) Load 125
Store 128(indexable) 124
129: 119(ptr) AccessChain 128(indexable) 126
- 130: 118(int) Load 129
+ 130: 118(int8_t) Load 129
Store 120(u8) 130
Return
FunctionEnd
@@ -361,133 +361,133 @@ spv.explicittypes.frag
194(f64v): 193(ptr) Variable Function
222(u16v): 221(ptr) Variable Function
252(bv): 251(ptr) Variable Function
- 137: 134(ivec2) Load 136(i8v)
- 138: 131(ivec2) Bitcast 137
+ 137: 134(i8vec2) Load 136(i8v)
+ 138: 131(i8vec2) Bitcast 137
Store 133(u8v) 138
- 142: 134(ivec2) Load 136(i8v)
- 143: 139(ivec2) SConvert 142
+ 142: 134(i8vec2) Load 136(i8v)
+ 143:139(i16vec2) SConvert 142
Store 141(i16v) 143
- 144: 131(ivec2) Load 133(u8v)
- 145: 139(ivec2) UConvert 144
- 146: 139(ivec2) Bitcast 145
+ 144: 131(i8vec2) Load 133(u8v)
+ 145:139(i16vec2) UConvert 144
+ 146:139(i16vec2) Bitcast 145
Store 141(i16v) 146
- 150: 134(ivec2) Load 136(i8v)
+ 150: 134(i8vec2) Load 136(i8v)
151: 147(ivec2) SConvert 150
Store 149(i32v) 151
- 152: 131(ivec2) Load 133(u8v)
+ 152: 131(i8vec2) Load 133(u8v)
153: 147(ivec2) UConvert 152
154: 147(ivec2) Bitcast 153
Store 149(i32v) 154
- 158: 134(ivec2) Load 136(i8v)
+ 158: 134(i8vec2) Load 136(i8v)
159: 147(ivec2) SConvert 158
160: 155(ivec2) Bitcast 159
Store 157(u32v) 160
- 164: 134(ivec2) Load 136(i8v)
- 165: 161(ivec2) SConvert 164
+ 164: 134(i8vec2) Load 136(i8v)
+ 165:161(i64vec2) SConvert 164
Store 163(i64v) 165
- 169: 134(ivec2) Load 136(i8v)
- 170: 161(ivec2) SConvert 169
- 171: 166(ivec2) Bitcast 170
+ 169: 134(i8vec2) Load 136(i8v)
+ 170:161(i64vec2) SConvert 169
+ 171:166(i64vec2) Bitcast 170
Store 168(u64v) 171
- 172: 131(ivec2) Load 133(u8v)
+ 172: 131(i8vec2) Load 133(u8v)
173: 155(ivec2) UConvert 172
Store 157(u32v) 173
- 174: 131(ivec2) Load 133(u8v)
- 175: 161(ivec2) UConvert 174
- 176: 161(ivec2) Bitcast 175
+ 174: 131(i8vec2) Load 133(u8v)
+ 175:161(i64vec2) UConvert 174
+ 176:161(i64vec2) Bitcast 175
Store 163(i64v) 176
- 177: 131(ivec2) Load 133(u8v)
- 178: 166(ivec2) UConvert 177
+ 177: 131(i8vec2) Load 133(u8v)
+ 178:166(i64vec2) UConvert 177
Store 168(u64v) 178
- 183: 134(ivec2) Load 136(i8v)
- 184: 180(fvec2) ConvertSToF 183
+ 183: 134(i8vec2) Load 136(i8v)
+ 184:180(f16vec2) ConvertSToF 183
Store 182(f16v) 184
- 189: 134(ivec2) Load 136(i8v)
+ 189: 134(i8vec2) Load 136(i8v)
190: 186(fvec2) ConvertSToF 189
Store 188(f32v) 190
- 195: 134(ivec2) Load 136(i8v)
- 196: 192(fvec2) ConvertSToF 195
+ 195: 134(i8vec2) Load 136(i8v)
+ 196:192(f64vec2) ConvertSToF 195
Store 194(f64v) 196
- 197: 131(ivec2) Load 133(u8v)
- 198: 180(fvec2) ConvertUToF 197
+ 197: 131(i8vec2) Load 133(u8v)
+ 198:180(f16vec2) ConvertUToF 197
Store 182(f16v) 198
- 199: 131(ivec2) Load 133(u8v)
+ 199: 131(i8vec2) Load 133(u8v)
200: 186(fvec2) ConvertUToF 199
Store 188(f32v) 200
- 201: 131(ivec2) Load 133(u8v)
- 202: 192(fvec2) ConvertUToF 201
+ 201: 131(i8vec2) Load 133(u8v)
+ 202:192(f64vec2) ConvertUToF 201
Store 194(f64v) 202
- 203: 131(ivec2) Load 133(u8v)
- 204: 134(ivec2) Bitcast 203
+ 203: 131(i8vec2) Load 133(u8v)
+ 204: 134(i8vec2) Bitcast 203
Store 136(i8v) 204
- 205: 134(ivec2) Load 136(i8v)
- 206: 139(ivec2) SConvert 205
+ 205: 134(i8vec2) Load 136(i8v)
+ 206:139(i16vec2) SConvert 205
Store 141(i16v) 206
- 207: 131(ivec2) Load 133(u8v)
- 208: 139(ivec2) UConvert 207
- 209: 139(ivec2) Bitcast 208
+ 207: 131(i8vec2) Load 133(u8v)
+ 208:139(i16vec2) UConvert 207
+ 209:139(i16vec2) Bitcast 208
Store 141(i16v) 209
- 210: 134(ivec2) Load 136(i8v)
+ 210: 134(i8vec2) Load 136(i8v)
211: 147(ivec2) SConvert 210
Store 149(i32v) 211
- 212: 131(ivec2) Load 133(u8v)
+ 212: 131(i8vec2) Load 133(u8v)
213: 147(ivec2) UConvert 212
214: 147(ivec2) Bitcast 213
Store 149(i32v) 214
- 215: 134(ivec2) Load 136(i8v)
- 216: 161(ivec2) SConvert 215
+ 215: 134(i8vec2) Load 136(i8v)
+ 216:161(i64vec2) SConvert 215
Store 163(i64v) 216
- 217: 134(ivec2) Load 136(i8v)
- 218: 161(ivec2) SConvert 217
- 219: 166(ivec2) Bitcast 218
+ 217: 134(i8vec2) Load 136(i8v)
+ 218:161(i64vec2) SConvert 217
+ 219:166(i64vec2) Bitcast 218
Store 168(u64v) 219
- 223: 134(ivec2) Load 136(i8v)
- 224: 139(ivec2) SConvert 223
- 225: 220(ivec2) Bitcast 224
+ 223: 134(i8vec2) Load 136(i8v)
+ 224:139(i16vec2) SConvert 223
+ 225:220(i16vec2) Bitcast 224
Store 222(u16v) 225
- 226: 131(ivec2) Load 133(u8v)
- 227: 220(ivec2) UConvert 226
+ 226: 131(i8vec2) Load 133(u8v)
+ 227:220(i16vec2) UConvert 226
Store 222(u16v) 227
- 228: 131(ivec2) Load 133(u8v)
+ 228: 131(i8vec2) Load 133(u8v)
229: 155(ivec2) UConvert 228
Store 157(u32v) 229
- 230: 131(ivec2) Load 133(u8v)
- 231: 161(ivec2) UConvert 230
- 232: 161(ivec2) Bitcast 231
+ 230: 131(i8vec2) Load 133(u8v)
+ 231:161(i64vec2) UConvert 230
+ 232:161(i64vec2) Bitcast 231
Store 163(i64v) 232
- 233: 131(ivec2) Load 133(u8v)
- 234: 161(ivec2) UConvert 233
- 235: 161(ivec2) Bitcast 234
- 236: 166(ivec2) Bitcast 235
+ 233: 131(i8vec2) Load 133(u8v)
+ 234:161(i64vec2) UConvert 233
+ 235:161(i64vec2) Bitcast 234
+ 236:166(i64vec2) Bitcast 235
Store 168(u64v) 236
- 237: 134(ivec2) Load 136(i8v)
- 238: 180(fvec2) ConvertSToF 237
+ 237: 134(i8vec2) Load 136(i8v)
+ 238:180(f16vec2) ConvertSToF 237
Store 182(f16v) 238
- 239: 134(ivec2) Load 136(i8v)
+ 239: 134(i8vec2) Load 136(i8v)
240: 186(fvec2) ConvertSToF 239
Store 188(f32v) 240
- 241: 134(ivec2) Load 136(i8v)
- 242: 192(fvec2) ConvertSToF 241
+ 241: 134(i8vec2) Load 136(i8v)
+ 242:192(f64vec2) ConvertSToF 241
Store 194(f64v) 242
- 243: 131(ivec2) Load 133(u8v)
- 244: 180(fvec2) ConvertUToF 243
+ 243: 131(i8vec2) Load 133(u8v)
+ 244:180(f16vec2) ConvertUToF 243
Store 182(f16v) 244
- 245: 131(ivec2) Load 133(u8v)
+ 245: 131(i8vec2) Load 133(u8v)
246: 186(fvec2) ConvertUToF 245
Store 188(f32v) 246
- 247: 131(ivec2) Load 133(u8v)
- 248: 192(fvec2) ConvertUToF 247
+ 247: 131(i8vec2) Load 133(u8v)
+ 248:192(f64vec2) ConvertUToF 247
Store 194(f64v) 248
253: 250(bvec2) Load 252(bv)
- 257: 134(ivec2) Select 253 256 255
+ 257: 134(i8vec2) Select 253 256 255
Store 136(i8v) 257
258: 250(bvec2) Load 252(bv)
- 263: 131(ivec2) Select 258 262 261
+ 263: 131(i8vec2) Select 258 262 261
Store 133(u8v) 263
- 264: 134(ivec2) Load 136(i8v)
+ 264: 134(i8vec2) Load 136(i8v)
265: 250(bvec2) INotEqual 264 261
Store 252(bv) 265
- 266: 131(ivec2) Load 133(u8v)
+ 266: 131(i8vec2) Load 133(u8v)
267: 250(bvec2) INotEqual 266 261
Store 252(bv) 267
Return
@@ -506,135 +506,135 @@ spv.explicittypes.frag
347(i8v): 135(ptr) Variable Function
353(u8v): 132(ptr) Variable Function
363(bv): 251(ptr) Variable Function
- 270: 139(ivec2) Load 269(i16v)
+ 270:139(i16vec2) Load 269(i16v)
271: 147(ivec2) SConvert 270
Store 268(i32v) 271
- 273: 220(ivec2) Load 272(u16v)
+ 273:220(i16vec2) Load 272(u16v)
274: 147(ivec2) UConvert 273
275: 147(ivec2) Bitcast 274
Store 268(i32v) 275
- 276: 139(ivec2) Load 269(i16v)
- 277: 220(ivec2) Bitcast 276
+ 276:139(i16vec2) Load 269(i16v)
+ 277:220(i16vec2) Bitcast 276
Store 272(u16v) 277
- 279: 139(ivec2) Load 269(i16v)
+ 279:139(i16vec2) Load 269(i16v)
280: 147(ivec2) SConvert 279
281: 155(ivec2) Bitcast 280
Store 278(u32v) 281
- 283: 139(ivec2) Load 269(i16v)
- 284: 161(ivec2) SConvert 283
+ 283:139(i16vec2) Load 269(i16v)
+ 284:161(i64vec2) SConvert 283
Store 282(i64v) 284
- 286: 139(ivec2) Load 269(i16v)
- 287: 161(ivec2) SConvert 286
- 288: 166(ivec2) Bitcast 287
+ 286:139(i16vec2) Load 269(i16v)
+ 287:161(i64vec2) SConvert 286
+ 288:166(i64vec2) Bitcast 287
Store 285(u64v) 288
- 289: 220(ivec2) Load 272(u16v)
+ 289:220(i16vec2) Load 272(u16v)
290: 155(ivec2) UConvert 289
Store 278(u32v) 290
- 291: 220(ivec2) Load 272(u16v)
- 292: 161(ivec2) UConvert 291
- 293: 161(ivec2) Bitcast 292
+ 291:220(i16vec2) Load 272(u16v)
+ 292:161(i64vec2) UConvert 291
+ 293:161(i64vec2) Bitcast 292
Store 282(i64v) 293
- 294: 220(ivec2) Load 272(u16v)
- 295: 166(ivec2) UConvert 294
+ 294:220(i16vec2) Load 272(u16v)
+ 295:166(i64vec2) UConvert 294
Store 285(u64v) 295
- 297: 139(ivec2) Load 269(i16v)
- 298: 180(fvec2) ConvertSToF 297
+ 297:139(i16vec2) Load 269(i16v)
+ 298:180(f16vec2) ConvertSToF 297
Store 296(f16v) 298
- 300: 139(ivec2) Load 269(i16v)
+ 300:139(i16vec2) Load 269(i16v)
301: 186(fvec2) ConvertSToF 300
Store 299(f32v) 301
- 303: 139(ivec2) Load 269(i16v)
- 304: 192(fvec2) ConvertSToF 303
+ 303:139(i16vec2) Load 269(i16v)
+ 304:192(f64vec2) ConvertSToF 303
Store 302(f64v) 304
- 305: 220(ivec2) Load 272(u16v)
- 306: 180(fvec2) ConvertUToF 305
+ 305:220(i16vec2) Load 272(u16v)
+ 306:180(f16vec2) ConvertUToF 305
Store 296(f16v) 306
- 307: 220(ivec2) Load 272(u16v)
+ 307:220(i16vec2) Load 272(u16v)
308: 186(fvec2) ConvertUToF 307
Store 299(f32v) 308
- 309: 220(ivec2) Load 272(u16v)
- 310: 192(fvec2) ConvertUToF 309
+ 309:220(i16vec2) Load 272(u16v)
+ 310:192(f64vec2) ConvertUToF 309
Store 302(f64v) 310
- 311: 139(ivec2) Load 269(i16v)
+ 311:139(i16vec2) Load 269(i16v)
312: 147(ivec2) SConvert 311
Store 268(i32v) 312
- 313: 220(ivec2) Load 272(u16v)
+ 313:220(i16vec2) Load 272(u16v)
314: 147(ivec2) UConvert 313
315: 147(ivec2) Bitcast 314
Store 268(i32v) 315
- 316: 139(ivec2) Load 269(i16v)
- 317: 220(ivec2) Bitcast 316
+ 316:139(i16vec2) Load 269(i16v)
+ 317:220(i16vec2) Bitcast 316
Store 272(u16v) 317
- 318: 139(ivec2) Load 269(i16v)
+ 318:139(i16vec2) Load 269(i16v)
319: 147(ivec2) SConvert 318
320: 155(ivec2) Bitcast 319
Store 278(u32v) 320
- 321: 139(ivec2) Load 269(i16v)
- 322: 161(ivec2) SConvert 321
+ 321:139(i16vec2) Load 269(i16v)
+ 322:161(i64vec2) SConvert 321
Store 282(i64v) 322
- 323: 139(ivec2) Load 269(i16v)
- 324: 161(ivec2) SConvert 323
- 325: 166(ivec2) Bitcast 324
+ 323:139(i16vec2) Load 269(i16v)
+ 324:161(i64vec2) SConvert 323
+ 325:166(i64vec2) Bitcast 324
Store 285(u64v) 325
- 326: 220(ivec2) Load 272(u16v)
+ 326:220(i16vec2) Load 272(u16v)
327: 155(ivec2) UConvert 326
Store 278(u32v) 327
- 328: 220(ivec2) Load 272(u16v)
- 329: 161(ivec2) UConvert 328
- 330: 161(ivec2) Bitcast 329
+ 328:220(i16vec2) Load 272(u16v)
+ 329:161(i64vec2) UConvert 328
+ 330:161(i64vec2) Bitcast 329
Store 282(i64v) 330
- 331: 220(ivec2) Load 272(u16v)
- 332: 161(ivec2) UConvert 331
- 333: 161(ivec2) Bitcast 332
- 334: 166(ivec2) Bitcast 333
+ 331:220(i16vec2) Load 272(u16v)
+ 332:161(i64vec2) UConvert 331
+ 333:161(i64vec2) Bitcast 332
+ 334:166(i64vec2) Bitcast 333
Store 285(u64v) 334
- 335: 139(ivec2) Load 269(i16v)
- 336: 180(fvec2) ConvertSToF 335
+ 335:139(i16vec2) Load 269(i16v)
+ 336:180(f16vec2) ConvertSToF 335
Store 296(f16v) 336
- 337: 139(ivec2) Load 269(i16v)
+ 337:139(i16vec2) Load 269(i16v)
338: 186(fvec2) ConvertSToF 337
Store 299(f32v) 338
- 339: 139(ivec2) Load 269(i16v)
- 340: 192(fvec2) ConvertSToF 339
+ 339:139(i16vec2) Load 269(i16v)
+ 340:192(f64vec2) ConvertSToF 339
Store 302(f64v) 340
- 341: 220(ivec2) Load 272(u16v)
- 342: 180(fvec2) ConvertUToF 341
+ 341:220(i16vec2) Load 272(u16v)
+ 342:180(f16vec2) ConvertUToF 341
Store 296(f16v) 342
- 343: 220(ivec2) Load 272(u16v)
+ 343:220(i16vec2) Load 272(u16v)
344: 186(fvec2) ConvertUToF 343
Store 299(f32v) 344
- 345: 220(ivec2) Load 272(u16v)
- 346: 192(fvec2) ConvertUToF 345
+ 345:220(i16vec2) Load 272(u16v)
+ 346:192(f64vec2) ConvertUToF 345
Store 302(f64v) 346
- 348: 139(ivec2) Load 269(i16v)
- 349: 134(ivec2) SConvert 348
+ 348:139(i16vec2) Load 269(i16v)
+ 349: 134(i8vec2) SConvert 348
Store 347(i8v) 349
- 350: 220(ivec2) Load 272(u16v)
- 351: 134(ivec2) UConvert 350
- 352: 134(ivec2) Bitcast 351
+ 350:220(i16vec2) Load 272(u16v)
+ 351: 134(i8vec2) UConvert 350
+ 352: 134(i8vec2) Bitcast 351
Store 347(i8v) 352
- 354: 139(ivec2) Load 269(i16v)
- 355: 134(ivec2) SConvert 354
- 356: 131(ivec2) Bitcast 355
+ 354:139(i16vec2) Load 269(i16v)
+ 355: 134(i8vec2) SConvert 354
+ 356: 131(i8vec2) Bitcast 355
Store 353(u8v) 356
- 357: 220(ivec2) Load 272(u16v)
- 358: 131(ivec2) UConvert 357
+ 357:220(i16vec2) Load 272(u16v)
+ 358: 131(i8vec2) UConvert 357
Store 353(u8v) 358
- 359: 220(ivec2) Load 272(u16v)
- 360: 131(ivec2) UConvert 359
- 361: 139(ivec2) UConvert 360
- 362: 139(ivec2) Bitcast 361
+ 359:220(i16vec2) Load 272(u16v)
+ 360: 131(i8vec2) UConvert 359
+ 361:139(i16vec2) UConvert 360
+ 362:139(i16vec2) Bitcast 361
Store 269(i16v) 362
364: 250(bvec2) Load 363(bv)
- 369: 139(ivec2) Select 364 368 367
+ 369:139(i16vec2) Select 364 368 367
Store 269(i16v) 369
370: 250(bvec2) Load 363(bv)
- 375: 220(ivec2) Select 370 374 373
+ 375:220(i16vec2) Select 370 374 373
Store 272(u16v) 375
- 376: 139(ivec2) Load 269(i16v)
+ 376:139(i16vec2) Load 269(i16v)
377: 250(bvec2) INotEqual 376 373
Store 363(bv) 377
- 378: 220(ivec2) Load 272(u16v)
+ 378:220(i16vec2) Load 272(u16v)
379: 250(bvec2) INotEqual 378 373
Store 363(bv) 379
Return
@@ -657,44 +657,44 @@ spv.explicittypes.frag
383: 155(ivec2) Bitcast 382
Store 380(u32v) 383
385: 147(ivec2) Load 381(i32v)
- 386: 161(ivec2) SConvert 385
+ 386:161(i64vec2) SConvert 385
Store 384(i64v) 386
388: 147(ivec2) Load 381(i32v)
- 389: 161(ivec2) SConvert 388
- 390: 166(ivec2) Bitcast 389
+ 389:161(i64vec2) SConvert 388
+ 390:166(i64vec2) Bitcast 389
Store 387(u64v) 390
391: 155(ivec2) Load 380(u32v)
- 392: 161(ivec2) UConvert 391
- 393: 161(ivec2) Bitcast 392
+ 392:161(i64vec2) UConvert 391
+ 393:161(i64vec2) Bitcast 392
Store 384(i64v) 393
394: 155(ivec2) Load 380(u32v)
- 395: 166(ivec2) UConvert 394
+ 395:166(i64vec2) UConvert 394
Store 387(u64v) 395
397: 147(ivec2) Load 381(i32v)
398: 186(fvec2) ConvertSToF 397
Store 396(f32v) 398
400: 147(ivec2) Load 381(i32v)
- 401: 192(fvec2) ConvertSToF 400
+ 401:192(f64vec2) ConvertSToF 400
Store 399(f64v) 401
402: 155(ivec2) Load 380(u32v)
403: 186(fvec2) ConvertUToF 402
Store 396(f32v) 403
404: 155(ivec2) Load 380(u32v)
- 405: 192(fvec2) ConvertUToF 404
+ 405:192(f64vec2) ConvertUToF 404
Store 399(f64v) 405
407: 147(ivec2) Load 381(i32v)
- 408: 134(ivec2) SConvert 407
+ 408: 134(i8vec2) SConvert 407
Store 406(i8v) 408
409: 155(ivec2) Load 380(u32v)
- 410: 134(ivec2) UConvert 409
- 411: 134(ivec2) Bitcast 410
+ 410: 134(i8vec2) UConvert 409
+ 411: 134(i8vec2) Bitcast 410
Store 406(i8v) 411
413: 147(ivec2) Load 381(i32v)
- 414: 139(ivec2) SConvert 413
+ 414:139(i16vec2) SConvert 413
Store 412(i16v) 414
415: 155(ivec2) Load 380(u32v)
- 416: 139(ivec2) UConvert 415
- 417: 139(ivec2) Bitcast 416
+ 416:139(i16vec2) UConvert 415
+ 417:139(i16vec2) Bitcast 416
Store 412(i16v) 417
418: 147(ivec2) Load 381(i32v)
419: 29(int) CompositeExtract 418 0
@@ -705,25 +705,25 @@ spv.explicittypes.frag
423: 147(ivec2) Bitcast 422
Store 381(i32v) 423
424: 147(ivec2) Load 381(i32v)
- 425: 161(ivec2) SConvert 424
+ 425:161(i64vec2) SConvert 424
Store 384(i64v) 425
426: 155(ivec2) Load 380(u32v)
- 427: 161(ivec2) UConvert 426
- 428: 161(ivec2) Bitcast 427
+ 427:161(i64vec2) UConvert 426
+ 428:161(i64vec2) Bitcast 427
Store 384(i64v) 428
430: 147(ivec2) Load 381(i32v)
- 431: 134(ivec2) SConvert 430
- 432: 131(ivec2) Bitcast 431
+ 431: 134(i8vec2) SConvert 430
+ 432: 131(i8vec2) Bitcast 431
Store 429(u8v) 432
433: 155(ivec2) Load 380(u32v)
- 434: 131(ivec2) UConvert 433
+ 434: 131(i8vec2) UConvert 433
Store 429(u8v) 434
436: 147(ivec2) Load 381(i32v)
- 437: 139(ivec2) SConvert 436
- 438: 220(ivec2) Bitcast 437
+ 437:139(i16vec2) SConvert 436
+ 438:220(i16vec2) Bitcast 437
Store 435(u16v) 438
439: 155(ivec2) Load 380(u32v)
- 440: 220(ivec2) UConvert 439
+ 440:220(i16vec2) UConvert 439
Store 435(u16v) 440
441: 147(ivec2) Load 381(i32v)
442: 155(ivec2) Bitcast 441
@@ -734,29 +734,29 @@ spv.explicittypes.frag
446: 155(ivec2) CompositeConstruct 444 445
Store 380(u32v) 446
447: 147(ivec2) Load 381(i32v)
- 448: 161(ivec2) SConvert 447
- 449: 166(ivec2) Bitcast 448
+ 448:161(i64vec2) SConvert 447
+ 449:166(i64vec2) Bitcast 448
Store 387(u64v) 449
450: 155(ivec2) Load 380(u32v)
- 451: 166(ivec2) UConvert 450
+ 451:166(i64vec2) UConvert 450
Store 387(u64v) 451
453: 147(ivec2) Load 381(i32v)
- 454: 180(fvec2) ConvertSToF 453
+ 454:180(f16vec2) ConvertSToF 453
Store 452(f16v) 454
455: 147(ivec2) Load 381(i32v)
456: 186(fvec2) ConvertSToF 455
Store 396(f32v) 456
457: 147(ivec2) Load 381(i32v)
- 458: 192(fvec2) ConvertSToF 457
+ 458:192(f64vec2) ConvertSToF 457
Store 399(f64v) 458
459: 155(ivec2) Load 380(u32v)
- 460: 180(fvec2) ConvertUToF 459
+ 460:180(f16vec2) ConvertUToF 459
Store 452(f16v) 460
461: 155(ivec2) Load 380(u32v)
462: 186(fvec2) ConvertUToF 461
Store 396(f32v) 462
463: 155(ivec2) Load 380(u32v)
- 464: 192(fvec2) ConvertUToF 463
+ 464:192(f64vec2) ConvertUToF 463
Store 399(f64v) 464
466: 250(bvec2) Load 465(bv)
470: 147(ivec2) Select 466 469 468
@@ -786,96 +786,96 @@ spv.explicittypes.frag
534(f16v): 181(ptr) Variable Function
537(f32v): 187(ptr) Variable Function
548(bv): 251(ptr) Variable Function
- 483: 161(ivec2) Load 482(i64v)
- 484: 166(ivec2) Bitcast 483
+ 483:161(i64vec2) Load 482(i64v)
+ 484:166(i64vec2) Bitcast 483
Store 481(u64v) 484
- 486: 161(ivec2) Load 482(i64v)
- 487: 192(fvec2) ConvertSToF 486
+ 486:161(i64vec2) Load 482(i64v)
+ 487:192(f64vec2) ConvertSToF 486
Store 485(f64v) 487
- 488: 166(ivec2) Load 481(u64v)
- 489: 192(fvec2) ConvertUToF 488
+ 488:166(i64vec2) Load 481(u64v)
+ 489:192(f64vec2) ConvertUToF 488
Store 485(f64v) 489
- 491: 161(ivec2) Load 482(i64v)
- 492: 134(ivec2) SConvert 491
+ 491:161(i64vec2) Load 482(i64v)
+ 492: 134(i8vec2) SConvert 491
Store 490(i8v) 492
- 493: 166(ivec2) Load 481(u64v)
- 494: 134(ivec2) UConvert 493
- 495: 134(ivec2) Bitcast 494
+ 493:166(i64vec2) Load 481(u64v)
+ 494: 134(i8vec2) UConvert 493
+ 495: 134(i8vec2) Bitcast 494
Store 490(i8v) 495
- 497: 161(ivec2) Load 482(i64v)
- 498: 139(ivec2) SConvert 497
+ 497:161(i64vec2) Load 482(i64v)
+ 498:139(i16vec2) SConvert 497
Store 496(i16v) 498
- 499: 166(ivec2) Load 481(u64v)
- 500: 139(ivec2) UConvert 499
- 501: 139(ivec2) Bitcast 500
+ 499:166(i64vec2) Load 481(u64v)
+ 500:139(i16vec2) UConvert 499
+ 501:139(i16vec2) Bitcast 500
Store 496(i16v) 501
- 503: 161(ivec2) Load 482(i64v)
+ 503:161(i64vec2) Load 482(i64v)
504: 147(ivec2) SConvert 503
Store 502(i32v) 504
- 505: 166(ivec2) Load 481(u64v)
+ 505:166(i64vec2) Load 481(u64v)
506: 147(ivec2) UConvert 505
507: 147(ivec2) Bitcast 506
Store 502(i32v) 507
- 508: 166(ivec2) Load 481(u64v)
- 509: 161(ivec2) Bitcast 508
+ 508:166(i64vec2) Load 481(u64v)
+ 509:161(i64vec2) Bitcast 508
Store 482(i64v) 509
- 511: 161(ivec2) Load 482(i64v)
- 512: 134(ivec2) SConvert 511
- 513: 131(ivec2) Bitcast 512
+ 511:161(i64vec2) Load 482(i64v)
+ 512: 134(i8vec2) SConvert 511
+ 513: 131(i8vec2) Bitcast 512
Store 510(u8v) 513
- 514: 166(ivec2) Load 481(u64v)
- 515: 131(ivec2) UConvert 514
+ 514:166(i64vec2) Load 481(u64v)
+ 515: 131(i8vec2) UConvert 514
Store 510(u8v) 515
- 517: 161(ivec2) Load 482(i64v)
- 518: 139(ivec2) SConvert 517
- 519: 220(ivec2) Bitcast 518
+ 517:161(i64vec2) Load 482(i64v)
+ 518:139(i16vec2) SConvert 517
+ 519:220(i16vec2) Bitcast 518
Store 516(u16v) 519
- 520: 166(ivec2) Load 481(u64v)
- 521: 220(ivec2) UConvert 520
+ 520:166(i64vec2) Load 481(u64v)
+ 521:220(i16vec2) UConvert 520
Store 516(u16v) 521
- 523: 161(ivec2) Load 482(i64v)
+ 523:161(i64vec2) Load 482(i64v)
524: 147(ivec2) SConvert 523
525: 155(ivec2) Bitcast 524
Store 522(u32v) 525
- 526: 166(ivec2) Load 481(u64v)
+ 526:166(i64vec2) Load 481(u64v)
527: 155(ivec2) UConvert 526
Store 522(u32v) 527
- 528: 161(ivec2) Load 482(i64v)
- 529: 166(ivec2) Bitcast 528
+ 528:161(i64vec2) Load 482(i64v)
+ 529:166(i64vec2) Bitcast 528
Store 481(u64v) 529
- 530: 166(ivec2) Load 481(u64v)
- 531: 38(int) CompositeExtract 530 0
- 532: 38(int) CompositeExtract 530 1
- 533: 166(ivec2) CompositeConstruct 531 532
+ 530:166(i64vec2) Load 481(u64v)
+ 531: 38(int64_t) CompositeExtract 530 0
+ 532: 38(int64_t) CompositeExtract 530 1
+ 533:166(i64vec2) CompositeConstruct 531 532
Store 481(u64v) 533
- 535: 161(ivec2) Load 482(i64v)
- 536: 180(fvec2) ConvertSToF 535
+ 535:161(i64vec2) Load 482(i64v)
+ 536:180(f16vec2) ConvertSToF 535
Store 534(f16v) 536
- 538: 161(ivec2) Load 482(i64v)
+ 538:161(i64vec2) Load 482(i64v)
539: 186(fvec2) ConvertSToF 538
Store 537(f32v) 539
- 540: 161(ivec2) Load 482(i64v)
- 541: 192(fvec2) ConvertSToF 540
+ 540:161(i64vec2) Load 482(i64v)
+ 541:192(f64vec2) ConvertSToF 540
Store 485(f64v) 541
- 542: 166(ivec2) Load 481(u64v)
- 543: 180(fvec2) ConvertUToF 542
+ 542:166(i64vec2) Load 481(u64v)
+ 543:180(f16vec2) ConvertUToF 542
Store 534(f16v) 543
- 544: 166(ivec2) Load 481(u64v)
+ 544:166(i64vec2) Load 481(u64v)
545: 186(fvec2) ConvertUToF 544
Store 537(f32v) 545
- 546: 166(ivec2) Load 481(u64v)
- 547: 192(fvec2) ConvertUToF 546
+ 546:166(i64vec2) Load 481(u64v)
+ 547:192(f64vec2) ConvertUToF 546
Store 485(f64v) 547
549: 250(bvec2) Load 548(bv)
- 554: 161(ivec2) Select 549 553 552
+ 554:161(i64vec2) Select 549 553 552
Store 482(i64v) 554
555: 250(bvec2) Load 548(bv)
- 560: 166(ivec2) Select 555 559 558
+ 560:166(i64vec2) Select 555 559 558
Store 481(u64v) 560
- 561: 161(ivec2) Load 482(i64v)
+ 561:161(i64vec2) Load 482(i64v)
562: 250(bvec2) INotEqual 561 558
Store 548(bv) 562
- 563: 166(ivec2) Load 481(u64v)
+ 563:166(i64vec2) Load 481(u64v)
564: 250(bvec2) INotEqual 563 558
Store 548(bv) 564
Return
diff --git a/Test/baseResults/spv.float16.frag.out b/Test/baseResults/spv.float16.frag.out
index cc7b33dc..a29228f8 100644
--- a/Test/baseResults/spv.float16.frag.out
+++ b/Test/baseResults/spv.float16.frag.out
@@ -156,86 +156,86 @@ spv.float16.frag
2: TypeVoid
3: TypeFunction 2
28: TypeFloat 16
- 29: TypeVector 28(float) 2
- 30: TypePointer Function 29(fvec2)
- 32: 28(float) Constant 16
+ 29: TypeVector 28(float16_t) 2
+ 30: TypePointer Function 29(f16vec2)
+ 32:28(float16_t) Constant 16
33: TypeInt 32 0
34: 33(int) Constant 0
- 35: TypePointer Function 28(float)
- 37: 28(float) Constant 46080
- 38: 28(float) Constant 10158
- 39: 29(fvec2) ConstantComposite 37 38
- 56: 28(float) Constant 15360
- 62: TypeMatrix 29(fvec2) 2
+ 35: TypePointer Function 28(float16_t)
+ 37:28(float16_t) Constant 46080
+ 38:28(float16_t) Constant 10158
+ 39: 29(f16vec2) ConstantComposite 37 38
+ 56:28(float16_t) Constant 15360
+ 62: TypeMatrix 29(f16vec2) 2
63: TypePointer Function 62
90: 33(int) Constant 1
109: TypeBool
110: TypePointer Function 109(bool)
- 151: TypeVector 28(float) 3
- 152: TypePointer Function 151(fvec3)
+ 151: TypeVector 28(float16_t) 3
+ 152: TypePointer Function 151(f16vec3)
154: TypeVector 109(bool) 3
155: TypePointer Function 154(bvec3)
- 158: 28(float) Constant 0
- 159: 151(fvec3) ConstantComposite 158 158 158
- 160: 151(fvec3) ConstantComposite 56 56 56
+ 158:28(float16_t) Constant 0
+ 159:151(f16vec3) ConstantComposite 158 158 158
+ 160:151(f16vec3) ConstantComposite 56 56 56
164: TypeFloat 32
165: TypeVector 164(float) 3
166: TypePointer Function 165(fvec3)
172: TypeFloat 64
- 173: TypeVector 172(float) 3
- 174: TypePointer Function 173(fvec3)
+ 173: TypeVector 172(float64_t) 3
+ 174: TypePointer Function 173(f64vec3)
183: TypeInt 32 1
184: TypeVector 183(int) 3
185: TypePointer Function 184(ivec3)
191: TypeVector 33(int) 3
192: TypePointer Function 191(ivec3)
198: TypeInt 64 1
- 199: TypeVector 198(int) 3
- 200: TypePointer Function 199(ivec3)
+ 199: TypeVector 198(int64_t) 3
+ 200: TypePointer Function 199(i64vec3)
206: TypeInt 64 0
- 207: TypeVector 206(int) 3
- 208: TypePointer Function 207(ivec3)
- 214: TypeVector 28(float) 4
- 215: TypePointer Function 214(fvec4)
- 364(ResType): TypeStruct 151(fvec3) 184(ivec3)
+ 207: TypeVector 206(int64_t) 3
+ 208: TypePointer Function 207(i64vec3)
+ 214: TypeVector 28(float16_t) 4
+ 215: TypePointer Function 214(f16vec4)
+ 364(ResType): TypeStruct 151(f16vec3) 184(ivec3)
371: TypePointer Function 33(int)
- 406: TypeMatrix 151(fvec3) 2
+ 406: TypeMatrix 151(f16vec3) 2
407: TypePointer Function 406
- 425: TypeMatrix 29(fvec2) 3
+ 425: TypeMatrix 29(f16vec2) 3
426: TypePointer Function 425
- 431: TypeMatrix 151(fvec3) 3
+ 431: TypeMatrix 151(f16vec3) 3
432: TypePointer Function 431
- 436: TypeMatrix 214(fvec4) 4
+ 436: TypeMatrix 214(f16vec4) 4
437: TypePointer Function 436
- 464: TypePointer Input 151(fvec3)
+ 464: TypePointer Input 151(f16vec3)
465(if16v): 464(ptr) Variable Input
- 466: TypePointer Input 28(float)
+ 466: TypePointer Input 28(float16_t)
503: 183(int) Constant 1
- 508: 28(float) Constant 14336
- 509: 29(fvec2) ConstantComposite 508 508
+ 508:28(float16_t) Constant 14336
+ 509: 29(f16vec2) ConstantComposite 508 508
511: 33(int) Constant 2
- 512: TypeArray 28(float) 511
+ 512: TypeArray 28(float16_t) 511
513: TypeArray 406 511
- 514(S): TypeStruct 28(float) 29(fvec2) 151(fvec3)
+ 514(S): TypeStruct 28(float16_t) 29(f16vec2) 151(f16vec3)
515: TypeArray 514(S) 511
- 516(B1): TypeStruct 28(float) 29(fvec2) 151(fvec3) 512 406 513 514(S) 515
+ 516(B1): TypeStruct 28(float16_t) 29(f16vec2) 151(f16vec3) 512 406 513 514(S) 515
517: TypePointer Uniform 516(B1)
518: 517(ptr) Variable Uniform
- 519: TypeArray 28(float) 511
+ 519: TypeArray 28(float16_t) 511
520: TypeArray 406 511
- 521(S): TypeStruct 28(float) 29(fvec2) 151(fvec3)
+ 521(S): TypeStruct 28(float16_t) 29(f16vec2) 151(f16vec3)
522: TypeArray 521(S) 511
- 523(B2): TypeStruct 28(float) 29(fvec2) 151(fvec3) 519 406 520 521(S) 522
+ 523(B2): TypeStruct 28(float16_t) 29(f16vec2) 151(f16vec3) 519 406 520 521(S) 522
524: TypePointer Uniform 523(B2)
525: 524(ptr) Variable Uniform
- 526(sf16): 28(float) SpecConstant 12288
+ 526(sf16):28(float16_t) SpecConstant 12288
527(sf): 164(float) SpecConstant 1048576000
- 528(sd): 172(float) SpecConstant 0 1071644672
+ 528(sd):172(float64_t) SpecConstant 0 1071644672
529: 164(float) SpecConstantOp 115 526(sf16)
530: 164(float) SpecConstantOp 115 526(sf16)
- 531: 172(float) SpecConstantOp 115 530
- 532: 28(float) SpecConstantOp 115 527(sf)
- 533: 28(float) SpecConstantOp 115 528(sd)
+ 531:172(float64_t) SpecConstantOp 115 530
+ 532:28(float16_t) SpecConstantOp 115 527(sf)
+ 533:28(float16_t) SpecConstantOp 115 528(sd)
4(main): 2 Function None 3
5: Label
Return
@@ -245,8 +245,8 @@ spv.float16.frag
31(f16v): 30(ptr) Variable Function
36: 35(ptr) AccessChain 31(f16v) 34
Store 36 32
- 40: 29(fvec2) Load 31(f16v)
- 41: 29(fvec2) FAdd 40 39
+ 40: 29(f16vec2) Load 31(f16v)
+ 41: 29(f16vec2) FAdd 40 39
Store 31(f16v) 41
Return
FunctionEnd
@@ -256,125 +256,125 @@ spv.float16.frag
64(f16m): 63(ptr) Variable Function
87(f16): 35(ptr) Variable Function
111(b): 110(ptr) Variable Function
- 43: 29(fvec2) Load 42(f16v)
- 44: 29(fvec2) Load 42(f16v)
- 45: 29(fvec2) FAdd 44 43
+ 43: 29(f16vec2) Load 42(f16v)
+ 44: 29(f16vec2) Load 42(f16v)
+ 45: 29(f16vec2) FAdd 44 43
Store 42(f16v) 45
- 46: 29(fvec2) Load 42(f16v)
- 47: 29(fvec2) Load 42(f16v)
- 48: 29(fvec2) FSub 47 46
+ 46: 29(f16vec2) Load 42(f16v)
+ 47: 29(f16vec2) Load 42(f16v)
+ 48: 29(f16vec2) FSub 47 46
Store 42(f16v) 48
- 49: 29(fvec2) Load 42(f16v)
- 50: 29(fvec2) Load 42(f16v)
- 51: 29(fvec2) FMul 50 49
+ 49: 29(f16vec2) Load 42(f16v)
+ 50: 29(f16vec2) Load 42(f16v)
+ 51: 29(f16vec2) FMul 50 49
Store 42(f16v) 51
- 52: 29(fvec2) Load 42(f16v)
- 53: 29(fvec2) Load 42(f16v)
- 54: 29(fvec2) FDiv 53 52
+ 52: 29(f16vec2) Load 42(f16v)
+ 53: 29(f16vec2) Load 42(f16v)
+ 54: 29(f16vec2) FDiv 53 52
Store 42(f16v) 54
- 55: 29(fvec2) Load 42(f16v)
- 57: 29(fvec2) CompositeConstruct 56 56
- 58: 29(fvec2) FAdd 55 57
+ 55: 29(f16vec2) Load 42(f16v)
+ 57: 29(f16vec2) CompositeConstruct 56 56
+ 58: 29(f16vec2) FAdd 55 57
Store 42(f16v) 58
- 59: 29(fvec2) Load 42(f16v)
- 60: 29(fvec2) CompositeConstruct 56 56
- 61: 29(fvec2) FSub 59 60
+ 59: 29(f16vec2) Load 42(f16v)
+ 60: 29(f16vec2) CompositeConstruct 56 56
+ 61: 29(f16vec2) FSub 59 60
Store 42(f16v) 61
65: 62 Load 64(f16m)
- 66: 29(fvec2) CompositeConstruct 56 56
- 67: 29(fvec2) CompositeExtract 65 0
- 68: 29(fvec2) FAdd 67 66
- 69: 29(fvec2) CompositeExtract 65 1
- 70: 29(fvec2) FAdd 69 66
+ 66: 29(f16vec2) CompositeConstruct 56 56
+ 67: 29(f16vec2) CompositeExtract 65 0
+ 68: 29(f16vec2) FAdd 67 66
+ 69: 29(f16vec2) CompositeExtract 65 1
+ 70: 29(f16vec2) FAdd 69 66
71: 62 CompositeConstruct 68 70
Store 64(f16m) 71
72: 62 Load 64(f16m)
- 73: 29(fvec2) CompositeConstruct 56 56
- 74: 29(fvec2) CompositeExtract 72 0
- 75: 29(fvec2) FSub 74 73
- 76: 29(fvec2) CompositeExtract 72 1
- 77: 29(fvec2) FSub 76 73
+ 73: 29(f16vec2) CompositeConstruct 56 56
+ 74: 29(f16vec2) CompositeExtract 72 0
+ 75: 29(f16vec2) FSub 74 73
+ 76: 29(f16vec2) CompositeExtract 72 1
+ 77: 29(f16vec2) FSub 76 73
78: 62 CompositeConstruct 75 77
Store 64(f16m) 78
- 79: 29(fvec2) Load 42(f16v)
- 80: 29(fvec2) FNegate 79
+ 79: 29(f16vec2) Load 42(f16v)
+ 80: 29(f16vec2) FNegate 79
Store 42(f16v) 80
81: 62 Load 64(f16m)
- 82: 29(fvec2) CompositeExtract 81 0
- 83: 29(fvec2) FNegate 82
- 84: 29(fvec2) CompositeExtract 81 1
- 85: 29(fvec2) FNegate 84
+ 82: 29(f16vec2) CompositeExtract 81 0
+ 83: 29(f16vec2) FNegate 82
+ 84: 29(f16vec2) CompositeExtract 81 1
+ 85: 29(f16vec2) FNegate 84
86: 62 CompositeConstruct 83 85
Store 64(f16m) 86
88: 35(ptr) AccessChain 42(f16v) 34
- 89: 28(float) Load 88
+ 89:28(float16_t) Load 88
91: 35(ptr) AccessChain 42(f16v) 90
- 92: 28(float) Load 91
- 93: 28(float) FAdd 89 92
+ 92:28(float16_t) Load 91
+ 93:28(float16_t) FAdd 89 92
Store 87(f16) 93
94: 35(ptr) AccessChain 42(f16v) 34
- 95: 28(float) Load 94
+ 95:28(float16_t) Load 94
96: 35(ptr) AccessChain 42(f16v) 90
- 97: 28(float) Load 96
- 98: 28(float) FSub 95 97
+ 97:28(float16_t) Load 96
+ 98:28(float16_t) FSub 95 97
Store 87(f16) 98
99: 35(ptr) AccessChain 42(f16v) 34
- 100: 28(float) Load 99
+ 100:28(float16_t) Load 99
101: 35(ptr) AccessChain 42(f16v) 90
- 102: 28(float) Load 101
- 103: 28(float) FMul 100 102
+ 102:28(float16_t) Load 101
+ 103:28(float16_t) FMul 100 102
Store 87(f16) 103
104: 35(ptr) AccessChain 42(f16v) 34
- 105: 28(float) Load 104
+ 105:28(float16_t) Load 104
106: 35(ptr) AccessChain 42(f16v) 90
- 107: 28(float) Load 106
- 108: 28(float) FDiv 105 107
+ 107:28(float16_t) Load 106
+ 108:28(float16_t) FDiv 105 107
Store 87(f16) 108
112: 35(ptr) AccessChain 42(f16v) 34
- 113: 28(float) Load 112
- 114: 28(float) Load 87(f16)
+ 113:28(float16_t) Load 112
+ 114:28(float16_t) Load 87(f16)
115: 109(bool) FOrdNotEqual 113 114
Store 111(b) 115
116: 35(ptr) AccessChain 42(f16v) 90
- 117: 28(float) Load 116
- 118: 28(float) Load 87(f16)
+ 117:28(float16_t) Load 116
+ 118:28(float16_t) Load 87(f16)
119: 109(bool) FOrdEqual 117 118
Store 111(b) 119
120: 35(ptr) AccessChain 42(f16v) 34
- 121: 28(float) Load 120
- 122: 28(float) Load 87(f16)
+ 121:28(float16_t) Load 120
+ 122:28(float16_t) Load 87(f16)
123: 109(bool) FOrdGreaterThan 121 122
Store 111(b) 123
124: 35(ptr) AccessChain 42(f16v) 90
- 125: 28(float) Load 124
- 126: 28(float) Load 87(f16)
+ 125:28(float16_t) Load 124
+ 126:28(float16_t) Load 87(f16)
127: 109(bool) FOrdLessThan 125 126
Store 111(b) 127
128: 35(ptr) AccessChain 42(f16v) 34
- 129: 28(float) Load 128
- 130: 28(float) Load 87(f16)
+ 129:28(float16_t) Load 128
+ 130:28(float16_t) Load 87(f16)
131: 109(bool) FOrdGreaterThanEqual 129 130
Store 111(b) 131
132: 35(ptr) AccessChain 42(f16v) 90
- 133: 28(float) Load 132
- 134: 28(float) Load 87(f16)
+ 133:28(float16_t) Load 132
+ 134:28(float16_t) Load 87(f16)
135: 109(bool) FOrdLessThanEqual 133 134
Store 111(b) 135
- 136: 29(fvec2) Load 42(f16v)
- 137: 28(float) Load 87(f16)
- 138: 29(fvec2) VectorTimesScalar 136 137
+ 136: 29(f16vec2) Load 42(f16v)
+ 137:28(float16_t) Load 87(f16)
+ 138: 29(f16vec2) VectorTimesScalar 136 137
Store 42(f16v) 138
139: 62 Load 64(f16m)
- 140: 28(float) Load 87(f16)
+ 140:28(float16_t) Load 87(f16)
141: 62 MatrixTimesScalar 139 140
Store 64(f16m) 141
142: 62 Load 64(f16m)
- 143: 29(fvec2) Load 42(f16v)
- 144: 29(fvec2) MatrixTimesVector 142 143
+ 143: 29(f16vec2) Load 42(f16v)
+ 144: 29(f16vec2) MatrixTimesVector 142 143
Store 42(f16v) 144
- 145: 29(fvec2) Load 42(f16v)
+ 145: 29(f16vec2) Load 42(f16v)
146: 62 Load 64(f16m)
- 147: 29(fvec2) VectorTimesMatrix 145 146
+ 147: 29(f16vec2) VectorTimesMatrix 145 146
Store 42(f16v) 147
148: 62 Load 64(f16m)
149: 62 Load 64(f16m)
@@ -393,49 +393,49 @@ spv.float16.frag
201(i64v): 200(ptr) Variable Function
209(u64v): 208(ptr) Variable Function
157: 154(bvec3) Load 156(bv)
- 161: 151(fvec3) Select 157 160 159
+ 161:151(f16vec3) Select 157 160 159
Store 153(f16v) 161
- 162: 151(fvec3) Load 153(f16v)
+ 162:151(f16vec3) Load 153(f16v)
163: 154(bvec3) FOrdNotEqual 162 159
Store 156(bv) 163
168: 165(fvec3) Load 167(fv)
- 169: 151(fvec3) FConvert 168
+ 169:151(f16vec3) FConvert 168
Store 153(f16v) 169
- 170: 151(fvec3) Load 153(f16v)
+ 170:151(f16vec3) Load 153(f16v)
171: 165(fvec3) FConvert 170
Store 167(fv) 171
- 176: 173(fvec3) Load 175(dv)
- 177: 151(fvec3) FConvert 176
+ 176:173(f64vec3) Load 175(dv)
+ 177:151(f16vec3) FConvert 176
Store 153(f16v) 177
- 178: 173(fvec3) Load 175(dv)
- 179: 172(float) CompositeExtract 178 0
- 180: 172(float) CompositeExtract 178 1
- 181: 172(float) CompositeExtract 178 2
- 182: 173(fvec3) CompositeConstruct 179 180 181
+ 178:173(f64vec3) Load 175(dv)
+ 179:172(float64_t) CompositeExtract 178 0
+ 180:172(float64_t) CompositeExtract 178 1
+ 181:172(float64_t) CompositeExtract 178 2
+ 182:173(f64vec3) CompositeConstruct 179 180 181
Store 175(dv) 182
187: 184(ivec3) Load 186(iv)
- 188: 151(fvec3) ConvertSToF 187
+ 188:151(f16vec3) ConvertSToF 187
Store 153(f16v) 188
- 189: 151(fvec3) Load 153(f16v)
+ 189:151(f16vec3) Load 153(f16v)
190: 184(ivec3) ConvertFToS 189
Store 186(iv) 190
194: 191(ivec3) Load 193(uv)
- 195: 151(fvec3) ConvertUToF 194
+ 195:151(f16vec3) ConvertUToF 194
Store 153(f16v) 195
- 196: 151(fvec3) Load 153(f16v)
+ 196:151(f16vec3) Load 153(f16v)
197: 191(ivec3) ConvertFToU 196
Store 193(uv) 197
- 202: 199(ivec3) Load 201(i64v)
- 203: 151(fvec3) ConvertSToF 202
+ 202:199(i64vec3) Load 201(i64v)
+ 203:151(f16vec3) ConvertSToF 202
Store 153(f16v) 203
- 204: 151(fvec3) Load 153(f16v)
- 205: 199(ivec3) ConvertFToS 204
+ 204:151(f16vec3) Load 153(f16v)
+ 205:199(i64vec3) ConvertFToS 204
Store 201(i64v) 205
- 210: 207(ivec3) Load 209(u64v)
- 211: 151(fvec3) ConvertUToF 210
+ 210:207(i64vec3) Load 209(u64v)
+ 211:151(f16vec3) ConvertUToF 210
Store 153(f16v) 211
- 212: 151(fvec3) Load 153(f16v)
- 213: 207(ivec3) ConvertFToU 212
+ 212:151(f16vec3) Load 153(f16v)
+ 213:207(i64vec3) ConvertFToU 212
Store 209(u64v) 213
Return
FunctionEnd
@@ -443,51 +443,51 @@ spv.float16.frag
13: Label
216(f16v2): 215(ptr) Variable Function
217(f16v1): 215(ptr) Variable Function
- 218: 214(fvec4) Load 217(f16v1)
- 219: 214(fvec4) ExtInst 1(GLSL.std.450) 11(Radians) 218
+ 218:214(f16vec4) Load 217(f16v1)
+ 219:214(f16vec4) ExtInst 1(GLSL.std.450) 11(Radians) 218
Store 216(f16v2) 219
- 220: 214(fvec4) Load 217(f16v1)
- 221: 214(fvec4) ExtInst 1(GLSL.std.450) 12(Degrees) 220
+ 220:214(f16vec4) Load 217(f16v1)
+ 221:214(f16vec4) ExtInst 1(GLSL.std.450) 12(Degrees) 220
Store 216(f16v2) 221
- 222: 214(fvec4) Load 217(f16v1)
- 223: 214(fvec4) ExtInst 1(GLSL.std.450) 13(Sin) 222
+ 222:214(f16vec4) Load 217(f16v1)
+ 223:214(f16vec4) ExtInst 1(GLSL.std.450) 13(Sin) 222
Store 216(f16v2) 223
- 224: 214(fvec4) Load 217(f16v1)
- 225: 214(fvec4) ExtInst 1(GLSL.std.450) 14(Cos) 224
+ 224:214(f16vec4) Load 217(f16v1)
+ 225:214(f16vec4) ExtInst 1(GLSL.std.450) 14(Cos) 224
Store 216(f16v2) 225
- 226: 214(fvec4) Load 217(f16v1)
- 227: 214(fvec4) ExtInst 1(GLSL.std.450) 15(Tan) 226
+ 226:214(f16vec4) Load 217(f16v1)
+ 227:214(f16vec4) ExtInst 1(GLSL.std.450) 15(Tan) 226
Store 216(f16v2) 227
- 228: 214(fvec4) Load 217(f16v1)
- 229: 214(fvec4) ExtInst 1(GLSL.std.450) 16(Asin) 228
+ 228:214(f16vec4) Load 217(f16v1)
+ 229:214(f16vec4) ExtInst 1(GLSL.std.450) 16(Asin) 228
Store 216(f16v2) 229
- 230: 214(fvec4) Load 217(f16v1)
- 231: 214(fvec4) ExtInst 1(GLSL.std.450) 17(Acos) 230
+ 230:214(f16vec4) Load 217(f16v1)
+ 231:214(f16vec4) ExtInst 1(GLSL.std.450) 17(Acos) 230
Store 216(f16v2) 231
- 232: 214(fvec4) Load 217(f16v1)
- 233: 214(fvec4) Load 216(f16v2)
- 234: 214(fvec4) ExtInst 1(GLSL.std.450) 25(Atan2) 232 233
+ 232:214(f16vec4) Load 217(f16v1)
+ 233:214(f16vec4) Load 216(f16v2)
+ 234:214(f16vec4) ExtInst 1(GLSL.std.450) 25(Atan2) 232 233
Store 216(f16v2) 234
- 235: 214(fvec4) Load 217(f16v1)
- 236: 214(fvec4) ExtInst 1(GLSL.std.450) 18(Atan) 235
+ 235:214(f16vec4) Load 217(f16v1)
+ 236:214(f16vec4) ExtInst 1(GLSL.std.450) 18(Atan) 235
Store 216(f16v2) 236
- 237: 214(fvec4) Load 217(f16v1)
- 238: 214(fvec4) ExtInst 1(GLSL.std.450) 19(Sinh) 237
+ 237:214(f16vec4) Load 217(f16v1)
+ 238:214(f16vec4) ExtInst 1(GLSL.std.450) 19(Sinh) 237
Store 216(f16v2) 238
- 239: 214(fvec4) Load 217(f16v1)
- 240: 214(fvec4) ExtInst 1(GLSL.std.450) 20(Cosh) 239
+ 239:214(f16vec4) Load 217(f16v1)
+ 240:214(f16vec4) ExtInst 1(GLSL.std.450) 20(Cosh) 239
Store 216(f16v2) 240
- 241: 214(fvec4) Load 217(f16v1)
- 242: 214(fvec4) ExtInst 1(GLSL.std.450) 21(Tanh) 241
+ 241:214(f16vec4) Load 217(f16v1)
+ 242:214(f16vec4) ExtInst 1(GLSL.std.450) 21(Tanh) 241
Store 216(f16v2) 242
- 243: 214(fvec4) Load 217(f16v1)
- 244: 214(fvec4) ExtInst 1(GLSL.std.450) 22(Asinh) 243
+ 243:214(f16vec4) Load 217(f16v1)
+ 244:214(f16vec4) ExtInst 1(GLSL.std.450) 22(Asinh) 243
Store 216(f16v2) 244
- 245: 214(fvec4) Load 217(f16v1)
- 246: 214(fvec4) ExtInst 1(GLSL.std.450) 23(Acosh) 245
+ 245:214(f16vec4) Load 217(f16v1)
+ 246:214(f16vec4) ExtInst 1(GLSL.std.450) 23(Acosh) 245
Store 216(f16v2) 246
- 247: 214(fvec4) Load 217(f16v1)
- 248: 214(fvec4) ExtInst 1(GLSL.std.450) 24(Atanh) 247
+ 247:214(f16vec4) Load 217(f16v1)
+ 248:214(f16vec4) ExtInst 1(GLSL.std.450) 24(Atanh) 247
Store 216(f16v2) 248
Return
FunctionEnd
@@ -495,27 +495,27 @@ spv.float16.frag
15: Label
249(f16v2): 30(ptr) Variable Function
250(f16v1): 30(ptr) Variable Function
- 251: 29(fvec2) Load 250(f16v1)
- 252: 29(fvec2) Load 249(f16v2)
- 253: 29(fvec2) ExtInst 1(GLSL.std.450) 26(Pow) 251 252
+ 251: 29(f16vec2) Load 250(f16v1)
+ 252: 29(f16vec2) Load 249(f16v2)
+ 253: 29(f16vec2) ExtInst 1(GLSL.std.450) 26(Pow) 251 252
Store 249(f16v2) 253
- 254: 29(fvec2) Load 250(f16v1)
- 255: 29(fvec2) ExtInst 1(GLSL.std.450) 27(Exp) 254
+ 254: 29(f16vec2) Load 250(f16v1)
+ 255: 29(f16vec2) ExtInst 1(GLSL.std.450) 27(Exp) 254
Store 249(f16v2) 255
- 256: 29(fvec2) Load 250(f16v1)
- 257: 29(fvec2) ExtInst 1(GLSL.std.450) 28(Log) 256
+ 256: 29(f16vec2) Load 250(f16v1)
+ 257: 29(f16vec2) ExtInst 1(GLSL.std.450) 28(Log) 256
Store 249(f16v2) 257
- 258: 29(fvec2) Load 250(f16v1)
- 259: 29(fvec2) ExtInst 1(GLSL.std.450) 29(Exp2) 258
+ 258: 29(f16vec2) Load 250(f16v1)
+ 259: 29(f16vec2) ExtInst 1(GLSL.std.450) 29(Exp2) 258
Store 249(f16v2) 259
- 260: 29(fvec2) Load 250(f16v1)
- 261: 29(fvec2) ExtInst 1(GLSL.std.450) 30(Log2) 260
+ 260: 29(f16vec2) Load 250(f16v1)
+ 261: 29(f16vec2) ExtInst 1(GLSL.std.450) 30(Log2) 260
Store 249(f16v2) 261
- 262: 29(fvec2) Load 250(f16v1)
- 263: 29(fvec2) ExtInst 1(GLSL.std.450) 31(Sqrt) 262
+ 262: 29(f16vec2) Load 250(f16v1)
+ 263: 29(f16vec2) ExtInst 1(GLSL.std.450) 31(Sqrt) 262
Store 249(f16v2) 263
- 264: 29(fvec2) Load 250(f16v1)
- 265: 29(fvec2) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 264
+ 264: 29(f16vec2) Load 250(f16v1)
+ 265: 29(f16vec2) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 264
Store 249(f16v2) 265
Return
FunctionEnd
@@ -528,132 +528,132 @@ spv.float16.frag
332(bv): 155(ptr) Variable Function
353(b): 110(ptr) Variable Function
363(iv): 185(ptr) Variable Function
- 268: 151(fvec3) Load 267(f16v1)
- 269: 151(fvec3) ExtInst 1(GLSL.std.450) 4(FAbs) 268
+ 268:151(f16vec3) Load 267(f16v1)
+ 269:151(f16vec3) ExtInst 1(GLSL.std.450) 4(FAbs) 268
Store 266(f16v2) 269
- 270: 151(fvec3) Load 267(f16v1)
- 271: 151(fvec3) ExtInst 1(GLSL.std.450) 6(FSign) 270
+ 270:151(f16vec3) Load 267(f16v1)
+ 271:151(f16vec3) ExtInst 1(GLSL.std.450) 6(FSign) 270
Store 266(f16v2) 271
- 272: 151(fvec3) Load 267(f16v1)
- 273: 151(fvec3) ExtInst 1(GLSL.std.450) 8(Floor) 272
+ 272:151(f16vec3) Load 267(f16v1)
+ 273:151(f16vec3) ExtInst 1(GLSL.std.450) 8(Floor) 272
Store 266(f16v2) 273
- 274: 151(fvec3) Load 267(f16v1)
- 275: 151(fvec3) ExtInst 1(GLSL.std.450) 3(Trunc) 274
+ 274:151(f16vec3) Load 267(f16v1)
+ 275:151(f16vec3) ExtInst 1(GLSL.std.450) 3(Trunc) 274
Store 266(f16v2) 275
- 276: 151(fvec3) Load 267(f16v1)
- 277: 151(fvec3) ExtInst 1(GLSL.std.450) 1(Round) 276
+ 276:151(f16vec3) Load 267(f16v1)
+ 277:151(f16vec3) ExtInst 1(GLSL.std.450) 1(Round) 276
Store 266(f16v2) 277
- 278: 151(fvec3) Load 267(f16v1)
- 279: 151(fvec3) ExtInst 1(GLSL.std.450) 2(RoundEven) 278
+ 278:151(f16vec3) Load 267(f16v1)
+ 279:151(f16vec3) ExtInst 1(GLSL.std.450) 2(RoundEven) 278
Store 266(f16v2) 279
- 280: 151(fvec3) Load 267(f16v1)
- 281: 151(fvec3) ExtInst 1(GLSL.std.450) 9(Ceil) 280
+ 280:151(f16vec3) Load 267(f16v1)
+ 281:151(f16vec3) ExtInst 1(GLSL.std.450) 9(Ceil) 280
Store 266(f16v2) 281
- 282: 151(fvec3) Load 267(f16v1)
- 283: 151(fvec3) ExtInst 1(GLSL.std.450) 10(Fract) 282
+ 282:151(f16vec3) Load 267(f16v1)
+ 283:151(f16vec3) ExtInst 1(GLSL.std.450) 10(Fract) 282
Store 266(f16v2) 283
- 284: 151(fvec3) Load 267(f16v1)
- 285: 151(fvec3) Load 266(f16v2)
- 286: 151(fvec3) FMod 284 285
+ 284:151(f16vec3) Load 267(f16v1)
+ 285:151(f16vec3) Load 266(f16v2)
+ 286:151(f16vec3) FMod 284 285
Store 266(f16v2) 286
- 287: 151(fvec3) Load 267(f16v1)
- 289: 28(float) Load 288(f16)
- 290: 151(fvec3) CompositeConstruct 289 289 289
- 291: 151(fvec3) FMod 287 290
+ 287:151(f16vec3) Load 267(f16v1)
+ 289:28(float16_t) Load 288(f16)
+ 290:151(f16vec3) CompositeConstruct 289 289 289
+ 291:151(f16vec3) FMod 287 290
Store 266(f16v2) 291
- 293: 151(fvec3) Load 267(f16v1)
- 294: 151(fvec3) ExtInst 1(GLSL.std.450) 35(Modf) 293 266(f16v2)
+ 293:151(f16vec3) Load 267(f16v1)
+ 294:151(f16vec3) ExtInst 1(GLSL.std.450) 35(Modf) 293 266(f16v2)
Store 292(f16v3) 294
- 295: 151(fvec3) Load 267(f16v1)
- 296: 151(fvec3) Load 266(f16v2)
- 297: 151(fvec3) ExtInst 1(GLSL.std.450) 37(FMin) 295 296
+ 295:151(f16vec3) Load 267(f16v1)
+ 296:151(f16vec3) Load 266(f16v2)
+ 297:151(f16vec3) ExtInst 1(GLSL.std.450) 37(FMin) 295 296
Store 292(f16v3) 297
- 298: 151(fvec3) Load 267(f16v1)
- 299: 28(float) Load 288(f16)
- 300: 151(fvec3) CompositeConstruct 299 299 299
- 301: 151(fvec3) ExtInst 1(GLSL.std.450) 37(FMin) 298 300
+ 298:151(f16vec3) Load 267(f16v1)
+ 299:28(float16_t) Load 288(f16)
+ 300:151(f16vec3) CompositeConstruct 299 299 299
+ 301:151(f16vec3) ExtInst 1(GLSL.std.450) 37(FMin) 298 300
Store 292(f16v3) 301
- 302: 151(fvec3) Load 267(f16v1)
- 303: 151(fvec3) Load 266(f16v2)
- 304: 151(fvec3) ExtInst 1(GLSL.std.450) 40(FMax) 302 303
+ 302:151(f16vec3) Load 267(f16v1)
+ 303:151(f16vec3) Load 266(f16v2)
+ 304:151(f16vec3) ExtInst 1(GLSL.std.450) 40(FMax) 302 303
Store 292(f16v3) 304
- 305: 151(fvec3) Load 267(f16v1)
- 306: 28(float) Load 288(f16)
- 307: 151(fvec3) CompositeConstruct 306 306 306
- 308: 151(fvec3) ExtInst 1(GLSL.std.450) 40(FMax) 305 307
+ 305:151(f16vec3) Load 267(f16v1)
+ 306:28(float16_t) Load 288(f16)
+ 307:151(f16vec3) CompositeConstruct 306 306 306
+ 308:151(f16vec3) ExtInst 1(GLSL.std.450) 40(FMax) 305 307
Store 292(f16v3) 308
- 309: 151(fvec3) Load 267(f16v1)
- 310: 28(float) Load 288(f16)
+ 309:151(f16vec3) Load 267(f16v1)
+ 310:28(float16_t) Load 288(f16)
311: 35(ptr) AccessChain 266(f16v2) 34
- 312: 28(float) Load 311
- 313: 151(fvec3) CompositeConstruct 310 310 310
- 314: 151(fvec3) CompositeConstruct 312 312 312
- 315: 151(fvec3) ExtInst 1(GLSL.std.450) 43(FClamp) 309 313 314
+ 312:28(float16_t) Load 311
+ 313:151(f16vec3) CompositeConstruct 310 310 310
+ 314:151(f16vec3) CompositeConstruct 312 312 312
+ 315:151(f16vec3) ExtInst 1(GLSL.std.450) 43(FClamp) 309 313 314
Store 292(f16v3) 315
- 316: 151(fvec3) Load 267(f16v1)
- 317: 151(fvec3) Load 266(f16v2)
- 318: 28(float) Load 288(f16)
- 319: 151(fvec3) CompositeConstruct 318 318 318
- 320: 151(fvec3) ExtInst 1(GLSL.std.450) 43(FClamp) 316 317 319
+ 316:151(f16vec3) Load 267(f16v1)
+ 317:151(f16vec3) Load 266(f16v2)
+ 318:28(float16_t) Load 288(f16)
+ 319:151(f16vec3) CompositeConstruct 318 318 318
+ 320:151(f16vec3) ExtInst 1(GLSL.std.450) 43(FClamp) 316 317 319
Store 292(f16v3) 320
- 321: 151(fvec3) Load 267(f16v1)
- 322: 151(fvec3) Load 266(f16v2)
- 323: 28(float) Load 288(f16)
- 324: 151(fvec3) CompositeConstruct 323 323 323
- 325: 151(fvec3) ExtInst 1(GLSL.std.450) 46(FMix) 321 322 324
+ 321:151(f16vec3) Load 267(f16v1)
+ 322:151(f16vec3) Load 266(f16v2)
+ 323:28(float16_t) Load 288(f16)
+ 324:151(f16vec3) CompositeConstruct 323 323 323
+ 325:151(f16vec3) ExtInst 1(GLSL.std.450) 46(FMix) 321 322 324
Store 292(f16v3) 325
- 326: 151(fvec3) Load 267(f16v1)
- 327: 151(fvec3) Load 266(f16v2)
- 328: 151(fvec3) Load 292(f16v3)
- 329: 151(fvec3) ExtInst 1(GLSL.std.450) 46(FMix) 326 327 328
+ 326:151(f16vec3) Load 267(f16v1)
+ 327:151(f16vec3) Load 266(f16v2)
+ 328:151(f16vec3) Load 292(f16v3)
+ 329:151(f16vec3) ExtInst 1(GLSL.std.450) 46(FMix) 326 327 328
Store 292(f16v3) 329
- 330: 151(fvec3) Load 267(f16v1)
- 331: 151(fvec3) Load 266(f16v2)
+ 330:151(f16vec3) Load 267(f16v1)
+ 331:151(f16vec3) Load 266(f16v2)
333: 154(bvec3) Load 332(bv)
- 334: 151(fvec3) Select 333 331 330
+ 334:151(f16vec3) Select 333 331 330
Store 292(f16v3) 334
- 335: 151(fvec3) Load 267(f16v1)
- 336: 151(fvec3) Load 266(f16v2)
- 337: 151(fvec3) ExtInst 1(GLSL.std.450) 48(Step) 335 336
+ 335:151(f16vec3) Load 267(f16v1)
+ 336:151(f16vec3) Load 266(f16v2)
+ 337:151(f16vec3) ExtInst 1(GLSL.std.450) 48(Step) 335 336
Store 292(f16v3) 337
- 338: 28(float) Load 288(f16)
- 339: 151(fvec3) Load 292(f16v3)
- 340: 151(fvec3) CompositeConstruct 338 338 338
- 341: 151(fvec3) ExtInst 1(GLSL.std.450) 48(Step) 340 339
+ 338:28(float16_t) Load 288(f16)
+ 339:151(f16vec3) Load 292(f16v3)
+ 340:151(f16vec3) CompositeConstruct 338 338 338
+ 341:151(f16vec3) ExtInst 1(GLSL.std.450) 48(Step) 340 339
Store 292(f16v3) 341
- 342: 151(fvec3) Load 267(f16v1)
- 343: 151(fvec3) Load 266(f16v2)
- 344: 151(fvec3) Load 292(f16v3)
- 345: 151(fvec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 342 343 344
+ 342:151(f16vec3) Load 267(f16v1)
+ 343:151(f16vec3) Load 266(f16v2)
+ 344:151(f16vec3) Load 292(f16v3)
+ 345:151(f16vec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 342 343 344
Store 292(f16v3) 345
- 346: 28(float) Load 288(f16)
+ 346:28(float16_t) Load 288(f16)
347: 35(ptr) AccessChain 267(f16v1) 34
- 348: 28(float) Load 347
- 349: 151(fvec3) Load 266(f16v2)
- 350: 151(fvec3) CompositeConstruct 346 346 346
- 351: 151(fvec3) CompositeConstruct 348 348 348
- 352: 151(fvec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 350 351 349
+ 348:28(float16_t) Load 347
+ 349:151(f16vec3) Load 266(f16v2)
+ 350:151(f16vec3) CompositeConstruct 346 346 346
+ 351:151(f16vec3) CompositeConstruct 348 348 348
+ 352:151(f16vec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 350 351 349
Store 292(f16v3) 352
- 354: 28(float) Load 288(f16)
+ 354:28(float16_t) Load 288(f16)
355: 109(bool) IsNan 354
Store 353(b) 355
- 356: 151(fvec3) Load 267(f16v1)
+ 356:151(f16vec3) Load 267(f16v1)
357: 154(bvec3) IsInf 356
Store 332(bv) 357
- 358: 151(fvec3) Load 267(f16v1)
- 359: 151(fvec3) Load 266(f16v2)
- 360: 151(fvec3) Load 292(f16v3)
- 361: 151(fvec3) ExtInst 1(GLSL.std.450) 50(Fma) 358 359 360
+ 358:151(f16vec3) Load 267(f16v1)
+ 359:151(f16vec3) Load 266(f16v2)
+ 360:151(f16vec3) Load 292(f16v3)
+ 361:151(f16vec3) ExtInst 1(GLSL.std.450) 50(Fma) 358 359 360
Store 292(f16v3) 361
- 362: 151(fvec3) Load 267(f16v1)
+ 362:151(f16vec3) Load 267(f16v1)
365:364(ResType) ExtInst 1(GLSL.std.450) 52(FrexpStruct) 362
366: 184(ivec3) CompositeExtract 365 1
Store 363(iv) 366
- 367: 151(fvec3) CompositeExtract 365 0
+ 367:151(f16vec3) CompositeExtract 365 0
Store 266(f16v2) 367
- 368: 151(fvec3) Load 267(f16v1)
+ 368:151(f16vec3) Load 267(f16v1)
369: 184(ivec3) Load 363(iv)
- 370: 151(fvec3) ExtInst 1(GLSL.std.450) 53(Ldexp) 368 369
+ 370:151(f16vec3) ExtInst 1(GLSL.std.450) 53(Ldexp) 368 369
Store 266(f16v2) 370
Return
FunctionEnd
@@ -661,11 +661,11 @@ spv.float16.frag
19: Label
372(u): 371(ptr) Variable Function
373(f16v): 30(ptr) Variable Function
- 374: 29(fvec2) Load 373(f16v)
+ 374: 29(f16vec2) Load 373(f16v)
375: 33(int) Bitcast 374
Store 372(u) 375
376: 33(int) Load 372(u)
- 377: 29(fvec2) Bitcast 376
+ 377: 29(f16vec2) Bitcast 376
Store 373(f16v) 377
Return
FunctionEnd
@@ -675,37 +675,37 @@ spv.float16.frag
379(f16v1): 152(ptr) Variable Function
383(f16v2): 152(ptr) Variable Function
389(f16v3): 152(ptr) Variable Function
- 380: 151(fvec3) Load 379(f16v1)
- 381: 28(float) ExtInst 1(GLSL.std.450) 66(Length) 380
+ 380:151(f16vec3) Load 379(f16v1)
+ 381:28(float16_t) ExtInst 1(GLSL.std.450) 66(Length) 380
Store 378(f16) 381
- 382: 151(fvec3) Load 379(f16v1)
- 384: 151(fvec3) Load 383(f16v2)
- 385: 28(float) ExtInst 1(GLSL.std.450) 67(Distance) 382 384
+ 382:151(f16vec3) Load 379(f16v1)
+ 384:151(f16vec3) Load 383(f16v2)
+ 385:28(float16_t) ExtInst 1(GLSL.std.450) 67(Distance) 382 384
Store 378(f16) 385
- 386: 151(fvec3) Load 379(f16v1)
- 387: 151(fvec3) Load 383(f16v2)
- 388: 28(float) Dot 386 387
+ 386:151(f16vec3) Load 379(f16v1)
+ 387:151(f16vec3) Load 383(f16v2)
+ 388:28(float16_t) Dot 386 387
Store 378(f16) 388
- 390: 151(fvec3) Load 379(f16v1)
- 391: 151(fvec3) Load 383(f16v2)
- 392: 151(fvec3) ExtInst 1(GLSL.std.450) 68(Cross) 390 391
+ 390:151(f16vec3) Load 379(f16v1)
+ 391:151(f16vec3) Load 383(f16v2)
+ 392:151(f16vec3) ExtInst 1(GLSL.std.450) 68(Cross) 390 391
Store 389(f16v3) 392
- 393: 151(fvec3) Load 379(f16v1)
- 394: 151(fvec3) ExtInst 1(GLSL.std.450) 69(Normalize) 393
+ 393:151(f16vec3) Load 379(f16v1)
+ 394:151(f16vec3) ExtInst 1(GLSL.std.450) 69(Normalize) 393
Store 383(f16v2) 394
- 395: 151(fvec3) Load 379(f16v1)
- 396: 151(fvec3) Load 383(f16v2)
- 397: 151(fvec3) Load 389(f16v3)
- 398: 151(fvec3) ExtInst 1(GLSL.std.450) 70(FaceForward) 395 396 397
+ 395:151(f16vec3) Load 379(f16v1)
+ 396:151(f16vec3) Load 383(f16v2)
+ 397:151(f16vec3) Load 389(f16v3)
+ 398:151(f16vec3) ExtInst 1(GLSL.std.450) 70(FaceForward) 395 396 397
Store 389(f16v3) 398
- 399: 151(fvec3) Load 379(f16v1)
- 400: 151(fvec3) Load 383(f16v2)
- 401: 151(fvec3) ExtInst 1(GLSL.std.450) 71(Reflect) 399 400
+ 399:151(f16vec3) Load 379(f16v1)
+ 400:151(f16vec3) Load 383(f16v2)
+ 401:151(f16vec3) ExtInst 1(GLSL.std.450) 71(Reflect) 399 400
Store 389(f16v3) 401
- 402: 151(fvec3) Load 379(f16v1)
- 403: 151(fvec3) Load 383(f16v2)
- 404: 28(float) Load 378(f16)
- 405: 151(fvec3) ExtInst 1(GLSL.std.450) 72(Refract) 402 403 404
+ 402:151(f16vec3) Load 379(f16v1)
+ 403:151(f16vec3) Load 383(f16v2)
+ 404:28(float16_t) Load 378(f16)
+ 405:151(f16vec3) ExtInst 1(GLSL.std.450) 72(Refract) 402 403 404
Store 389(f16v3) 405
Return
FunctionEnd
@@ -723,23 +723,23 @@ spv.float16.frag
439(f16m7): 437(ptr) Variable Function
410: 406 Load 409(f16m1)
412: 406 Load 411(f16m2)
- 413: 151(fvec3) CompositeExtract 410 0
- 414: 151(fvec3) CompositeExtract 412 0
- 415: 151(fvec3) FMul 413 414
- 416: 151(fvec3) CompositeExtract 410 1
- 417: 151(fvec3) CompositeExtract 412 1
- 418: 151(fvec3) FMul 416 417
+ 413:151(f16vec3) CompositeExtract 410 0
+ 414:151(f16vec3) CompositeExtract 412 0
+ 415:151(f16vec3) FMul 413 414
+ 416:151(f16vec3) CompositeExtract 410 1
+ 417:151(f16vec3) CompositeExtract 412 1
+ 418:151(f16vec3) FMul 416 417
419: 406 CompositeConstruct 415 418
Store 408(f16m3) 419
- 421: 151(fvec3) Load 420(f16v1)
- 423: 29(fvec2) Load 422(f16v2)
+ 421:151(f16vec3) Load 420(f16v1)
+ 423: 29(f16vec2) Load 422(f16v2)
424: 406 OuterProduct 421 423
Store 409(f16m1) 424
428: 406 Load 409(f16m1)
429: 425 Transpose 428
Store 427(f16m4) 429
434: 431 Load 433(f16m5)
- 435: 28(float) ExtInst 1(GLSL.std.450) 33(Determinant) 434
+ 435:28(float16_t) ExtInst 1(GLSL.std.450) 33(Determinant) 434
Store 430(f16) 435
440: 436 Load 439(f16m7)
441: 436 ExtInst 1(GLSL.std.450) 34(MatrixInverse) 440
@@ -751,28 +751,28 @@ spv.float16.frag
442(bv): 155(ptr) Variable Function
443(f16v1): 152(ptr) Variable Function
445(f16v2): 152(ptr) Variable Function
- 444: 151(fvec3) Load 443(f16v1)
- 446: 151(fvec3) Load 445(f16v2)
+ 444:151(f16vec3) Load 443(f16v1)
+ 446:151(f16vec3) Load 445(f16v2)
447: 154(bvec3) FOrdLessThan 444 446
Store 442(bv) 447
- 448: 151(fvec3) Load 443(f16v1)
- 449: 151(fvec3) Load 445(f16v2)
+ 448:151(f16vec3) Load 443(f16v1)
+ 449:151(f16vec3) Load 445(f16v2)
450: 154(bvec3) FOrdLessThanEqual 448 449
Store 442(bv) 450
- 451: 151(fvec3) Load 443(f16v1)
- 452: 151(fvec3) Load 445(f16v2)
+ 451:151(f16vec3) Load 443(f16v1)
+ 452:151(f16vec3) Load 445(f16v2)
453: 154(bvec3) FOrdGreaterThan 451 452
Store 442(bv) 453
- 454: 151(fvec3) Load 443(f16v1)
- 455: 151(fvec3) Load 445(f16v2)
+ 454:151(f16vec3) Load 443(f16v1)
+ 455:151(f16vec3) Load 445(f16v2)
456: 154(bvec3) FOrdGreaterThanEqual 454 455
Store 442(bv) 456
- 457: 151(fvec3) Load 443(f16v1)
- 458: 151(fvec3) Load 445(f16v2)
+ 457:151(f16vec3) Load 443(f16v1)
+ 458:151(f16vec3) Load 445(f16v2)
459: 154(bvec3) FOrdEqual 457 458
Store 442(bv) 459
- 460: 151(fvec3) Load 443(f16v1)
- 461: 151(fvec3) Load 445(f16v2)
+ 460:151(f16vec3) Load 443(f16v1)
+ 461:151(f16vec3) Load 445(f16v2)
462: 154(bvec3) FOrdNotEqual 460 461
Store 442(bv) 462
Return
@@ -781,57 +781,57 @@ spv.float16.frag
27: Label
463(f16v): 152(ptr) Variable Function
467: 466(ptr) AccessChain 465(if16v) 34
- 468: 28(float) Load 467
- 469: 28(float) DPdx 468
+ 468:28(float16_t) Load 467
+ 469:28(float16_t) DPdx 468
470: 35(ptr) AccessChain 463(f16v) 34
Store 470 469
471: 466(ptr) AccessChain 465(if16v) 90
- 472: 28(float) Load 471
- 473: 28(float) DPdy 472
+ 472:28(float16_t) Load 471
+ 473:28(float16_t) DPdy 472
474: 35(ptr) AccessChain 463(f16v) 90
Store 474 473
- 475: 151(fvec3) Load 465(if16v)
- 476: 29(fvec2) VectorShuffle 475 475 0 1
- 477: 29(fvec2) DPdxFine 476
- 478: 151(fvec3) Load 463(f16v)
- 479: 151(fvec3) VectorShuffle 478 477 3 4 2
+ 475:151(f16vec3) Load 465(if16v)
+ 476: 29(f16vec2) VectorShuffle 475 475 0 1
+ 477: 29(f16vec2) DPdxFine 476
+ 478:151(f16vec3) Load 463(f16v)
+ 479:151(f16vec3) VectorShuffle 478 477 3 4 2
Store 463(f16v) 479
- 480: 151(fvec3) Load 465(if16v)
- 481: 29(fvec2) VectorShuffle 480 480 0 1
- 482: 29(fvec2) DPdyFine 481
- 483: 151(fvec3) Load 463(f16v)
- 484: 151(fvec3) VectorShuffle 483 482 3 4 2
+ 480:151(f16vec3) Load 465(if16v)
+ 481: 29(f16vec2) VectorShuffle 480 480 0 1
+ 482: 29(f16vec2) DPdyFine 481
+ 483:151(f16vec3) Load 463(f16v)
+ 484:151(f16vec3) VectorShuffle 483 482 3 4 2
Store 463(f16v) 484
- 485: 151(fvec3) Load 465(if16v)
- 486: 151(fvec3) DPdxCoarse 485
+ 485:151(f16vec3) Load 465(if16v)
+ 486:151(f16vec3) DPdxCoarse 485
Store 463(f16v) 486
- 487: 151(fvec3) Load 465(if16v)
- 488: 151(fvec3) DPdxCoarse 487
+ 487:151(f16vec3) Load 465(if16v)
+ 488:151(f16vec3) DPdxCoarse 487
Store 463(f16v) 488
489: 466(ptr) AccessChain 465(if16v) 34
- 490: 28(float) Load 489
- 491: 28(float) Fwidth 490
+ 490:28(float16_t) Load 489
+ 491:28(float16_t) Fwidth 490
492: 35(ptr) AccessChain 463(f16v) 34
Store 492 491
- 493: 151(fvec3) Load 465(if16v)
- 494: 29(fvec2) VectorShuffle 493 493 0 1
- 495: 29(fvec2) FwidthFine 494
- 496: 151(fvec3) Load 463(f16v)
- 497: 151(fvec3) VectorShuffle 496 495 3 4 2
+ 493:151(f16vec3) Load 465(if16v)
+ 494: 29(f16vec2) VectorShuffle 493 493 0 1
+ 495: 29(f16vec2) FwidthFine 494
+ 496:151(f16vec3) Load 463(f16v)
+ 497:151(f16vec3) VectorShuffle 496 495 3 4 2
Store 463(f16v) 497
- 498: 151(fvec3) Load 465(if16v)
- 499: 151(fvec3) FwidthCoarse 498
+ 498:151(f16vec3) Load 465(if16v)
+ 499:151(f16vec3) FwidthCoarse 498
Store 463(f16v) 499
500: 466(ptr) AccessChain 465(if16v) 34
- 501: 28(float) ExtInst 1(GLSL.std.450) 76(InterpolateAtCentroid) 500
+ 501:28(float16_t) ExtInst 1(GLSL.std.450) 76(InterpolateAtCentroid) 500
502: 35(ptr) AccessChain 463(f16v) 34
Store 502 501
- 504: 151(fvec3) ExtInst 1(GLSL.std.450) 77(InterpolateAtSample) 465(if16v) 503
- 505: 29(fvec2) VectorShuffle 504 504 0 1
- 506: 151(fvec3) Load 463(f16v)
- 507: 151(fvec3) VectorShuffle 506 505 3 4 2
+ 504:151(f16vec3) ExtInst 1(GLSL.std.450) 77(InterpolateAtSample) 465(if16v) 503
+ 505: 29(f16vec2) VectorShuffle 504 504 0 1
+ 506:151(f16vec3) Load 463(f16v)
+ 507:151(f16vec3) VectorShuffle 506 505 3 4 2
Store 463(f16v) 507
- 510: 151(fvec3) ExtInst 1(GLSL.std.450) 78(InterpolateAtOffset) 465(if16v) 509
+ 510:151(f16vec3) ExtInst 1(GLSL.std.450) 78(InterpolateAtOffset) 465(if16v) 509
Store 463(f16v) 510
Return
FunctionEnd
diff --git a/Test/baseResults/spv.float16Fetch.frag.out b/Test/baseResults/spv.float16Fetch.frag.out
index 94125da2..093af6bc 100644
--- a/Test/baseResults/spv.float16Fetch.frag.out
+++ b/Test/baseResults/spv.float16Fetch.frag.out
@@ -321,8 +321,8 @@ spv.float16Fetch.frag
2: TypeVoid
3: TypeFunction 2
6: TypeFloat 16
- 7: TypeVector 6(float) 4
- 8: TypeFunction 7(fvec4)
+ 7: TypeVector 6(float16_t) 4
+ 8: TypeFunction 7(f16vec4)
47: TypeInt 32 1
48: TypeVector 47(int) 4
49: TypeFunction 48(ivec4)
@@ -330,92 +330,92 @@ spv.float16Fetch.frag
53: TypeVector 52(float) 2
54: TypeFunction 53(fvec2)
57: TypeFunction 47(int)
- 64: TypePointer Function 7(fvec4)
+ 64: TypePointer Function 7(f16vec4)
65: TypeFunction 2 64(ptr)
- 120: 6(float) Constant 0
- 121: 7(fvec4) ConstantComposite 120 120 120 120
- 122: TypeImage 6(float) 1D sampled format:Unknown
+ 120:6(float16_t) Constant 0
+ 121: 7(f16vec4) ConstantComposite 120 120 120 120
+ 122: TypeImage 6(float16_t) 1D sampled format:Unknown
123: TypeSampledImage 122
124: TypePointer UniformConstant 123
125(s1D): 124(ptr) Variable UniformConstant
127: TypePointer Input 52(float)
128(c1): 127(ptr) Variable Input
- 134: TypePointer Input 6(float)
+ 134: TypePointer Input 6(float16_t)
135(f16c1): 134(ptr) Variable Input
137(f16bias): 134(ptr) Variable Input
- 142: TypeImage 6(float) 2D sampled format:Unknown
+ 142: TypeImage 6(float16_t) 2D sampled format:Unknown
143: TypeSampledImage 142
144: TypePointer UniformConstant 143
145(s2D): 144(ptr) Variable UniformConstant
147: TypePointer Input 53(fvec2)
148(c2): 147(ptr) Variable Input
- 154: TypeVector 6(float) 2
- 155: TypePointer Input 154(fvec2)
+ 154: TypeVector 6(float16_t) 2
+ 155: TypePointer Input 154(f16vec2)
156(f16c2): 155(ptr) Variable Input
- 162: TypeImage 6(float) 3D sampled format:Unknown
+ 162: TypeImage 6(float16_t) 3D sampled format:Unknown
163: TypeSampledImage 162
164: TypePointer UniformConstant 163
165(s3D): 164(ptr) Variable UniformConstant
167: TypeVector 52(float) 3
168: TypePointer Input 167(fvec3)
169(c3): 168(ptr) Variable Input
- 175: TypeVector 6(float) 3
- 176: TypePointer Input 175(fvec3)
+ 175: TypeVector 6(float16_t) 3
+ 176: TypePointer Input 175(f16vec3)
177(f16c3): 176(ptr) Variable Input
- 183: TypeImage 6(float) Cube sampled format:Unknown
+ 183: TypeImage 6(float16_t) Cube sampled format:Unknown
184: TypeSampledImage 183
185: TypePointer UniformConstant 184
186(sCube): 185(ptr) Variable UniformConstant
- 198: TypeImage 6(float) 1D depth sampled format:Unknown
+ 198: TypeImage 6(float16_t) 1D depth sampled format:Unknown
199: TypeSampledImage 198
200: TypePointer UniformConstant 199
201(s1DShadow): 200(ptr) Variable UniformConstant
206: TypeInt 32 0
207: 206(int) Constant 0
- 208: TypePointer Function 6(float)
+ 208: TypePointer Function 6(float16_t)
215(compare): 127(ptr) Variable Input
- 223: TypeImage 6(float) 2D depth sampled format:Unknown
+ 223: TypeImage 6(float16_t) 2D depth sampled format:Unknown
224: TypeSampledImage 223
225: TypePointer UniformConstant 224
226(s2DShadow): 225(ptr) Variable UniformConstant
- 244: TypeImage 6(float) Cube depth sampled format:Unknown
+ 244: TypeImage 6(float16_t) Cube depth sampled format:Unknown
245: TypeSampledImage 244
246: TypePointer UniformConstant 245
247(sCubeShadow): 246(ptr) Variable UniformConstant
249: TypeVector 52(float) 4
250: TypePointer Input 249(fvec4)
251(c4): 250(ptr) Variable Input
- 268: TypeImage 6(float) 1D array sampled format:Unknown
+ 268: TypeImage 6(float16_t) 1D array sampled format:Unknown
269: TypeSampledImage 268
270: TypePointer UniformConstant 269
271(s1DArray): 270(ptr) Variable UniformConstant
- 283: TypeImage 6(float) 2D array sampled format:Unknown
+ 283: TypeImage 6(float16_t) 2D array sampled format:Unknown
284: TypeSampledImage 283
285: TypePointer UniformConstant 284
286(s2DArray): 285(ptr) Variable UniformConstant
- 298: TypeImage 6(float) Cube array sampled format:Unknown
+ 298: TypeImage 6(float16_t) Cube array sampled format:Unknown
299: TypeSampledImage 298
300: TypePointer UniformConstant 299
301(sCubeArray): 300(ptr) Variable UniformConstant
- 308: TypePointer Input 7(fvec4)
+ 308: TypePointer Input 7(f16vec4)
309(f16c4): 308(ptr) Variable Input
- 315: TypeImage 6(float) 1D depth array sampled format:Unknown
+ 315: TypeImage 6(float16_t) 1D depth array sampled format:Unknown
316: TypeSampledImage 315
317: TypePointer UniformConstant 316
318(s1DArrayShadow): 317(ptr) Variable UniformConstant
- 336: TypeImage 6(float) 2D depth array sampled format:Unknown
+ 336: TypeImage 6(float16_t) 2D depth array sampled format:Unknown
337: TypeSampledImage 336
338: TypePointer UniformConstant 337
339(s2DArrayShadow): 338(ptr) Variable UniformConstant
- 356: TypeImage 6(float) Rect sampled format:Unknown
+ 356: TypeImage 6(float16_t) Rect sampled format:Unknown
357: TypeSampledImage 356
358: TypePointer UniformConstant 357
359(s2DRect): 358(ptr) Variable UniformConstant
- 370: TypeImage 6(float) Rect depth sampled format:Unknown
+ 370: TypeImage 6(float16_t) Rect depth sampled format:Unknown
371: TypeSampledImage 370
372: TypePointer UniformConstant 371
373(s2DRectShadow): 372(ptr) Variable UniformConstant
- 390: TypeImage 6(float) Cube depth array sampled format:Unknown
+ 390: TypeImage 6(float16_t) Cube depth array sampled format:Unknown
391: TypeSampledImage 390
392: TypePointer UniformConstant 391
393(sCubeArrayShadow): 392(ptr) Variable UniformConstant
@@ -426,15 +426,15 @@ spv.float16Fetch.frag
722: 721(ivec2) ConstantComposite 709 709
734: TypeVector 47(int) 3
735: 734(ivec3) ConstantComposite 709 709 709
- 1297: TypeImage 6(float) Buffer sampled format:Unknown
+ 1297: TypeImage 6(float16_t) Buffer sampled format:Unknown
1298: TypeSampledImage 1297
1299: TypePointer UniformConstant 1298
1300(sBuffer): 1299(ptr) Variable UniformConstant
- 1308: TypeImage 6(float) 2D multi-sampled sampled format:Unknown
+ 1308: TypeImage 6(float16_t) 2D multi-sampled sampled format:Unknown
1309: TypeSampledImage 1308
1310: TypePointer UniformConstant 1309
1311(s2DMS): 1310(ptr) Variable UniformConstant
- 1319: TypeImage 6(float) 2D array multi-sampled sampled format:Unknown
+ 1319: TypeImage 6(float16_t) 2D array multi-sampled sampled format:Unknown
1320: TypeSampledImage 1319
1321: TypePointer UniformConstant 1320
1322(s2DMSArray): 1321(ptr) Variable UniformConstant
@@ -455,41 +455,41 @@ spv.float16Fetch.frag
2732: TypePointer Function 53(fvec2)
2734: 52(float) Constant 0
2735: 53(fvec2) ConstantComposite 2734 2734
- 2953: TypeImage 6(float) 1D nonsampled format:Rgba16f
+ 2953: TypeImage 6(float16_t) 1D nonsampled format:Rgba16f
2954: TypePointer UniformConstant 2953
2955(i1D): 2954(ptr) Variable UniformConstant
- 2962: TypeImage 6(float) 2D nonsampled format:Rgba16f
+ 2962: TypeImage 6(float16_t) 2D nonsampled format:Rgba16f
2963: TypePointer UniformConstant 2962
2964(i2D): 2963(ptr) Variable UniformConstant
- 2971: TypeImage 6(float) 3D nonsampled format:Rgba16f
+ 2971: TypeImage 6(float16_t) 3D nonsampled format:Rgba16f
2972: TypePointer UniformConstant 2971
2973(i3D): 2972(ptr) Variable UniformConstant
- 2980: TypeImage 6(float) Rect nonsampled format:Rgba16f
+ 2980: TypeImage 6(float16_t) Rect nonsampled format:Rgba16f
2981: TypePointer UniformConstant 2980
2982(i2DRect): 2981(ptr) Variable UniformConstant
- 2989: TypeImage 6(float) Cube nonsampled format:Rgba16f
+ 2989: TypeImage 6(float16_t) Cube nonsampled format:Rgba16f
2990: TypePointer UniformConstant 2989
2991(iCube): 2990(ptr) Variable UniformConstant
- 2998: TypeImage 6(float) Buffer nonsampled format:Rgba16f
+ 2998: TypeImage 6(float16_t) Buffer nonsampled format:Rgba16f
2999: TypePointer UniformConstant 2998
3000(iBuffer): 2999(ptr) Variable UniformConstant
- 3007: TypeImage 6(float) 1D array nonsampled format:Rgba16f
+ 3007: TypeImage 6(float16_t) 1D array nonsampled format:Rgba16f
3008: TypePointer UniformConstant 3007
3009(i1DArray): 3008(ptr) Variable UniformConstant
- 3016: TypeImage 6(float) 2D array nonsampled format:Rgba16f
+ 3016: TypeImage 6(float16_t) 2D array nonsampled format:Rgba16f
3017: TypePointer UniformConstant 3016
3018(i2DArray): 3017(ptr) Variable UniformConstant
- 3025: TypeImage 6(float) Cube array nonsampled format:Rgba16f
+ 3025: TypeImage 6(float16_t) Cube array nonsampled format:Rgba16f
3026: TypePointer UniformConstant 3025
3027(iCubeArray): 3026(ptr) Variable UniformConstant
- 3034: TypeImage 6(float) 2D multi-sampled nonsampled format:Rgba16f
+ 3034: TypeImage 6(float16_t) 2D multi-sampled nonsampled format:Rgba16f
3035: TypePointer UniformConstant 3034
3036(i2DMS): 3035(ptr) Variable UniformConstant
- 3043: TypeImage 6(float) 2D array multi-sampled nonsampled format:Rgba16f
+ 3043: TypeImage 6(float16_t) 2D array multi-sampled nonsampled format:Rgba16f
3044: TypePointer UniformConstant 3043
3045(i2DMSArray): 3044(ptr) Variable UniformConstant
- 3102(ResType): TypeStruct 47(int) 7(fvec4)
- 3138(ResType): TypeStruct 47(int) 6(float)
+ 3102(ResType): TypeStruct 47(int) 7(f16vec4)
+ 3138(ResType): TypeStruct 47(int) 6(float16_t)
4257(lodClamp): 127(ptr) Variable Input
4264(f16lodClamp): 134(ptr) Variable Input
5453: TypePointer UniformConstant 122
@@ -512,11 +512,11 @@ spv.float16Fetch.frag
5623(tCubeArray): 5622(ptr) Variable UniformConstant
5680: TypePointer UniformConstant 356
5681(t2DRect): 5680(ptr) Variable UniformConstant
- 5739: TypeImage 6(float) SubpassData nonsampled format:Unknown
+ 5739: TypeImage 6(float16_t) SubpassData nonsampled format:Unknown
5740: TypePointer UniformConstant 5739
5741(subpass): 5740(ptr) Variable UniformConstant
5743: 721(ivec2) ConstantComposite 2187 2187
- 5745: TypeImage 6(float) SubpassData multi-sampled nonsampled format:Unknown
+ 5745: TypeImage 6(float16_t) SubpassData multi-sampled nonsampled format:Unknown
5746: TypePointer UniformConstant 5745
5747(subpassMS): 5746(ptr) Variable UniformConstant
5912: TypePointer Output 249(fvec4)
@@ -533,555 +533,555 @@ spv.float16Fetch.frag
5753(result): 64(ptr) Variable Function
5834(param): 64(ptr) Variable Function
Store 5753(result) 121
- 5754: 7(fvec4) FunctionCall 9(testTexture()
- 5755: 7(fvec4) Load 5753(result)
- 5756: 7(fvec4) FAdd 5755 5754
+ 5754: 7(f16vec4) FunctionCall 9(testTexture()
+ 5755: 7(f16vec4) Load 5753(result)
+ 5756: 7(f16vec4) FAdd 5755 5754
Store 5753(result) 5756
- 5757: 7(fvec4) FunctionCall 11(testTextureProj()
- 5758: 7(fvec4) Load 5753(result)
- 5759: 7(fvec4) FAdd 5758 5757
+ 5757: 7(f16vec4) FunctionCall 11(testTextureProj()
+ 5758: 7(f16vec4) Load 5753(result)
+ 5759: 7(f16vec4) FAdd 5758 5757
Store 5753(result) 5759
- 5760: 7(fvec4) FunctionCall 13(testTextureLod()
- 5761: 7(fvec4) Load 5753(result)
- 5762: 7(fvec4) FAdd 5761 5760
+ 5760: 7(f16vec4) FunctionCall 13(testTextureLod()
+ 5761: 7(f16vec4) Load 5753(result)
+ 5762: 7(f16vec4) FAdd 5761 5760
Store 5753(result) 5762
- 5763: 7(fvec4) FunctionCall 15(testTextureOffset()
- 5764: 7(fvec4) Load 5753(result)
- 5765: 7(fvec4) FAdd 5764 5763
+ 5763: 7(f16vec4) FunctionCall 15(testTextureOffset()
+ 5764: 7(f16vec4) Load 5753(result)
+ 5765: 7(f16vec4) FAdd 5764 5763
Store 5753(result) 5765
- 5766: 7(fvec4) FunctionCall 19(testTextureLodOffset()
- 5767: 7(fvec4) Load 5753(result)
- 5768: 7(fvec4) FAdd 5767 5766
+ 5766: 7(f16vec4) FunctionCall 19(testTextureLodOffset()
+ 5767: 7(f16vec4) Load 5753(result)
+ 5768: 7(f16vec4) FAdd 5767 5766
Store 5753(result) 5768
- 5769: 7(fvec4) FunctionCall 21(testTextureProjLodOffset()
- 5770: 7(fvec4) Load 5753(result)
- 5771: 7(fvec4) FAdd 5770 5769
+ 5769: 7(f16vec4) FunctionCall 21(testTextureProjLodOffset()
+ 5770: 7(f16vec4) Load 5753(result)
+ 5771: 7(f16vec4) FAdd 5770 5769
Store 5753(result) 5771
- 5772: 7(fvec4) FunctionCall 23(testTexelFetch()
- 5773: 7(fvec4) Load 5753(result)
- 5774: 7(fvec4) FAdd 5773 5772
+ 5772: 7(f16vec4) FunctionCall 23(testTexelFetch()
+ 5773: 7(f16vec4) Load 5753(result)
+ 5774: 7(f16vec4) FAdd 5773 5772
Store 5753(result) 5774
- 5775: 7(fvec4) FunctionCall 25(testTexelFetchOffset()
- 5776: 7(fvec4) Load 5753(result)
- 5777: 7(fvec4) FAdd 5776 5775
+ 5775: 7(f16vec4) FunctionCall 25(testTexelFetchOffset()
+ 5776: 7(f16vec4) Load 5753(result)
+ 5777: 7(f16vec4) FAdd 5776 5775
Store 5753(result) 5777
- 5778: 7(fvec4) FunctionCall 27(testTextureGrad()
- 5779: 7(fvec4) Load 5753(result)
- 5780: 7(fvec4) FAdd 5779 5778
+ 5778: 7(f16vec4) FunctionCall 27(testTextureGrad()
+ 5779: 7(f16vec4) Load 5753(result)
+ 5780: 7(f16vec4) FAdd 5779 5778
Store 5753(result) 5780
- 5781: 7(fvec4) FunctionCall 29(testTextureGradOffset()
- 5782: 7(fvec4) Load 5753(result)
- 5783: 7(fvec4) FAdd 5782 5781
+ 5781: 7(f16vec4) FunctionCall 29(testTextureGradOffset()
+ 5782: 7(f16vec4) Load 5753(result)
+ 5783: 7(f16vec4) FAdd 5782 5781
Store 5753(result) 5783
- 5784: 7(fvec4) FunctionCall 31(testTextureProjGrad()
- 5785: 7(fvec4) Load 5753(result)
- 5786: 7(fvec4) FAdd 5785 5784
+ 5784: 7(f16vec4) FunctionCall 31(testTextureProjGrad()
+ 5785: 7(f16vec4) Load 5753(result)
+ 5786: 7(f16vec4) FAdd 5785 5784
Store 5753(result) 5786
- 5787: 7(fvec4) FunctionCall 33(testTextureProjGradoffset()
- 5788: 7(fvec4) Load 5753(result)
- 5789: 7(fvec4) FAdd 5788 5787
+ 5787: 7(f16vec4) FunctionCall 33(testTextureProjGradoffset()
+ 5788: 7(f16vec4) Load 5753(result)
+ 5789: 7(f16vec4) FAdd 5788 5787
Store 5753(result) 5789
- 5790: 7(fvec4) FunctionCall 35(testTextureGather()
- 5791: 7(fvec4) Load 5753(result)
- 5792: 7(fvec4) FAdd 5791 5790
+ 5790: 7(f16vec4) FunctionCall 35(testTextureGather()
+ 5791: 7(f16vec4) Load 5753(result)
+ 5792: 7(f16vec4) FAdd 5791 5790
Store 5753(result) 5792
- 5793: 7(fvec4) FunctionCall 37(testTextureGatherOffset()
- 5794: 7(fvec4) Load 5753(result)
- 5795: 7(fvec4) FAdd 5794 5793
+ 5793: 7(f16vec4) FunctionCall 37(testTextureGatherOffset()
+ 5794: 7(f16vec4) Load 5753(result)
+ 5795: 7(f16vec4) FAdd 5794 5793
Store 5753(result) 5795
- 5796: 7(fvec4) FunctionCall 39(testTextureGatherOffsets()
- 5797: 7(fvec4) Load 5753(result)
- 5798: 7(fvec4) FAdd 5797 5796
+ 5796: 7(f16vec4) FunctionCall 39(testTextureGatherOffsets()
+ 5797: 7(f16vec4) Load 5753(result)
+ 5798: 7(f16vec4) FAdd 5797 5796
Store 5753(result) 5798
- 5799: 7(fvec4) FunctionCall 41(testTextureGatherLod()
- 5800: 7(fvec4) Load 5753(result)
- 5801: 7(fvec4) FAdd 5800 5799
+ 5799: 7(f16vec4) FunctionCall 41(testTextureGatherLod()
+ 5800: 7(f16vec4) Load 5753(result)
+ 5801: 7(f16vec4) FAdd 5800 5799
Store 5753(result) 5801
- 5802: 7(fvec4) FunctionCall 43(testTextureGatherLodOffset()
- 5803: 7(fvec4) Load 5753(result)
- 5804: 7(fvec4) FAdd 5803 5802
+ 5802: 7(f16vec4) FunctionCall 43(testTextureGatherLodOffset()
+ 5803: 7(f16vec4) Load 5753(result)
+ 5804: 7(f16vec4) FAdd 5803 5802
Store 5753(result) 5804
- 5805: 7(fvec4) FunctionCall 45(testTextureGatherLodOffsets()
- 5806: 7(fvec4) Load 5753(result)
- 5807: 7(fvec4) FAdd 5806 5805
+ 5805: 7(f16vec4) FunctionCall 45(testTextureGatherLodOffsets()
+ 5806: 7(f16vec4) Load 5753(result)
+ 5807: 7(f16vec4) FAdd 5806 5805
Store 5753(result) 5807
5808: 48(ivec4) FunctionCall 50(testTextureSize()
- 5809: 7(fvec4) ConvertSToF 5808
- 5810: 7(fvec4) Load 5753(result)
- 5811: 7(fvec4) FAdd 5810 5809
+ 5809: 7(f16vec4) ConvertSToF 5808
+ 5810: 7(f16vec4) Load 5753(result)
+ 5811: 7(f16vec4) FAdd 5810 5809
Store 5753(result) 5811
5812: 53(fvec2) FunctionCall 55(testTextureQueryLod()
- 5813: 154(fvec2) FConvert 5812
- 5814: 7(fvec4) Load 5753(result)
- 5815: 154(fvec2) VectorShuffle 5814 5814 0 1
- 5816: 154(fvec2) FAdd 5815 5813
- 5817: 7(fvec4) Load 5753(result)
- 5818: 7(fvec4) VectorShuffle 5817 5816 4 5 2 3
+ 5813:154(f16vec2) FConvert 5812
+ 5814: 7(f16vec4) Load 5753(result)
+ 5815:154(f16vec2) VectorShuffle 5814 5814 0 1
+ 5816:154(f16vec2) FAdd 5815 5813
+ 5817: 7(f16vec4) Load 5753(result)
+ 5818: 7(f16vec4) VectorShuffle 5817 5816 4 5 2 3
Store 5753(result) 5818
5819: 47(int) FunctionCall 58(testTextureQueryLevels()
- 5820: 6(float) ConvertSToF 5819
+ 5820:6(float16_t) ConvertSToF 5819
5821: 208(ptr) AccessChain 5753(result) 207
- 5822: 6(float) Load 5821
- 5823: 6(float) FAdd 5822 5820
+ 5822:6(float16_t) Load 5821
+ 5823:6(float16_t) FAdd 5822 5820
5824: 208(ptr) AccessChain 5753(result) 207
Store 5824 5823
5825: 47(int) FunctionCall 60(testTextureSamples()
- 5826: 6(float) ConvertSToF 5825
+ 5826:6(float16_t) ConvertSToF 5825
5827: 208(ptr) AccessChain 5753(result) 207
- 5828: 6(float) Load 5827
- 5829: 6(float) FAdd 5828 5826
+ 5828:6(float16_t) Load 5827
+ 5829:6(float16_t) FAdd 5828 5826
5830: 208(ptr) AccessChain 5753(result) 207
Store 5830 5829
- 5831: 7(fvec4) FunctionCall 62(testImageLoad()
- 5832: 7(fvec4) Load 5753(result)
- 5833: 7(fvec4) FAdd 5832 5831
+ 5831: 7(f16vec4) FunctionCall 62(testImageLoad()
+ 5832: 7(f16vec4) Load 5753(result)
+ 5833: 7(f16vec4) FAdd 5832 5831
Store 5753(result) 5833
- 5835: 7(fvec4) Load 5753(result)
+ 5835: 7(f16vec4) Load 5753(result)
Store 5834(param) 5835
5836: 2 FunctionCall 67(testImageStore(vf164;) 5834(param)
- 5837: 7(fvec4) FunctionCall 69(testSparseTexture()
- 5838: 7(fvec4) Load 5753(result)
- 5839: 7(fvec4) FAdd 5838 5837
+ 5837: 7(f16vec4) FunctionCall 69(testSparseTexture()
+ 5838: 7(f16vec4) Load 5753(result)
+ 5839: 7(f16vec4) FAdd 5838 5837
Store 5753(result) 5839
- 5840: 7(fvec4) FunctionCall 71(testSparseTextureLod()
- 5841: 7(fvec4) Load 5753(result)
- 5842: 7(fvec4) FAdd 5841 5840
+ 5840: 7(f16vec4) FunctionCall 71(testSparseTextureLod()
+ 5841: 7(f16vec4) Load 5753(result)
+ 5842: 7(f16vec4) FAdd 5841 5840
Store 5753(result) 5842
- 5843: 7(fvec4) FunctionCall 73(testSparseTextureOffset()
- 5844: 7(fvec4) Load 5753(result)
- 5845: 7(fvec4) FAdd 5844 5843
+ 5843: 7(f16vec4) FunctionCall 73(testSparseTextureOffset()
+ 5844: 7(f16vec4) Load 5753(result)
+ 5845: 7(f16vec4) FAdd 5844 5843
Store 5753(result) 5845
- 5846: 7(fvec4) FunctionCall 75(testSparseTextureLodOffset()
- 5847: 7(fvec4) Load 5753(result)
- 5848: 7(fvec4) FAdd 5847 5846
+ 5846: 7(f16vec4) FunctionCall 75(testSparseTextureLodOffset()
+ 5847: 7(f16vec4) Load 5753(result)
+ 5848: 7(f16vec4) FAdd 5847 5846
Store 5753(result) 5848
- 5849: 7(fvec4) FunctionCall 77(testSparseTextureGrad()
- 5850: 7(fvec4) Load 5753(result)
- 5851: 7(fvec4) FAdd 5850 5849
+ 5849: 7(f16vec4) FunctionCall 77(testSparseTextureGrad()
+ 5850: 7(f16vec4) Load 5753(result)
+ 5851: 7(f16vec4) FAdd 5850 5849
Store 5753(result) 5851
- 5852: 7(fvec4) FunctionCall 79(testSparseTextureGradOffset()
- 5853: 7(fvec4) Load 5753(result)
- 5854: 7(fvec4) FAdd 5853 5852
+ 5852: 7(f16vec4) FunctionCall 79(testSparseTextureGradOffset()
+ 5853: 7(f16vec4) Load 5753(result)
+ 5854: 7(f16vec4) FAdd 5853 5852
Store 5753(result) 5854
- 5855: 7(fvec4) FunctionCall 81(testSparseTexelFetch()
- 5856: 7(fvec4) Load 5753(result)
- 5857: 7(fvec4) FAdd 5856 5855
+ 5855: 7(f16vec4) FunctionCall 81(testSparseTexelFetch()
+ 5856: 7(f16vec4) Load 5753(result)
+ 5857: 7(f16vec4) FAdd 5856 5855
Store 5753(result) 5857
- 5858: 7(fvec4) FunctionCall 83(testSparseTexelFetchOffset()
- 5859: 7(fvec4) Load 5753(result)
- 5860: 7(fvec4) FAdd 5859 5858
+ 5858: 7(f16vec4) FunctionCall 83(testSparseTexelFetchOffset()
+ 5859: 7(f16vec4) Load 5753(result)
+ 5860: 7(f16vec4) FAdd 5859 5858
Store 5753(result) 5860
- 5861: 7(fvec4) FunctionCall 85(testSparseTextureGather()
- 5862: 7(fvec4) Load 5753(result)
- 5863: 7(fvec4) FAdd 5862 5861
+ 5861: 7(f16vec4) FunctionCall 85(testSparseTextureGather()
+ 5862: 7(f16vec4) Load 5753(result)
+ 5863: 7(f16vec4) FAdd 5862 5861
Store 5753(result) 5863
- 5864: 7(fvec4) FunctionCall 87(testSparseTextureGatherOffset()
- 5865: 7(fvec4) Load 5753(result)
- 5866: 7(fvec4) FAdd 5865 5864
+ 5864: 7(f16vec4) FunctionCall 87(testSparseTextureGatherOffset()
+ 5865: 7(f16vec4) Load 5753(result)
+ 5866: 7(f16vec4) FAdd 5865 5864
Store 5753(result) 5866
- 5867: 7(fvec4) FunctionCall 89(testSparseTextureGatherOffsets()
- 5868: 7(fvec4) Load 5753(result)
- 5869: 7(fvec4) FAdd 5868 5867
+ 5867: 7(f16vec4) FunctionCall 89(testSparseTextureGatherOffsets()
+ 5868: 7(f16vec4) Load 5753(result)
+ 5869: 7(f16vec4) FAdd 5868 5867
Store 5753(result) 5869
- 5870: 7(fvec4) FunctionCall 91(testSparseTextureGatherLod()
- 5871: 7(fvec4) Load 5753(result)
- 5872: 7(fvec4) FAdd 5871 5870
+ 5870: 7(f16vec4) FunctionCall 91(testSparseTextureGatherLod()
+ 5871: 7(f16vec4) Load 5753(result)
+ 5872: 7(f16vec4) FAdd 5871 5870
Store 5753(result) 5872
- 5873: 7(fvec4) FunctionCall 93(testSparseTextureGatherLodOffset()
- 5874: 7(fvec4) Load 5753(result)
- 5875: 7(fvec4) FAdd 5874 5873
+ 5873: 7(f16vec4) FunctionCall 93(testSparseTextureGatherLodOffset()
+ 5874: 7(f16vec4) Load 5753(result)
+ 5875: 7(f16vec4) FAdd 5874 5873
Store 5753(result) 5875
- 5876: 7(fvec4) FunctionCall 95(testSparseTextureGatherLodOffsets()
- 5877: 7(fvec4) Load 5753(result)
- 5878: 7(fvec4) FAdd 5877 5876
+ 5876: 7(f16vec4) FunctionCall 95(testSparseTextureGatherLodOffsets()
+ 5877: 7(f16vec4) Load 5753(result)
+ 5878: 7(f16vec4) FAdd 5877 5876
Store 5753(result) 5878
- 5879: 7(fvec4) FunctionCall 97(testSparseImageLoad()
- 5880: 7(fvec4) Load 5753(result)
- 5881: 7(fvec4) FAdd 5880 5879
+ 5879: 7(f16vec4) FunctionCall 97(testSparseImageLoad()
+ 5880: 7(f16vec4) Load 5753(result)
+ 5881: 7(f16vec4) FAdd 5880 5879
Store 5753(result) 5881
- 5882: 7(fvec4) FunctionCall 99(testSparseTextureClamp()
- 5883: 7(fvec4) Load 5753(result)
- 5884: 7(fvec4) FAdd 5883 5882
+ 5882: 7(f16vec4) FunctionCall 99(testSparseTextureClamp()
+ 5883: 7(f16vec4) Load 5753(result)
+ 5884: 7(f16vec4) FAdd 5883 5882
Store 5753(result) 5884
- 5885: 7(fvec4) FunctionCall 101(testTextureClamp()
- 5886: 7(fvec4) Load 5753(result)
- 5887: 7(fvec4) FAdd 5886 5885
+ 5885: 7(f16vec4) FunctionCall 101(testTextureClamp()
+ 5886: 7(f16vec4) Load 5753(result)
+ 5887: 7(f16vec4) FAdd 5886 5885
Store 5753(result) 5887
- 5888: 7(fvec4) FunctionCall 103(testSparseTextureOffsetClamp()
- 5889: 7(fvec4) Load 5753(result)
- 5890: 7(fvec4) FAdd 5889 5888
+ 5888: 7(f16vec4) FunctionCall 103(testSparseTextureOffsetClamp()
+ 5889: 7(f16vec4) Load 5753(result)
+ 5890: 7(f16vec4) FAdd 5889 5888
Store 5753(result) 5890
- 5891: 7(fvec4) FunctionCall 105(testTextureOffsetClamp()
- 5892: 7(fvec4) Load 5753(result)
- 5893: 7(fvec4) FAdd 5892 5891
+ 5891: 7(f16vec4) FunctionCall 105(testTextureOffsetClamp()
+ 5892: 7(f16vec4) Load 5753(result)
+ 5893: 7(f16vec4) FAdd 5892 5891
Store 5753(result) 5893
- 5894: 7(fvec4) FunctionCall 77(testSparseTextureGrad()
- 5895: 7(fvec4) Load 5753(result)
- 5896: 7(fvec4) FAdd 5895 5894
+ 5894: 7(f16vec4) FunctionCall 77(testSparseTextureGrad()
+ 5895: 7(f16vec4) Load 5753(result)
+ 5896: 7(f16vec4) FAdd 5895 5894
Store 5753(result) 5896
- 5897: 7(fvec4) FunctionCall 27(testTextureGrad()
- 5898: 7(fvec4) Load 5753(result)
- 5899: 7(fvec4) FAdd 5898 5897
+ 5897: 7(f16vec4) FunctionCall 27(testTextureGrad()
+ 5898: 7(f16vec4) Load 5753(result)
+ 5899: 7(f16vec4) FAdd 5898 5897
Store 5753(result) 5899
- 5900: 7(fvec4) FunctionCall 111(testSparseTextureGradOffsetClamp()
- 5901: 7(fvec4) Load 5753(result)
- 5902: 7(fvec4) FAdd 5901 5900
+ 5900: 7(f16vec4) FunctionCall 111(testSparseTextureGradOffsetClamp()
+ 5901: 7(f16vec4) Load 5753(result)
+ 5902: 7(f16vec4) FAdd 5901 5900
Store 5753(result) 5902
- 5903: 7(fvec4) FunctionCall 113(testTextureGradOffsetClamp()
- 5904: 7(fvec4) Load 5753(result)
- 5905: 7(fvec4) FAdd 5904 5903
+ 5903: 7(f16vec4) FunctionCall 113(testTextureGradOffsetClamp()
+ 5904: 7(f16vec4) Load 5753(result)
+ 5905: 7(f16vec4) FAdd 5904 5903
Store 5753(result) 5905
- 5906: 7(fvec4) FunctionCall 115(testCombinedTextureSampler()
- 5907: 7(fvec4) Load 5753(result)
- 5908: 7(fvec4) FAdd 5907 5906
+ 5906: 7(f16vec4) FunctionCall 115(testCombinedTextureSampler()
+ 5907: 7(f16vec4) Load 5753(result)
+ 5908: 7(f16vec4) FAdd 5907 5906
Store 5753(result) 5908
- 5909: 7(fvec4) FunctionCall 117(testSubpassLoad()
- 5910: 7(fvec4) Load 5753(result)
- 5911: 7(fvec4) FAdd 5910 5909
+ 5909: 7(f16vec4) FunctionCall 117(testSubpassLoad()
+ 5910: 7(f16vec4) Load 5753(result)
+ 5911: 7(f16vec4) FAdd 5910 5909
Store 5753(result) 5911
- 5914: 7(fvec4) Load 5753(result)
+ 5914: 7(f16vec4) Load 5753(result)
5915: 249(fvec4) FConvert 5914
Store 5913(fragColor) 5915
Return
FunctionEnd
- 9(testTexture(): 7(fvec4) Function None 8
+ 9(testTexture(): 7(f16vec4) Function None 8
10: Label
119(texel): 64(ptr) Variable Function
Store 119(texel) 121
126: 123 Load 125(s1D)
129: 52(float) Load 128(c1)
- 130: 7(fvec4) ImageSampleImplicitLod 126 129
- 131: 7(fvec4) Load 119(texel)
- 132: 7(fvec4) FAdd 131 130
+ 130: 7(f16vec4) ImageSampleImplicitLod 126 129
+ 131: 7(f16vec4) Load 119(texel)
+ 132: 7(f16vec4) FAdd 131 130
Store 119(texel) 132
133: 123 Load 125(s1D)
- 136: 6(float) Load 135(f16c1)
- 138: 6(float) Load 137(f16bias)
- 139: 7(fvec4) ImageSampleImplicitLod 133 136 Bias 138
- 140: 7(fvec4) Load 119(texel)
- 141: 7(fvec4) FAdd 140 139
+ 136:6(float16_t) Load 135(f16c1)
+ 138:6(float16_t) Load 137(f16bias)
+ 139: 7(f16vec4) ImageSampleImplicitLod 133 136 Bias 138
+ 140: 7(f16vec4) Load 119(texel)
+ 141: 7(f16vec4) FAdd 140 139
Store 119(texel) 141
146: 143 Load 145(s2D)
149: 53(fvec2) Load 148(c2)
- 150: 7(fvec4) ImageSampleImplicitLod 146 149
- 151: 7(fvec4) Load 119(texel)
- 152: 7(fvec4) FAdd 151 150
+ 150: 7(f16vec4) ImageSampleImplicitLod 146 149
+ 151: 7(f16vec4) Load 119(texel)
+ 152: 7(f16vec4) FAdd 151 150
Store 119(texel) 152
153: 143 Load 145(s2D)
- 157: 154(fvec2) Load 156(f16c2)
- 158: 6(float) Load 137(f16bias)
- 159: 7(fvec4) ImageSampleImplicitLod 153 157 Bias 158
- 160: 7(fvec4) Load 119(texel)
- 161: 7(fvec4) FAdd 160 159
+ 157:154(f16vec2) Load 156(f16c2)
+ 158:6(float16_t) Load 137(f16bias)
+ 159: 7(f16vec4) ImageSampleImplicitLod 153 157 Bias 158
+ 160: 7(f16vec4) Load 119(texel)
+ 161: 7(f16vec4) FAdd 160 159
Store 119(texel) 161
166: 163 Load 165(s3D)
170: 167(fvec3) Load 169(c3)
- 171: 7(fvec4) ImageSampleImplicitLod 166 170
- 172: 7(fvec4) Load 119(texel)
- 173: 7(fvec4) FAdd 172 171
+ 171: 7(f16vec4) ImageSampleImplicitLod 166 170
+ 172: 7(f16vec4) Load 119(texel)
+ 173: 7(f16vec4) FAdd 172 171
Store 119(texel) 173
174: 163 Load 165(s3D)
- 178: 175(fvec3) Load 177(f16c3)
- 179: 6(float) Load 137(f16bias)
- 180: 7(fvec4) ImageSampleImplicitLod 174 178 Bias 179
- 181: 7(fvec4) Load 119(texel)
- 182: 7(fvec4) FAdd 181 180
+ 178:175(f16vec3) Load 177(f16c3)
+ 179:6(float16_t) Load 137(f16bias)
+ 180: 7(f16vec4) ImageSampleImplicitLod 174 178 Bias 179
+ 181: 7(f16vec4) Load 119(texel)
+ 182: 7(f16vec4) FAdd 181 180
Store 119(texel) 182
187: 184 Load 186(sCube)
188: 167(fvec3) Load 169(c3)
- 189: 7(fvec4) ImageSampleImplicitLod 187 188
- 190: 7(fvec4) Load 119(texel)
- 191: 7(fvec4) FAdd 190 189
+ 189: 7(f16vec4) ImageSampleImplicitLod 187 188
+ 190: 7(f16vec4) Load 119(texel)
+ 191: 7(f16vec4) FAdd 190 189
Store 119(texel) 191
192: 184 Load 186(sCube)
- 193: 175(fvec3) Load 177(f16c3)
- 194: 6(float) Load 137(f16bias)
- 195: 7(fvec4) ImageSampleImplicitLod 192 193 Bias 194
- 196: 7(fvec4) Load 119(texel)
- 197: 7(fvec4) FAdd 196 195
+ 193:175(f16vec3) Load 177(f16c3)
+ 194:6(float16_t) Load 137(f16bias)
+ 195: 7(f16vec4) ImageSampleImplicitLod 192 193 Bias 194
+ 196: 7(f16vec4) Load 119(texel)
+ 197: 7(f16vec4) FAdd 196 195
Store 119(texel) 197
202: 199 Load 201(s1DShadow)
203: 167(fvec3) Load 169(c3)
204: 52(float) CompositeExtract 203 2
- 205: 6(float) ImageSampleDrefImplicitLod 202 203 204
+ 205:6(float16_t) ImageSampleDrefImplicitLod 202 203 204
209: 208(ptr) AccessChain 119(texel) 207
- 210: 6(float) Load 209
- 211: 6(float) FAdd 210 205
+ 210:6(float16_t) Load 209
+ 211:6(float16_t) FAdd 210 205
212: 208(ptr) AccessChain 119(texel) 207
Store 212 211
213: 199 Load 201(s1DShadow)
- 214: 154(fvec2) Load 156(f16c2)
+ 214:154(f16vec2) Load 156(f16c2)
216: 52(float) Load 215(compare)
- 217: 6(float) Load 137(f16bias)
- 218: 6(float) ImageSampleDrefImplicitLod 213 214 216 Bias 217
+ 217:6(float16_t) Load 137(f16bias)
+ 218:6(float16_t) ImageSampleDrefImplicitLod 213 214 216 Bias 217
219: 208(ptr) AccessChain 119(texel) 207
- 220: 6(float) Load 219
- 221: 6(float) FAdd 220 218
+ 220:6(float16_t) Load 219
+ 221:6(float16_t) FAdd 220 218
222: 208(ptr) AccessChain 119(texel) 207
Store 222 221
227: 224 Load 226(s2DShadow)
228: 167(fvec3) Load 169(c3)
229: 52(float) CompositeExtract 228 2
- 230: 6(float) ImageSampleDrefImplicitLod 227 228 229
+ 230:6(float16_t) ImageSampleDrefImplicitLod 227 228 229
231: 208(ptr) AccessChain 119(texel) 207
- 232: 6(float) Load 231
- 233: 6(float) FAdd 232 230
+ 232:6(float16_t) Load 231
+ 233:6(float16_t) FAdd 232 230
234: 208(ptr) AccessChain 119(texel) 207
Store 234 233
235: 224 Load 226(s2DShadow)
- 236: 154(fvec2) Load 156(f16c2)
+ 236:154(f16vec2) Load 156(f16c2)
237: 52(float) Load 215(compare)
- 238: 6(float) Load 137(f16bias)
- 239: 6(float) ImageSampleDrefImplicitLod 235 236 237 Bias 238
+ 238:6(float16_t) Load 137(f16bias)
+ 239:6(float16_t) ImageSampleDrefImplicitLod 235 236 237 Bias 238
240: 208(ptr) AccessChain 119(texel) 207
- 241: 6(float) Load 240
- 242: 6(float) FAdd 241 239
+ 241:6(float16_t) Load 240
+ 242:6(float16_t) FAdd 241 239
243: 208(ptr) AccessChain 119(texel) 207
Store 243 242
248: 245 Load 247(sCubeShadow)
252: 249(fvec4) Load 251(c4)
253: 52(float) CompositeExtract 252 3
- 254: 6(float) ImageSampleDrefImplicitLod 248 252 253
+ 254:6(float16_t) ImageSampleDrefImplicitLod 248 252 253
255: 208(ptr) AccessChain 119(texel) 207
- 256: 6(float) Load 255
- 257: 6(float) FAdd 256 254
+ 256:6(float16_t) Load 255
+ 257:6(float16_t) FAdd 256 254
258: 208(ptr) AccessChain 119(texel) 207
Store 258 257
259: 245 Load 247(sCubeShadow)
- 260: 175(fvec3) Load 177(f16c3)
+ 260:175(f16vec3) Load 177(f16c3)
261: 52(float) Load 215(compare)
- 262: 6(float) Load 137(f16bias)
- 263: 6(float) ImageSampleDrefImplicitLod 259 260 261 Bias 262
+ 262:6(float16_t) Load 137(f16bias)
+ 263:6(float16_t) ImageSampleDrefImplicitLod 259 260 261 Bias 262
264: 208(ptr) AccessChain 119(texel) 207
- 265: 6(float) Load 264
- 266: 6(float) FAdd 265 263
+ 265:6(float16_t) Load 264
+ 266:6(float16_t) FAdd 265 263
267: 208(ptr) AccessChain 119(texel) 207
Store 267 266
272: 269 Load 271(s1DArray)
273: 53(fvec2) Load 148(c2)
- 274: 7(fvec4) ImageSampleImplicitLod 272 273
- 275: 7(fvec4) Load 119(texel)
- 276: 7(fvec4) FAdd 275 274
+ 274: 7(f16vec4) ImageSampleImplicitLod 272 273
+ 275: 7(f16vec4) Load 119(texel)
+ 276: 7(f16vec4) FAdd 275 274
Store 119(texel) 276
277: 269 Load 271(s1DArray)
- 278: 154(fvec2) Load 156(f16c2)
- 279: 6(float) Load 137(f16bias)
- 280: 7(fvec4) ImageSampleImplicitLod 277 278 Bias 279
- 281: 7(fvec4) Load 119(texel)
- 282: 7(fvec4) FAdd 281 280
+ 278:154(f16vec2) Load 156(f16c2)
+ 279:6(float16_t) Load 137(f16bias)
+ 280: 7(f16vec4) ImageSampleImplicitLod 277 278 Bias 279
+ 281: 7(f16vec4) Load 119(texel)
+ 282: 7(f16vec4) FAdd 281 280
Store 119(texel) 282
287: 284 Load 286(s2DArray)
288: 167(fvec3) Load 169(c3)
- 289: 7(fvec4) ImageSampleImplicitLod 287 288
- 290: 7(fvec4) Load 119(texel)
- 291: 7(fvec4) FAdd 290 289
+ 289: 7(f16vec4) ImageSampleImplicitLod 287 288
+ 290: 7(f16vec4) Load 119(texel)
+ 291: 7(f16vec4) FAdd 290 289
Store 119(texel) 291
292: 284 Load 286(s2DArray)
- 293: 175(fvec3) Load 177(f16c3)
- 294: 6(float) Load 137(f16bias)
- 295: 7(fvec4) ImageSampleImplicitLod 292 293 Bias 294
- 296: 7(fvec4) Load 119(texel)
- 297: 7(fvec4) FAdd 296 295
+ 293:175(f16vec3) Load 177(f16c3)
+ 294:6(float16_t) Load 137(f16bias)
+ 295: 7(f16vec4) ImageSampleImplicitLod 292 293 Bias 294
+ 296: 7(f16vec4) Load 119(texel)
+ 297: 7(f16vec4) FAdd 296 295
Store 119(texel) 297
302: 299 Load 301(sCubeArray)
303: 249(fvec4) Load 251(c4)
- 304: 7(fvec4) ImageSampleImplicitLod 302 303
- 305: 7(fvec4) Load 119(texel)
- 306: 7(fvec4) FAdd 305 304
+ 304: 7(f16vec4) ImageSampleImplicitLod 302 303
+ 305: 7(f16vec4) Load 119(texel)
+ 306: 7(f16vec4) FAdd 305 304
Store 119(texel) 306
307: 299 Load 301(sCubeArray)
- 310: 7(fvec4) Load 309(f16c4)
- 311: 6(float) Load 137(f16bias)
- 312: 7(fvec4) ImageSampleImplicitLod 307 310 Bias 311
- 313: 7(fvec4) Load 119(texel)
- 314: 7(fvec4) FAdd 313 312
+ 310: 7(f16vec4) Load 309(f16c4)
+ 311:6(float16_t) Load 137(f16bias)
+ 312: 7(f16vec4) ImageSampleImplicitLod 307 310 Bias 311
+ 313: 7(f16vec4) Load 119(texel)
+ 314: 7(f16vec4) FAdd 313 312
Store 119(texel) 314
319: 316 Load 318(s1DArrayShadow)
320: 167(fvec3) Load 169(c3)
321: 52(float) CompositeExtract 320 2
- 322: 6(float) ImageSampleDrefImplicitLod 319 320 321
+ 322:6(float16_t) ImageSampleDrefImplicitLod 319 320 321
323: 208(ptr) AccessChain 119(texel) 207
- 324: 6(float) Load 323
- 325: 6(float) FAdd 324 322
+ 324:6(float16_t) Load 323
+ 325:6(float16_t) FAdd 324 322
326: 208(ptr) AccessChain 119(texel) 207
Store 326 325
327: 316 Load 318(s1DArrayShadow)
- 328: 154(fvec2) Load 156(f16c2)
+ 328:154(f16vec2) Load 156(f16c2)
329: 52(float) Load 215(compare)
- 330: 6(float) Load 137(f16bias)
- 331: 6(float) ImageSampleDrefImplicitLod 327 328 329 Bias 330
+ 330:6(float16_t) Load 137(f16bias)
+ 331:6(float16_t) ImageSampleDrefImplicitLod 327 328 329 Bias 330
332: 208(ptr) AccessChain 119(texel) 207
- 333: 6(float) Load 332
- 334: 6(float) FAdd 333 331
+ 333:6(float16_t) Load 332
+ 334:6(float16_t) FAdd 333 331
335: 208(ptr) AccessChain 119(texel) 207
Store 335 334
340: 337 Load 339(s2DArrayShadow)
341: 249(fvec4) Load 251(c4)
342: 52(float) CompositeExtract 341 3
- 343: 6(float) ImageSampleDrefImplicitLod 340 341 342
+ 343:6(float16_t) ImageSampleDrefImplicitLod 340 341 342
344: 208(ptr) AccessChain 119(texel) 207
- 345: 6(float) Load 344
- 346: 6(float) FAdd 345 343
+ 345:6(float16_t) Load 344
+ 346:6(float16_t) FAdd 345 343
347: 208(ptr) AccessChain 119(texel) 207
Store 347 346
348: 337 Load 339(s2DArrayShadow)
- 349: 175(fvec3) Load 177(f16c3)
+ 349:175(f16vec3) Load 177(f16c3)
350: 52(float) Load 215(compare)
- 351: 6(float) ImageSampleDrefImplicitLod 348 349 350
+ 351:6(float16_t) ImageSampleDrefImplicitLod 348 349 350
352: 208(ptr) AccessChain 119(texel) 207
- 353: 6(float) Load 352
- 354: 6(float) FAdd 353 351
+ 353:6(float16_t) Load 352
+ 354:6(float16_t) FAdd 353 351
355: 208(ptr) AccessChain 119(texel) 207
Store 355 354
360: 357 Load 359(s2DRect)
361: 53(fvec2) Load 148(c2)
- 362: 7(fvec4) ImageSampleImplicitLod 360 361
- 363: 7(fvec4) Load 119(texel)
- 364: 7(fvec4) FAdd 363 362
+ 362: 7(f16vec4) ImageSampleImplicitLod 360 361
+ 363: 7(f16vec4) Load 119(texel)
+ 364: 7(f16vec4) FAdd 363 362
Store 119(texel) 364
365: 357 Load 359(s2DRect)
- 366: 154(fvec2) Load 156(f16c2)
- 367: 7(fvec4) ImageSampleImplicitLod 365 366
- 368: 7(fvec4) Load 119(texel)
- 369: 7(fvec4) FAdd 368 367
+ 366:154(f16vec2) Load 156(f16c2)
+ 367: 7(f16vec4) ImageSampleImplicitLod 365 366
+ 368: 7(f16vec4) Load 119(texel)
+ 369: 7(f16vec4) FAdd 368 367
Store 119(texel) 369
374: 371 Load 373(s2DRectShadow)
375: 167(fvec3) Load 169(c3)
376: 52(float) CompositeExtract 375 2
- 377: 6(float) ImageSampleDrefImplicitLod 374 375 376
+ 377:6(float16_t) ImageSampleDrefImplicitLod 374 375 376
378: 208(ptr) AccessChain 119(texel) 207
- 379: 6(float) Load 378
- 380: 6(float) FAdd 379 377
+ 379:6(float16_t) Load 378
+ 380:6(float16_t) FAdd 379 377
381: 208(ptr) AccessChain 119(texel) 207
Store 381 380
382: 371 Load 373(s2DRectShadow)
- 383: 154(fvec2) Load 156(f16c2)
+ 383:154(f16vec2) Load 156(f16c2)
384: 52(float) Load 215(compare)
- 385: 6(float) ImageSampleDrefImplicitLod 382 383 384
+ 385:6(float16_t) ImageSampleDrefImplicitLod 382 383 384
386: 208(ptr) AccessChain 119(texel) 207
- 387: 6(float) Load 386
- 388: 6(float) FAdd 387 385
+ 387:6(float16_t) Load 386
+ 388:6(float16_t) FAdd 387 385
389: 208(ptr) AccessChain 119(texel) 207
Store 389 388
394: 391 Load 393(sCubeArrayShadow)
395: 249(fvec4) Load 251(c4)
396: 52(float) Load 215(compare)
- 397: 6(float) ImageSampleDrefImplicitLod 394 395 396
+ 397:6(float16_t) ImageSampleDrefImplicitLod 394 395 396
398: 208(ptr) AccessChain 119(texel) 207
- 399: 6(float) Load 398
- 400: 6(float) FAdd 399 397
+ 399:6(float16_t) Load 398
+ 400:6(float16_t) FAdd 399 397
401: 208(ptr) AccessChain 119(texel) 207
Store 401 400
402: 391 Load 393(sCubeArrayShadow)
- 403: 7(fvec4) Load 309(f16c4)
+ 403: 7(f16vec4) Load 309(f16c4)
404: 52(float) Load 215(compare)
- 405: 6(float) ImageSampleDrefImplicitLod 402 403 404
+ 405:6(float16_t) ImageSampleDrefImplicitLod 402 403 404
406: 208(ptr) AccessChain 119(texel) 207
- 407: 6(float) Load 406
- 408: 6(float) FAdd 407 405
+ 407:6(float16_t) Load 406
+ 408:6(float16_t) FAdd 407 405
409: 208(ptr) AccessChain 119(texel) 207
Store 409 408
- 410: 7(fvec4) Load 119(texel)
+ 410: 7(f16vec4) Load 119(texel)
ReturnValue 410
FunctionEnd
-11(testTextureProj(): 7(fvec4) Function None 8
+11(testTextureProj(): 7(f16vec4) Function None 8
12: Label
413(texel): 64(ptr) Variable Function
Store 413(texel) 121
414: 123 Load 125(s1D)
415: 53(fvec2) Load 148(c2)
- 416: 7(fvec4) ImageSampleProjImplicitLod 414 415
- 417: 7(fvec4) Load 413(texel)
- 418: 7(fvec4) FAdd 417 416
+ 416: 7(f16vec4) ImageSampleProjImplicitLod 414 415
+ 417: 7(f16vec4) Load 413(texel)
+ 418: 7(f16vec4) FAdd 417 416
Store 413(texel) 418
419: 123 Load 125(s1D)
- 420: 154(fvec2) Load 156(f16c2)
- 421: 6(float) Load 137(f16bias)
- 422: 7(fvec4) ImageSampleProjImplicitLod 419 420 Bias 421
- 423: 7(fvec4) Load 413(texel)
- 424: 7(fvec4) FAdd 423 422
+ 420:154(f16vec2) Load 156(f16c2)
+ 421:6(float16_t) Load 137(f16bias)
+ 422: 7(f16vec4) ImageSampleProjImplicitLod 419 420 Bias 421
+ 423: 7(f16vec4) Load 413(texel)
+ 424: 7(f16vec4) FAdd 423 422
Store 413(texel) 424
425: 123 Load 125(s1D)
426: 249(fvec4) Load 251(c4)
427: 52(float) CompositeExtract 426 3
428: 249(fvec4) CompositeInsert 427 426 1
- 429: 7(fvec4) ImageSampleProjImplicitLod 425 428
- 430: 7(fvec4) Load 413(texel)
- 431: 7(fvec4) FAdd 430 429
+ 429: 7(f16vec4) ImageSampleProjImplicitLod 425 428
+ 430: 7(f16vec4) Load 413(texel)
+ 431: 7(f16vec4) FAdd 430 429
Store 413(texel) 431
432: 123 Load 125(s1D)
- 433: 7(fvec4) Load 309(f16c4)
- 434: 6(float) Load 137(f16bias)
- 435: 6(float) CompositeExtract 433 3
- 436: 7(fvec4) CompositeInsert 435 433 1
- 437: 7(fvec4) ImageSampleProjImplicitLod 432 436 Bias 434
- 438: 7(fvec4) Load 413(texel)
- 439: 7(fvec4) FAdd 438 437
+ 433: 7(f16vec4) Load 309(f16c4)
+ 434:6(float16_t) Load 137(f16bias)
+ 435:6(float16_t) CompositeExtract 433 3
+ 436: 7(f16vec4) CompositeInsert 435 433 1
+ 437: 7(f16vec4) ImageSampleProjImplicitLod 432 436 Bias 434
+ 438: 7(f16vec4) Load 413(texel)
+ 439: 7(f16vec4) FAdd 438 437
Store 413(texel) 439
440: 143 Load 145(s2D)
441: 167(fvec3) Load 169(c3)
- 442: 7(fvec4) ImageSampleProjImplicitLod 440 441
- 443: 7(fvec4) Load 413(texel)
- 444: 7(fvec4) FAdd 443 442
+ 442: 7(f16vec4) ImageSampleProjImplicitLod 440 441
+ 443: 7(f16vec4) Load 413(texel)
+ 444: 7(f16vec4) FAdd 443 442
Store 413(texel) 444
445: 143 Load 145(s2D)
- 446: 175(fvec3) Load 177(f16c3)
- 447: 6(float) Load 137(f16bias)
- 448: 7(fvec4) ImageSampleProjImplicitLod 445 446 Bias 447
- 449: 7(fvec4) Load 413(texel)
- 450: 7(fvec4) FAdd 449 448
+ 446:175(f16vec3) Load 177(f16c3)
+ 447:6(float16_t) Load 137(f16bias)
+ 448: 7(f16vec4) ImageSampleProjImplicitLod 445 446 Bias 447
+ 449: 7(f16vec4) Load 413(texel)
+ 450: 7(f16vec4) FAdd 449 448
Store 413(texel) 450
451: 143 Load 145(s2D)
452: 249(fvec4) Load 251(c4)
453: 52(float) CompositeExtract 452 3
454: 249(fvec4) CompositeInsert 453 452 2
- 455: 7(fvec4) ImageSampleProjImplicitLod 451 454
- 456: 7(fvec4) Load 413(texel)
- 457: 7(fvec4) FAdd 456 455
+ 455: 7(f16vec4) ImageSampleProjImplicitLod 451 454
+ 456: 7(f16vec4) Load 413(texel)
+ 457: 7(f16vec4) FAdd 456 455
Store 413(texel) 457
458: 143 Load 145(s2D)
- 459: 7(fvec4) Load 309(f16c4)
- 460: 6(float) Load 137(f16bias)
- 461: 6(float) CompositeExtract 459 3
- 462: 7(fvec4) CompositeInsert 461 459 2
- 463: 7(fvec4) ImageSampleProjImplicitLod 458 462 Bias 460
- 464: 7(fvec4) Load 413(texel)
- 465: 7(fvec4) FAdd 464 463
+ 459: 7(f16vec4) Load 309(f16c4)
+ 460:6(float16_t) Load 137(f16bias)
+ 461:6(float16_t) CompositeExtract 459 3
+ 462: 7(f16vec4) CompositeInsert 461 459 2
+ 463: 7(f16vec4) ImageSampleProjImplicitLod 458 462 Bias 460
+ 464: 7(f16vec4) Load 413(texel)
+ 465: 7(f16vec4) FAdd 464 463
Store 413(texel) 465
466: 163 Load 165(s3D)
467: 249(fvec4) Load 251(c4)
- 468: 7(fvec4) ImageSampleProjImplicitLod 466 467
- 469: 7(fvec4) Load 413(texel)
- 470: 7(fvec4) FAdd 469 468
+ 468: 7(f16vec4) ImageSampleProjImplicitLod 466 467
+ 469: 7(f16vec4) Load 413(texel)
+ 470: 7(f16vec4) FAdd 469 468
Store 413(texel) 470
471: 163 Load 165(s3D)
- 472: 7(fvec4) Load 309(f16c4)
- 473: 6(float) Load 137(f16bias)
- 474: 7(fvec4) ImageSampleProjImplicitLod 471 472 Bias 473
- 475: 7(fvec4) Load 413(texel)
- 476: 7(fvec4) FAdd 475 474
+ 472: 7(f16vec4) Load 309(f16c4)
+ 473:6(float16_t) Load 137(f16bias)
+ 474: 7(f16vec4) ImageSampleProjImplicitLod 471 472 Bias 473
+ 475: 7(f16vec4) Load 413(texel)
+ 476: 7(f16vec4) FAdd 475 474
Store 413(texel) 476
477: 199 Load 201(s1DShadow)
478: 249(fvec4) Load 251(c4)
479: 52(float) CompositeExtract 478 2
480: 52(float) CompositeExtract 478 3
481: 249(fvec4) CompositeInsert 480 478 1
- 482: 6(float) ImageSampleProjDrefImplicitLod 477 481 479
+ 482:6(float16_t) ImageSampleProjDrefImplicitLod 477 481 479
483: 208(ptr) AccessChain 413(texel) 207
- 484: 6(float) Load 483
- 485: 6(float) FAdd 484 482
+ 484:6(float16_t) Load 483
+ 485:6(float16_t) FAdd 484 482
486: 208(ptr) AccessChain 413(texel) 207
Store 486 485
487: 199 Load 201(s1DShadow)
- 488: 175(fvec3) Load 177(f16c3)
+ 488:175(f16vec3) Load 177(f16c3)
489: 52(float) Load 215(compare)
- 490: 6(float) Load 137(f16bias)
- 491: 6(float) CompositeExtract 488 2
- 492: 175(fvec3) CompositeInsert 491 488 1
- 493: 6(float) ImageSampleProjDrefImplicitLod 487 492 489 Bias 490
+ 490:6(float16_t) Load 137(f16bias)
+ 491:6(float16_t) CompositeExtract 488 2
+ 492:175(f16vec3) CompositeInsert 491 488 1
+ 493:6(float16_t) ImageSampleProjDrefImplicitLod 487 492 489 Bias 490
494: 208(ptr) AccessChain 413(texel) 207
- 495: 6(float) Load 494
- 496: 6(float) FAdd 495 493
+ 495:6(float16_t) Load 494
+ 496:6(float16_t) FAdd 495 493
497: 208(ptr) AccessChain 413(texel) 207
Store 497 496
498: 224 Load 226(s2DShadow)
@@ -1089,538 +1089,538 @@ spv.float16Fetch.frag
500: 52(float) CompositeExtract 499 2
501: 52(float) CompositeExtract 499 3
502: 249(fvec4) CompositeInsert 501 499 2
- 503: 6(float) ImageSampleProjDrefImplicitLod 498 502 500
+ 503:6(float16_t) ImageSampleProjDrefImplicitLod 498 502 500
504: 208(ptr) AccessChain 413(texel) 207
- 505: 6(float) Load 504
- 506: 6(float) FAdd 505 503
+ 505:6(float16_t) Load 504
+ 506:6(float16_t) FAdd 505 503
507: 208(ptr) AccessChain 413(texel) 207
Store 507 506
508: 224 Load 226(s2DShadow)
- 509: 175(fvec3) Load 177(f16c3)
+ 509:175(f16vec3) Load 177(f16c3)
510: 52(float) Load 215(compare)
- 511: 6(float) Load 137(f16bias)
- 512: 6(float) ImageSampleProjDrefImplicitLod 508 509 510 Bias 511
+ 511:6(float16_t) Load 137(f16bias)
+ 512:6(float16_t) ImageSampleProjDrefImplicitLod 508 509 510 Bias 511
513: 208(ptr) AccessChain 413(texel) 207
- 514: 6(float) Load 513
- 515: 6(float) FAdd 514 512
+ 514:6(float16_t) Load 513
+ 515:6(float16_t) FAdd 514 512
516: 208(ptr) AccessChain 413(texel) 207
Store 516 515
517: 357 Load 359(s2DRect)
518: 167(fvec3) Load 169(c3)
- 519: 7(fvec4) ImageSampleProjImplicitLod 517 518
- 520: 7(fvec4) Load 413(texel)
- 521: 7(fvec4) FAdd 520 519
+ 519: 7(f16vec4) ImageSampleProjImplicitLod 517 518
+ 520: 7(f16vec4) Load 413(texel)
+ 521: 7(f16vec4) FAdd 520 519
Store 413(texel) 521
522: 357 Load 359(s2DRect)
- 523: 175(fvec3) Load 177(f16c3)
- 524: 7(fvec4) ImageSampleProjImplicitLod 522 523
- 525: 7(fvec4) Load 413(texel)
- 526: 7(fvec4) FAdd 525 524
+ 523:175(f16vec3) Load 177(f16c3)
+ 524: 7(f16vec4) ImageSampleProjImplicitLod 522 523
+ 525: 7(f16vec4) Load 413(texel)
+ 526: 7(f16vec4) FAdd 525 524
Store 413(texel) 526
527: 357 Load 359(s2DRect)
528: 249(fvec4) Load 251(c4)
529: 52(float) CompositeExtract 528 3
530: 249(fvec4) CompositeInsert 529 528 2
- 531: 7(fvec4) ImageSampleProjImplicitLod 527 530
- 532: 7(fvec4) Load 413(texel)
- 533: 7(fvec4) FAdd 532 531
+ 531: 7(f16vec4) ImageSampleProjImplicitLod 527 530
+ 532: 7(f16vec4) Load 413(texel)
+ 533: 7(f16vec4) FAdd 532 531
Store 413(texel) 533
534: 357 Load 359(s2DRect)
- 535: 7(fvec4) Load 309(f16c4)
- 536: 6(float) CompositeExtract 535 3
- 537: 7(fvec4) CompositeInsert 536 535 2
- 538: 7(fvec4) ImageSampleProjImplicitLod 534 537
- 539: 7(fvec4) Load 413(texel)
- 540: 7(fvec4) FAdd 539 538
+ 535: 7(f16vec4) Load 309(f16c4)
+ 536:6(float16_t) CompositeExtract 535 3
+ 537: 7(f16vec4) CompositeInsert 536 535 2
+ 538: 7(f16vec4) ImageSampleProjImplicitLod 534 537
+ 539: 7(f16vec4) Load 413(texel)
+ 540: 7(f16vec4) FAdd 539 538
Store 413(texel) 540
541: 371 Load 373(s2DRectShadow)
542: 249(fvec4) Load 251(c4)
543: 52(float) CompositeExtract 542 2
544: 52(float) CompositeExtract 542 3
545: 249(fvec4) CompositeInsert 544 542 2
- 546: 6(float) ImageSampleProjDrefImplicitLod 541 545 543
+ 546:6(float16_t) ImageSampleProjDrefImplicitLod 541 545 543
547: 208(ptr) AccessChain 413(texel) 207
- 548: 6(float) Load 547
- 549: 6(float) FAdd 548 546
+ 548:6(float16_t) Load 547
+ 549:6(float16_t) FAdd 548 546
550: 208(ptr) AccessChain 413(texel) 207
Store 550 549
551: 371 Load 373(s2DRectShadow)
- 552: 175(fvec3) Load 177(f16c3)
+ 552:175(f16vec3) Load 177(f16c3)
553: 52(float) Load 215(compare)
- 554: 6(float) ImageSampleProjDrefImplicitLod 551 552 553
+ 554:6(float16_t) ImageSampleProjDrefImplicitLod 551 552 553
555: 208(ptr) AccessChain 413(texel) 207
- 556: 6(float) Load 555
- 557: 6(float) FAdd 556 554
+ 556:6(float16_t) Load 555
+ 557:6(float16_t) FAdd 556 554
558: 208(ptr) AccessChain 413(texel) 207
Store 558 557
- 559: 7(fvec4) Load 413(texel)
+ 559: 7(f16vec4) Load 413(texel)
ReturnValue 559
FunctionEnd
-13(testTextureLod(): 7(fvec4) Function None 8
+13(testTextureLod(): 7(f16vec4) Function None 8
14: Label
562(texel): 64(ptr) Variable Function
Store 562(texel) 121
563: 123 Load 125(s1D)
564: 52(float) Load 128(c1)
566: 52(float) Load 565(lod)
- 567: 7(fvec4) ImageSampleExplicitLod 563 564 Lod 566
- 568: 7(fvec4) Load 562(texel)
- 569: 7(fvec4) FAdd 568 567
+ 567: 7(f16vec4) ImageSampleExplicitLod 563 564 Lod 566
+ 568: 7(f16vec4) Load 562(texel)
+ 569: 7(f16vec4) FAdd 568 567
Store 562(texel) 569
570: 123 Load 125(s1D)
- 571: 6(float) Load 135(f16c1)
- 573: 6(float) Load 572(f16lod)
- 574: 7(fvec4) ImageSampleExplicitLod 570 571 Lod 573
- 575: 7(fvec4) Load 562(texel)
- 576: 7(fvec4) FAdd 575 574
+ 571:6(float16_t) Load 135(f16c1)
+ 573:6(float16_t) Load 572(f16lod)
+ 574: 7(f16vec4) ImageSampleExplicitLod 570 571 Lod 573
+ 575: 7(f16vec4) Load 562(texel)
+ 576: 7(f16vec4) FAdd 575 574
Store 562(texel) 576
577: 143 Load 145(s2D)
578: 53(fvec2) Load 148(c2)
579: 52(float) Load 565(lod)
- 580: 7(fvec4) ImageSampleExplicitLod 577 578 Lod 579
- 581: 7(fvec4) Load 562(texel)
- 582: 7(fvec4) FAdd 581 580
+ 580: 7(f16vec4) ImageSampleExplicitLod 577 578 Lod 579
+ 581: 7(f16vec4) Load 562(texel)
+ 582: 7(f16vec4) FAdd 581 580
Store 562(texel) 582
583: 143 Load 145(s2D)
- 584: 154(fvec2) Load 156(f16c2)
- 585: 6(float) Load 572(f16lod)
- 586: 7(fvec4) ImageSampleExplicitLod 583 584 Lod 585
- 587: 7(fvec4) Load 562(texel)
- 588: 7(fvec4) FAdd 587 586
+ 584:154(f16vec2) Load 156(f16c2)
+ 585:6(float16_t) Load 572(f16lod)
+ 586: 7(f16vec4) ImageSampleExplicitLod 583 584 Lod 585
+ 587: 7(f16vec4) Load 562(texel)
+ 588: 7(f16vec4) FAdd 587 586
Store 562(texel) 588
589: 163 Load 165(s3D)
590: 167(fvec3) Load 169(c3)
591: 52(float) Load 565(lod)
- 592: 7(fvec4) ImageSampleExplicitLod 589 590 Lod 591
- 593: 7(fvec4) Load 562(texel)
- 594: 7(fvec4) FAdd 593 592
+ 592: 7(f16vec4) ImageSampleExplicitLod 589 590 Lod 591
+ 593: 7(f16vec4) Load 562(texel)
+ 594: 7(f16vec4) FAdd 593 592
Store 562(texel) 594
595: 163 Load 165(s3D)
- 596: 175(fvec3) Load 177(f16c3)
- 597: 6(float) Load 572(f16lod)
- 598: 7(fvec4) ImageSampleExplicitLod 595 596 Lod 597
- 599: 7(fvec4) Load 562(texel)
- 600: 7(fvec4) FAdd 599 598
+ 596:175(f16vec3) Load 177(f16c3)
+ 597:6(float16_t) Load 572(f16lod)
+ 598: 7(f16vec4) ImageSampleExplicitLod 595 596 Lod 597
+ 599: 7(f16vec4) Load 562(texel)
+ 600: 7(f16vec4) FAdd 599 598
Store 562(texel) 600
601: 184 Load 186(sCube)
602: 167(fvec3) Load 169(c3)
603: 52(float) Load 565(lod)
- 604: 7(fvec4) ImageSampleExplicitLod 601 602 Lod 603
- 605: 7(fvec4) Load 562(texel)
- 606: 7(fvec4) FAdd 605 604
+ 604: 7(f16vec4) ImageSampleExplicitLod 601 602 Lod 603
+ 605: 7(f16vec4) Load 562(texel)
+ 606: 7(f16vec4) FAdd 605 604
Store 562(texel) 606
607: 184 Load 186(sCube)
- 608: 175(fvec3) Load 177(f16c3)
- 609: 6(float) Load 572(f16lod)
- 610: 7(fvec4) ImageSampleExplicitLod 607 608 Lod 609
- 611: 7(fvec4) Load 562(texel)
- 612: 7(fvec4) FAdd 611 610
+ 608:175(f16vec3) Load 177(f16c3)
+ 609:6(float16_t) Load 572(f16lod)
+ 610: 7(f16vec4) ImageSampleExplicitLod 607 608 Lod 609
+ 611: 7(f16vec4) Load 562(texel)
+ 612: 7(f16vec4) FAdd 611 610
Store 562(texel) 612
613: 199 Load 201(s1DShadow)
614: 167(fvec3) Load 169(c3)
615: 52(float) Load 565(lod)
616: 52(float) CompositeExtract 614 2
- 617: 6(float) ImageSampleDrefExplicitLod 613 614 616 Lod 615
+ 617:6(float16_t) ImageSampleDrefExplicitLod 613 614 616 Lod 615
618: 208(ptr) AccessChain 562(texel) 207
- 619: 6(float) Load 618
- 620: 6(float) FAdd 619 617
+ 619:6(float16_t) Load 618
+ 620:6(float16_t) FAdd 619 617
621: 208(ptr) AccessChain 562(texel) 207
Store 621 620
622: 199 Load 201(s1DShadow)
- 623: 154(fvec2) Load 156(f16c2)
+ 623:154(f16vec2) Load 156(f16c2)
624: 52(float) Load 215(compare)
- 625: 6(float) Load 572(f16lod)
- 626: 6(float) ImageSampleDrefExplicitLod 622 623 624 Lod 625
+ 625:6(float16_t) Load 572(f16lod)
+ 626:6(float16_t) ImageSampleDrefExplicitLod 622 623 624 Lod 625
627: 208(ptr) AccessChain 562(texel) 207
- 628: 6(float) Load 627
- 629: 6(float) FAdd 628 626
+ 628:6(float16_t) Load 627
+ 629:6(float16_t) FAdd 628 626
630: 208(ptr) AccessChain 562(texel) 207
Store 630 629
631: 224 Load 226(s2DShadow)
632: 167(fvec3) Load 169(c3)
633: 52(float) Load 565(lod)
634: 52(float) CompositeExtract 632 2
- 635: 6(float) ImageSampleDrefExplicitLod 631 632 634 Lod 633
+ 635:6(float16_t) ImageSampleDrefExplicitLod 631 632 634 Lod 633
636: 208(ptr) AccessChain 562(texel) 207
- 637: 6(float) Load 636
- 638: 6(float) FAdd 637 635
+ 637:6(float16_t) Load 636
+ 638:6(float16_t) FAdd 637 635
639: 208(ptr) AccessChain 562(texel) 207
Store 639 638
640: 224 Load 226(s2DShadow)
- 641: 154(fvec2) Load 156(f16c2)
+ 641:154(f16vec2) Load 156(f16c2)
642: 52(float) Load 215(compare)
- 643: 6(float) Load 572(f16lod)
- 644: 6(float) ImageSampleDrefExplicitLod 640 641 642 Lod 643
+ 643:6(float16_t) Load 572(f16lod)
+ 644:6(float16_t) ImageSampleDrefExplicitLod 640 641 642 Lod 643
645: 208(ptr) AccessChain 562(texel) 207
- 646: 6(float) Load 645
- 647: 6(float) FAdd 646 644
+ 646:6(float16_t) Load 645
+ 647:6(float16_t) FAdd 646 644
648: 208(ptr) AccessChain 562(texel) 207
Store 648 647
649: 269 Load 271(s1DArray)
650: 53(fvec2) Load 148(c2)
651: 52(float) Load 565(lod)
- 652: 7(fvec4) ImageSampleExplicitLod 649 650 Lod 651
- 653: 7(fvec4) Load 562(texel)
- 654: 7(fvec4) FAdd 653 652
+ 652: 7(f16vec4) ImageSampleExplicitLod 649 650 Lod 651
+ 653: 7(f16vec4) Load 562(texel)
+ 654: 7(f16vec4) FAdd 653 652
Store 562(texel) 654
655: 269 Load 271(s1DArray)
- 656: 154(fvec2) Load 156(f16c2)
- 657: 6(float) Load 572(f16lod)
- 658: 7(fvec4) ImageSampleExplicitLod 655 656 Lod 657
- 659: 7(fvec4) Load 562(texel)
- 660: 7(fvec4) FAdd 659 658
+ 656:154(f16vec2) Load 156(f16c2)
+ 657:6(float16_t) Load 572(f16lod)
+ 658: 7(f16vec4) ImageSampleExplicitLod 655 656 Lod 657
+ 659: 7(f16vec4) Load 562(texel)
+ 660: 7(f16vec4) FAdd 659 658
Store 562(texel) 660
661: 284 Load 286(s2DArray)
662: 167(fvec3) Load 169(c3)
663: 52(float) Load 565(lod)
- 664: 7(fvec4) ImageSampleExplicitLod 661 662 Lod 663
- 665: 7(fvec4) Load 562(texel)
- 666: 7(fvec4) FAdd 665 664
+ 664: 7(f16vec4) ImageSampleExplicitLod 661 662 Lod 663
+ 665: 7(f16vec4) Load 562(texel)
+ 666: 7(f16vec4) FAdd 665 664
Store 562(texel) 666
667: 284 Load 286(s2DArray)
- 668: 175(fvec3) Load 177(f16c3)
- 669: 6(float) Load 572(f16lod)
- 670: 7(fvec4) ImageSampleExplicitLod 667 668 Lod 669
- 671: 7(fvec4) Load 562(texel)
- 672: 7(fvec4) FAdd 671 670
+ 668:175(f16vec3) Load 177(f16c3)
+ 669:6(float16_t) Load 572(f16lod)
+ 670: 7(f16vec4) ImageSampleExplicitLod 667 668 Lod 669
+ 671: 7(f16vec4) Load 562(texel)
+ 672: 7(f16vec4) FAdd 671 670
Store 562(texel) 672
673: 316 Load 318(s1DArrayShadow)
674: 167(fvec3) Load 169(c3)
675: 52(float) Load 565(lod)
676: 52(float) CompositeExtract 674 2
- 677: 6(float) ImageSampleDrefExplicitLod 673 674 676 Lod 675
+ 677:6(float16_t) ImageSampleDrefExplicitLod 673 674 676 Lod 675
678: 208(ptr) AccessChain 562(texel) 207
- 679: 6(float) Load 678
- 680: 6(float) FAdd 679 677
+ 679:6(float16_t) Load 678
+ 680:6(float16_t) FAdd 679 677
681: 208(ptr) AccessChain 562(texel) 207
Store 681 680
682: 316 Load 318(s1DArrayShadow)
- 683: 154(fvec2) Load 156(f16c2)
+ 683:154(f16vec2) Load 156(f16c2)
684: 52(float) Load 215(compare)
- 685: 6(float) Load 572(f16lod)
- 686: 6(float) ImageSampleDrefExplicitLod 682 683 684 Lod 685
+ 685:6(float16_t) Load 572(f16lod)
+ 686:6(float16_t) ImageSampleDrefExplicitLod 682 683 684 Lod 685
687: 208(ptr) AccessChain 562(texel) 207
- 688: 6(float) Load 687
- 689: 6(float) FAdd 688 686
+ 688:6(float16_t) Load 687
+ 689:6(float16_t) FAdd 688 686
690: 208(ptr) AccessChain 562(texel) 207
Store 690 689
691: 299 Load 301(sCubeArray)
692: 249(fvec4) Load 251(c4)
693: 52(float) Load 565(lod)
- 694: 7(fvec4) ImageSampleExplicitLod 691 692 Lod 693
- 695: 7(fvec4) Load 562(texel)
- 696: 7(fvec4) FAdd 695 694
+ 694: 7(f16vec4) ImageSampleExplicitLod 691 692 Lod 693
+ 695: 7(f16vec4) Load 562(texel)
+ 696: 7(f16vec4) FAdd 695 694
Store 562(texel) 696
697: 299 Load 301(sCubeArray)
- 698: 7(fvec4) Load 309(f16c4)
- 699: 6(float) Load 572(f16lod)
- 700: 7(fvec4) ImageSampleExplicitLod 697 698 Lod 699
- 701: 7(fvec4) Load 562(texel)
- 702: 7(fvec4) FAdd 701 700
+ 698: 7(f16vec4) Load 309(f16c4)
+ 699:6(float16_t) Load 572(f16lod)
+ 700: 7(f16vec4) ImageSampleExplicitLod 697 698 Lod 699
+ 701: 7(f16vec4) Load 562(texel)
+ 702: 7(f16vec4) FAdd 701 700
Store 562(texel) 702
- 703: 7(fvec4) Load 562(texel)
+ 703: 7(f16vec4) Load 562(texel)
ReturnValue 703
FunctionEnd
-15(testTextureOffset(): 7(fvec4) Function None 8
+15(testTextureOffset(): 7(f16vec4) Function None 8
16: Label
706(texel): 64(ptr) Variable Function
Store 706(texel) 121
707: 123 Load 125(s1D)
708: 52(float) Load 128(c1)
- 710: 7(fvec4) ImageSampleImplicitLod 707 708 ConstOffset 709
- 711: 7(fvec4) Load 706(texel)
- 712: 7(fvec4) FAdd 711 710
+ 710: 7(f16vec4) ImageSampleImplicitLod 707 708 ConstOffset 709
+ 711: 7(f16vec4) Load 706(texel)
+ 712: 7(f16vec4) FAdd 711 710
Store 706(texel) 712
713: 123 Load 125(s1D)
- 714: 6(float) Load 135(f16c1)
- 715: 6(float) Load 137(f16bias)
- 716: 7(fvec4) ImageSampleImplicitLod 713 714 Bias ConstOffset 715 709
- 717: 7(fvec4) Load 706(texel)
- 718: 7(fvec4) FAdd 717 716
+ 714:6(float16_t) Load 135(f16c1)
+ 715:6(float16_t) Load 137(f16bias)
+ 716: 7(f16vec4) ImageSampleImplicitLod 713 714 Bias ConstOffset 715 709
+ 717: 7(f16vec4) Load 706(texel)
+ 718: 7(f16vec4) FAdd 717 716
Store 706(texel) 718
719: 143 Load 145(s2D)
720: 53(fvec2) Load 148(c2)
- 723: 7(fvec4) ImageSampleImplicitLod 719 720 ConstOffset 722
- 724: 7(fvec4) Load 706(texel)
- 725: 7(fvec4) FAdd 724 723
+ 723: 7(f16vec4) ImageSampleImplicitLod 719 720 ConstOffset 722
+ 724: 7(f16vec4) Load 706(texel)
+ 725: 7(f16vec4) FAdd 724 723
Store 706(texel) 725
726: 143 Load 145(s2D)
- 727: 154(fvec2) Load 156(f16c2)
- 728: 6(float) Load 137(f16bias)
- 729: 7(fvec4) ImageSampleImplicitLod 726 727 Bias ConstOffset 728 722
- 730: 7(fvec4) Load 706(texel)
- 731: 7(fvec4) FAdd 730 729
+ 727:154(f16vec2) Load 156(f16c2)
+ 728:6(float16_t) Load 137(f16bias)
+ 729: 7(f16vec4) ImageSampleImplicitLod 726 727 Bias ConstOffset 728 722
+ 730: 7(f16vec4) Load 706(texel)
+ 731: 7(f16vec4) FAdd 730 729
Store 706(texel) 731
732: 163 Load 165(s3D)
733: 167(fvec3) Load 169(c3)
- 736: 7(fvec4) ImageSampleImplicitLod 732 733 ConstOffset 735
- 737: 7(fvec4) Load 706(texel)
- 738: 7(fvec4) FAdd 737 736
+ 736: 7(f16vec4) ImageSampleImplicitLod 732 733 ConstOffset 735
+ 737: 7(f16vec4) Load 706(texel)
+ 738: 7(f16vec4) FAdd 737 736
Store 706(texel) 738
739: 163 Load 165(s3D)
- 740: 175(fvec3) Load 177(f16c3)
- 741: 6(float) Load 137(f16bias)
- 742: 7(fvec4) ImageSampleImplicitLod 739 740 Bias ConstOffset 741 735
- 743: 7(fvec4) Load 706(texel)
- 744: 7(fvec4) FAdd 743 742
+ 740:175(f16vec3) Load 177(f16c3)
+ 741:6(float16_t) Load 137(f16bias)
+ 742: 7(f16vec4) ImageSampleImplicitLod 739 740 Bias ConstOffset 741 735
+ 743: 7(f16vec4) Load 706(texel)
+ 744: 7(f16vec4) FAdd 743 742
Store 706(texel) 744
745: 357 Load 359(s2DRect)
746: 53(fvec2) Load 148(c2)
- 747: 7(fvec4) ImageSampleImplicitLod 745 746 ConstOffset 722
- 748: 7(fvec4) Load 706(texel)
- 749: 7(fvec4) FAdd 748 747
+ 747: 7(f16vec4) ImageSampleImplicitLod 745 746 ConstOffset 722
+ 748: 7(f16vec4) Load 706(texel)
+ 749: 7(f16vec4) FAdd 748 747
Store 706(texel) 749
750: 357 Load 359(s2DRect)
- 751: 154(fvec2) Load 156(f16c2)
- 752: 7(fvec4) ImageSampleImplicitLod 750 751 ConstOffset 722
- 753: 7(fvec4) Load 706(texel)
- 754: 7(fvec4) FAdd 753 752
+ 751:154(f16vec2) Load 156(f16c2)
+ 752: 7(f16vec4) ImageSampleImplicitLod 750 751 ConstOffset 722
+ 753: 7(f16vec4) Load 706(texel)
+ 754: 7(f16vec4) FAdd 753 752
Store 706(texel) 754
755: 371 Load 373(s2DRectShadow)
756: 167(fvec3) Load 169(c3)
757: 52(float) CompositeExtract 756 2
- 758: 6(float) ImageSampleDrefImplicitLod 755 756 757 ConstOffset 722
+ 758:6(float16_t) ImageSampleDrefImplicitLod 755 756 757 ConstOffset 722
759: 208(ptr) AccessChain 706(texel) 207
- 760: 6(float) Load 759
- 761: 6(float) FAdd 760 758
+ 760:6(float16_t) Load 759
+ 761:6(float16_t) FAdd 760 758
762: 208(ptr) AccessChain 706(texel) 207
Store 762 761
763: 371 Load 373(s2DRectShadow)
- 764: 154(fvec2) Load 156(f16c2)
+ 764:154(f16vec2) Load 156(f16c2)
765: 52(float) Load 215(compare)
- 766: 6(float) ImageSampleDrefImplicitLod 763 764 765 ConstOffset 722
+ 766:6(float16_t) ImageSampleDrefImplicitLod 763 764 765 ConstOffset 722
767: 208(ptr) AccessChain 706(texel) 207
- 768: 6(float) Load 767
- 769: 6(float) FAdd 768 766
+ 768:6(float16_t) Load 767
+ 769:6(float16_t) FAdd 768 766
770: 208(ptr) AccessChain 706(texel) 207
Store 770 769
771: 199 Load 201(s1DShadow)
772: 167(fvec3) Load 169(c3)
773: 52(float) CompositeExtract 772 2
- 774: 6(float) ImageSampleDrefImplicitLod 771 772 773 ConstOffset 709
+ 774:6(float16_t) ImageSampleDrefImplicitLod 771 772 773 ConstOffset 709
775: 208(ptr) AccessChain 706(texel) 207
- 776: 6(float) Load 775
- 777: 6(float) FAdd 776 774
+ 776:6(float16_t) Load 775
+ 777:6(float16_t) FAdd 776 774
778: 208(ptr) AccessChain 706(texel) 207
Store 778 777
779: 199 Load 201(s1DShadow)
- 780: 154(fvec2) Load 156(f16c2)
+ 780:154(f16vec2) Load 156(f16c2)
781: 52(float) Load 215(compare)
- 782: 6(float) Load 137(f16bias)
- 783: 6(float) ImageSampleDrefImplicitLod 779 780 781 Bias ConstOffset 782 709
+ 782:6(float16_t) Load 137(f16bias)
+ 783:6(float16_t) ImageSampleDrefImplicitLod 779 780 781 Bias ConstOffset 782 709
784: 208(ptr) AccessChain 706(texel) 207
- 785: 6(float) Load 784
- 786: 6(float) FAdd 785 783
+ 785:6(float16_t) Load 784
+ 786:6(float16_t) FAdd 785 783
787: 208(ptr) AccessChain 706(texel) 207
Store 787 786
788: 224 Load 226(s2DShadow)
789: 167(fvec3) Load 169(c3)
790: 52(float) CompositeExtract 789 2
- 791: 6(float) ImageSampleDrefImplicitLod 788 789 790 ConstOffset 722
+ 791:6(float16_t) ImageSampleDrefImplicitLod 788 789 790 ConstOffset 722
792: 208(ptr) AccessChain 706(texel) 207
- 793: 6(float) Load 792
- 794: 6(float) FAdd 793 791
+ 793:6(float16_t) Load 792
+ 794:6(float16_t) FAdd 793 791
795: 208(ptr) AccessChain 706(texel) 207
Store 795 794
796: 224 Load 226(s2DShadow)
- 797: 154(fvec2) Load 156(f16c2)
+ 797:154(f16vec2) Load 156(f16c2)
798: 52(float) Load 215(compare)
- 799: 6(float) Load 137(f16bias)
- 800: 6(float) ImageSampleDrefImplicitLod 796 797 798 Bias ConstOffset 799 722
+ 799:6(float16_t) Load 137(f16bias)
+ 800:6(float16_t) ImageSampleDrefImplicitLod 796 797 798 Bias ConstOffset 799 722
801: 208(ptr) AccessChain 706(texel) 207
- 802: 6(float) Load 801
- 803: 6(float) FAdd 802 800
+ 802:6(float16_t) Load 801
+ 803:6(float16_t) FAdd 802 800
804: 208(ptr) AccessChain 706(texel) 207
Store 804 803
805: 269 Load 271(s1DArray)
806: 53(fvec2) Load 148(c2)
- 807: 7(fvec4) ImageSampleImplicitLod 805 806 ConstOffset 709
- 808: 7(fvec4) Load 706(texel)
- 809: 7(fvec4) FAdd 808 807
+ 807: 7(f16vec4) ImageSampleImplicitLod 805 806 ConstOffset 709
+ 808: 7(f16vec4) Load 706(texel)
+ 809: 7(f16vec4) FAdd 808 807
Store 706(texel) 809
810: 269 Load 271(s1DArray)
- 811: 154(fvec2) Load 156(f16c2)
- 812: 6(float) Load 137(f16bias)
- 813: 7(fvec4) ImageSampleImplicitLod 810 811 Bias ConstOffset 812 709
- 814: 7(fvec4) Load 706(texel)
- 815: 7(fvec4) FAdd 814 813
+ 811:154(f16vec2) Load 156(f16c2)
+ 812:6(float16_t) Load 137(f16bias)
+ 813: 7(f16vec4) ImageSampleImplicitLod 810 811 Bias ConstOffset 812 709
+ 814: 7(f16vec4) Load 706(texel)
+ 815: 7(f16vec4) FAdd 814 813
Store 706(texel) 815
816: 284 Load 286(s2DArray)
817: 167(fvec3) Load 169(c3)
- 818: 7(fvec4) ImageSampleImplicitLod 816 817 ConstOffset 722
- 819: 7(fvec4) Load 706(texel)
- 820: 7(fvec4) FAdd 819 818
+ 818: 7(f16vec4) ImageSampleImplicitLod 816 817 ConstOffset 722
+ 819: 7(f16vec4) Load 706(texel)
+ 820: 7(f16vec4) FAdd 819 818
Store 706(texel) 820
821: 284 Load 286(s2DArray)
- 822: 175(fvec3) Load 177(f16c3)
- 823: 6(float) Load 137(f16bias)
- 824: 7(fvec4) ImageSampleImplicitLod 821 822 Bias ConstOffset 823 722
- 825: 7(fvec4) Load 706(texel)
- 826: 7(fvec4) FAdd 825 824
+ 822:175(f16vec3) Load 177(f16c3)
+ 823:6(float16_t) Load 137(f16bias)
+ 824: 7(f16vec4) ImageSampleImplicitLod 821 822 Bias ConstOffset 823 722
+ 825: 7(f16vec4) Load 706(texel)
+ 826: 7(f16vec4) FAdd 825 824
Store 706(texel) 826
827: 316 Load 318(s1DArrayShadow)
828: 167(fvec3) Load 169(c3)
829: 52(float) CompositeExtract 828 2
- 830: 6(float) ImageSampleDrefImplicitLod 827 828 829 ConstOffset 709
+ 830:6(float16_t) ImageSampleDrefImplicitLod 827 828 829 ConstOffset 709
831: 208(ptr) AccessChain 706(texel) 207
- 832: 6(float) Load 831
- 833: 6(float) FAdd 832 830
+ 832:6(float16_t) Load 831
+ 833:6(float16_t) FAdd 832 830
834: 208(ptr) AccessChain 706(texel) 207
Store 834 833
835: 316 Load 318(s1DArrayShadow)
- 836: 154(fvec2) Load 156(f16c2)
+ 836:154(f16vec2) Load 156(f16c2)
837: 52(float) Load 215(compare)
- 838: 6(float) Load 137(f16bias)
- 839: 6(float) ImageSampleDrefImplicitLod 835 836 837 Bias ConstOffset 838 709
+ 838:6(float16_t) Load 137(f16bias)
+ 839:6(float16_t) ImageSampleDrefImplicitLod 835 836 837 Bias ConstOffset 838 709
840: 208(ptr) AccessChain 706(texel) 207
- 841: 6(float) Load 840
- 842: 6(float) FAdd 841 839
+ 841:6(float16_t) Load 840
+ 842:6(float16_t) FAdd 841 839
843: 208(ptr) AccessChain 706(texel) 207
Store 843 842
844: 337 Load 339(s2DArrayShadow)
845: 249(fvec4) Load 251(c4)
846: 52(float) CompositeExtract 845 3
- 847: 6(float) ImageSampleDrefImplicitLod 844 845 846 ConstOffset 722
+ 847:6(float16_t) ImageSampleDrefImplicitLod 844 845 846 ConstOffset 722
848: 208(ptr) AccessChain 706(texel) 207
- 849: 6(float) Load 848
- 850: 6(float) FAdd 849 847
+ 849:6(float16_t) Load 848
+ 850:6(float16_t) FAdd 849 847
851: 208(ptr) AccessChain 706(texel) 207
Store 851 850
852: 337 Load 339(s2DArrayShadow)
- 853: 175(fvec3) Load 177(f16c3)
+ 853:175(f16vec3) Load 177(f16c3)
854: 52(float) Load 215(compare)
- 855: 6(float) ImageSampleDrefImplicitLod 852 853 854 ConstOffset 722
+ 855:6(float16_t) ImageSampleDrefImplicitLod 852 853 854 ConstOffset 722
856: 208(ptr) AccessChain 706(texel) 207
- 857: 6(float) Load 856
- 858: 6(float) FAdd 857 855
+ 857:6(float16_t) Load 856
+ 858:6(float16_t) FAdd 857 855
859: 208(ptr) AccessChain 706(texel) 207
Store 859 858
- 860: 7(fvec4) Load 706(texel)
+ 860: 7(f16vec4) Load 706(texel)
ReturnValue 860
FunctionEnd
-17(testTextureProjOffset(): 7(fvec4) Function None 8
+17(testTextureProjOffset(): 7(f16vec4) Function None 8
18: Label
863(texel): 64(ptr) Variable Function
Store 863(texel) 121
864: 123 Load 125(s1D)
865: 53(fvec2) Load 148(c2)
- 866: 7(fvec4) ImageSampleProjImplicitLod 864 865 ConstOffset 709
- 867: 7(fvec4) Load 863(texel)
- 868: 7(fvec4) FAdd 867 866
+ 866: 7(f16vec4) ImageSampleProjImplicitLod 864 865 ConstOffset 709
+ 867: 7(f16vec4) Load 863(texel)
+ 868: 7(f16vec4) FAdd 867 866
Store 863(texel) 868
869: 123 Load 125(s1D)
- 870: 154(fvec2) Load 156(f16c2)
- 871: 6(float) Load 137(f16bias)
- 872: 7(fvec4) ImageSampleProjImplicitLod 869 870 Bias ConstOffset 871 709
- 873: 7(fvec4) Load 863(texel)
- 874: 7(fvec4) FAdd 873 872
+ 870:154(f16vec2) Load 156(f16c2)
+ 871:6(float16_t) Load 137(f16bias)
+ 872: 7(f16vec4) ImageSampleProjImplicitLod 869 870 Bias ConstOffset 871 709
+ 873: 7(f16vec4) Load 863(texel)
+ 874: 7(f16vec4) FAdd 873 872
Store 863(texel) 874
875: 123 Load 125(s1D)
876: 249(fvec4) Load 251(c4)
877: 52(float) CompositeExtract 876 3
878: 249(fvec4) CompositeInsert 877 876 1
- 879: 7(fvec4) ImageSampleProjImplicitLod 875 878 ConstOffset 709
- 880: 7(fvec4) Load 863(texel)
- 881: 7(fvec4) FAdd 880 879
+ 879: 7(f16vec4) ImageSampleProjImplicitLod 875 878 ConstOffset 709
+ 880: 7(f16vec4) Load 863(texel)
+ 881: 7(f16vec4) FAdd 880 879
Store 863(texel) 881
882: 123 Load 125(s1D)
- 883: 7(fvec4) Load 309(f16c4)
- 884: 6(float) Load 137(f16bias)
- 885: 6(float) CompositeExtract 883 3
- 886: 7(fvec4) CompositeInsert 885 883 1
- 887: 7(fvec4) ImageSampleProjImplicitLod 882 886 Bias ConstOffset 884 709
- 888: 7(fvec4) Load 863(texel)
- 889: 7(fvec4) FAdd 888 887
+ 883: 7(f16vec4) Load 309(f16c4)
+ 884:6(float16_t) Load 137(f16bias)
+ 885:6(float16_t) CompositeExtract 883 3
+ 886: 7(f16vec4) CompositeInsert 885 883 1
+ 887: 7(f16vec4) ImageSampleProjImplicitLod 882 886 Bias ConstOffset 884 709
+ 888: 7(f16vec4) Load 863(texel)
+ 889: 7(f16vec4) FAdd 888 887
Store 863(texel) 889
890: 143 Load 145(s2D)
891: 167(fvec3) Load 169(c3)
- 892: 7(fvec4) ImageSampleProjImplicitLod 890 891 ConstOffset 722
- 893: 7(fvec4) Load 863(texel)
- 894: 7(fvec4) FAdd 893 892
+ 892: 7(f16vec4) ImageSampleProjImplicitLod 890 891 ConstOffset 722
+ 893: 7(f16vec4) Load 863(texel)
+ 894: 7(f16vec4) FAdd 893 892
Store 863(texel) 894
895: 143 Load 145(s2D)
- 896: 175(fvec3) Load 177(f16c3)
- 897: 6(float) Load 137(f16bias)
- 898: 7(fvec4) ImageSampleProjImplicitLod 895 896 Bias ConstOffset 897 722
- 899: 7(fvec4) Load 863(texel)
- 900: 7(fvec4) FAdd 899 898
+ 896:175(f16vec3) Load 177(f16c3)
+ 897:6(float16_t) Load 137(f16bias)
+ 898: 7(f16vec4) ImageSampleProjImplicitLod 895 896 Bias ConstOffset 897 722
+ 899: 7(f16vec4) Load 863(texel)
+ 900: 7(f16vec4) FAdd 899 898
Store 863(texel) 900
901: 143 Load 145(s2D)
902: 249(fvec4) Load 251(c4)
903: 52(float) CompositeExtract 902 3
904: 249(fvec4) CompositeInsert 903 902 2
- 905: 7(fvec4) ImageSampleProjImplicitLod 901 904 ConstOffset 722
- 906: 7(fvec4) Load 863(texel)
- 907: 7(fvec4) FAdd 906 905
+ 905: 7(f16vec4) ImageSampleProjImplicitLod 901 904 ConstOffset 722
+ 906: 7(f16vec4) Load 863(texel)
+ 907: 7(f16vec4) FAdd 906 905
Store 863(texel) 907
908: 143 Load 145(s2D)
- 909: 7(fvec4) Load 309(f16c4)
- 910: 6(float) Load 137(f16bias)
- 911: 6(float) CompositeExtract 909 3
- 912: 7(fvec4) CompositeInsert 911 909 2
- 913: 7(fvec4) ImageSampleProjImplicitLod 908 912 Bias ConstOffset 910 722
- 914: 7(fvec4) Load 863(texel)
- 915: 7(fvec4) FAdd 914 913
+ 909: 7(f16vec4) Load 309(f16c4)
+ 910:6(float16_t) Load 137(f16bias)
+ 911:6(float16_t) CompositeExtract 909 3
+ 912: 7(f16vec4) CompositeInsert 911 909 2
+ 913: 7(f16vec4) ImageSampleProjImplicitLod 908 912 Bias ConstOffset 910 722
+ 914: 7(f16vec4) Load 863(texel)
+ 915: 7(f16vec4) FAdd 914 913
Store 863(texel) 915
916: 163 Load 165(s3D)
917: 249(fvec4) Load 251(c4)
- 918: 7(fvec4) ImageSampleProjImplicitLod 916 917 ConstOffset 735
- 919: 7(fvec4) Load 863(texel)
- 920: 7(fvec4) FAdd 919 918
+ 918: 7(f16vec4) ImageSampleProjImplicitLod 916 917 ConstOffset 735
+ 919: 7(f16vec4) Load 863(texel)
+ 920: 7(f16vec4) FAdd 919 918
Store 863(texel) 920
921: 163 Load 165(s3D)
- 922: 7(fvec4) Load 309(f16c4)
- 923: 6(float) Load 137(f16bias)
- 924: 7(fvec4) ImageSampleProjImplicitLod 921 922 Bias ConstOffset 923 735
- 925: 7(fvec4) Load 863(texel)
- 926: 7(fvec4) FAdd 925 924
+ 922: 7(f16vec4) Load 309(f16c4)
+ 923:6(float16_t) Load 137(f16bias)
+ 924: 7(f16vec4) ImageSampleProjImplicitLod 921 922 Bias ConstOffset 923 735
+ 925: 7(f16vec4) Load 863(texel)
+ 926: 7(f16vec4) FAdd 925 924
Store 863(texel) 926
927: 357 Load 359(s2DRect)
928: 167(fvec3) Load 169(c3)
- 929: 7(fvec4) ImageSampleProjImplicitLod 927 928 ConstOffset 722
- 930: 7(fvec4) Load 863(texel)
- 931: 7(fvec4) FAdd 930 929
+ 929: 7(f16vec4) ImageSampleProjImplicitLod 927 928 ConstOffset 722
+ 930: 7(f16vec4) Load 863(texel)
+ 931: 7(f16vec4) FAdd 930 929
Store 863(texel) 931
932: 357 Load 359(s2DRect)
- 933: 175(fvec3) Load 177(f16c3)
- 934: 7(fvec4) ImageSampleProjImplicitLod 932 933 ConstOffset 722
- 935: 7(fvec4) Load 863(texel)
- 936: 7(fvec4) FAdd 935 934
+ 933:175(f16vec3) Load 177(f16c3)
+ 934: 7(f16vec4) ImageSampleProjImplicitLod 932 933 ConstOffset 722
+ 935: 7(f16vec4) Load 863(texel)
+ 936: 7(f16vec4) FAdd 935 934
Store 863(texel) 936
937: 357 Load 359(s2DRect)
938: 249(fvec4) Load 251(c4)
939: 52(float) CompositeExtract 938 3
940: 249(fvec4) CompositeInsert 939 938 2
- 941: 7(fvec4) ImageSampleProjImplicitLod 937 940 ConstOffset 722
- 942: 7(fvec4) Load 863(texel)
- 943: 7(fvec4) FAdd 942 941
+ 941: 7(f16vec4) ImageSampleProjImplicitLod 937 940 ConstOffset 722
+ 942: 7(f16vec4) Load 863(texel)
+ 943: 7(f16vec4) FAdd 942 941
Store 863(texel) 943
944: 357 Load 359(s2DRect)
- 945: 7(fvec4) Load 309(f16c4)
- 946: 6(float) CompositeExtract 945 3
- 947: 7(fvec4) CompositeInsert 946 945 2
- 948: 7(fvec4) ImageSampleProjImplicitLod 944 947 ConstOffset 722
- 949: 7(fvec4) Load 863(texel)
- 950: 7(fvec4) FAdd 949 948
+ 945: 7(f16vec4) Load 309(f16c4)
+ 946:6(float16_t) CompositeExtract 945 3
+ 947: 7(f16vec4) CompositeInsert 946 945 2
+ 948: 7(f16vec4) ImageSampleProjImplicitLod 944 947 ConstOffset 722
+ 949: 7(f16vec4) Load 863(texel)
+ 950: 7(f16vec4) FAdd 949 948
Store 863(texel) 950
951: 371 Load 373(s2DRectShadow)
952: 249(fvec4) Load 251(c4)
953: 52(float) CompositeExtract 952 2
954: 52(float) CompositeExtract 952 3
955: 249(fvec4) CompositeInsert 954 952 2
- 956: 6(float) ImageSampleProjDrefImplicitLod 951 955 953 ConstOffset 722
+ 956:6(float16_t) ImageSampleProjDrefImplicitLod 951 955 953 ConstOffset 722
957: 208(ptr) AccessChain 863(texel) 207
- 958: 6(float) Load 957
- 959: 6(float) FAdd 958 956
+ 958:6(float16_t) Load 957
+ 959:6(float16_t) FAdd 958 956
960: 208(ptr) AccessChain 863(texel) 207
Store 960 959
961: 371 Load 373(s2DRectShadow)
- 962: 175(fvec3) Load 177(f16c3)
+ 962:175(f16vec3) Load 177(f16c3)
963: 52(float) Load 215(compare)
- 964: 6(float) ImageSampleProjDrefImplicitLod 961 962 963 ConstOffset 722
+ 964:6(float16_t) ImageSampleProjDrefImplicitLod 961 962 963 ConstOffset 722
965: 208(ptr) AccessChain 863(texel) 207
- 966: 6(float) Load 965
- 967: 6(float) FAdd 966 964
+ 966:6(float16_t) Load 965
+ 967:6(float16_t) FAdd 966 964
968: 208(ptr) AccessChain 863(texel) 207
Store 968 967
969: 199 Load 201(s1DShadow)
@@ -1628,22 +1628,22 @@ spv.float16Fetch.frag
971: 52(float) CompositeExtract 970 2
972: 52(float) CompositeExtract 970 3
973: 249(fvec4) CompositeInsert 972 970 1
- 974: 6(float) ImageSampleProjDrefImplicitLod 969 973 971 ConstOffset 709
+ 974:6(float16_t) ImageSampleProjDrefImplicitLod 969 973 971 ConstOffset 709
975: 208(ptr) AccessChain 863(texel) 207
- 976: 6(float) Load 975
- 977: 6(float) FAdd 976 974
+ 976:6(float16_t) Load 975
+ 977:6(float16_t) FAdd 976 974
978: 208(ptr) AccessChain 863(texel) 207
Store 978 977
979: 199 Load 201(s1DShadow)
- 980: 175(fvec3) Load 177(f16c3)
+ 980:175(f16vec3) Load 177(f16c3)
981: 52(float) Load 215(compare)
- 982: 6(float) Load 137(f16bias)
- 983: 6(float) CompositeExtract 980 2
- 984: 175(fvec3) CompositeInsert 983 980 1
- 985: 6(float) ImageSampleProjDrefImplicitLod 979 984 981 Bias ConstOffset 982 709
+ 982:6(float16_t) Load 137(f16bias)
+ 983:6(float16_t) CompositeExtract 980 2
+ 984:175(f16vec3) CompositeInsert 983 980 1
+ 985:6(float16_t) ImageSampleProjDrefImplicitLod 979 984 981 Bias ConstOffset 982 709
986: 208(ptr) AccessChain 863(texel) 207
- 987: 6(float) Load 986
- 988: 6(float) FAdd 987 985
+ 987:6(float16_t) Load 986
+ 988:6(float16_t) FAdd 987 985
989: 208(ptr) AccessChain 863(texel) 207
Store 989 988
990: 224 Load 226(s2DShadow)
@@ -1651,243 +1651,243 @@ spv.float16Fetch.frag
992: 52(float) CompositeExtract 991 2
993: 52(float) CompositeExtract 991 3
994: 249(fvec4) CompositeInsert 993 991 2
- 995: 6(float) ImageSampleProjDrefImplicitLod 990 994 992 ConstOffset 722
+ 995:6(float16_t) ImageSampleProjDrefImplicitLod 990 994 992 ConstOffset 722
996: 208(ptr) AccessChain 863(texel) 207
- 997: 6(float) Load 996
- 998: 6(float) FAdd 997 995
+ 997:6(float16_t) Load 996
+ 998:6(float16_t) FAdd 997 995
999: 208(ptr) AccessChain 863(texel) 207
Store 999 998
1000: 224 Load 226(s2DShadow)
- 1001: 175(fvec3) Load 177(f16c3)
+ 1001:175(f16vec3) Load 177(f16c3)
1002: 52(float) Load 215(compare)
- 1003: 6(float) Load 137(f16bias)
- 1004: 6(float) ImageSampleProjDrefImplicitLod 1000 1001 1002 Bias ConstOffset 1003 722
+ 1003:6(float16_t) Load 137(f16bias)
+ 1004:6(float16_t) ImageSampleProjDrefImplicitLod 1000 1001 1002 Bias ConstOffset 1003 722
1005: 208(ptr) AccessChain 863(texel) 207
- 1006: 6(float) Load 1005
- 1007: 6(float) FAdd 1006 1004
+ 1006:6(float16_t) Load 1005
+ 1007:6(float16_t) FAdd 1006 1004
1008: 208(ptr) AccessChain 863(texel) 207
Store 1008 1007
- 1009: 7(fvec4) Load 863(texel)
+ 1009: 7(f16vec4) Load 863(texel)
ReturnValue 1009
FunctionEnd
-19(testTextureLodOffset(): 7(fvec4) Function None 8
+19(testTextureLodOffset(): 7(f16vec4) Function None 8
20: Label
1012(texel): 64(ptr) Variable Function
Store 1012(texel) 121
1013: 123 Load 125(s1D)
1014: 52(float) Load 128(c1)
1015: 52(float) Load 565(lod)
- 1016: 7(fvec4) ImageSampleExplicitLod 1013 1014 Lod ConstOffset 1015 709
- 1017: 7(fvec4) Load 1012(texel)
- 1018: 7(fvec4) FAdd 1017 1016
+ 1016: 7(f16vec4) ImageSampleExplicitLod 1013 1014 Lod ConstOffset 1015 709
+ 1017: 7(f16vec4) Load 1012(texel)
+ 1018: 7(f16vec4) FAdd 1017 1016
Store 1012(texel) 1018
1019: 123 Load 125(s1D)
- 1020: 6(float) Load 135(f16c1)
- 1021: 6(float) Load 572(f16lod)
- 1022: 7(fvec4) ImageSampleExplicitLod 1019 1020 Lod ConstOffset 1021 709
- 1023: 7(fvec4) Load 1012(texel)
- 1024: 7(fvec4) FAdd 1023 1022
+ 1020:6(float16_t) Load 135(f16c1)
+ 1021:6(float16_t) Load 572(f16lod)
+ 1022: 7(f16vec4) ImageSampleExplicitLod 1019 1020 Lod ConstOffset 1021 709
+ 1023: 7(f16vec4) Load 1012(texel)
+ 1024: 7(f16vec4) FAdd 1023 1022
Store 1012(texel) 1024
1025: 143 Load 145(s2D)
1026: 53(fvec2) Load 148(c2)
1027: 52(float) Load 565(lod)
- 1028: 7(fvec4) ImageSampleExplicitLod 1025 1026 Lod ConstOffset 1027 722
- 1029: 7(fvec4) Load 1012(texel)
- 1030: 7(fvec4) FAdd 1029 1028
+ 1028: 7(f16vec4) ImageSampleExplicitLod 1025 1026 Lod ConstOffset 1027 722
+ 1029: 7(f16vec4) Load 1012(texel)
+ 1030: 7(f16vec4) FAdd 1029 1028
Store 1012(texel) 1030
1031: 143 Load 145(s2D)
- 1032: 154(fvec2) Load 156(f16c2)
- 1033: 6(float) Load 572(f16lod)
- 1034: 7(fvec4) ImageSampleExplicitLod 1031 1032 Lod ConstOffset 1033 722
- 1035: 7(fvec4) Load 1012(texel)
- 1036: 7(fvec4) FAdd 1035 1034
+ 1032:154(f16vec2) Load 156(f16c2)
+ 1033:6(float16_t) Load 572(f16lod)
+ 1034: 7(f16vec4) ImageSampleExplicitLod 1031 1032 Lod ConstOffset 1033 722
+ 1035: 7(f16vec4) Load 1012(texel)
+ 1036: 7(f16vec4) FAdd 1035 1034
Store 1012(texel) 1036
1037: 163 Load 165(s3D)
1038: 167(fvec3) Load 169(c3)
1039: 52(float) Load 565(lod)
- 1040: 7(fvec4) ImageSampleExplicitLod 1037 1038 Lod ConstOffset 1039 735
- 1041: 7(fvec4) Load 1012(texel)
- 1042: 7(fvec4) FAdd 1041 1040
+ 1040: 7(f16vec4) ImageSampleExplicitLod 1037 1038 Lod ConstOffset 1039 735
+ 1041: 7(f16vec4) Load 1012(texel)
+ 1042: 7(f16vec4) FAdd 1041 1040
Store 1012(texel) 1042
1043: 163 Load 165(s3D)
- 1044: 175(fvec3) Load 177(f16c3)
- 1045: 6(float) Load 572(f16lod)
- 1046: 7(fvec4) ImageSampleExplicitLod 1043 1044 Lod ConstOffset 1045 735
- 1047: 7(fvec4) Load 1012(texel)
- 1048: 7(fvec4) FAdd 1047 1046
+ 1044:175(f16vec3) Load 177(f16c3)
+ 1045:6(float16_t) Load 572(f16lod)
+ 1046: 7(f16vec4) ImageSampleExplicitLod 1043 1044 Lod ConstOffset 1045 735
+ 1047: 7(f16vec4) Load 1012(texel)
+ 1048: 7(f16vec4) FAdd 1047 1046
Store 1012(texel) 1048
1049: 199 Load 201(s1DShadow)
1050: 167(fvec3) Load 169(c3)
1051: 52(float) Load 565(lod)
1052: 52(float) CompositeExtract 1050 2
- 1053: 6(float) ImageSampleDrefExplicitLod 1049 1050 1052 Lod ConstOffset 1051 709
+ 1053:6(float16_t) ImageSampleDrefExplicitLod 1049 1050 1052 Lod ConstOffset 1051 709
1054: 208(ptr) AccessChain 1012(texel) 207
- 1055: 6(float) Load 1054
- 1056: 6(float) FAdd 1055 1053
+ 1055:6(float16_t) Load 1054
+ 1056:6(float16_t) FAdd 1055 1053
1057: 208(ptr) AccessChain 1012(texel) 207
Store 1057 1056
1058: 199 Load 201(s1DShadow)
- 1059: 154(fvec2) Load 156(f16c2)
+ 1059:154(f16vec2) Load 156(f16c2)
1060: 52(float) Load 215(compare)
- 1061: 6(float) Load 572(f16lod)
- 1062: 6(float) ImageSampleDrefExplicitLod 1058 1059 1060 Lod ConstOffset 1061 709
+ 1061:6(float16_t) Load 572(f16lod)
+ 1062:6(float16_t) ImageSampleDrefExplicitLod 1058 1059 1060 Lod ConstOffset 1061 709
1063: 208(ptr) AccessChain 1012(texel) 207
- 1064: 6(float) Load 1063
- 1065: 6(float) FAdd 1064 1062
+ 1064:6(float16_t) Load 1063
+ 1065:6(float16_t) FAdd 1064 1062
1066: 208(ptr) AccessChain 1012(texel) 207
Store 1066 1065
1067: 224 Load 226(s2DShadow)
1068: 167(fvec3) Load 169(c3)
1069: 52(float) Load 565(lod)
1070: 52(float) CompositeExtract 1068 2
- 1071: 6(float) ImageSampleDrefExplicitLod 1067 1068 1070 Lod ConstOffset 1069 722
+ 1071:6(float16_t) ImageSampleDrefExplicitLod 1067 1068 1070 Lod ConstOffset 1069 722
1072: 208(ptr) AccessChain 1012(texel) 207
- 1073: 6(float) Load 1072
- 1074: 6(float) FAdd 1073 1071
+ 1073:6(float16_t) Load 1072
+ 1074:6(float16_t) FAdd 1073 1071
1075: 208(ptr) AccessChain 1012(texel) 207
Store 1075 1074
1076: 224 Load 226(s2DShadow)
- 1077: 154(fvec2) Load 156(f16c2)
+ 1077:154(f16vec2) Load 156(f16c2)
1078: 52(float) Load 215(compare)
- 1079: 6(float) Load 572(f16lod)
- 1080: 6(float) ImageSampleDrefExplicitLod 1076 1077 1078 Lod ConstOffset 1079 722
+ 1079:6(float16_t) Load 572(f16lod)
+ 1080:6(float16_t) ImageSampleDrefExplicitLod 1076 1077 1078 Lod ConstOffset 1079 722
1081: 208(ptr) AccessChain 1012(texel) 207
- 1082: 6(float) Load 1081
- 1083: 6(float) FAdd 1082 1080
+ 1082:6(float16_t) Load 1081
+ 1083:6(float16_t) FAdd 1082 1080
1084: 208(ptr) AccessChain 1012(texel) 207
Store 1084 1083
1085: 269 Load 271(s1DArray)
1086: 53(fvec2) Load 148(c2)
1087: 52(float) Load 565(lod)
- 1088: 7(fvec4) ImageSampleExplicitLod 1085 1086 Lod ConstOffset 1087 709
- 1089: 7(fvec4) Load 1012(texel)
- 1090: 7(fvec4) FAdd 1089 1088
+ 1088: 7(f16vec4) ImageSampleExplicitLod 1085 1086 Lod ConstOffset 1087 709
+ 1089: 7(f16vec4) Load 1012(texel)
+ 1090: 7(f16vec4) FAdd 1089 1088
Store 1012(texel) 1090
1091: 269 Load 271(s1DArray)
- 1092: 154(fvec2) Load 156(f16c2)
- 1093: 6(float) Load 572(f16lod)
- 1094: 7(fvec4) ImageSampleExplicitLod 1091 1092 Lod ConstOffset 1093 709
- 1095: 7(fvec4) Load 1012(texel)
- 1096: 7(fvec4) FAdd 1095 1094
+ 1092:154(f16vec2) Load 156(f16c2)
+ 1093:6(float16_t) Load 572(f16lod)
+ 1094: 7(f16vec4) ImageSampleExplicitLod 1091 1092 Lod ConstOffset 1093 709
+ 1095: 7(f16vec4) Load 1012(texel)
+ 1096: 7(f16vec4) FAdd 1095 1094
Store 1012(texel) 1096
1097: 284 Load 286(s2DArray)
1098: 167(fvec3) Load 169(c3)
1099: 52(float) Load 565(lod)
- 1100: 7(fvec4) ImageSampleExplicitLod 1097 1098 Lod ConstOffset 1099 722
- 1101: 7(fvec4) Load 1012(texel)
- 1102: 7(fvec4) FAdd 1101 1100
+ 1100: 7(f16vec4) ImageSampleExplicitLod 1097 1098 Lod ConstOffset 1099 722
+ 1101: 7(f16vec4) Load 1012(texel)
+ 1102: 7(f16vec4) FAdd 1101 1100
Store 1012(texel) 1102
1103: 284 Load 286(s2DArray)
- 1104: 175(fvec3) Load 177(f16c3)
- 1105: 6(float) Load 572(f16lod)
- 1106: 7(fvec4) ImageSampleExplicitLod 1103 1104 Lod ConstOffset 1105 722
- 1107: 7(fvec4) Load 1012(texel)
- 1108: 7(fvec4) FAdd 1107 1106
+ 1104:175(f16vec3) Load 177(f16c3)
+ 1105:6(float16_t) Load 572(f16lod)
+ 1106: 7(f16vec4) ImageSampleExplicitLod 1103 1104 Lod ConstOffset 1105 722
+ 1107: 7(f16vec4) Load 1012(texel)
+ 1108: 7(f16vec4) FAdd 1107 1106
Store 1012(texel) 1108
1109: 316 Load 318(s1DArrayShadow)
1110: 167(fvec3) Load 169(c3)
1111: 52(float) Load 565(lod)
1112: 52(float) CompositeExtract 1110 2
- 1113: 6(float) ImageSampleDrefExplicitLod 1109 1110 1112 Lod ConstOffset 1111 709
+ 1113:6(float16_t) ImageSampleDrefExplicitLod 1109 1110 1112 Lod ConstOffset 1111 709
1114: 208(ptr) AccessChain 1012(texel) 207
- 1115: 6(float) Load 1114
- 1116: 6(float) FAdd 1115 1113
+ 1115:6(float16_t) Load 1114
+ 1116:6(float16_t) FAdd 1115 1113
1117: 208(ptr) AccessChain 1012(texel) 207
Store 1117 1116
1118: 316 Load 318(s1DArrayShadow)
- 1119: 154(fvec2) Load 156(f16c2)
+ 1119:154(f16vec2) Load 156(f16c2)
1120: 52(float) Load 215(compare)
- 1121: 6(float) Load 572(f16lod)
- 1122: 6(float) ImageSampleDrefExplicitLod 1118 1119 1120 Lod ConstOffset 1121 709
+ 1121:6(float16_t) Load 572(f16lod)
+ 1122:6(float16_t) ImageSampleDrefExplicitLod 1118 1119 1120 Lod ConstOffset 1121 709
1123: 208(ptr) AccessChain 1012(texel) 207
- 1124: 6(float) Load 1123
- 1125: 6(float) FAdd 1124 1122
+ 1124:6(float16_t) Load 1123
+ 1125:6(float16_t) FAdd 1124 1122
1126: 208(ptr) AccessChain 1012(texel) 207
Store 1126 1125
- 1127: 7(fvec4) Load 1012(texel)
+ 1127: 7(f16vec4) Load 1012(texel)
ReturnValue 1127
FunctionEnd
-21(testTextureProjLodOffset(): 7(fvec4) Function None 8
+21(testTextureProjLodOffset(): 7(f16vec4) Function None 8
22: Label
1130(texel): 64(ptr) Variable Function
Store 1130(texel) 121
1131: 123 Load 125(s1D)
1132: 53(fvec2) Load 148(c2)
1133: 52(float) Load 565(lod)
- 1134: 7(fvec4) ImageSampleProjExplicitLod 1131 1132 Lod ConstOffset 1133 709
- 1135: 7(fvec4) Load 1130(texel)
- 1136: 7(fvec4) FAdd 1135 1134
+ 1134: 7(f16vec4) ImageSampleProjExplicitLod 1131 1132 Lod ConstOffset 1133 709
+ 1135: 7(f16vec4) Load 1130(texel)
+ 1136: 7(f16vec4) FAdd 1135 1134
Store 1130(texel) 1136
1137: 123 Load 125(s1D)
- 1138: 154(fvec2) Load 156(f16c2)
- 1139: 6(float) Load 572(f16lod)
- 1140: 7(fvec4) ImageSampleProjExplicitLod 1137 1138 Lod ConstOffset 1139 709
- 1141: 7(fvec4) Load 1130(texel)
- 1142: 7(fvec4) FAdd 1141 1140
+ 1138:154(f16vec2) Load 156(f16c2)
+ 1139:6(float16_t) Load 572(f16lod)
+ 1140: 7(f16vec4) ImageSampleProjExplicitLod 1137 1138 Lod ConstOffset 1139 709
+ 1141: 7(f16vec4) Load 1130(texel)
+ 1142: 7(f16vec4) FAdd 1141 1140
Store 1130(texel) 1142
1143: 123 Load 125(s1D)
1144: 249(fvec4) Load 251(c4)
1145: 52(float) Load 565(lod)
1146: 52(float) CompositeExtract 1144 3
1147: 249(fvec4) CompositeInsert 1146 1144 1
- 1148: 7(fvec4) ImageSampleProjExplicitLod 1143 1147 Lod ConstOffset 1145 709
- 1149: 7(fvec4) Load 1130(texel)
- 1150: 7(fvec4) FAdd 1149 1148
+ 1148: 7(f16vec4) ImageSampleProjExplicitLod 1143 1147 Lod ConstOffset 1145 709
+ 1149: 7(f16vec4) Load 1130(texel)
+ 1150: 7(f16vec4) FAdd 1149 1148
Store 1130(texel) 1150
1151: 123 Load 125(s1D)
- 1152: 7(fvec4) Load 309(f16c4)
- 1153: 6(float) Load 572(f16lod)
- 1154: 6(float) CompositeExtract 1152 3
- 1155: 7(fvec4) CompositeInsert 1154 1152 1
- 1156: 7(fvec4) ImageSampleProjExplicitLod 1151 1155 Lod ConstOffset 1153 709
- 1157: 7(fvec4) Load 1130(texel)
- 1158: 7(fvec4) FAdd 1157 1156
+ 1152: 7(f16vec4) Load 309(f16c4)
+ 1153:6(float16_t) Load 572(f16lod)
+ 1154:6(float16_t) CompositeExtract 1152 3
+ 1155: 7(f16vec4) CompositeInsert 1154 1152 1
+ 1156: 7(f16vec4) ImageSampleProjExplicitLod 1151 1155 Lod ConstOffset 1153 709
+ 1157: 7(f16vec4) Load 1130(texel)
+ 1158: 7(f16vec4) FAdd 1157 1156
Store 1130(texel) 1158
1159: 143 Load 145(s2D)
1160: 167(fvec3) Load 169(c3)
1161: 52(float) Load 565(lod)
- 1162: 7(fvec4) ImageSampleProjExplicitLod 1159 1160 Lod ConstOffset 1161 722
- 1163: 7(fvec4) Load 1130(texel)
- 1164: 7(fvec4) FAdd 1163 1162
+ 1162: 7(f16vec4) ImageSampleProjExplicitLod 1159 1160 Lod ConstOffset 1161 722
+ 1163: 7(f16vec4) Load 1130(texel)
+ 1164: 7(f16vec4) FAdd 1163 1162
Store 1130(texel) 1164
1165: 143 Load 145(s2D)
- 1166: 175(fvec3) Load 177(f16c3)
- 1167: 6(float) Load 572(f16lod)
- 1168: 7(fvec4) ImageSampleProjExplicitLod 1165 1166 Lod ConstOffset 1167 722
- 1169: 7(fvec4) Load 1130(texel)
- 1170: 7(fvec4) FAdd 1169 1168
+ 1166:175(f16vec3) Load 177(f16c3)
+ 1167:6(float16_t) Load 572(f16lod)
+ 1168: 7(f16vec4) ImageSampleProjExplicitLod 1165 1166 Lod ConstOffset 1167 722
+ 1169: 7(f16vec4) Load 1130(texel)
+ 1170: 7(f16vec4) FAdd 1169 1168
Store 1130(texel) 1170
1171: 143 Load 145(s2D)
1172: 249(fvec4) Load 251(c4)
1173: 52(float) Load 565(lod)
1174: 52(float) CompositeExtract 1172 3
1175: 249(fvec4) CompositeInsert 1174 1172 2
- 1176: 7(fvec4) ImageSampleProjExplicitLod 1171 1175 Lod ConstOffset 1173 722
- 1177: 7(fvec4) Load 1130(texel)
- 1178: 7(fvec4) FAdd 1177 1176
+ 1176: 7(f16vec4) ImageSampleProjExplicitLod 1171 1175 Lod ConstOffset 1173 722
+ 1177: 7(f16vec4) Load 1130(texel)
+ 1178: 7(f16vec4) FAdd 1177 1176
Store 1130(texel) 1178
1179: 143 Load 145(s2D)
- 1180: 7(fvec4) Load 309(f16c4)
- 1181: 6(float) Load 572(f16lod)
- 1182: 6(float) CompositeExtract 1180 3
- 1183: 7(fvec4) CompositeInsert 1182 1180 2
- 1184: 7(fvec4) ImageSampleProjExplicitLod 1179 1183 Lod ConstOffset 1181 722
- 1185: 7(fvec4) Load 1130(texel)
- 1186: 7(fvec4) FAdd 1185 1184
+ 1180: 7(f16vec4) Load 309(f16c4)
+ 1181:6(float16_t) Load 572(f16lod)
+ 1182:6(float16_t) CompositeExtract 1180 3
+ 1183: 7(f16vec4) CompositeInsert 1182 1180 2
+ 1184: 7(f16vec4) ImageSampleProjExplicitLod 1179 1183 Lod ConstOffset 1181 722
+ 1185: 7(f16vec4) Load 1130(texel)
+ 1186: 7(f16vec4) FAdd 1185 1184
Store 1130(texel) 1186
1187: 163 Load 165(s3D)
1188: 249(fvec4) Load 251(c4)
1189: 52(float) Load 565(lod)
- 1190: 7(fvec4) ImageSampleProjExplicitLod 1187 1188 Lod ConstOffset 1189 735
- 1191: 7(fvec4) Load 1130(texel)
- 1192: 7(fvec4) FAdd 1191 1190
+ 1190: 7(f16vec4) ImageSampleProjExplicitLod 1187 1188 Lod ConstOffset 1189 735
+ 1191: 7(f16vec4) Load 1130(texel)
+ 1192: 7(f16vec4) FAdd 1191 1190
Store 1130(texel) 1192
1193: 163 Load 165(s3D)
- 1194: 7(fvec4) Load 309(f16c4)
- 1195: 6(float) Load 572(f16lod)
- 1196: 7(fvec4) ImageSampleProjExplicitLod 1193 1194 Lod ConstOffset 1195 735
- 1197: 7(fvec4) Load 1130(texel)
- 1198: 7(fvec4) FAdd 1197 1196
+ 1194: 7(f16vec4) Load 309(f16c4)
+ 1195:6(float16_t) Load 572(f16lod)
+ 1196: 7(f16vec4) ImageSampleProjExplicitLod 1193 1194 Lod ConstOffset 1195 735
+ 1197: 7(f16vec4) Load 1130(texel)
+ 1198: 7(f16vec4) FAdd 1197 1196
Store 1130(texel) 1198
1199: 199 Load 201(s1DShadow)
1200: 249(fvec4) Load 251(c4)
@@ -1895,22 +1895,22 @@ spv.float16Fetch.frag
1202: 52(float) CompositeExtract 1200 2
1203: 52(float) CompositeExtract 1200 3
1204: 249(fvec4) CompositeInsert 1203 1200 1
- 1205: 6(float) ImageSampleProjDrefExplicitLod 1199 1204 1202 Lod ConstOffset 1201 709
+ 1205:6(float16_t) ImageSampleProjDrefExplicitLod 1199 1204 1202 Lod ConstOffset 1201 709
1206: 208(ptr) AccessChain 1130(texel) 207
- 1207: 6(float) Load 1206
- 1208: 6(float) FAdd 1207 1205
+ 1207:6(float16_t) Load 1206
+ 1208:6(float16_t) FAdd 1207 1205
1209: 208(ptr) AccessChain 1130(texel) 207
Store 1209 1208
1210: 199 Load 201(s1DShadow)
- 1211: 175(fvec3) Load 177(f16c3)
+ 1211:175(f16vec3) Load 177(f16c3)
1212: 52(float) Load 215(compare)
- 1213: 6(float) Load 572(f16lod)
- 1214: 6(float) CompositeExtract 1211 2
- 1215: 175(fvec3) CompositeInsert 1214 1211 1
- 1216: 6(float) ImageSampleProjDrefExplicitLod 1210 1215 1212 Lod ConstOffset 1213 709
+ 1213:6(float16_t) Load 572(f16lod)
+ 1214:6(float16_t) CompositeExtract 1211 2
+ 1215:175(f16vec3) CompositeInsert 1214 1211 1
+ 1216:6(float16_t) ImageSampleProjDrefExplicitLod 1210 1215 1212 Lod ConstOffset 1213 709
1217: 208(ptr) AccessChain 1130(texel) 207
- 1218: 6(float) Load 1217
- 1219: 6(float) FAdd 1218 1216
+ 1218:6(float16_t) Load 1217
+ 1219:6(float16_t) FAdd 1218 1216
1220: 208(ptr) AccessChain 1130(texel) 207
Store 1220 1219
1221: 224 Load 226(s2DShadow)
@@ -1919,26 +1919,26 @@ spv.float16Fetch.frag
1224: 52(float) CompositeExtract 1222 2
1225: 52(float) CompositeExtract 1222 3
1226: 249(fvec4) CompositeInsert 1225 1222 2
- 1227: 6(float) ImageSampleProjDrefExplicitLod 1221 1226 1224 Lod ConstOffset 1223 722
+ 1227:6(float16_t) ImageSampleProjDrefExplicitLod 1221 1226 1224 Lod ConstOffset 1223 722
1228: 208(ptr) AccessChain 1130(texel) 207
- 1229: 6(float) Load 1228
- 1230: 6(float) FAdd 1229 1227
+ 1229:6(float16_t) Load 1228
+ 1230:6(float16_t) FAdd 1229 1227
1231: 208(ptr) AccessChain 1130(texel) 207
Store 1231 1230
1232: 224 Load 226(s2DShadow)
- 1233: 175(fvec3) Load 177(f16c3)
+ 1233:175(f16vec3) Load 177(f16c3)
1234: 52(float) Load 215(compare)
- 1235: 6(float) Load 572(f16lod)
- 1236: 6(float) ImageSampleProjDrefExplicitLod 1232 1233 1234 Lod ConstOffset 1235 722
+ 1235:6(float16_t) Load 572(f16lod)
+ 1236:6(float16_t) ImageSampleProjDrefExplicitLod 1232 1233 1234 Lod ConstOffset 1235 722
1237: 208(ptr) AccessChain 1130(texel) 207
- 1238: 6(float) Load 1237
- 1239: 6(float) FAdd 1238 1236
+ 1238:6(float16_t) Load 1237
+ 1239:6(float16_t) FAdd 1238 1236
1240: 208(ptr) AccessChain 1130(texel) 207
Store 1240 1239
- 1241: 7(fvec4) Load 1130(texel)
+ 1241: 7(f16vec4) Load 1130(texel)
ReturnValue 1241
FunctionEnd
-23(testTexelFetch(): 7(fvec4) Function None 8
+23(testTexelFetch(): 7(f16vec4) Function None 8
24: Label
1244(texel): 64(ptr) Variable Function
Store 1244(texel) 121
@@ -1948,9 +1948,9 @@ spv.float16Fetch.frag
1248: 52(float) Load 565(lod)
1249: 47(int) ConvertFToS 1248
1250: 122 Image 1245
- 1251: 7(fvec4) ImageFetch 1250 1247 Lod 1249
- 1252: 7(fvec4) Load 1244(texel)
- 1253: 7(fvec4) FAdd 1252 1251
+ 1251: 7(f16vec4) ImageFetch 1250 1247 Lod 1249
+ 1252: 7(f16vec4) Load 1244(texel)
+ 1253: 7(f16vec4) FAdd 1252 1251
Store 1244(texel) 1253
1254: 143 Load 145(s2D)
1255: 53(fvec2) Load 148(c2)
@@ -1958,9 +1958,9 @@ spv.float16Fetch.frag
1257: 52(float) Load 565(lod)
1258: 47(int) ConvertFToS 1257
1259: 142 Image 1254
- 1260: 7(fvec4) ImageFetch 1259 1256 Lod 1258
- 1261: 7(fvec4) Load 1244(texel)
- 1262: 7(fvec4) FAdd 1261 1260
+ 1260: 7(f16vec4) ImageFetch 1259 1256 Lod 1258
+ 1261: 7(f16vec4) Load 1244(texel)
+ 1262: 7(f16vec4) FAdd 1261 1260
Store 1244(texel) 1262
1263: 163 Load 165(s3D)
1264: 167(fvec3) Load 169(c3)
@@ -1968,17 +1968,17 @@ spv.float16Fetch.frag
1266: 52(float) Load 565(lod)
1267: 47(int) ConvertFToS 1266
1268: 162 Image 1263
- 1269: 7(fvec4) ImageFetch 1268 1265 Lod 1267
- 1270: 7(fvec4) Load 1244(texel)
- 1271: 7(fvec4) FAdd 1270 1269
+ 1269: 7(f16vec4) ImageFetch 1268 1265 Lod 1267
+ 1270: 7(f16vec4) Load 1244(texel)
+ 1271: 7(f16vec4) FAdd 1270 1269
Store 1244(texel) 1271
1272: 357 Load 359(s2DRect)
1273: 53(fvec2) Load 148(c2)
1274: 721(ivec2) ConvertFToS 1273
1275: 356 Image 1272
- 1276: 7(fvec4) ImageFetch 1275 1274
- 1277: 7(fvec4) Load 1244(texel)
- 1278: 7(fvec4) FAdd 1277 1276
+ 1276: 7(f16vec4) ImageFetch 1275 1274
+ 1277: 7(f16vec4) Load 1244(texel)
+ 1278: 7(f16vec4) FAdd 1277 1276
Store 1244(texel) 1278
1279: 269 Load 271(s1DArray)
1280: 53(fvec2) Load 148(c2)
@@ -1986,9 +1986,9 @@ spv.float16Fetch.frag
1282: 52(float) Load 565(lod)
1283: 47(int) ConvertFToS 1282
1284: 268 Image 1279
- 1285: 7(fvec4) ImageFetch 1284 1281 Lod 1283
- 1286: 7(fvec4) Load 1244(texel)
- 1287: 7(fvec4) FAdd 1286 1285
+ 1285: 7(f16vec4) ImageFetch 1284 1281 Lod 1283
+ 1286: 7(f16vec4) Load 1244(texel)
+ 1287: 7(f16vec4) FAdd 1286 1285
Store 1244(texel) 1287
1288: 284 Load 286(s2DArray)
1289: 167(fvec3) Load 169(c3)
@@ -1996,38 +1996,38 @@ spv.float16Fetch.frag
1291: 52(float) Load 565(lod)
1292: 47(int) ConvertFToS 1291
1293: 283 Image 1288
- 1294: 7(fvec4) ImageFetch 1293 1290 Lod 1292
- 1295: 7(fvec4) Load 1244(texel)
- 1296: 7(fvec4) FAdd 1295 1294
+ 1294: 7(f16vec4) ImageFetch 1293 1290 Lod 1292
+ 1295: 7(f16vec4) Load 1244(texel)
+ 1296: 7(f16vec4) FAdd 1295 1294
Store 1244(texel) 1296
1301: 1298 Load 1300(sBuffer)
1302: 52(float) Load 128(c1)
1303: 47(int) ConvertFToS 1302
1304: 1297 Image 1301
- 1305: 7(fvec4) ImageFetch 1304 1303
- 1306: 7(fvec4) Load 1244(texel)
- 1307: 7(fvec4) FAdd 1306 1305
+ 1305: 7(f16vec4) ImageFetch 1304 1303
+ 1306: 7(f16vec4) Load 1244(texel)
+ 1307: 7(f16vec4) FAdd 1306 1305
Store 1244(texel) 1307
1312: 1309 Load 1311(s2DMS)
1313: 53(fvec2) Load 148(c2)
1314: 721(ivec2) ConvertFToS 1313
1315: 1308 Image 1312
- 1316: 7(fvec4) ImageFetch 1315 1314 Sample 709
- 1317: 7(fvec4) Load 1244(texel)
- 1318: 7(fvec4) FAdd 1317 1316
+ 1316: 7(f16vec4) ImageFetch 1315 1314 Sample 709
+ 1317: 7(f16vec4) Load 1244(texel)
+ 1318: 7(f16vec4) FAdd 1317 1316
Store 1244(texel) 1318
1323: 1320 Load 1322(s2DMSArray)
1324: 167(fvec3) Load 169(c3)
1325: 734(ivec3) ConvertFToS 1324
1327: 1319 Image 1323
- 1328: 7(fvec4) ImageFetch 1327 1325 Sample 1326
- 1329: 7(fvec4) Load 1244(texel)
- 1330: 7(fvec4) FAdd 1329 1328
+ 1328: 7(f16vec4) ImageFetch 1327 1325 Sample 1326
+ 1329: 7(f16vec4) Load 1244(texel)
+ 1330: 7(f16vec4) FAdd 1329 1328
Store 1244(texel) 1330
- 1331: 7(fvec4) Load 1244(texel)
+ 1331: 7(f16vec4) Load 1244(texel)
ReturnValue 1331
FunctionEnd
-25(testTexelFetchOffset(): 7(fvec4) Function None 8
+25(testTexelFetchOffset(): 7(f16vec4) Function None 8
26: Label
1334(texel): 64(ptr) Variable Function
Store 1334(texel) 121
@@ -2037,9 +2037,9 @@ spv.float16Fetch.frag
1338: 52(float) Load 565(lod)
1339: 47(int) ConvertFToS 1338
1340: 122 Image 1335
- 1341: 7(fvec4) ImageFetch 1340 1337 Lod ConstOffset 1339 709
- 1342: 7(fvec4) Load 1334(texel)
- 1343: 7(fvec4) FAdd 1342 1341
+ 1341: 7(f16vec4) ImageFetch 1340 1337 Lod ConstOffset 1339 709
+ 1342: 7(f16vec4) Load 1334(texel)
+ 1343: 7(f16vec4) FAdd 1342 1341
Store 1334(texel) 1343
1344: 143 Load 145(s2D)
1345: 53(fvec2) Load 148(c2)
@@ -2047,9 +2047,9 @@ spv.float16Fetch.frag
1347: 52(float) Load 565(lod)
1348: 47(int) ConvertFToS 1347
1349: 142 Image 1344
- 1350: 7(fvec4) ImageFetch 1349 1346 Lod ConstOffset 1348 722
- 1351: 7(fvec4) Load 1334(texel)
- 1352: 7(fvec4) FAdd 1351 1350
+ 1350: 7(f16vec4) ImageFetch 1349 1346 Lod ConstOffset 1348 722
+ 1351: 7(f16vec4) Load 1334(texel)
+ 1352: 7(f16vec4) FAdd 1351 1350
Store 1334(texel) 1352
1353: 163 Load 165(s3D)
1354: 167(fvec3) Load 169(c3)
@@ -2057,17 +2057,17 @@ spv.float16Fetch.frag
1356: 52(float) Load 565(lod)
1357: 47(int) ConvertFToS 1356
1358: 162 Image 1353
- 1359: 7(fvec4) ImageFetch 1358 1355 Lod ConstOffset 1357 735
- 1360: 7(fvec4) Load 1334(texel)
- 1361: 7(fvec4) FAdd 1360 1359
+ 1359: 7(f16vec4) ImageFetch 1358 1355 Lod ConstOffset 1357 735
+ 1360: 7(f16vec4) Load 1334(texel)
+ 1361: 7(f16vec4) FAdd 1360 1359
Store 1334(texel) 1361
1362: 357 Load 359(s2DRect)
1363: 53(fvec2) Load 148(c2)
1364: 721(ivec2) ConvertFToS 1363
1365: 356 Image 1362
- 1366: 7(fvec4) ImageFetch 1365 1364 ConstOffset 722
- 1367: 7(fvec4) Load 1334(texel)
- 1368: 7(fvec4) FAdd 1367 1366
+ 1366: 7(f16vec4) ImageFetch 1365 1364 ConstOffset 722
+ 1367: 7(f16vec4) Load 1334(texel)
+ 1368: 7(f16vec4) FAdd 1367 1366
Store 1334(texel) 1368
1369: 269 Load 271(s1DArray)
1370: 53(fvec2) Load 148(c2)
@@ -2075,9 +2075,9 @@ spv.float16Fetch.frag
1372: 52(float) Load 565(lod)
1373: 47(int) ConvertFToS 1372
1374: 268 Image 1369
- 1375: 7(fvec4) ImageFetch 1374 1371 Lod ConstOffset 1373 709
- 1376: 7(fvec4) Load 1334(texel)
- 1377: 7(fvec4) FAdd 1376 1375
+ 1375: 7(f16vec4) ImageFetch 1374 1371 Lod ConstOffset 1373 709
+ 1376: 7(f16vec4) Load 1334(texel)
+ 1377: 7(f16vec4) FAdd 1376 1375
Store 1334(texel) 1377
1378: 284 Load 286(s2DArray)
1379: 167(fvec3) Load 169(c3)
@@ -2085,14 +2085,14 @@ spv.float16Fetch.frag
1381: 52(float) Load 565(lod)
1382: 47(int) ConvertFToS 1381
1383: 283 Image 1378
- 1384: 7(fvec4) ImageFetch 1383 1380 Lod ConstOffset 1382 722
- 1385: 7(fvec4) Load 1334(texel)
- 1386: 7(fvec4) FAdd 1385 1384
+ 1384: 7(f16vec4) ImageFetch 1383 1380 Lod ConstOffset 1382 722
+ 1385: 7(f16vec4) Load 1334(texel)
+ 1386: 7(f16vec4) FAdd 1385 1384
Store 1334(texel) 1386
- 1387: 7(fvec4) Load 1334(texel)
+ 1387: 7(f16vec4) Load 1334(texel)
ReturnValue 1387
FunctionEnd
-27(testTextureGrad(): 7(fvec4) Function None 8
+27(testTextureGrad(): 7(f16vec4) Function None 8
28: Label
1390(texel): 64(ptr) Variable Function
Store 1390(texel) 121
@@ -2100,102 +2100,102 @@ spv.float16Fetch.frag
1392: 52(float) Load 128(c1)
1394: 52(float) Load 1393(dPdxy1)
1395: 52(float) Load 1393(dPdxy1)
- 1396: 7(fvec4) ImageSampleExplicitLod 1391 1392 Grad 1394 1395
- 1397: 7(fvec4) Load 1390(texel)
- 1398: 7(fvec4) FAdd 1397 1396
+ 1396: 7(f16vec4) ImageSampleExplicitLod 1391 1392 Grad 1394 1395
+ 1397: 7(f16vec4) Load 1390(texel)
+ 1398: 7(f16vec4) FAdd 1397 1396
Store 1390(texel) 1398
1399: 123 Load 125(s1D)
- 1400: 6(float) Load 135(f16c1)
- 1402: 6(float) Load 1401(f16dPdxy1)
- 1403: 6(float) Load 1401(f16dPdxy1)
- 1404: 7(fvec4) ImageSampleExplicitLod 1399 1400 Grad 1402 1403
- 1405: 7(fvec4) Load 1390(texel)
- 1406: 7(fvec4) FAdd 1405 1404
+ 1400:6(float16_t) Load 135(f16c1)
+ 1402:6(float16_t) Load 1401(f16dPdxy1)
+ 1403:6(float16_t) Load 1401(f16dPdxy1)
+ 1404: 7(f16vec4) ImageSampleExplicitLod 1399 1400 Grad 1402 1403
+ 1405: 7(f16vec4) Load 1390(texel)
+ 1406: 7(f16vec4) FAdd 1405 1404
Store 1390(texel) 1406
1407: 143 Load 145(s2D)
1408: 53(fvec2) Load 148(c2)
1410: 53(fvec2) Load 1409(dPdxy2)
1411: 53(fvec2) Load 1409(dPdxy2)
- 1412: 7(fvec4) ImageSampleExplicitLod 1407 1408 Grad 1410 1411
- 1413: 7(fvec4) Load 1390(texel)
- 1414: 7(fvec4) FAdd 1413 1412
+ 1412: 7(f16vec4) ImageSampleExplicitLod 1407 1408 Grad 1410 1411
+ 1413: 7(f16vec4) Load 1390(texel)
+ 1414: 7(f16vec4) FAdd 1413 1412
Store 1390(texel) 1414
1415: 143 Load 145(s2D)
- 1416: 154(fvec2) Load 156(f16c2)
- 1418: 154(fvec2) Load 1417(f16dPdxy2)
- 1419: 154(fvec2) Load 1417(f16dPdxy2)
- 1420: 7(fvec4) ImageSampleExplicitLod 1415 1416 Grad 1418 1419
- 1421: 7(fvec4) Load 1390(texel)
- 1422: 7(fvec4) FAdd 1421 1420
+ 1416:154(f16vec2) Load 156(f16c2)
+ 1418:154(f16vec2) Load 1417(f16dPdxy2)
+ 1419:154(f16vec2) Load 1417(f16dPdxy2)
+ 1420: 7(f16vec4) ImageSampleExplicitLod 1415 1416 Grad 1418 1419
+ 1421: 7(f16vec4) Load 1390(texel)
+ 1422: 7(f16vec4) FAdd 1421 1420
Store 1390(texel) 1422
1423: 163 Load 165(s3D)
1424: 167(fvec3) Load 169(c3)
1426: 167(fvec3) Load 1425(dPdxy3)
1427: 167(fvec3) Load 1425(dPdxy3)
- 1428: 7(fvec4) ImageSampleExplicitLod 1423 1424 Grad 1426 1427
- 1429: 7(fvec4) Load 1390(texel)
- 1430: 7(fvec4) FAdd 1429 1428
+ 1428: 7(f16vec4) ImageSampleExplicitLod 1423 1424 Grad 1426 1427
+ 1429: 7(f16vec4) Load 1390(texel)
+ 1430: 7(f16vec4) FAdd 1429 1428
Store 1390(texel) 1430
1431: 163 Load 165(s3D)
- 1432: 175(fvec3) Load 177(f16c3)
- 1434: 175(fvec3) Load 1433(f16dPdxy3)
- 1435: 175(fvec3) Load 1433(f16dPdxy3)
- 1436: 7(fvec4) ImageSampleExplicitLod 1431 1432 Grad 1434 1435
- 1437: 7(fvec4) Load 1390(texel)
- 1438: 7(fvec4) FAdd 1437 1436
+ 1432:175(f16vec3) Load 177(f16c3)
+ 1434:175(f16vec3) Load 1433(f16dPdxy3)
+ 1435:175(f16vec3) Load 1433(f16dPdxy3)
+ 1436: 7(f16vec4) ImageSampleExplicitLod 1431 1432 Grad 1434 1435
+ 1437: 7(f16vec4) Load 1390(texel)
+ 1438: 7(f16vec4) FAdd 1437 1436
Store 1390(texel) 1438
1439: 184 Load 186(sCube)
1440: 167(fvec3) Load 169(c3)
1441: 167(fvec3) Load 1425(dPdxy3)
1442: 167(fvec3) Load 1425(dPdxy3)
- 1443: 7(fvec4) ImageSampleExplicitLod 1439 1440 Grad 1441 1442
- 1444: 7(fvec4) Load 1390(texel)
- 1445: 7(fvec4) FAdd 1444 1443
+ 1443: 7(f16vec4) ImageSampleExplicitLod 1439 1440 Grad 1441 1442
+ 1444: 7(f16vec4) Load 1390(texel)
+ 1445: 7(f16vec4) FAdd 1444 1443
Store 1390(texel) 1445
1446: 184 Load 186(sCube)
- 1447: 175(fvec3) Load 177(f16c3)
- 1448: 175(fvec3) Load 1433(f16dPdxy3)
- 1449: 175(fvec3) Load 1433(f16dPdxy3)
- 1450: 7(fvec4) ImageSampleExplicitLod 1446 1447 Grad 1448 1449
- 1451: 7(fvec4) Load 1390(texel)
- 1452: 7(fvec4) FAdd 1451 1450
+ 1447:175(f16vec3) Load 177(f16c3)
+ 1448:175(f16vec3) Load 1433(f16dPdxy3)
+ 1449:175(f16vec3) Load 1433(f16dPdxy3)
+ 1450: 7(f16vec4) ImageSampleExplicitLod 1446 1447 Grad 1448 1449
+ 1451: 7(f16vec4) Load 1390(texel)
+ 1452: 7(f16vec4) FAdd 1451 1450
Store 1390(texel) 1452
1453: 357 Load 359(s2DRect)
1454: 53(fvec2) Load 148(c2)
1455: 53(fvec2) Load 1409(dPdxy2)
1456: 53(fvec2) Load 1409(dPdxy2)
- 1457: 7(fvec4) ImageSampleExplicitLod 1453 1454 Grad 1455 1456
- 1458: 7(fvec4) Load 1390(texel)
- 1459: 7(fvec4) FAdd 1458 1457
+ 1457: 7(f16vec4) ImageSampleExplicitLod 1453 1454 Grad 1455 1456
+ 1458: 7(f16vec4) Load 1390(texel)
+ 1459: 7(f16vec4) FAdd 1458 1457
Store 1390(texel) 1459
1460: 357 Load 359(s2DRect)
- 1461: 154(fvec2) Load 156(f16c2)
- 1462: 154(fvec2) Load 1417(f16dPdxy2)
- 1463: 154(fvec2) Load 1417(f16dPdxy2)
- 1464: 7(fvec4) ImageSampleExplicitLod 1460 1461 Grad 1462 1463
- 1465: 7(fvec4) Load 1390(texel)
- 1466: 7(fvec4) FAdd 1465 1464
+ 1461:154(f16vec2) Load 156(f16c2)
+ 1462:154(f16vec2) Load 1417(f16dPdxy2)
+ 1463:154(f16vec2) Load 1417(f16dPdxy2)
+ 1464: 7(f16vec4) ImageSampleExplicitLod 1460 1461 Grad 1462 1463
+ 1465: 7(f16vec4) Load 1390(texel)
+ 1466: 7(f16vec4) FAdd 1465 1464
Store 1390(texel) 1466
1467: 371 Load 373(s2DRectShadow)
1468: 167(fvec3) Load 169(c3)
1469: 53(fvec2) Load 1409(dPdxy2)
1470: 53(fvec2) Load 1409(dPdxy2)
1471: 52(float) CompositeExtract 1468 2
- 1472: 6(float) ImageSampleDrefExplicitLod 1467 1468 1471 Grad 1469 1470
+ 1472:6(float16_t) ImageSampleDrefExplicitLod 1467 1468 1471 Grad 1469 1470
1473: 208(ptr) AccessChain 1390(texel) 207
- 1474: 6(float) Load 1473
- 1475: 6(float) FAdd 1474 1472
+ 1474:6(float16_t) Load 1473
+ 1475:6(float16_t) FAdd 1474 1472
1476: 208(ptr) AccessChain 1390(texel) 207
Store 1476 1475
1477: 371 Load 373(s2DRectShadow)
- 1478: 154(fvec2) Load 156(f16c2)
+ 1478:154(f16vec2) Load 156(f16c2)
1479: 52(float) Load 215(compare)
- 1480: 154(fvec2) Load 1417(f16dPdxy2)
- 1481: 154(fvec2) Load 1417(f16dPdxy2)
- 1482: 6(float) ImageSampleDrefExplicitLod 1477 1478 1479 Grad 1480 1481
+ 1480:154(f16vec2) Load 1417(f16dPdxy2)
+ 1481:154(f16vec2) Load 1417(f16dPdxy2)
+ 1482:6(float16_t) ImageSampleDrefExplicitLod 1477 1478 1479 Grad 1480 1481
1483: 208(ptr) AccessChain 1390(texel) 207
- 1484: 6(float) Load 1483
- 1485: 6(float) FAdd 1484 1482
+ 1484:6(float16_t) Load 1483
+ 1485:6(float16_t) FAdd 1484 1482
1486: 208(ptr) AccessChain 1390(texel) 207
Store 1486 1485
1487: 199 Load 201(s1DShadow)
@@ -2203,21 +2203,21 @@ spv.float16Fetch.frag
1489: 52(float) Load 1393(dPdxy1)
1490: 52(float) Load 1393(dPdxy1)
1491: 52(float) CompositeExtract 1488 2
- 1492: 6(float) ImageSampleDrefExplicitLod 1487 1488 1491 Grad 1489 1490
+ 1492:6(float16_t) ImageSampleDrefExplicitLod 1487 1488 1491 Grad 1489 1490
1493: 208(ptr) AccessChain 1390(texel) 207
- 1494: 6(float) Load 1493
- 1495: 6(float) FAdd 1494 1492
+ 1494:6(float16_t) Load 1493
+ 1495:6(float16_t) FAdd 1494 1492
1496: 208(ptr) AccessChain 1390(texel) 207
Store 1496 1495
1497: 199 Load 201(s1DShadow)
- 1498: 154(fvec2) Load 156(f16c2)
+ 1498:154(f16vec2) Load 156(f16c2)
1499: 52(float) Load 215(compare)
- 1500: 6(float) Load 1401(f16dPdxy1)
- 1501: 6(float) Load 1401(f16dPdxy1)
- 1502: 6(float) ImageSampleDrefExplicitLod 1497 1498 1499 Grad 1500 1501
+ 1500:6(float16_t) Load 1401(f16dPdxy1)
+ 1501:6(float16_t) Load 1401(f16dPdxy1)
+ 1502:6(float16_t) ImageSampleDrefExplicitLod 1497 1498 1499 Grad 1500 1501
1503: 208(ptr) AccessChain 1390(texel) 207
- 1504: 6(float) Load 1503
- 1505: 6(float) FAdd 1504 1502
+ 1504:6(float16_t) Load 1503
+ 1505:6(float16_t) FAdd 1504 1502
1506: 208(ptr) AccessChain 1390(texel) 207
Store 1506 1505
1507: 224 Load 226(s2DShadow)
@@ -2225,21 +2225,21 @@ spv.float16Fetch.frag
1509: 53(fvec2) Load 1409(dPdxy2)
1510: 53(fvec2) Load 1409(dPdxy2)
1511: 52(float) CompositeExtract 1508 2
- 1512: 6(float) ImageSampleDrefExplicitLod 1507 1508 1511 Grad 1509 1510
+ 1512:6(float16_t) ImageSampleDrefExplicitLod 1507 1508 1511 Grad 1509 1510
1513: 208(ptr) AccessChain 1390(texel) 207
- 1514: 6(float) Load 1513
- 1515: 6(float) FAdd 1514 1512
+ 1514:6(float16_t) Load 1513
+ 1515:6(float16_t) FAdd 1514 1512
1516: 208(ptr) AccessChain 1390(texel) 207
Store 1516 1515
1517: 224 Load 226(s2DShadow)
- 1518: 154(fvec2) Load 156(f16c2)
+ 1518:154(f16vec2) Load 156(f16c2)
1519: 52(float) Load 215(compare)
- 1520: 154(fvec2) Load 1417(f16dPdxy2)
- 1521: 154(fvec2) Load 1417(f16dPdxy2)
- 1522: 6(float) ImageSampleDrefExplicitLod 1517 1518 1519 Grad 1520 1521
+ 1520:154(f16vec2) Load 1417(f16dPdxy2)
+ 1521:154(f16vec2) Load 1417(f16dPdxy2)
+ 1522:6(float16_t) ImageSampleDrefExplicitLod 1517 1518 1519 Grad 1520 1521
1523: 208(ptr) AccessChain 1390(texel) 207
- 1524: 6(float) Load 1523
- 1525: 6(float) FAdd 1524 1522
+ 1524:6(float16_t) Load 1523
+ 1525:6(float16_t) FAdd 1524 1522
1526: 208(ptr) AccessChain 1390(texel) 207
Store 1526 1525
1527: 245 Load 247(sCubeShadow)
@@ -2247,75 +2247,75 @@ spv.float16Fetch.frag
1529: 167(fvec3) Load 1425(dPdxy3)
1530: 167(fvec3) Load 1425(dPdxy3)
1531: 52(float) CompositeExtract 1528 3
- 1532: 6(float) ImageSampleDrefExplicitLod 1527 1528 1531 Grad 1529 1530
+ 1532:6(float16_t) ImageSampleDrefExplicitLod 1527 1528 1531 Grad 1529 1530
1533: 208(ptr) AccessChain 1390(texel) 207
- 1534: 6(float) Load 1533
- 1535: 6(float) FAdd 1534 1532
+ 1534:6(float16_t) Load 1533
+ 1535:6(float16_t) FAdd 1534 1532
1536: 208(ptr) AccessChain 1390(texel) 207
Store 1536 1535
1537: 245 Load 247(sCubeShadow)
- 1538: 175(fvec3) Load 177(f16c3)
+ 1538:175(f16vec3) Load 177(f16c3)
1539: 52(float) Load 215(compare)
- 1540: 175(fvec3) Load 1433(f16dPdxy3)
- 1541: 175(fvec3) Load 1433(f16dPdxy3)
- 1542: 6(float) ImageSampleDrefExplicitLod 1537 1538 1539 Grad 1540 1541
+ 1540:175(f16vec3) Load 1433(f16dPdxy3)
+ 1541:175(f16vec3) Load 1433(f16dPdxy3)
+ 1542:6(float16_t) ImageSampleDrefExplicitLod 1537 1538 1539 Grad 1540 1541
1543: 208(ptr) AccessChain 1390(texel) 207
- 1544: 6(float) Load 1543
- 1545: 6(float) FAdd 1544 1542
+ 1544:6(float16_t) Load 1543
+ 1545:6(float16_t) FAdd 1544 1542
1546: 208(ptr) AccessChain 1390(texel) 207
Store 1546 1545
1547: 269 Load 271(s1DArray)
1548: 53(fvec2) Load 148(c2)
1549: 52(float) Load 1393(dPdxy1)
1550: 52(float) Load 1393(dPdxy1)
- 1551: 7(fvec4) ImageSampleExplicitLod 1547 1548 Grad 1549 1550
- 1552: 7(fvec4) Load 1390(texel)
- 1553: 7(fvec4) FAdd 1552 1551
+ 1551: 7(f16vec4) ImageSampleExplicitLod 1547 1548 Grad 1549 1550
+ 1552: 7(f16vec4) Load 1390(texel)
+ 1553: 7(f16vec4) FAdd 1552 1551
Store 1390(texel) 1553
1554: 269 Load 271(s1DArray)
- 1555: 154(fvec2) Load 156(f16c2)
- 1556: 6(float) Load 1401(f16dPdxy1)
- 1557: 6(float) Load 1401(f16dPdxy1)
- 1558: 7(fvec4) ImageSampleExplicitLod 1554 1555 Grad 1556 1557
- 1559: 7(fvec4) Load 1390(texel)
- 1560: 7(fvec4) FAdd 1559 1558
+ 1555:154(f16vec2) Load 156(f16c2)
+ 1556:6(float16_t) Load 1401(f16dPdxy1)
+ 1557:6(float16_t) Load 1401(f16dPdxy1)
+ 1558: 7(f16vec4) ImageSampleExplicitLod 1554 1555 Grad 1556 1557
+ 1559: 7(f16vec4) Load 1390(texel)
+ 1560: 7(f16vec4) FAdd 1559 1558
Store 1390(texel) 1560
1561: 284 Load 286(s2DArray)
1562: 167(fvec3) Load 169(c3)
1563: 53(fvec2) Load 1409(dPdxy2)
1564: 53(fvec2) Load 1409(dPdxy2)
- 1565: 7(fvec4) ImageSampleExplicitLod 1561 1562 Grad 1563 1564
- 1566: 7(fvec4) Load 1390(texel)
- 1567: 7(fvec4) FAdd 1566 1565
+ 1565: 7(f16vec4) ImageSampleExplicitLod 1561 1562 Grad 1563 1564
+ 1566: 7(f16vec4) Load 1390(texel)
+ 1567: 7(f16vec4) FAdd 1566 1565
Store 1390(texel) 1567
1568: 284 Load 286(s2DArray)
- 1569: 175(fvec3) Load 177(f16c3)
- 1570: 154(fvec2) Load 1417(f16dPdxy2)
- 1571: 154(fvec2) Load 1417(f16dPdxy2)
- 1572: 7(fvec4) ImageSampleExplicitLod 1568 1569 Grad 1570 1571
- 1573: 7(fvec4) Load 1390(texel)
- 1574: 7(fvec4) FAdd 1573 1572
+ 1569:175(f16vec3) Load 177(f16c3)
+ 1570:154(f16vec2) Load 1417(f16dPdxy2)
+ 1571:154(f16vec2) Load 1417(f16dPdxy2)
+ 1572: 7(f16vec4) ImageSampleExplicitLod 1568 1569 Grad 1570 1571
+ 1573: 7(f16vec4) Load 1390(texel)
+ 1574: 7(f16vec4) FAdd 1573 1572
Store 1390(texel) 1574
1575: 316 Load 318(s1DArrayShadow)
1576: 167(fvec3) Load 169(c3)
1577: 52(float) Load 1393(dPdxy1)
1578: 52(float) Load 1393(dPdxy1)
1579: 52(float) CompositeExtract 1576 2
- 1580: 6(float) ImageSampleDrefExplicitLod 1575 1576 1579 Grad 1577 1578
+ 1580:6(float16_t) ImageSampleDrefExplicitLod 1575 1576 1579 Grad 1577 1578
1581: 208(ptr) AccessChain 1390(texel) 207
- 1582: 6(float) Load 1581
- 1583: 6(float) FAdd 1582 1580
+ 1582:6(float16_t) Load 1581
+ 1583:6(float16_t) FAdd 1582 1580
1584: 208(ptr) AccessChain 1390(texel) 207
Store 1584 1583
1585: 316 Load 318(s1DArrayShadow)
- 1586: 154(fvec2) Load 156(f16c2)
+ 1586:154(f16vec2) Load 156(f16c2)
1587: 52(float) Load 215(compare)
- 1588: 6(float) Load 1401(f16dPdxy1)
- 1589: 6(float) Load 1401(f16dPdxy1)
- 1590: 6(float) ImageSampleDrefExplicitLod 1585 1586 1587 Grad 1588 1589
+ 1588:6(float16_t) Load 1401(f16dPdxy1)
+ 1589:6(float16_t) Load 1401(f16dPdxy1)
+ 1590:6(float16_t) ImageSampleDrefExplicitLod 1585 1586 1587 Grad 1588 1589
1591: 208(ptr) AccessChain 1390(texel) 207
- 1592: 6(float) Load 1591
- 1593: 6(float) FAdd 1592 1590
+ 1592:6(float16_t) Load 1591
+ 1593:6(float16_t) FAdd 1592 1590
1594: 208(ptr) AccessChain 1390(texel) 207
Store 1594 1593
1595: 337 Load 339(s2DArrayShadow)
@@ -2323,43 +2323,43 @@ spv.float16Fetch.frag
1597: 53(fvec2) Load 1409(dPdxy2)
1598: 53(fvec2) Load 1409(dPdxy2)
1599: 52(float) CompositeExtract 1596 3
- 1600: 6(float) ImageSampleDrefExplicitLod 1595 1596 1599 Grad 1597 1598
+ 1600:6(float16_t) ImageSampleDrefExplicitLod 1595 1596 1599 Grad 1597 1598
1601: 208(ptr) AccessChain 1390(texel) 207
- 1602: 6(float) Load 1601
- 1603: 6(float) FAdd 1602 1600
+ 1602:6(float16_t) Load 1601
+ 1603:6(float16_t) FAdd 1602 1600
1604: 208(ptr) AccessChain 1390(texel) 207
Store 1604 1603
1605: 337 Load 339(s2DArrayShadow)
- 1606: 175(fvec3) Load 177(f16c3)
+ 1606:175(f16vec3) Load 177(f16c3)
1607: 52(float) Load 215(compare)
- 1608: 154(fvec2) Load 1417(f16dPdxy2)
- 1609: 154(fvec2) Load 1417(f16dPdxy2)
- 1610: 6(float) ImageSampleDrefExplicitLod 1605 1606 1607 Grad 1608 1609
+ 1608:154(f16vec2) Load 1417(f16dPdxy2)
+ 1609:154(f16vec2) Load 1417(f16dPdxy2)
+ 1610:6(float16_t) ImageSampleDrefExplicitLod 1605 1606 1607 Grad 1608 1609
1611: 208(ptr) AccessChain 1390(texel) 207
- 1612: 6(float) Load 1611
- 1613: 6(float) FAdd 1612 1610
+ 1612:6(float16_t) Load 1611
+ 1613:6(float16_t) FAdd 1612 1610
1614: 208(ptr) AccessChain 1390(texel) 207
Store 1614 1613
1615: 299 Load 301(sCubeArray)
1616: 249(fvec4) Load 251(c4)
1617: 167(fvec3) Load 1425(dPdxy3)
1618: 167(fvec3) Load 1425(dPdxy3)
- 1619: 7(fvec4) ImageSampleExplicitLod 1615 1616 Grad 1617 1618
- 1620: 7(fvec4) Load 1390(texel)
- 1621: 7(fvec4) FAdd 1620 1619
+ 1619: 7(f16vec4) ImageSampleExplicitLod 1615 1616 Grad 1617 1618
+ 1620: 7(f16vec4) Load 1390(texel)
+ 1621: 7(f16vec4) FAdd 1620 1619
Store 1390(texel) 1621
1622: 299 Load 301(sCubeArray)
- 1623: 7(fvec4) Load 309(f16c4)
- 1624: 175(fvec3) Load 1433(f16dPdxy3)
- 1625: 175(fvec3) Load 1433(f16dPdxy3)
- 1626: 7(fvec4) ImageSampleExplicitLod 1622 1623 Grad 1624 1625
- 1627: 7(fvec4) Load 1390(texel)
- 1628: 7(fvec4) FAdd 1627 1626
+ 1623: 7(f16vec4) Load 309(f16c4)
+ 1624:175(f16vec3) Load 1433(f16dPdxy3)
+ 1625:175(f16vec3) Load 1433(f16dPdxy3)
+ 1626: 7(f16vec4) ImageSampleExplicitLod 1622 1623 Grad 1624 1625
+ 1627: 7(f16vec4) Load 1390(texel)
+ 1628: 7(f16vec4) FAdd 1627 1626
Store 1390(texel) 1628
- 1629: 7(fvec4) Load 1390(texel)
+ 1629: 7(f16vec4) Load 1390(texel)
ReturnValue 1629
FunctionEnd
-29(testTextureGradOffset(): 7(fvec4) Function None 8
+29(testTextureGradOffset(): 7(f16vec4) Function None 8
30: Label
1632(texel): 64(ptr) Variable Function
Store 1632(texel) 121
@@ -2367,86 +2367,86 @@ spv.float16Fetch.frag
1634: 52(float) Load 128(c1)
1635: 52(float) Load 1393(dPdxy1)
1636: 52(float) Load 1393(dPdxy1)
- 1637: 7(fvec4) ImageSampleExplicitLod 1633 1634 Grad ConstOffset 1635 1636 709
- 1638: 7(fvec4) Load 1632(texel)
- 1639: 7(fvec4) FAdd 1638 1637
+ 1637: 7(f16vec4) ImageSampleExplicitLod 1633 1634 Grad ConstOffset 1635 1636 709
+ 1638: 7(f16vec4) Load 1632(texel)
+ 1639: 7(f16vec4) FAdd 1638 1637
Store 1632(texel) 1639
1640: 123 Load 125(s1D)
- 1641: 6(float) Load 135(f16c1)
- 1642: 6(float) Load 1401(f16dPdxy1)
- 1643: 6(float) Load 1401(f16dPdxy1)
- 1644: 7(fvec4) ImageSampleExplicitLod 1640 1641 Grad ConstOffset 1642 1643 709
- 1645: 7(fvec4) Load 1632(texel)
- 1646: 7(fvec4) FAdd 1645 1644
+ 1641:6(float16_t) Load 135(f16c1)
+ 1642:6(float16_t) Load 1401(f16dPdxy1)
+ 1643:6(float16_t) Load 1401(f16dPdxy1)
+ 1644: 7(f16vec4) ImageSampleExplicitLod 1640 1641 Grad ConstOffset 1642 1643 709
+ 1645: 7(f16vec4) Load 1632(texel)
+ 1646: 7(f16vec4) FAdd 1645 1644
Store 1632(texel) 1646
1647: 143 Load 145(s2D)
1648: 53(fvec2) Load 148(c2)
1649: 53(fvec2) Load 1409(dPdxy2)
1650: 53(fvec2) Load 1409(dPdxy2)
- 1651: 7(fvec4) ImageSampleExplicitLod 1647 1648 Grad ConstOffset 1649 1650 722
- 1652: 7(fvec4) Load 1632(texel)
- 1653: 7(fvec4) FAdd 1652 1651
+ 1651: 7(f16vec4) ImageSampleExplicitLod 1647 1648 Grad ConstOffset 1649 1650 722
+ 1652: 7(f16vec4) Load 1632(texel)
+ 1653: 7(f16vec4) FAdd 1652 1651
Store 1632(texel) 1653
1654: 143 Load 145(s2D)
- 1655: 154(fvec2) Load 156(f16c2)
- 1656: 154(fvec2) Load 1417(f16dPdxy2)
- 1657: 154(fvec2) Load 1417(f16dPdxy2)
- 1658: 7(fvec4) ImageSampleExplicitLod 1654 1655 Grad ConstOffset 1656 1657 722
- 1659: 7(fvec4) Load 1632(texel)
- 1660: 7(fvec4) FAdd 1659 1658
+ 1655:154(f16vec2) Load 156(f16c2)
+ 1656:154(f16vec2) Load 1417(f16dPdxy2)
+ 1657:154(f16vec2) Load 1417(f16dPdxy2)
+ 1658: 7(f16vec4) ImageSampleExplicitLod 1654 1655 Grad ConstOffset 1656 1657 722
+ 1659: 7(f16vec4) Load 1632(texel)
+ 1660: 7(f16vec4) FAdd 1659 1658
Store 1632(texel) 1660
1661: 163 Load 165(s3D)
1662: 167(fvec3) Load 169(c3)
1663: 167(fvec3) Load 1425(dPdxy3)
1664: 167(fvec3) Load 1425(dPdxy3)
- 1665: 7(fvec4) ImageSampleExplicitLod 1661 1662 Grad ConstOffset 1663 1664 735
- 1666: 7(fvec4) Load 1632(texel)
- 1667: 7(fvec4) FAdd 1666 1665
+ 1665: 7(f16vec4) ImageSampleExplicitLod 1661 1662 Grad ConstOffset 1663 1664 735
+ 1666: 7(f16vec4) Load 1632(texel)
+ 1667: 7(f16vec4) FAdd 1666 1665
Store 1632(texel) 1667
1668: 163 Load 165(s3D)
- 1669: 175(fvec3) Load 177(f16c3)
- 1670: 175(fvec3) Load 1433(f16dPdxy3)
- 1671: 175(fvec3) Load 1433(f16dPdxy3)
- 1672: 7(fvec4) ImageSampleExplicitLod 1668 1669 Grad ConstOffset 1670 1671 735
- 1673: 7(fvec4) Load 1632(texel)
- 1674: 7(fvec4) FAdd 1673 1672
+ 1669:175(f16vec3) Load 177(f16c3)
+ 1670:175(f16vec3) Load 1433(f16dPdxy3)
+ 1671:175(f16vec3) Load 1433(f16dPdxy3)
+ 1672: 7(f16vec4) ImageSampleExplicitLod 1668 1669 Grad ConstOffset 1670 1671 735
+ 1673: 7(f16vec4) Load 1632(texel)
+ 1674: 7(f16vec4) FAdd 1673 1672
Store 1632(texel) 1674
1675: 357 Load 359(s2DRect)
1676: 53(fvec2) Load 148(c2)
1677: 53(fvec2) Load 1409(dPdxy2)
1678: 53(fvec2) Load 1409(dPdxy2)
- 1679: 7(fvec4) ImageSampleExplicitLod 1675 1676 Grad ConstOffset 1677 1678 722
- 1680: 7(fvec4) Load 1632(texel)
- 1681: 7(fvec4) FAdd 1680 1679
+ 1679: 7(f16vec4) ImageSampleExplicitLod 1675 1676 Grad ConstOffset 1677 1678 722
+ 1680: 7(f16vec4) Load 1632(texel)
+ 1681: 7(f16vec4) FAdd 1680 1679
Store 1632(texel) 1681
1682: 357 Load 359(s2DRect)
- 1683: 154(fvec2) Load 156(f16c2)
- 1684: 154(fvec2) Load 1417(f16dPdxy2)
- 1685: 154(fvec2) Load 1417(f16dPdxy2)
- 1686: 7(fvec4) ImageSampleExplicitLod 1682 1683 Grad ConstOffset 1684 1685 722
- 1687: 7(fvec4) Load 1632(texel)
- 1688: 7(fvec4) FAdd 1687 1686
+ 1683:154(f16vec2) Load 156(f16c2)
+ 1684:154(f16vec2) Load 1417(f16dPdxy2)
+ 1685:154(f16vec2) Load 1417(f16dPdxy2)
+ 1686: 7(f16vec4) ImageSampleExplicitLod 1682 1683 Grad ConstOffset 1684 1685 722
+ 1687: 7(f16vec4) Load 1632(texel)
+ 1688: 7(f16vec4) FAdd 1687 1686
Store 1632(texel) 1688
1689: 371 Load 373(s2DRectShadow)
1690: 167(fvec3) Load 169(c3)
1691: 53(fvec2) Load 1409(dPdxy2)
1692: 53(fvec2) Load 1409(dPdxy2)
1693: 52(float) CompositeExtract 1690 2
- 1694: 6(float) ImageSampleDrefExplicitLod 1689 1690 1693 Grad ConstOffset 1691 1692 722
+ 1694:6(float16_t) ImageSampleDrefExplicitLod 1689 1690 1693 Grad ConstOffset 1691 1692 722
1695: 208(ptr) AccessChain 1632(texel) 207
- 1696: 6(float) Load 1695
- 1697: 6(float) FAdd 1696 1694
+ 1696:6(float16_t) Load 1695
+ 1697:6(float16_t) FAdd 1696 1694
1698: 208(ptr) AccessChain 1632(texel) 207
Store 1698 1697
1699: 371 Load 373(s2DRectShadow)
- 1700: 154(fvec2) Load 156(f16c2)
+ 1700:154(f16vec2) Load 156(f16c2)
1701: 52(float) Load 215(compare)
- 1702: 154(fvec2) Load 1417(f16dPdxy2)
- 1703: 154(fvec2) Load 1417(f16dPdxy2)
- 1704: 6(float) ImageSampleDrefExplicitLod 1699 1700 1701 Grad ConstOffset 1702 1703 722
+ 1702:154(f16vec2) Load 1417(f16dPdxy2)
+ 1703:154(f16vec2) Load 1417(f16dPdxy2)
+ 1704:6(float16_t) ImageSampleDrefExplicitLod 1699 1700 1701 Grad ConstOffset 1702 1703 722
1705: 208(ptr) AccessChain 1632(texel) 207
- 1706: 6(float) Load 1705
- 1707: 6(float) FAdd 1706 1704
+ 1706:6(float16_t) Load 1705
+ 1707:6(float16_t) FAdd 1706 1704
1708: 208(ptr) AccessChain 1632(texel) 207
Store 1708 1707
1709: 199 Load 201(s1DShadow)
@@ -2454,21 +2454,21 @@ spv.float16Fetch.frag
1711: 52(float) Load 1393(dPdxy1)
1712: 52(float) Load 1393(dPdxy1)
1713: 52(float) CompositeExtract 1710 2
- 1714: 6(float) ImageSampleDrefExplicitLod 1709 1710 1713 Grad ConstOffset 1711 1712 709
+ 1714:6(float16_t) ImageSampleDrefExplicitLod 1709 1710 1713 Grad ConstOffset 1711 1712 709
1715: 208(ptr) AccessChain 1632(texel) 207
- 1716: 6(float) Load 1715
- 1717: 6(float) FAdd 1716 1714
+ 1716:6(float16_t) Load 1715
+ 1717:6(float16_t) FAdd 1716 1714
1718: 208(ptr) AccessChain 1632(texel) 207
Store 1718 1717
1719: 199 Load 201(s1DShadow)
- 1720: 154(fvec2) Load 156(f16c2)
+ 1720:154(f16vec2) Load 156(f16c2)
1721: 52(float) Load 215(compare)
- 1722: 6(float) Load 1401(f16dPdxy1)
- 1723: 6(float) Load 1401(f16dPdxy1)
- 1724: 6(float) ImageSampleDrefExplicitLod 1719 1720 1721 Grad ConstOffset 1722 1723 709
+ 1722:6(float16_t) Load 1401(f16dPdxy1)
+ 1723:6(float16_t) Load 1401(f16dPdxy1)
+ 1724:6(float16_t) ImageSampleDrefExplicitLod 1719 1720 1721 Grad ConstOffset 1722 1723 709
1725: 208(ptr) AccessChain 1632(texel) 207
- 1726: 6(float) Load 1725
- 1727: 6(float) FAdd 1726 1724
+ 1726:6(float16_t) Load 1725
+ 1727:6(float16_t) FAdd 1726 1724
1728: 208(ptr) AccessChain 1632(texel) 207
Store 1728 1727
1729: 224 Load 226(s2DShadow)
@@ -2476,75 +2476,75 @@ spv.float16Fetch.frag
1731: 53(fvec2) Load 1409(dPdxy2)
1732: 53(fvec2) Load 1409(dPdxy2)
1733: 52(float) CompositeExtract 1730 2
- 1734: 6(float) ImageSampleDrefExplicitLod 1729 1730 1733 Grad ConstOffset 1731 1732 722
+ 1734:6(float16_t) ImageSampleDrefExplicitLod 1729 1730 1733 Grad ConstOffset 1731 1732 722
1735: 208(ptr) AccessChain 1632(texel) 207
- 1736: 6(float) Load 1735
- 1737: 6(float) FAdd 1736 1734
+ 1736:6(float16_t) Load 1735
+ 1737:6(float16_t) FAdd 1736 1734
1738: 208(ptr) AccessChain 1632(texel) 207
Store 1738 1737
1739: 224 Load 226(s2DShadow)
- 1740: 154(fvec2) Load 156(f16c2)
+ 1740:154(f16vec2) Load 156(f16c2)
1741: 52(float) Load 215(compare)
- 1742: 154(fvec2) Load 1417(f16dPdxy2)
- 1743: 154(fvec2) Load 1417(f16dPdxy2)
- 1744: 6(float) ImageSampleDrefExplicitLod 1739 1740 1741 Grad ConstOffset 1742 1743 722
+ 1742:154(f16vec2) Load 1417(f16dPdxy2)
+ 1743:154(f16vec2) Load 1417(f16dPdxy2)
+ 1744:6(float16_t) ImageSampleDrefExplicitLod 1739 1740 1741 Grad ConstOffset 1742 1743 722
1745: 208(ptr) AccessChain 1632(texel) 207
- 1746: 6(float) Load 1745
- 1747: 6(float) FAdd 1746 1744
+ 1746:6(float16_t) Load 1745
+ 1747:6(float16_t) FAdd 1746 1744
1748: 208(ptr) AccessChain 1632(texel) 207
Store 1748 1747
1749: 269 Load 271(s1DArray)
1750: 53(fvec2) Load 148(c2)
1751: 52(float) Load 1393(dPdxy1)
1752: 52(float) Load 1393(dPdxy1)
- 1753: 7(fvec4) ImageSampleExplicitLod 1749 1750 Grad ConstOffset 1751 1752 709
- 1754: 7(fvec4) Load 1632(texel)
- 1755: 7(fvec4) FAdd 1754 1753
+ 1753: 7(f16vec4) ImageSampleExplicitLod 1749 1750 Grad ConstOffset 1751 1752 709
+ 1754: 7(f16vec4) Load 1632(texel)
+ 1755: 7(f16vec4) FAdd 1754 1753
Store 1632(texel) 1755
1756: 269 Load 271(s1DArray)
- 1757: 154(fvec2) Load 156(f16c2)
- 1758: 6(float) Load 1401(f16dPdxy1)
- 1759: 6(float) Load 1401(f16dPdxy1)
- 1760: 7(fvec4) ImageSampleExplicitLod 1756 1757 Grad ConstOffset 1758 1759 709
- 1761: 7(fvec4) Load 1632(texel)
- 1762: 7(fvec4) FAdd 1761 1760
+ 1757:154(f16vec2) Load 156(f16c2)
+ 1758:6(float16_t) Load 1401(f16dPdxy1)
+ 1759:6(float16_t) Load 1401(f16dPdxy1)
+ 1760: 7(f16vec4) ImageSampleExplicitLod 1756 1757 Grad ConstOffset 1758 1759 709
+ 1761: 7(f16vec4) Load 1632(texel)
+ 1762: 7(f16vec4) FAdd 1761 1760
Store 1632(texel) 1762
1763: 284 Load 286(s2DArray)
1764: 167(fvec3) Load 169(c3)
1765: 53(fvec2) Load 1409(dPdxy2)
1766: 53(fvec2) Load 1409(dPdxy2)
- 1767: 7(fvec4) ImageSampleExplicitLod 1763 1764 Grad ConstOffset 1765 1766 722
- 1768: 7(fvec4) Load 1632(texel)
- 1769: 7(fvec4) FAdd 1768 1767
+ 1767: 7(f16vec4) ImageSampleExplicitLod 1763 1764 Grad ConstOffset 1765 1766 722
+ 1768: 7(f16vec4) Load 1632(texel)
+ 1769: 7(f16vec4) FAdd 1768 1767
Store 1632(texel) 1769
1770: 284 Load 286(s2DArray)
- 1771: 175(fvec3) Load 177(f16c3)
- 1772: 154(fvec2) Load 1417(f16dPdxy2)
- 1773: 154(fvec2) Load 1417(f16dPdxy2)
- 1774: 7(fvec4) ImageSampleExplicitLod 1770 1771 Grad ConstOffset 1772 1773 722
- 1775: 7(fvec4) Load 1632(texel)
- 1776: 7(fvec4) FAdd 1775 1774
+ 1771:175(f16vec3) Load 177(f16c3)
+ 1772:154(f16vec2) Load 1417(f16dPdxy2)
+ 1773:154(f16vec2) Load 1417(f16dPdxy2)
+ 1774: 7(f16vec4) ImageSampleExplicitLod 1770 1771 Grad ConstOffset 1772 1773 722
+ 1775: 7(f16vec4) Load 1632(texel)
+ 1776: 7(f16vec4) FAdd 1775 1774
Store 1632(texel) 1776
1777: 316 Load 318(s1DArrayShadow)
1778: 167(fvec3) Load 169(c3)
1779: 52(float) Load 1393(dPdxy1)
1780: 52(float) Load 1393(dPdxy1)
1781: 52(float) CompositeExtract 1778 2
- 1782: 6(float) ImageSampleDrefExplicitLod 1777 1778 1781 Grad ConstOffset 1779 1780 709
+ 1782:6(float16_t) ImageSampleDrefExplicitLod 1777 1778 1781 Grad ConstOffset 1779 1780 709
1783: 208(ptr) AccessChain 1632(texel) 207
- 1784: 6(float) Load 1783
- 1785: 6(float) FAdd 1784 1782
+ 1784:6(float16_t) Load 1783
+ 1785:6(float16_t) FAdd 1784 1782
1786: 208(ptr) AccessChain 1632(texel) 207
Store 1786 1785
1787: 316 Load 318(s1DArrayShadow)
- 1788: 154(fvec2) Load 156(f16c2)
+ 1788:154(f16vec2) Load 156(f16c2)
1789: 52(float) Load 215(compare)
- 1790: 6(float) Load 1401(f16dPdxy1)
- 1791: 6(float) Load 1401(f16dPdxy1)
- 1792: 6(float) ImageSampleDrefExplicitLod 1787 1788 1789 Grad ConstOffset 1790 1791 709
+ 1790:6(float16_t) Load 1401(f16dPdxy1)
+ 1791:6(float16_t) Load 1401(f16dPdxy1)
+ 1792:6(float16_t) ImageSampleDrefExplicitLod 1787 1788 1789 Grad ConstOffset 1790 1791 709
1793: 208(ptr) AccessChain 1632(texel) 207
- 1794: 6(float) Load 1793
- 1795: 6(float) FAdd 1794 1792
+ 1794:6(float16_t) Load 1793
+ 1795:6(float16_t) FAdd 1794 1792
1796: 208(ptr) AccessChain 1632(texel) 207
Store 1796 1795
1797: 337 Load 339(s2DArrayShadow)
@@ -2552,27 +2552,27 @@ spv.float16Fetch.frag
1799: 53(fvec2) Load 1409(dPdxy2)
1800: 53(fvec2) Load 1409(dPdxy2)
1801: 52(float) CompositeExtract 1798 3
- 1802: 6(float) ImageSampleDrefExplicitLod 1797 1798 1801 Grad ConstOffset 1799 1800 722
+ 1802:6(float16_t) ImageSampleDrefExplicitLod 1797 1798 1801 Grad ConstOffset 1799 1800 722
1803: 208(ptr) AccessChain 1632(texel) 207
- 1804: 6(float) Load 1803
- 1805: 6(float) FAdd 1804 1802
+ 1804:6(float16_t) Load 1803
+ 1805:6(float16_t) FAdd 1804 1802
1806: 208(ptr) AccessChain 1632(texel) 207
Store 1806 1805
1807: 337 Load 339(s2DArrayShadow)
- 1808: 175(fvec3) Load 177(f16c3)
+ 1808:175(f16vec3) Load 177(f16c3)
1809: 52(float) Load 215(compare)
- 1810: 154(fvec2) Load 1417(f16dPdxy2)
- 1811: 154(fvec2) Load 1417(f16dPdxy2)
- 1812: 6(float) ImageSampleDrefExplicitLod 1807 1808 1809 Grad ConstOffset 1810 1811 722
+ 1810:154(f16vec2) Load 1417(f16dPdxy2)
+ 1811:154(f16vec2) Load 1417(f16dPdxy2)
+ 1812:6(float16_t) ImageSampleDrefExplicitLod 1807 1808 1809 Grad ConstOffset 1810 1811 722
1813: 208(ptr) AccessChain 1632(texel) 207
- 1814: 6(float) Load 1813
- 1815: 6(float) FAdd 1814 1812
+ 1814:6(float16_t) Load 1813
+ 1815:6(float16_t) FAdd 1814 1812
1816: 208(ptr) AccessChain 1632(texel) 207
Store 1816 1815
- 1817: 7(fvec4) Load 1632(texel)
+ 1817: 7(f16vec4) Load 1632(texel)
ReturnValue 1817
FunctionEnd
-31(testTextureProjGrad(): 7(fvec4) Function None 8
+31(testTextureProjGrad(): 7(f16vec4) Function None 8
32: Label
1820(texel): 64(ptr) Variable Function
Store 1820(texel) 121
@@ -2580,17 +2580,17 @@ spv.float16Fetch.frag
1822: 53(fvec2) Load 148(c2)
1823: 52(float) Load 1393(dPdxy1)
1824: 52(float) Load 1393(dPdxy1)
- 1825: 7(fvec4) ImageSampleProjExplicitLod 1821 1822 Grad 1823 1824
- 1826: 7(fvec4) Load 1820(texel)
- 1827: 7(fvec4) FAdd 1826 1825
+ 1825: 7(f16vec4) ImageSampleProjExplicitLod 1821 1822 Grad 1823 1824
+ 1826: 7(f16vec4) Load 1820(texel)
+ 1827: 7(f16vec4) FAdd 1826 1825
Store 1820(texel) 1827
1828: 123 Load 125(s1D)
- 1829: 154(fvec2) Load 156(f16c2)
- 1830: 6(float) Load 1401(f16dPdxy1)
- 1831: 6(float) Load 1401(f16dPdxy1)
- 1832: 7(fvec4) ImageSampleProjExplicitLod 1828 1829 Grad 1830 1831
- 1833: 7(fvec4) Load 1820(texel)
- 1834: 7(fvec4) FAdd 1833 1832
+ 1829:154(f16vec2) Load 156(f16c2)
+ 1830:6(float16_t) Load 1401(f16dPdxy1)
+ 1831:6(float16_t) Load 1401(f16dPdxy1)
+ 1832: 7(f16vec4) ImageSampleProjExplicitLod 1828 1829 Grad 1830 1831
+ 1833: 7(f16vec4) Load 1820(texel)
+ 1834: 7(f16vec4) FAdd 1833 1832
Store 1820(texel) 1834
1835: 123 Load 125(s1D)
1836: 249(fvec4) Load 251(c4)
@@ -2598,35 +2598,35 @@ spv.float16Fetch.frag
1838: 52(float) Load 1393(dPdxy1)
1839: 52(float) CompositeExtract 1836 3
1840: 249(fvec4) CompositeInsert 1839 1836 1
- 1841: 7(fvec4) ImageSampleProjExplicitLod 1835 1840 Grad 1837 1838
- 1842: 7(fvec4) Load 1820(texel)
- 1843: 7(fvec4) FAdd 1842 1841
+ 1841: 7(f16vec4) ImageSampleProjExplicitLod 1835 1840 Grad 1837 1838
+ 1842: 7(f16vec4) Load 1820(texel)
+ 1843: 7(f16vec4) FAdd 1842 1841
Store 1820(texel) 1843
1844: 123 Load 125(s1D)
- 1845: 7(fvec4) Load 309(f16c4)
- 1846: 6(float) Load 1401(f16dPdxy1)
- 1847: 6(float) Load 1401(f16dPdxy1)
- 1848: 6(float) CompositeExtract 1845 3
- 1849: 7(fvec4) CompositeInsert 1848 1845 1
- 1850: 7(fvec4) ImageSampleProjExplicitLod 1844 1849 Grad 1846 1847
- 1851: 7(fvec4) Load 1820(texel)
- 1852: 7(fvec4) FAdd 1851 1850
+ 1845: 7(f16vec4) Load 309(f16c4)
+ 1846:6(float16_t) Load 1401(f16dPdxy1)
+ 1847:6(float16_t) Load 1401(f16dPdxy1)
+ 1848:6(float16_t) CompositeExtract 1845 3
+ 1849: 7(f16vec4) CompositeInsert 1848 1845 1
+ 1850: 7(f16vec4) ImageSampleProjExplicitLod 1844 1849 Grad 1846 1847
+ 1851: 7(f16vec4) Load 1820(texel)
+ 1852: 7(f16vec4) FAdd 1851 1850
Store 1820(texel) 1852
1853: 143 Load 145(s2D)
1854: 167(fvec3) Load 169(c3)
1855: 53(fvec2) Load 1409(dPdxy2)
1856: 53(fvec2) Load 1409(dPdxy2)
- 1857: 7(fvec4) ImageSampleProjExplicitLod 1853 1854 Grad 1855 1856
- 1858: 7(fvec4) Load 1820(texel)
- 1859: 7(fvec4) FAdd 1858 1857
+ 1857: 7(f16vec4) ImageSampleProjExplicitLod 1853 1854 Grad 1855 1856
+ 1858: 7(f16vec4) Load 1820(texel)
+ 1859: 7(f16vec4) FAdd 1858 1857
Store 1820(texel) 1859
1860: 143 Load 145(s2D)
- 1861: 175(fvec3) Load 177(f16c3)
- 1862: 154(fvec2) Load 1417(f16dPdxy2)
- 1863: 154(fvec2) Load 1417(f16dPdxy2)
- 1864: 7(fvec4) ImageSampleProjExplicitLod 1860 1861 Grad 1862 1863
- 1865: 7(fvec4) Load 1820(texel)
- 1866: 7(fvec4) FAdd 1865 1864
+ 1861:175(f16vec3) Load 177(f16c3)
+ 1862:154(f16vec2) Load 1417(f16dPdxy2)
+ 1863:154(f16vec2) Load 1417(f16dPdxy2)
+ 1864: 7(f16vec4) ImageSampleProjExplicitLod 1860 1861 Grad 1862 1863
+ 1865: 7(f16vec4) Load 1820(texel)
+ 1866: 7(f16vec4) FAdd 1865 1864
Store 1820(texel) 1866
1867: 143 Load 145(s2D)
1868: 249(fvec4) Load 251(c4)
@@ -2634,51 +2634,51 @@ spv.float16Fetch.frag
1870: 53(fvec2) Load 1409(dPdxy2)
1871: 52(float) CompositeExtract 1868 3
1872: 249(fvec4) CompositeInsert 1871 1868 2
- 1873: 7(fvec4) ImageSampleProjExplicitLod 1867 1872 Grad 1869 1870
- 1874: 7(fvec4) Load 1820(texel)
- 1875: 7(fvec4) FAdd 1874 1873
+ 1873: 7(f16vec4) ImageSampleProjExplicitLod 1867 1872 Grad 1869 1870
+ 1874: 7(f16vec4) Load 1820(texel)
+ 1875: 7(f16vec4) FAdd 1874 1873
Store 1820(texel) 1875
1876: 143 Load 145(s2D)
- 1877: 7(fvec4) Load 309(f16c4)
- 1878: 154(fvec2) Load 1417(f16dPdxy2)
- 1879: 154(fvec2) Load 1417(f16dPdxy2)
- 1880: 6(float) CompositeExtract 1877 3
- 1881: 7(fvec4) CompositeInsert 1880 1877 2
- 1882: 7(fvec4) ImageSampleProjExplicitLod 1876 1881 Grad 1878 1879
- 1883: 7(fvec4) Load 1820(texel)
- 1884: 7(fvec4) FAdd 1883 1882
+ 1877: 7(f16vec4) Load 309(f16c4)
+ 1878:154(f16vec2) Load 1417(f16dPdxy2)
+ 1879:154(f16vec2) Load 1417(f16dPdxy2)
+ 1880:6(float16_t) CompositeExtract 1877 3
+ 1881: 7(f16vec4) CompositeInsert 1880 1877 2
+ 1882: 7(f16vec4) ImageSampleProjExplicitLod 1876 1881 Grad 1878 1879
+ 1883: 7(f16vec4) Load 1820(texel)
+ 1884: 7(f16vec4) FAdd 1883 1882
Store 1820(texel) 1884
1885: 163 Load 165(s3D)
1886: 249(fvec4) Load 251(c4)
1887: 167(fvec3) Load 1425(dPdxy3)
1888: 167(fvec3) Load 1425(dPdxy3)
- 1889: 7(fvec4) ImageSampleProjExplicitLod 1885 1886 Grad 1887 1888
- 1890: 7(fvec4) Load 1820(texel)
- 1891: 7(fvec4) FAdd 1890 1889
+ 1889: 7(f16vec4) ImageSampleProjExplicitLod 1885 1886 Grad 1887 1888
+ 1890: 7(f16vec4) Load 1820(texel)
+ 1891: 7(f16vec4) FAdd 1890 1889
Store 1820(texel) 1891
1892: 163 Load 165(s3D)
- 1893: 7(fvec4) Load 309(f16c4)
- 1894: 175(fvec3) Load 1433(f16dPdxy3)
- 1895: 175(fvec3) Load 1433(f16dPdxy3)
- 1896: 7(fvec4) ImageSampleProjExplicitLod 1892 1893 Grad 1894 1895
- 1897: 7(fvec4) Load 1820(texel)
- 1898: 7(fvec4) FAdd 1897 1896
+ 1893: 7(f16vec4) Load 309(f16c4)
+ 1894:175(f16vec3) Load 1433(f16dPdxy3)
+ 1895:175(f16vec3) Load 1433(f16dPdxy3)
+ 1896: 7(f16vec4) ImageSampleProjExplicitLod 1892 1893 Grad 1894 1895
+ 1897: 7(f16vec4) Load 1820(texel)
+ 1898: 7(f16vec4) FAdd 1897 1896
Store 1820(texel) 1898
1899: 357 Load 359(s2DRect)
1900: 167(fvec3) Load 169(c3)
1901: 53(fvec2) Load 1409(dPdxy2)
1902: 53(fvec2) Load 1409(dPdxy2)
- 1903: 7(fvec4) ImageSampleProjExplicitLod 1899 1900 Grad 1901 1902
- 1904: 7(fvec4) Load 1820(texel)
- 1905: 7(fvec4) FAdd 1904 1903
+ 1903: 7(f16vec4) ImageSampleProjExplicitLod 1899 1900 Grad 1901 1902
+ 1904: 7(f16vec4) Load 1820(texel)
+ 1905: 7(f16vec4) FAdd 1904 1903
Store 1820(texel) 1905
1906: 357 Load 359(s2DRect)
- 1907: 175(fvec3) Load 177(f16c3)
- 1908: 154(fvec2) Load 1417(f16dPdxy2)
- 1909: 154(fvec2) Load 1417(f16dPdxy2)
- 1910: 7(fvec4) ImageSampleProjExplicitLod 1906 1907 Grad 1908 1909
- 1911: 7(fvec4) Load 1820(texel)
- 1912: 7(fvec4) FAdd 1911 1910
+ 1907:175(f16vec3) Load 177(f16c3)
+ 1908:154(f16vec2) Load 1417(f16dPdxy2)
+ 1909:154(f16vec2) Load 1417(f16dPdxy2)
+ 1910: 7(f16vec4) ImageSampleProjExplicitLod 1906 1907 Grad 1908 1909
+ 1911: 7(f16vec4) Load 1820(texel)
+ 1912: 7(f16vec4) FAdd 1911 1910
Store 1820(texel) 1912
1913: 357 Load 359(s2DRect)
1914: 249(fvec4) Load 251(c4)
@@ -2686,19 +2686,19 @@ spv.float16Fetch.frag
1916: 53(fvec2) Load 1409(dPdxy2)
1917: 52(float) CompositeExtract 1914 3
1918: 249(fvec4) CompositeInsert 1917 1914 2
- 1919: 7(fvec4) ImageSampleProjExplicitLod 1913 1918 Grad 1915 1916
- 1920: 7(fvec4) Load 1820(texel)
- 1921: 7(fvec4) FAdd 1920 1919
+ 1919: 7(f16vec4) ImageSampleProjExplicitLod 1913 1918 Grad 1915 1916
+ 1920: 7(f16vec4) Load 1820(texel)
+ 1921: 7(f16vec4) FAdd 1920 1919
Store 1820(texel) 1921
1922: 357 Load 359(s2DRect)
- 1923: 7(fvec4) Load 309(f16c4)
- 1924: 154(fvec2) Load 1417(f16dPdxy2)
- 1925: 154(fvec2) Load 1417(f16dPdxy2)
- 1926: 6(float) CompositeExtract 1923 3
- 1927: 7(fvec4) CompositeInsert 1926 1923 2
- 1928: 7(fvec4) ImageSampleProjExplicitLod 1922 1927 Grad 1924 1925
- 1929: 7(fvec4) Load 1820(texel)
- 1930: 7(fvec4) FAdd 1929 1928
+ 1923: 7(f16vec4) Load 309(f16c4)
+ 1924:154(f16vec2) Load 1417(f16dPdxy2)
+ 1925:154(f16vec2) Load 1417(f16dPdxy2)
+ 1926:6(float16_t) CompositeExtract 1923 3
+ 1927: 7(f16vec4) CompositeInsert 1926 1923 2
+ 1928: 7(f16vec4) ImageSampleProjExplicitLod 1922 1927 Grad 1924 1925
+ 1929: 7(f16vec4) Load 1820(texel)
+ 1930: 7(f16vec4) FAdd 1929 1928
Store 1820(texel) 1930
1931: 371 Load 373(s2DRectShadow)
1932: 249(fvec4) Load 251(c4)
@@ -2707,21 +2707,21 @@ spv.float16Fetch.frag
1935: 52(float) CompositeExtract 1932 2
1936: 52(float) CompositeExtract 1932 3
1937: 249(fvec4) CompositeInsert 1936 1932 2
- 1938: 6(float) ImageSampleProjDrefExplicitLod 1931 1937 1935 Grad 1933 1934
+ 1938:6(float16_t) ImageSampleProjDrefExplicitLod 1931 1937 1935 Grad 1933 1934
1939: 208(ptr) AccessChain 1820(texel) 207
- 1940: 6(float) Load 1939
- 1941: 6(float) FAdd 1940 1938
+ 1940:6(float16_t) Load 1939
+ 1941:6(float16_t) FAdd 1940 1938
1942: 208(ptr) AccessChain 1820(texel) 207
Store 1942 1941
1943: 371 Load 373(s2DRectShadow)
- 1944: 175(fvec3) Load 177(f16c3)
+ 1944:175(f16vec3) Load 177(f16c3)
1945: 52(float) Load 215(compare)
- 1946: 154(fvec2) Load 1417(f16dPdxy2)
- 1947: 154(fvec2) Load 1417(f16dPdxy2)
- 1948: 6(float) ImageSampleProjDrefExplicitLod 1943 1944 1945 Grad 1946 1947
+ 1946:154(f16vec2) Load 1417(f16dPdxy2)
+ 1947:154(f16vec2) Load 1417(f16dPdxy2)
+ 1948:6(float16_t) ImageSampleProjDrefExplicitLod 1943 1944 1945 Grad 1946 1947
1949: 208(ptr) AccessChain 1820(texel) 207
- 1950: 6(float) Load 1949
- 1951: 6(float) FAdd 1950 1948
+ 1950:6(float16_t) Load 1949
+ 1951:6(float16_t) FAdd 1950 1948
1952: 208(ptr) AccessChain 1820(texel) 207
Store 1952 1951
1953: 199 Load 201(s1DShadow)
@@ -2731,23 +2731,23 @@ spv.float16Fetch.frag
1957: 52(float) CompositeExtract 1954 2
1958: 52(float) CompositeExtract 1954 3
1959: 249(fvec4) CompositeInsert 1958 1954 1
- 1960: 6(float) ImageSampleProjDrefExplicitLod 1953 1959 1957 Grad 1955 1956
+ 1960:6(float16_t) ImageSampleProjDrefExplicitLod 1953 1959 1957 Grad 1955 1956
1961: 208(ptr) AccessChain 1820(texel) 207
- 1962: 6(float) Load 1961
- 1963: 6(float) FAdd 1962 1960
+ 1962:6(float16_t) Load 1961
+ 1963:6(float16_t) FAdd 1962 1960
1964: 208(ptr) AccessChain 1820(texel) 207
Store 1964 1963
1965: 199 Load 201(s1DShadow)
- 1966: 175(fvec3) Load 177(f16c3)
+ 1966:175(f16vec3) Load 177(f16c3)
1967: 52(float) Load 215(compare)
- 1968: 6(float) Load 1401(f16dPdxy1)
- 1969: 6(float) Load 1401(f16dPdxy1)
- 1970: 6(float) CompositeExtract 1966 2
- 1971: 175(fvec3) CompositeInsert 1970 1966 1
- 1972: 6(float) ImageSampleProjDrefExplicitLod 1965 1971 1967 Grad 1968 1969
+ 1968:6(float16_t) Load 1401(f16dPdxy1)
+ 1969:6(float16_t) Load 1401(f16dPdxy1)
+ 1970:6(float16_t) CompositeExtract 1966 2
+ 1971:175(f16vec3) CompositeInsert 1970 1966 1
+ 1972:6(float16_t) ImageSampleProjDrefExplicitLod 1965 1971 1967 Grad 1968 1969
1973: 208(ptr) AccessChain 1820(texel) 207
- 1974: 6(float) Load 1973
- 1975: 6(float) FAdd 1974 1972
+ 1974:6(float16_t) Load 1973
+ 1975:6(float16_t) FAdd 1974 1972
1976: 208(ptr) AccessChain 1820(texel) 207
Store 1976 1975
1977: 224 Load 226(s2DShadow)
@@ -2757,27 +2757,27 @@ spv.float16Fetch.frag
1981: 52(float) CompositeExtract 1978 2
1982: 52(float) CompositeExtract 1978 3
1983: 249(fvec4) CompositeInsert 1982 1978 2
- 1984: 6(float) ImageSampleProjDrefExplicitLod 1977 1983 1981 Grad 1979 1980
+ 1984:6(float16_t) ImageSampleProjDrefExplicitLod 1977 1983 1981 Grad 1979 1980
1985: 208(ptr) AccessChain 1820(texel) 207
- 1986: 6(float) Load 1985
- 1987: 6(float) FAdd 1986 1984
+ 1986:6(float16_t) Load 1985
+ 1987:6(float16_t) FAdd 1986 1984
1988: 208(ptr) AccessChain 1820(texel) 207
Store 1988 1987
1989: 224 Load 226(s2DShadow)
- 1990: 175(fvec3) Load 177(f16c3)
+ 1990:175(f16vec3) Load 177(f16c3)
1991: 52(float) Load 215(compare)
- 1992: 154(fvec2) Load 1417(f16dPdxy2)
- 1993: 154(fvec2) Load 1417(f16dPdxy2)
- 1994: 6(float) ImageSampleProjDrefExplicitLod 1989 1990 1991 Grad 1992 1993
+ 1992:154(f16vec2) Load 1417(f16dPdxy2)
+ 1993:154(f16vec2) Load 1417(f16dPdxy2)
+ 1994:6(float16_t) ImageSampleProjDrefExplicitLod 1989 1990 1991 Grad 1992 1993
1995: 208(ptr) AccessChain 1820(texel) 207
- 1996: 6(float) Load 1995
- 1997: 6(float) FAdd 1996 1994
+ 1996:6(float16_t) Load 1995
+ 1997:6(float16_t) FAdd 1996 1994
1998: 208(ptr) AccessChain 1820(texel) 207
Store 1998 1997
- 1999: 7(fvec4) Load 1820(texel)
+ 1999: 7(f16vec4) Load 1820(texel)
ReturnValue 1999
FunctionEnd
-33(testTextureProjGradoffset(): 7(fvec4) Function None 8
+33(testTextureProjGradoffset(): 7(f16vec4) Function None 8
34: Label
2002(texel): 64(ptr) Variable Function
Store 2002(texel) 121
@@ -2785,17 +2785,17 @@ spv.float16Fetch.frag
2004: 53(fvec2) Load 148(c2)
2005: 52(float) Load 1393(dPdxy1)
2006: 52(float) Load 1393(dPdxy1)
- 2007: 7(fvec4) ImageSampleProjExplicitLod 2003 2004 Grad ConstOffset 2005 2006 709
- 2008: 7(fvec4) Load 2002(texel)
- 2009: 7(fvec4) FAdd 2008 2007
+ 2007: 7(f16vec4) ImageSampleProjExplicitLod 2003 2004 Grad ConstOffset 2005 2006 709
+ 2008: 7(f16vec4) Load 2002(texel)
+ 2009: 7(f16vec4) FAdd 2008 2007
Store 2002(texel) 2009
2010: 123 Load 125(s1D)
- 2011: 154(fvec2) Load 156(f16c2)
- 2012: 6(float) Load 1401(f16dPdxy1)
- 2013: 6(float) Load 1401(f16dPdxy1)
- 2014: 7(fvec4) ImageSampleProjExplicitLod 2010 2011 Grad ConstOffset 2012 2013 709
- 2015: 7(fvec4) Load 2002(texel)
- 2016: 7(fvec4) FAdd 2015 2014
+ 2011:154(f16vec2) Load 156(f16c2)
+ 2012:6(float16_t) Load 1401(f16dPdxy1)
+ 2013:6(float16_t) Load 1401(f16dPdxy1)
+ 2014: 7(f16vec4) ImageSampleProjExplicitLod 2010 2011 Grad ConstOffset 2012 2013 709
+ 2015: 7(f16vec4) Load 2002(texel)
+ 2016: 7(f16vec4) FAdd 2015 2014
Store 2002(texel) 2016
2017: 123 Load 125(s1D)
2018: 249(fvec4) Load 251(c4)
@@ -2803,35 +2803,35 @@ spv.float16Fetch.frag
2020: 52(float) Load 1393(dPdxy1)
2021: 52(float) CompositeExtract 2018 3
2022: 249(fvec4) CompositeInsert 2021 2018 1
- 2023: 7(fvec4) ImageSampleProjExplicitLod 2017 2022 Grad ConstOffset 2019 2020 709
- 2024: 7(fvec4) Load 2002(texel)
- 2025: 7(fvec4) FAdd 2024 2023
+ 2023: 7(f16vec4) ImageSampleProjExplicitLod 2017 2022 Grad ConstOffset 2019 2020 709
+ 2024: 7(f16vec4) Load 2002(texel)
+ 2025: 7(f16vec4) FAdd 2024 2023
Store 2002(texel) 2025
2026: 123 Load 125(s1D)
- 2027: 7(fvec4) Load 309(f16c4)
- 2028: 6(float) Load 1401(f16dPdxy1)
- 2029: 6(float) Load 1401(f16dPdxy1)
- 2030: 6(float) CompositeExtract 2027 3
- 2031: 7(fvec4) CompositeInsert 2030 2027 1
- 2032: 7(fvec4) ImageSampleProjExplicitLod 2026 2031 Grad ConstOffset 2028 2029 709
- 2033: 7(fvec4) Load 2002(texel)
- 2034: 7(fvec4) FAdd 2033 2032
+ 2027: 7(f16vec4) Load 309(f16c4)
+ 2028:6(float16_t) Load 1401(f16dPdxy1)
+ 2029:6(float16_t) Load 1401(f16dPdxy1)
+ 2030:6(float16_t) CompositeExtract 2027 3
+ 2031: 7(f16vec4) CompositeInsert 2030 2027 1
+ 2032: 7(f16vec4) ImageSampleProjExplicitLod 2026 2031 Grad ConstOffset 2028 2029 709
+ 2033: 7(f16vec4) Load 2002(texel)
+ 2034: 7(f16vec4) FAdd 2033 2032
Store 2002(texel) 2034
2035: 143 Load 145(s2D)
2036: 167(fvec3) Load 169(c3)
2037: 53(fvec2) Load 1409(dPdxy2)
2038: 53(fvec2) Load 1409(dPdxy2)
- 2039: 7(fvec4) ImageSampleProjExplicitLod 2035 2036 Grad ConstOffset 2037 2038 722
- 2040: 7(fvec4) Load 2002(texel)
- 2041: 7(fvec4) FAdd 2040 2039
+ 2039: 7(f16vec4) ImageSampleProjExplicitLod 2035 2036 Grad ConstOffset 2037 2038 722
+ 2040: 7(f16vec4) Load 2002(texel)
+ 2041: 7(f16vec4) FAdd 2040 2039
Store 2002(texel) 2041
2042: 143 Load 145(s2D)
- 2043: 175(fvec3) Load 177(f16c3)
- 2044: 154(fvec2) Load 1417(f16dPdxy2)
- 2045: 154(fvec2) Load 1417(f16dPdxy2)
- 2046: 7(fvec4) ImageSampleProjExplicitLod 2042 2043 Grad ConstOffset 2044 2045 722
- 2047: 7(fvec4) Load 2002(texel)
- 2048: 7(fvec4) FAdd 2047 2046
+ 2043:175(f16vec3) Load 177(f16c3)
+ 2044:154(f16vec2) Load 1417(f16dPdxy2)
+ 2045:154(f16vec2) Load 1417(f16dPdxy2)
+ 2046: 7(f16vec4) ImageSampleProjExplicitLod 2042 2043 Grad ConstOffset 2044 2045 722
+ 2047: 7(f16vec4) Load 2002(texel)
+ 2048: 7(f16vec4) FAdd 2047 2046
Store 2002(texel) 2048
2049: 143 Load 145(s2D)
2050: 249(fvec4) Load 251(c4)
@@ -2839,35 +2839,35 @@ spv.float16Fetch.frag
2052: 53(fvec2) Load 1409(dPdxy2)
2053: 52(float) CompositeExtract 2050 3
2054: 249(fvec4) CompositeInsert 2053 2050 2
- 2055: 7(fvec4) ImageSampleProjExplicitLod 2049 2054 Grad ConstOffset 2051 2052 722
- 2056: 7(fvec4) Load 2002(texel)
- 2057: 7(fvec4) FAdd 2056 2055
+ 2055: 7(f16vec4) ImageSampleProjExplicitLod 2049 2054 Grad ConstOffset 2051 2052 722
+ 2056: 7(f16vec4) Load 2002(texel)
+ 2057: 7(f16vec4) FAdd 2056 2055
Store 2002(texel) 2057
2058: 143 Load 145(s2D)
- 2059: 7(fvec4) Load 309(f16c4)
- 2060: 154(fvec2) Load 1417(f16dPdxy2)
- 2061: 154(fvec2) Load 1417(f16dPdxy2)
- 2062: 6(float) CompositeExtract 2059 3
- 2063: 7(fvec4) CompositeInsert 2062 2059 2
- 2064: 7(fvec4) ImageSampleProjExplicitLod 2058 2063 Grad ConstOffset 2060 2061 722
- 2065: 7(fvec4) Load 2002(texel)
- 2066: 7(fvec4) FAdd 2065 2064
+ 2059: 7(f16vec4) Load 309(f16c4)
+ 2060:154(f16vec2) Load 1417(f16dPdxy2)
+ 2061:154(f16vec2) Load 1417(f16dPdxy2)
+ 2062:6(float16_t) CompositeExtract 2059 3
+ 2063: 7(f16vec4) CompositeInsert 2062 2059 2
+ 2064: 7(f16vec4) ImageSampleProjExplicitLod 2058 2063 Grad ConstOffset 2060 2061 722
+ 2065: 7(f16vec4) Load 2002(texel)
+ 2066: 7(f16vec4) FAdd 2065 2064
Store 2002(texel) 2066
2067: 357 Load 359(s2DRect)
2068: 167(fvec3) Load 169(c3)
2069: 53(fvec2) Load 1409(dPdxy2)
2070: 53(fvec2) Load 1409(dPdxy2)
- 2071: 7(fvec4) ImageSampleProjExplicitLod 2067 2068 Grad ConstOffset 2069 2070 722
- 2072: 7(fvec4) Load 2002(texel)
- 2073: 7(fvec4) FAdd 2072 2071
+ 2071: 7(f16vec4) ImageSampleProjExplicitLod 2067 2068 Grad ConstOffset 2069 2070 722
+ 2072: 7(f16vec4) Load 2002(texel)
+ 2073: 7(f16vec4) FAdd 2072 2071
Store 2002(texel) 2073
2074: 357 Load 359(s2DRect)
- 2075: 175(fvec3) Load 177(f16c3)
- 2076: 154(fvec2) Load 1417(f16dPdxy2)
- 2077: 154(fvec2) Load 1417(f16dPdxy2)
- 2078: 7(fvec4) ImageSampleProjExplicitLod 2074 2075 Grad ConstOffset 2076 2077 722
- 2079: 7(fvec4) Load 2002(texel)
- 2080: 7(fvec4) FAdd 2079 2078
+ 2075:175(f16vec3) Load 177(f16c3)
+ 2076:154(f16vec2) Load 1417(f16dPdxy2)
+ 2077:154(f16vec2) Load 1417(f16dPdxy2)
+ 2078: 7(f16vec4) ImageSampleProjExplicitLod 2074 2075 Grad ConstOffset 2076 2077 722
+ 2079: 7(f16vec4) Load 2002(texel)
+ 2080: 7(f16vec4) FAdd 2079 2078
Store 2002(texel) 2080
2081: 357 Load 359(s2DRect)
2082: 249(fvec4) Load 251(c4)
@@ -2875,19 +2875,19 @@ spv.float16Fetch.frag
2084: 53(fvec2) Load 1409(dPdxy2)
2085: 52(float) CompositeExtract 2082 3
2086: 249(fvec4) CompositeInsert 2085 2082 2
- 2087: 7(fvec4) ImageSampleProjExplicitLod 2081 2086 Grad ConstOffset 2083 2084 722
- 2088: 7(fvec4) Load 2002(texel)
- 2089: 7(fvec4) FAdd 2088 2087
+ 2087: 7(f16vec4) ImageSampleProjExplicitLod 2081 2086 Grad ConstOffset 2083 2084 722
+ 2088: 7(f16vec4) Load 2002(texel)
+ 2089: 7(f16vec4) FAdd 2088 2087
Store 2002(texel) 2089
2090: 357 Load 359(s2DRect)
- 2091: 7(fvec4) Load 309(f16c4)
- 2092: 154(fvec2) Load 1417(f16dPdxy2)
- 2093: 154(fvec2) Load 1417(f16dPdxy2)
- 2094: 6(float) CompositeExtract 2091 3
- 2095: 7(fvec4) CompositeInsert 2094 2091 2
- 2096: 7(fvec4) ImageSampleProjExplicitLod 2090 2095 Grad ConstOffset 2092 2093 722
- 2097: 7(fvec4) Load 2002(texel)
- 2098: 7(fvec4) FAdd 2097 2096
+ 2091: 7(f16vec4) Load 309(f16c4)
+ 2092:154(f16vec2) Load 1417(f16dPdxy2)
+ 2093:154(f16vec2) Load 1417(f16dPdxy2)
+ 2094:6(float16_t) CompositeExtract 2091 3
+ 2095: 7(f16vec4) CompositeInsert 2094 2091 2
+ 2096: 7(f16vec4) ImageSampleProjExplicitLod 2090 2095 Grad ConstOffset 2092 2093 722
+ 2097: 7(f16vec4) Load 2002(texel)
+ 2098: 7(f16vec4) FAdd 2097 2096
Store 2002(texel) 2098
2099: 371 Load 373(s2DRectShadow)
2100: 249(fvec4) Load 251(c4)
@@ -2896,38 +2896,38 @@ spv.float16Fetch.frag
2103: 52(float) CompositeExtract 2100 2
2104: 52(float) CompositeExtract 2100 3
2105: 249(fvec4) CompositeInsert 2104 2100 2
- 2106: 6(float) ImageSampleProjDrefExplicitLod 2099 2105 2103 Grad ConstOffset 2101 2102 722
+ 2106:6(float16_t) ImageSampleProjDrefExplicitLod 2099 2105 2103 Grad ConstOffset 2101 2102 722
2107: 208(ptr) AccessChain 2002(texel) 207
- 2108: 6(float) Load 2107
- 2109: 6(float) FAdd 2108 2106
+ 2108:6(float16_t) Load 2107
+ 2109:6(float16_t) FAdd 2108 2106
2110: 208(ptr) AccessChain 2002(texel) 207
Store 2110 2109
2111: 371 Load 373(s2DRectShadow)
- 2112: 175(fvec3) Load 177(f16c3)
+ 2112:175(f16vec3) Load 177(f16c3)
2113: 52(float) Load 215(compare)
- 2114: 154(fvec2) Load 1417(f16dPdxy2)
- 2115: 154(fvec2) Load 1417(f16dPdxy2)
- 2116: 6(float) ImageSampleProjDrefExplicitLod 2111 2112 2113 Grad ConstOffset 2114 2115 722
+ 2114:154(f16vec2) Load 1417(f16dPdxy2)
+ 2115:154(f16vec2) Load 1417(f16dPdxy2)
+ 2116:6(float16_t) ImageSampleProjDrefExplicitLod 2111 2112 2113 Grad ConstOffset 2114 2115 722
2117: 208(ptr) AccessChain 2002(texel) 207
- 2118: 6(float) Load 2117
- 2119: 6(float) FAdd 2118 2116
+ 2118:6(float16_t) Load 2117
+ 2119:6(float16_t) FAdd 2118 2116
2120: 208(ptr) AccessChain 2002(texel) 207
Store 2120 2119
2121: 163 Load 165(s3D)
2122: 249(fvec4) Load 251(c4)
2123: 167(fvec3) Load 1425(dPdxy3)
2124: 167(fvec3) Load 1425(dPdxy3)
- 2125: 7(fvec4) ImageSampleProjExplicitLod 2121 2122 Grad ConstOffset 2123 2124 735
- 2126: 7(fvec4) Load 2002(texel)
- 2127: 7(fvec4) FAdd 2126 2125
+ 2125: 7(f16vec4) ImageSampleProjExplicitLod 2121 2122 Grad ConstOffset 2123 2124 735
+ 2126: 7(f16vec4) Load 2002(texel)
+ 2127: 7(f16vec4) FAdd 2126 2125
Store 2002(texel) 2127
2128: 163 Load 165(s3D)
- 2129: 7(fvec4) Load 309(f16c4)
- 2130: 175(fvec3) Load 1433(f16dPdxy3)
- 2131: 175(fvec3) Load 1433(f16dPdxy3)
- 2132: 7(fvec4) ImageSampleProjExplicitLod 2128 2129 Grad ConstOffset 2130 2131 735
- 2133: 7(fvec4) Load 2002(texel)
- 2134: 7(fvec4) FAdd 2133 2132
+ 2129: 7(f16vec4) Load 309(f16c4)
+ 2130:175(f16vec3) Load 1433(f16dPdxy3)
+ 2131:175(f16vec3) Load 1433(f16dPdxy3)
+ 2132: 7(f16vec4) ImageSampleProjExplicitLod 2128 2129 Grad ConstOffset 2130 2131 735
+ 2133: 7(f16vec4) Load 2002(texel)
+ 2134: 7(f16vec4) FAdd 2133 2132
Store 2002(texel) 2134
2135: 199 Load 201(s1DShadow)
2136: 249(fvec4) Load 251(c4)
@@ -2936,23 +2936,23 @@ spv.float16Fetch.frag
2139: 52(float) CompositeExtract 2136 2
2140: 52(float) CompositeExtract 2136 3
2141: 249(fvec4) CompositeInsert 2140 2136 1
- 2142: 6(float) ImageSampleProjDrefExplicitLod 2135 2141 2139 Grad ConstOffset 2137 2138 709
+ 2142:6(float16_t) ImageSampleProjDrefExplicitLod 2135 2141 2139 Grad ConstOffset 2137 2138 709
2143: 208(ptr) AccessChain 2002(texel) 207
- 2144: 6(float) Load 2143
- 2145: 6(float) FAdd 2144 2142
+ 2144:6(float16_t) Load 2143
+ 2145:6(float16_t) FAdd 2144 2142
2146: 208(ptr) AccessChain 2002(texel) 207
Store 2146 2145
2147: 199 Load 201(s1DShadow)
- 2148: 175(fvec3) Load 177(f16c3)
+ 2148:175(f16vec3) Load 177(f16c3)
2149: 52(float) Load 215(compare)
- 2150: 6(float) Load 1401(f16dPdxy1)
- 2151: 6(float) Load 1401(f16dPdxy1)
- 2152: 6(float) CompositeExtract 2148 2
- 2153: 175(fvec3) CompositeInsert 2152 2148 1
- 2154: 6(float) ImageSampleProjDrefExplicitLod 2147 2153 2149 Grad ConstOffset 2150 2151 709
+ 2150:6(float16_t) Load 1401(f16dPdxy1)
+ 2151:6(float16_t) Load 1401(f16dPdxy1)
+ 2152:6(float16_t) CompositeExtract 2148 2
+ 2153:175(f16vec3) CompositeInsert 2152 2148 1
+ 2154:6(float16_t) ImageSampleProjDrefExplicitLod 2147 2153 2149 Grad ConstOffset 2150 2151 709
2155: 208(ptr) AccessChain 2002(texel) 207
- 2156: 6(float) Load 2155
- 2157: 6(float) FAdd 2156 2154
+ 2156:6(float16_t) Load 2155
+ 2157:6(float16_t) FAdd 2156 2154
2158: 208(ptr) AccessChain 2002(texel) 207
Store 2158 2157
2159: 224 Load 226(s2DShadow)
@@ -2962,472 +2962,472 @@ spv.float16Fetch.frag
2163: 52(float) CompositeExtract 2160 2
2164: 52(float) CompositeExtract 2160 3
2165: 249(fvec4) CompositeInsert 2164 2160 2
- 2166: 6(float) ImageSampleProjDrefExplicitLod 2159 2165 2163 Grad ConstOffset 2161 2162 722
+ 2166:6(float16_t) ImageSampleProjDrefExplicitLod 2159 2165 2163 Grad ConstOffset 2161 2162 722
2167: 208(ptr) AccessChain 2002(texel) 207
- 2168: 6(float) Load 2167
- 2169: 6(float) FAdd 2168 2166
+ 2168:6(float16_t) Load 2167
+ 2169:6(float16_t) FAdd 2168 2166
2170: 208(ptr) AccessChain 2002(texel) 207
Store 2170 2169
2171: 224 Load 226(s2DShadow)
- 2172: 175(fvec3) Load 177(f16c3)
+ 2172:175(f16vec3) Load 177(f16c3)
2173: 52(float) Load 215(compare)
- 2174: 154(fvec2) Load 1417(f16dPdxy2)
- 2175: 154(fvec2) Load 1417(f16dPdxy2)
- 2176: 6(float) ImageSampleProjDrefExplicitLod 2171 2172 2173 Grad ConstOffset 2174 2175 722
+ 2174:154(f16vec2) Load 1417(f16dPdxy2)
+ 2175:154(f16vec2) Load 1417(f16dPdxy2)
+ 2176:6(float16_t) ImageSampleProjDrefExplicitLod 2171 2172 2173 Grad ConstOffset 2174 2175 722
2177: 208(ptr) AccessChain 2002(texel) 207
- 2178: 6(float) Load 2177
- 2179: 6(float) FAdd 2178 2176
+ 2178:6(float16_t) Load 2177
+ 2179:6(float16_t) FAdd 2178 2176
2180: 208(ptr) AccessChain 2002(texel) 207
Store 2180 2179
- 2181: 7(fvec4) Load 2002(texel)
+ 2181: 7(f16vec4) Load 2002(texel)
ReturnValue 2181
FunctionEnd
-35(testTextureGather(): 7(fvec4) Function None 8
+35(testTextureGather(): 7(f16vec4) Function None 8
36: Label
2184(texel): 64(ptr) Variable Function
Store 2184(texel) 121
2185: 143 Load 145(s2D)
2186: 53(fvec2) Load 148(c2)
- 2188: 7(fvec4) ImageGather 2185 2186 2187
- 2189: 7(fvec4) Load 2184(texel)
- 2190: 7(fvec4) FAdd 2189 2188
+ 2188: 7(f16vec4) ImageGather 2185 2186 2187
+ 2189: 7(f16vec4) Load 2184(texel)
+ 2190: 7(f16vec4) FAdd 2189 2188
Store 2184(texel) 2190
2191: 143 Load 145(s2D)
- 2192: 154(fvec2) Load 156(f16c2)
- 2193: 6(float) Load 137(f16bias)
- 2194: 7(fvec4) ImageGather 2191 2192 2187 Bias 2193
- 2195: 7(fvec4) Load 2184(texel)
- 2196: 7(fvec4) FAdd 2195 2194
+ 2192:154(f16vec2) Load 156(f16c2)
+ 2193:6(float16_t) Load 137(f16bias)
+ 2194: 7(f16vec4) ImageGather 2191 2192 2187 Bias 2193
+ 2195: 7(f16vec4) Load 2184(texel)
+ 2196: 7(f16vec4) FAdd 2195 2194
Store 2184(texel) 2196
2197: 284 Load 286(s2DArray)
2198: 167(fvec3) Load 169(c3)
- 2199: 7(fvec4) ImageGather 2197 2198 2187
- 2200: 7(fvec4) Load 2184(texel)
- 2201: 7(fvec4) FAdd 2200 2199
+ 2199: 7(f16vec4) ImageGather 2197 2198 2187
+ 2200: 7(f16vec4) Load 2184(texel)
+ 2201: 7(f16vec4) FAdd 2200 2199
Store 2184(texel) 2201
2202: 284 Load 286(s2DArray)
- 2203: 175(fvec3) Load 177(f16c3)
- 2204: 6(float) Load 137(f16bias)
- 2205: 7(fvec4) ImageGather 2202 2203 2187 Bias 2204
- 2206: 7(fvec4) Load 2184(texel)
- 2207: 7(fvec4) FAdd 2206 2205
+ 2203:175(f16vec3) Load 177(f16c3)
+ 2204:6(float16_t) Load 137(f16bias)
+ 2205: 7(f16vec4) ImageGather 2202 2203 2187 Bias 2204
+ 2206: 7(f16vec4) Load 2184(texel)
+ 2207: 7(f16vec4) FAdd 2206 2205
Store 2184(texel) 2207
2208: 184 Load 186(sCube)
2209: 167(fvec3) Load 169(c3)
- 2210: 7(fvec4) ImageGather 2208 2209 2187
- 2211: 7(fvec4) Load 2184(texel)
- 2212: 7(fvec4) FAdd 2211 2210
+ 2210: 7(f16vec4) ImageGather 2208 2209 2187
+ 2211: 7(f16vec4) Load 2184(texel)
+ 2212: 7(f16vec4) FAdd 2211 2210
Store 2184(texel) 2212
2213: 184 Load 186(sCube)
- 2214: 175(fvec3) Load 177(f16c3)
- 2215: 6(float) Load 137(f16bias)
- 2216: 7(fvec4) ImageGather 2213 2214 2187 Bias 2215
- 2217: 7(fvec4) Load 2184(texel)
- 2218: 7(fvec4) FAdd 2217 2216
+ 2214:175(f16vec3) Load 177(f16c3)
+ 2215:6(float16_t) Load 137(f16bias)
+ 2216: 7(f16vec4) ImageGather 2213 2214 2187 Bias 2215
+ 2217: 7(f16vec4) Load 2184(texel)
+ 2218: 7(f16vec4) FAdd 2217 2216
Store 2184(texel) 2218
2219: 299 Load 301(sCubeArray)
2220: 249(fvec4) Load 251(c4)
- 2221: 7(fvec4) ImageGather 2219 2220 2187
- 2222: 7(fvec4) Load 2184(texel)
- 2223: 7(fvec4) FAdd 2222 2221
+ 2221: 7(f16vec4) ImageGather 2219 2220 2187
+ 2222: 7(f16vec4) Load 2184(texel)
+ 2223: 7(f16vec4) FAdd 2222 2221
Store 2184(texel) 2223
2224: 299 Load 301(sCubeArray)
- 2225: 7(fvec4) Load 309(f16c4)
- 2226: 6(float) Load 137(f16bias)
- 2227: 7(fvec4) ImageGather 2224 2225 2187 Bias 2226
- 2228: 7(fvec4) Load 2184(texel)
- 2229: 7(fvec4) FAdd 2228 2227
+ 2225: 7(f16vec4) Load 309(f16c4)
+ 2226:6(float16_t) Load 137(f16bias)
+ 2227: 7(f16vec4) ImageGather 2224 2225 2187 Bias 2226
+ 2228: 7(f16vec4) Load 2184(texel)
+ 2229: 7(f16vec4) FAdd 2228 2227
Store 2184(texel) 2229
2230: 357 Load 359(s2DRect)
2231: 53(fvec2) Load 148(c2)
- 2232: 7(fvec4) ImageGather 2230 2231 2187
- 2233: 7(fvec4) Load 2184(texel)
- 2234: 7(fvec4) FAdd 2233 2232
+ 2232: 7(f16vec4) ImageGather 2230 2231 2187
+ 2233: 7(f16vec4) Load 2184(texel)
+ 2234: 7(f16vec4) FAdd 2233 2232
Store 2184(texel) 2234
2235: 357 Load 359(s2DRect)
- 2236: 154(fvec2) Load 156(f16c2)
- 2237: 7(fvec4) ImageGather 2235 2236 2187
- 2238: 7(fvec4) Load 2184(texel)
- 2239: 7(fvec4) FAdd 2238 2237
+ 2236:154(f16vec2) Load 156(f16c2)
+ 2237: 7(f16vec4) ImageGather 2235 2236 2187
+ 2238: 7(f16vec4) Load 2184(texel)
+ 2239: 7(f16vec4) FAdd 2238 2237
Store 2184(texel) 2239
2240: 224 Load 226(s2DShadow)
2241: 53(fvec2) Load 148(c2)
2242: 52(float) Load 215(compare)
- 2243: 7(fvec4) ImageDrefGather 2240 2241 2242
- 2244: 7(fvec4) Load 2184(texel)
- 2245: 7(fvec4) FAdd 2244 2243
+ 2243: 7(f16vec4) ImageDrefGather 2240 2241 2242
+ 2244: 7(f16vec4) Load 2184(texel)
+ 2245: 7(f16vec4) FAdd 2244 2243
Store 2184(texel) 2245
2246: 224 Load 226(s2DShadow)
- 2247: 154(fvec2) Load 156(f16c2)
+ 2247:154(f16vec2) Load 156(f16c2)
2248: 52(float) Load 215(compare)
- 2249: 7(fvec4) ImageDrefGather 2246 2247 2248
- 2250: 7(fvec4) Load 2184(texel)
- 2251: 7(fvec4) FAdd 2250 2249
+ 2249: 7(f16vec4) ImageDrefGather 2246 2247 2248
+ 2250: 7(f16vec4) Load 2184(texel)
+ 2251: 7(f16vec4) FAdd 2250 2249
Store 2184(texel) 2251
2252: 337 Load 339(s2DArrayShadow)
2253: 167(fvec3) Load 169(c3)
2254: 52(float) Load 215(compare)
- 2255: 7(fvec4) ImageDrefGather 2252 2253 2254
- 2256: 7(fvec4) Load 2184(texel)
- 2257: 7(fvec4) FAdd 2256 2255
+ 2255: 7(f16vec4) ImageDrefGather 2252 2253 2254
+ 2256: 7(f16vec4) Load 2184(texel)
+ 2257: 7(f16vec4) FAdd 2256 2255
Store 2184(texel) 2257
2258: 337 Load 339(s2DArrayShadow)
- 2259: 175(fvec3) Load 177(f16c3)
+ 2259:175(f16vec3) Load 177(f16c3)
2260: 52(float) Load 215(compare)
- 2261: 7(fvec4) ImageDrefGather 2258 2259 2260
- 2262: 7(fvec4) Load 2184(texel)
- 2263: 7(fvec4) FAdd 2262 2261
+ 2261: 7(f16vec4) ImageDrefGather 2258 2259 2260
+ 2262: 7(f16vec4) Load 2184(texel)
+ 2263: 7(f16vec4) FAdd 2262 2261
Store 2184(texel) 2263
2264: 245 Load 247(sCubeShadow)
2265: 167(fvec3) Load 169(c3)
2266: 52(float) Load 215(compare)
- 2267: 7(fvec4) ImageDrefGather 2264 2265 2266
- 2268: 7(fvec4) Load 2184(texel)
- 2269: 7(fvec4) FAdd 2268 2267
+ 2267: 7(f16vec4) ImageDrefGather 2264 2265 2266
+ 2268: 7(f16vec4) Load 2184(texel)
+ 2269: 7(f16vec4) FAdd 2268 2267
Store 2184(texel) 2269
2270: 245 Load 247(sCubeShadow)
- 2271: 175(fvec3) Load 177(f16c3)
+ 2271:175(f16vec3) Load 177(f16c3)
2272: 52(float) Load 215(compare)
- 2273: 7(fvec4) ImageDrefGather 2270 2271 2272
- 2274: 7(fvec4) Load 2184(texel)
- 2275: 7(fvec4) FAdd 2274 2273
+ 2273: 7(f16vec4) ImageDrefGather 2270 2271 2272
+ 2274: 7(f16vec4) Load 2184(texel)
+ 2275: 7(f16vec4) FAdd 2274 2273
Store 2184(texel) 2275
2276: 391 Load 393(sCubeArrayShadow)
2277: 249(fvec4) Load 251(c4)
2278: 52(float) Load 215(compare)
- 2279: 7(fvec4) ImageDrefGather 2276 2277 2278
- 2280: 7(fvec4) Load 2184(texel)
- 2281: 7(fvec4) FAdd 2280 2279
+ 2279: 7(f16vec4) ImageDrefGather 2276 2277 2278
+ 2280: 7(f16vec4) Load 2184(texel)
+ 2281: 7(f16vec4) FAdd 2280 2279
Store 2184(texel) 2281
2282: 391 Load 393(sCubeArrayShadow)
- 2283: 7(fvec4) Load 309(f16c4)
+ 2283: 7(f16vec4) Load 309(f16c4)
2284: 52(float) Load 215(compare)
- 2285: 7(fvec4) ImageDrefGather 2282 2283 2284
- 2286: 7(fvec4) Load 2184(texel)
- 2287: 7(fvec4) FAdd 2286 2285
+ 2285: 7(f16vec4) ImageDrefGather 2282 2283 2284
+ 2286: 7(f16vec4) Load 2184(texel)
+ 2287: 7(f16vec4) FAdd 2286 2285
Store 2184(texel) 2287
2288: 371 Load 373(s2DRectShadow)
2289: 53(fvec2) Load 148(c2)
2290: 52(float) Load 215(compare)
- 2291: 7(fvec4) ImageDrefGather 2288 2289 2290
- 2292: 7(fvec4) Load 2184(texel)
- 2293: 7(fvec4) FAdd 2292 2291
+ 2291: 7(f16vec4) ImageDrefGather 2288 2289 2290
+ 2292: 7(f16vec4) Load 2184(texel)
+ 2293: 7(f16vec4) FAdd 2292 2291
Store 2184(texel) 2293
2294: 371 Load 373(s2DRectShadow)
- 2295: 154(fvec2) Load 156(f16c2)
+ 2295:154(f16vec2) Load 156(f16c2)
2296: 52(float) Load 215(compare)
- 2297: 7(fvec4) ImageDrefGather 2294 2295 2296
- 2298: 7(fvec4) Load 2184(texel)
- 2299: 7(fvec4) FAdd 2298 2297
+ 2297: 7(f16vec4) ImageDrefGather 2294 2295 2296
+ 2298: 7(f16vec4) Load 2184(texel)
+ 2299: 7(f16vec4) FAdd 2298 2297
Store 2184(texel) 2299
- 2300: 7(fvec4) Load 2184(texel)
+ 2300: 7(f16vec4) Load 2184(texel)
ReturnValue 2300
FunctionEnd
-37(testTextureGatherOffset(): 7(fvec4) Function None 8
+37(testTextureGatherOffset(): 7(f16vec4) Function None 8
38: Label
2303(texel): 64(ptr) Variable Function
Store 2303(texel) 121
2304: 143 Load 145(s2D)
2305: 53(fvec2) Load 148(c2)
- 2306: 7(fvec4) ImageGather 2304 2305 2187 ConstOffset 722
- 2307: 7(fvec4) Load 2303(texel)
- 2308: 7(fvec4) FAdd 2307 2306
+ 2306: 7(f16vec4) ImageGather 2304 2305 2187 ConstOffset 722
+ 2307: 7(f16vec4) Load 2303(texel)
+ 2308: 7(f16vec4) FAdd 2307 2306
Store 2303(texel) 2308
2309: 143 Load 145(s2D)
- 2310: 154(fvec2) Load 156(f16c2)
- 2311: 6(float) Load 137(f16bias)
- 2312: 7(fvec4) ImageGather 2309 2310 2187 Bias ConstOffset 2311 722
- 2313: 7(fvec4) Load 2303(texel)
- 2314: 7(fvec4) FAdd 2313 2312
+ 2310:154(f16vec2) Load 156(f16c2)
+ 2311:6(float16_t) Load 137(f16bias)
+ 2312: 7(f16vec4) ImageGather 2309 2310 2187 Bias ConstOffset 2311 722
+ 2313: 7(f16vec4) Load 2303(texel)
+ 2314: 7(f16vec4) FAdd 2313 2312
Store 2303(texel) 2314
2315: 284 Load 286(s2DArray)
2316: 167(fvec3) Load 169(c3)
- 2317: 7(fvec4) ImageGather 2315 2316 2187 ConstOffset 722
- 2318: 7(fvec4) Load 2303(texel)
- 2319: 7(fvec4) FAdd 2318 2317
+ 2317: 7(f16vec4) ImageGather 2315 2316 2187 ConstOffset 722
+ 2318: 7(f16vec4) Load 2303(texel)
+ 2319: 7(f16vec4) FAdd 2318 2317
Store 2303(texel) 2319
2320: 284 Load 286(s2DArray)
- 2321: 175(fvec3) Load 177(f16c3)
- 2322: 6(float) Load 137(f16bias)
- 2323: 7(fvec4) ImageGather 2320 2321 2187 Bias ConstOffset 2322 722
- 2324: 7(fvec4) Load 2303(texel)
- 2325: 7(fvec4) FAdd 2324 2323
+ 2321:175(f16vec3) Load 177(f16c3)
+ 2322:6(float16_t) Load 137(f16bias)
+ 2323: 7(f16vec4) ImageGather 2320 2321 2187 Bias ConstOffset 2322 722
+ 2324: 7(f16vec4) Load 2303(texel)
+ 2325: 7(f16vec4) FAdd 2324 2323
Store 2303(texel) 2325
2326: 357 Load 359(s2DRect)
2327: 53(fvec2) Load 148(c2)
- 2328: 7(fvec4) ImageGather 2326 2327 2187 ConstOffset 722
- 2329: 7(fvec4) Load 2303(texel)
- 2330: 7(fvec4) FAdd 2329 2328
+ 2328: 7(f16vec4) ImageGather 2326 2327 2187 ConstOffset 722
+ 2329: 7(f16vec4) Load 2303(texel)
+ 2330: 7(f16vec4) FAdd 2329 2328
Store 2303(texel) 2330
2331: 357 Load 359(s2DRect)
- 2332: 154(fvec2) Load 156(f16c2)
- 2333: 7(fvec4) ImageGather 2331 2332 2187 ConstOffset 722
- 2334: 7(fvec4) Load 2303(texel)
- 2335: 7(fvec4) FAdd 2334 2333
+ 2332:154(f16vec2) Load 156(f16c2)
+ 2333: 7(f16vec4) ImageGather 2331 2332 2187 ConstOffset 722
+ 2334: 7(f16vec4) Load 2303(texel)
+ 2335: 7(f16vec4) FAdd 2334 2333
Store 2303(texel) 2335
2336: 224 Load 226(s2DShadow)
2337: 53(fvec2) Load 148(c2)
2338: 52(float) Load 215(compare)
- 2339: 7(fvec4) ImageDrefGather 2336 2337 2338 ConstOffset 722
- 2340: 7(fvec4) Load 2303(texel)
- 2341: 7(fvec4) FAdd 2340 2339
+ 2339: 7(f16vec4) ImageDrefGather 2336 2337 2338 ConstOffset 722
+ 2340: 7(f16vec4) Load 2303(texel)
+ 2341: 7(f16vec4) FAdd 2340 2339
Store 2303(texel) 2341
2342: 224 Load 226(s2DShadow)
- 2343: 154(fvec2) Load 156(f16c2)
+ 2343:154(f16vec2) Load 156(f16c2)
2344: 52(float) Load 215(compare)
- 2345: 7(fvec4) ImageDrefGather 2342 2343 2344 ConstOffset 722
- 2346: 7(fvec4) Load 2303(texel)
- 2347: 7(fvec4) FAdd 2346 2345
+ 2345: 7(f16vec4) ImageDrefGather 2342 2343 2344 ConstOffset 722
+ 2346: 7(f16vec4) Load 2303(texel)
+ 2347: 7(f16vec4) FAdd 2346 2345
Store 2303(texel) 2347
2348: 337 Load 339(s2DArrayShadow)
2349: 167(fvec3) Load 169(c3)
2350: 52(float) Load 215(compare)
- 2351: 7(fvec4) ImageDrefGather 2348 2349 2350 ConstOffset 722
- 2352: 7(fvec4) Load 2303(texel)
- 2353: 7(fvec4) FAdd 2352 2351
+ 2351: 7(f16vec4) ImageDrefGather 2348 2349 2350 ConstOffset 722
+ 2352: 7(f16vec4) Load 2303(texel)
+ 2353: 7(f16vec4) FAdd 2352 2351
Store 2303(texel) 2353
2354: 337 Load 339(s2DArrayShadow)
- 2355: 175(fvec3) Load 177(f16c3)
+ 2355:175(f16vec3) Load 177(f16c3)
2356: 52(float) Load 215(compare)
- 2357: 7(fvec4) ImageDrefGather 2354 2355 2356 ConstOffset 722
- 2358: 7(fvec4) Load 2303(texel)
- 2359: 7(fvec4) FAdd 2358 2357
+ 2357: 7(f16vec4) ImageDrefGather 2354 2355 2356 ConstOffset 722
+ 2358: 7(f16vec4) Load 2303(texel)
+ 2359: 7(f16vec4) FAdd 2358 2357
Store 2303(texel) 2359
2360: 371 Load 373(s2DRectShadow)
2361: 53(fvec2) Load 148(c2)
2362: 52(float) Load 215(compare)
- 2363: 7(fvec4) ImageDrefGather 2360 2361 2362 ConstOffset 722
- 2364: 7(fvec4) Load 2303(texel)
- 2365: 7(fvec4) FAdd 2364 2363
+ 2363: 7(f16vec4) ImageDrefGather 2360 2361 2362 ConstOffset 722
+ 2364: 7(f16vec4) Load 2303(texel)
+ 2365: 7(f16vec4) FAdd 2364 2363
Store 2303(texel) 2365
2366: 371 Load 373(s2DRectShadow)
- 2367: 154(fvec2) Load 156(f16c2)
+ 2367:154(f16vec2) Load 156(f16c2)
2368: 52(float) Load 215(compare)
- 2369: 7(fvec4) ImageDrefGather 2366 2367 2368 ConstOffset 722
- 2370: 7(fvec4) Load 2303(texel)
- 2371: 7(fvec4) FAdd 2370 2369
+ 2369: 7(f16vec4) ImageDrefGather 2366 2367 2368 ConstOffset 722
+ 2370: 7(f16vec4) Load 2303(texel)
+ 2371: 7(f16vec4) FAdd 2370 2369
Store 2303(texel) 2371
- 2372: 7(fvec4) Load 2303(texel)
+ 2372: 7(f16vec4) Load 2303(texel)
ReturnValue 2372
FunctionEnd
-39(testTextureGatherOffsets(): 7(fvec4) Function None 8
+39(testTextureGatherOffsets(): 7(f16vec4) Function None 8
40: Label
2375(texel): 64(ptr) Variable Function
Store 2375(texel) 121
2376: 143 Load 145(s2D)
2377: 53(fvec2) Load 148(c2)
- 2381: 7(fvec4) ImageGather 2376 2377 2187 ConstOffsets 2380
- 2382: 7(fvec4) Load 2375(texel)
- 2383: 7(fvec4) FAdd 2382 2381
+ 2381: 7(f16vec4) ImageGather 2376 2377 2187 ConstOffsets 2380
+ 2382: 7(f16vec4) Load 2375(texel)
+ 2383: 7(f16vec4) FAdd 2382 2381
Store 2375(texel) 2383
2384: 143 Load 145(s2D)
- 2385: 154(fvec2) Load 156(f16c2)
- 2386: 6(float) Load 137(f16bias)
- 2387: 7(fvec4) ImageGather 2384 2385 2187 Bias ConstOffsets 2386 2380
- 2388: 7(fvec4) Load 2375(texel)
- 2389: 7(fvec4) FAdd 2388 2387
+ 2385:154(f16vec2) Load 156(f16c2)
+ 2386:6(float16_t) Load 137(f16bias)
+ 2387: 7(f16vec4) ImageGather 2384 2385 2187 Bias ConstOffsets 2386 2380
+ 2388: 7(f16vec4) Load 2375(texel)
+ 2389: 7(f16vec4) FAdd 2388 2387
Store 2375(texel) 2389
2390: 284 Load 286(s2DArray)
2391: 167(fvec3) Load 169(c3)
- 2392: 7(fvec4) ImageGather 2390 2391 2187 ConstOffsets 2380
- 2393: 7(fvec4) Load 2375(texel)
- 2394: 7(fvec4) FAdd 2393 2392
+ 2392: 7(f16vec4) ImageGather 2390 2391 2187 ConstOffsets 2380
+ 2393: 7(f16vec4) Load 2375(texel)
+ 2394: 7(f16vec4) FAdd 2393 2392
Store 2375(texel) 2394
2395: 284 Load 286(s2DArray)
- 2396: 175(fvec3) Load 177(f16c3)
- 2397: 6(float) Load 137(f16bias)
- 2398: 7(fvec4) ImageGather 2395 2396 2187 Bias ConstOffsets 2397 2380
- 2399: 7(fvec4) Load 2375(texel)
- 2400: 7(fvec4) FAdd 2399 2398
+ 2396:175(f16vec3) Load 177(f16c3)
+ 2397:6(float16_t) Load 137(f16bias)
+ 2398: 7(f16vec4) ImageGather 2395 2396 2187 Bias ConstOffsets 2397 2380
+ 2399: 7(f16vec4) Load 2375(texel)
+ 2400: 7(f16vec4) FAdd 2399 2398
Store 2375(texel) 2400
2401: 357 Load 359(s2DRect)
2402: 53(fvec2) Load 148(c2)
- 2403: 7(fvec4) ImageGather 2401 2402 2187 ConstOffsets 2380
- 2404: 7(fvec4) Load 2375(texel)
- 2405: 7(fvec4) FAdd 2404 2403
+ 2403: 7(f16vec4) ImageGather 2401 2402 2187 ConstOffsets 2380
+ 2404: 7(f16vec4) Load 2375(texel)
+ 2405: 7(f16vec4) FAdd 2404 2403
Store 2375(texel) 2405
2406: 357 Load 359(s2DRect)
- 2407: 154(fvec2) Load 156(f16c2)
- 2408: 7(fvec4) ImageGather 2406 2407 2187 ConstOffsets 2380
- 2409: 7(fvec4) Load 2375(texel)
- 2410: 7(fvec4) FAdd 2409 2408
+ 2407:154(f16vec2) Load 156(f16c2)
+ 2408: 7(f16vec4) ImageGather 2406 2407 2187 ConstOffsets 2380
+ 2409: 7(f16vec4) Load 2375(texel)
+ 2410: 7(f16vec4) FAdd 2409 2408
Store 2375(texel) 2410
2411: 224 Load 226(s2DShadow)
2412: 53(fvec2) Load 148(c2)
2413: 52(float) Load 215(compare)
- 2414: 7(fvec4) ImageDrefGather 2411 2412 2413 ConstOffsets 2380
- 2415: 7(fvec4) Load 2375(texel)
- 2416: 7(fvec4) FAdd 2415 2414
+ 2414: 7(f16vec4) ImageDrefGather 2411 2412 2413 ConstOffsets 2380
+ 2415: 7(f16vec4) Load 2375(texel)
+ 2416: 7(f16vec4) FAdd 2415 2414
Store 2375(texel) 2416
2417: 224 Load 226(s2DShadow)
- 2418: 154(fvec2) Load 156(f16c2)
+ 2418:154(f16vec2) Load 156(f16c2)
2419: 52(float) Load 215(compare)
- 2420: 7(fvec4) ImageDrefGather 2417 2418 2419 ConstOffsets 2380
- 2421: 7(fvec4) Load 2375(texel)
- 2422: 7(fvec4) FAdd 2421 2420
+ 2420: 7(f16vec4) ImageDrefGather 2417 2418 2419 ConstOffsets 2380
+ 2421: 7(f16vec4) Load 2375(texel)
+ 2422: 7(f16vec4) FAdd 2421 2420
Store 2375(texel) 2422
2423: 337 Load 339(s2DArrayShadow)
2424: 167(fvec3) Load 169(c3)
2425: 52(float) Load 215(compare)
- 2426: 7(fvec4) ImageDrefGather 2423 2424 2425 ConstOffsets 2380
- 2427: 7(fvec4) Load 2375(texel)
- 2428: 7(fvec4) FAdd 2427 2426
+ 2426: 7(f16vec4) ImageDrefGather 2423 2424 2425 ConstOffsets 2380
+ 2427: 7(f16vec4) Load 2375(texel)
+ 2428: 7(f16vec4) FAdd 2427 2426
Store 2375(texel) 2428
2429: 337 Load 339(s2DArrayShadow)
- 2430: 175(fvec3) Load 177(f16c3)
+ 2430:175(f16vec3) Load 177(f16c3)
2431: 52(float) Load 215(compare)
- 2432: 7(fvec4) ImageDrefGather 2429 2430 2431 ConstOffsets 2380
- 2433: 7(fvec4) Load 2375(texel)
- 2434: 7(fvec4) FAdd 2433 2432
+ 2432: 7(f16vec4) ImageDrefGather 2429 2430 2431 ConstOffsets 2380
+ 2433: 7(f16vec4) Load 2375(texel)
+ 2434: 7(f16vec4) FAdd 2433 2432
Store 2375(texel) 2434
2435: 371 Load 373(s2DRectShadow)
2436: 53(fvec2) Load 148(c2)
2437: 52(float) Load 215(compare)
- 2438: 7(fvec4) ImageDrefGather 2435 2436 2437 ConstOffsets 2380
- 2439: 7(fvec4) Load 2375(texel)
- 2440: 7(fvec4) FAdd 2439 2438
+ 2438: 7(f16vec4) ImageDrefGather 2435 2436 2437 ConstOffsets 2380
+ 2439: 7(f16vec4) Load 2375(texel)
+ 2440: 7(f16vec4) FAdd 2439 2438
Store 2375(texel) 2440
2441: 371 Load 373(s2DRectShadow)
- 2442: 154(fvec2) Load 156(f16c2)
+ 2442:154(f16vec2) Load 156(f16c2)
2443: 52(float) Load 215(compare)
- 2444: 7(fvec4) ImageDrefGather 2441 2442 2443 ConstOffsets 2380
- 2445: 7(fvec4) Load 2375(texel)
- 2446: 7(fvec4) FAdd 2445 2444
+ 2444: 7(f16vec4) ImageDrefGather 2441 2442 2443 ConstOffsets 2380
+ 2445: 7(f16vec4) Load 2375(texel)
+ 2446: 7(f16vec4) FAdd 2445 2444
Store 2375(texel) 2446
- 2447: 7(fvec4) Load 2375(texel)
+ 2447: 7(f16vec4) Load 2375(texel)
ReturnValue 2447
FunctionEnd
-41(testTextureGatherLod(): 7(fvec4) Function None 8
+41(testTextureGatherLod(): 7(f16vec4) Function None 8
42: Label
2450(texel): 64(ptr) Variable Function
Store 2450(texel) 121
2451: 143 Load 145(s2D)
2452: 53(fvec2) Load 148(c2)
2453: 52(float) Load 565(lod)
- 2454: 7(fvec4) ImageGather 2451 2452 2187 Lod 2453
- 2455: 7(fvec4) Load 2450(texel)
- 2456: 7(fvec4) FAdd 2455 2454
+ 2454: 7(f16vec4) ImageGather 2451 2452 2187 Lod 2453
+ 2455: 7(f16vec4) Load 2450(texel)
+ 2456: 7(f16vec4) FAdd 2455 2454
Store 2450(texel) 2456
2457: 143 Load 145(s2D)
- 2458: 154(fvec2) Load 156(f16c2)
- 2459: 6(float) Load 572(f16lod)
- 2460: 7(fvec4) ImageGather 2457 2458 2187 Lod 2459
- 2461: 7(fvec4) Load 2450(texel)
- 2462: 7(fvec4) FAdd 2461 2460
+ 2458:154(f16vec2) Load 156(f16c2)
+ 2459:6(float16_t) Load 572(f16lod)
+ 2460: 7(f16vec4) ImageGather 2457 2458 2187 Lod 2459
+ 2461: 7(f16vec4) Load 2450(texel)
+ 2462: 7(f16vec4) FAdd 2461 2460
Store 2450(texel) 2462
2463: 284 Load 286(s2DArray)
2464: 167(fvec3) Load 169(c3)
2465: 52(float) Load 565(lod)
- 2466: 7(fvec4) ImageGather 2463 2464 2187 Lod 2465
- 2467: 7(fvec4) Load 2450(texel)
- 2468: 7(fvec4) FAdd 2467 2466
+ 2466: 7(f16vec4) ImageGather 2463 2464 2187 Lod 2465
+ 2467: 7(f16vec4) Load 2450(texel)
+ 2468: 7(f16vec4) FAdd 2467 2466
Store 2450(texel) 2468
2469: 284 Load 286(s2DArray)
- 2470: 175(fvec3) Load 177(f16c3)
- 2471: 6(float) Load 572(f16lod)
- 2472: 7(fvec4) ImageGather 2469 2470 2187 Lod 2471
- 2473: 7(fvec4) Load 2450(texel)
- 2474: 7(fvec4) FAdd 2473 2472
+ 2470:175(f16vec3) Load 177(f16c3)
+ 2471:6(float16_t) Load 572(f16lod)
+ 2472: 7(f16vec4) ImageGather 2469 2470 2187 Lod 2471
+ 2473: 7(f16vec4) Load 2450(texel)
+ 2474: 7(f16vec4) FAdd 2473 2472
Store 2450(texel) 2474
2475: 184 Load 186(sCube)
2476: 167(fvec3) Load 169(c3)
2477: 52(float) Load 565(lod)
- 2478: 7(fvec4) ImageGather 2475 2476 2187 Lod 2477
- 2479: 7(fvec4) Load 2450(texel)
- 2480: 7(fvec4) FAdd 2479 2478
+ 2478: 7(f16vec4) ImageGather 2475 2476 2187 Lod 2477
+ 2479: 7(f16vec4) Load 2450(texel)
+ 2480: 7(f16vec4) FAdd 2479 2478
Store 2450(texel) 2480
2481: 184 Load 186(sCube)
- 2482: 175(fvec3) Load 177(f16c3)
- 2483: 6(float) Load 572(f16lod)
- 2484: 7(fvec4) ImageGather 2481 2482 2187 Lod 2483
- 2485: 7(fvec4) Load 2450(texel)
- 2486: 7(fvec4) FAdd 2485 2484
+ 2482:175(f16vec3) Load 177(f16c3)
+ 2483:6(float16_t) Load 572(f16lod)
+ 2484: 7(f16vec4) ImageGather 2481 2482 2187 Lod 2483
+ 2485: 7(f16vec4) Load 2450(texel)
+ 2486: 7(f16vec4) FAdd 2485 2484
Store 2450(texel) 2486
2487: 299 Load 301(sCubeArray)
2488: 249(fvec4) Load 251(c4)
2489: 52(float) Load 565(lod)
- 2490: 7(fvec4) ImageGather 2487 2488 2187 Lod 2489
- 2491: 7(fvec4) Load 2450(texel)
- 2492: 7(fvec4) FAdd 2491 2490
+ 2490: 7(f16vec4) ImageGather 2487 2488 2187 Lod 2489
+ 2491: 7(f16vec4) Load 2450(texel)
+ 2492: 7(f16vec4) FAdd 2491 2490
Store 2450(texel) 2492
2493: 299 Load 301(sCubeArray)
- 2494: 7(fvec4) Load 309(f16c4)
- 2495: 6(float) Load 572(f16lod)
- 2496: 7(fvec4) ImageGather 2493 2494 2187 Lod 2495
- 2497: 7(fvec4) Load 2450(texel)
- 2498: 7(fvec4) FAdd 2497 2496
+ 2494: 7(f16vec4) Load 309(f16c4)
+ 2495:6(float16_t) Load 572(f16lod)
+ 2496: 7(f16vec4) ImageGather 2493 2494 2187 Lod 2495
+ 2497: 7(f16vec4) Load 2450(texel)
+ 2498: 7(f16vec4) FAdd 2497 2496
Store 2450(texel) 2498
- 2499: 7(fvec4) Load 2450(texel)
+ 2499: 7(f16vec4) Load 2450(texel)
ReturnValue 2499
FunctionEnd
-43(testTextureGatherLodOffset(): 7(fvec4) Function None 8
+43(testTextureGatherLodOffset(): 7(f16vec4) Function None 8
44: Label
2502(texel): 64(ptr) Variable Function
Store 2502(texel) 121
2503: 143 Load 145(s2D)
2504: 53(fvec2) Load 148(c2)
2505: 52(float) Load 565(lod)
- 2506: 7(fvec4) ImageGather 2503 2504 2187 Lod ConstOffset 2505 722
- 2507: 7(fvec4) Load 2502(texel)
- 2508: 7(fvec4) FAdd 2507 2506
+ 2506: 7(f16vec4) ImageGather 2503 2504 2187 Lod ConstOffset 2505 722
+ 2507: 7(f16vec4) Load 2502(texel)
+ 2508: 7(f16vec4) FAdd 2507 2506
Store 2502(texel) 2508
2509: 143 Load 145(s2D)
- 2510: 154(fvec2) Load 156(f16c2)
- 2511: 6(float) Load 572(f16lod)
- 2512: 7(fvec4) ImageGather 2509 2510 2187 Lod ConstOffset 2511 722
- 2513: 7(fvec4) Load 2502(texel)
- 2514: 7(fvec4) FAdd 2513 2512
+ 2510:154(f16vec2) Load 156(f16c2)
+ 2511:6(float16_t) Load 572(f16lod)
+ 2512: 7(f16vec4) ImageGather 2509 2510 2187 Lod ConstOffset 2511 722
+ 2513: 7(f16vec4) Load 2502(texel)
+ 2514: 7(f16vec4) FAdd 2513 2512
Store 2502(texel) 2514
2515: 284 Load 286(s2DArray)
2516: 167(fvec3) Load 169(c3)
2517: 52(float) Load 565(lod)
- 2518: 7(fvec4) ImageGather 2515 2516 2187 Lod ConstOffset 2517 722
- 2519: 7(fvec4) Load 2502(texel)
- 2520: 7(fvec4) FAdd 2519 2518
+ 2518: 7(f16vec4) ImageGather 2515 2516 2187 Lod ConstOffset 2517 722
+ 2519: 7(f16vec4) Load 2502(texel)
+ 2520: 7(f16vec4) FAdd 2519 2518
Store 2502(texel) 2520
2521: 284 Load 286(s2DArray)
- 2522: 175(fvec3) Load 177(f16c3)
- 2523: 6(float) Load 572(f16lod)
- 2524: 7(fvec4) ImageGather 2521 2522 2187 Lod ConstOffset 2523 722
- 2525: 7(fvec4) Load 2502(texel)
- 2526: 7(fvec4) FAdd 2525 2524
+ 2522:175(f16vec3) Load 177(f16c3)
+ 2523:6(float16_t) Load 572(f16lod)
+ 2524: 7(f16vec4) ImageGather 2521 2522 2187 Lod ConstOffset 2523 722
+ 2525: 7(f16vec4) Load 2502(texel)
+ 2526: 7(f16vec4) FAdd 2525 2524
Store 2502(texel) 2526
- 2527: 7(fvec4) Load 2502(texel)
+ 2527: 7(f16vec4) Load 2502(texel)
ReturnValue 2527
FunctionEnd
-45(testTextureGatherLodOffsets(): 7(fvec4) Function None 8
+45(testTextureGatherLodOffsets(): 7(f16vec4) Function None 8
46: Label
2530(texel): 64(ptr) Variable Function
Store 2530(texel) 121
2531: 143 Load 145(s2D)
2532: 53(fvec2) Load 148(c2)
2533: 52(float) Load 565(lod)
- 2534: 7(fvec4) ImageGather 2531 2532 2187 Lod ConstOffsets 2533 2380
- 2535: 7(fvec4) Load 2530(texel)
- 2536: 7(fvec4) FAdd 2535 2534
+ 2534: 7(f16vec4) ImageGather 2531 2532 2187 Lod ConstOffsets 2533 2380
+ 2535: 7(f16vec4) Load 2530(texel)
+ 2536: 7(f16vec4) FAdd 2535 2534
Store 2530(texel) 2536
2537: 143 Load 145(s2D)
- 2538: 154(fvec2) Load 156(f16c2)
- 2539: 6(float) Load 572(f16lod)
- 2540: 7(fvec4) ImageGather 2537 2538 2187 Lod ConstOffsets 2539 2380
- 2541: 7(fvec4) Load 2530(texel)
- 2542: 7(fvec4) FAdd 2541 2540
+ 2538:154(f16vec2) Load 156(f16c2)
+ 2539:6(float16_t) Load 572(f16lod)
+ 2540: 7(f16vec4) ImageGather 2537 2538 2187 Lod ConstOffsets 2539 2380
+ 2541: 7(f16vec4) Load 2530(texel)
+ 2542: 7(f16vec4) FAdd 2541 2540
Store 2530(texel) 2542
2543: 284 Load 286(s2DArray)
2544: 167(fvec3) Load 169(c3)
2545: 52(float) Load 565(lod)
- 2546: 7(fvec4) ImageGather 2543 2544 2187 Lod ConstOffsets 2545 2380
- 2547: 7(fvec4) Load 2530(texel)
- 2548: 7(fvec4) FAdd 2547 2546
+ 2546: 7(f16vec4) ImageGather 2543 2544 2187 Lod ConstOffsets 2545 2380
+ 2547: 7(f16vec4) Load 2530(texel)
+ 2548: 7(f16vec4) FAdd 2547 2546
Store 2530(texel) 2548
2549: 284 Load 286(s2DArray)
- 2550: 175(fvec3) Load 177(f16c3)
- 2551: 6(float) Load 572(f16lod)
- 2552: 7(fvec4) ImageGather 2549 2550 2187 Lod ConstOffsets 2551 2380
- 2553: 7(fvec4) Load 2530(texel)
- 2554: 7(fvec4) FAdd 2553 2552
+ 2550:175(f16vec3) Load 177(f16c3)
+ 2551:6(float16_t) Load 572(f16lod)
+ 2552: 7(f16vec4) ImageGather 2549 2550 2187 Lod ConstOffsets 2551 2380
+ 2553: 7(f16vec4) Load 2530(texel)
+ 2554: 7(f16vec4) FAdd 2553 2552
Store 2530(texel) 2554
- 2555: 7(fvec4) Load 2530(texel)
+ 2555: 7(f16vec4) Load 2530(texel)
ReturnValue 2555
FunctionEnd
50(testTextureSize(): 48(ivec4) Function None 49
@@ -3633,8 +3633,8 @@ spv.float16Fetch.frag
2740: 53(fvec2) FAdd 2739 2738
Store 2733(lod) 2740
2741: 123 Load 125(s1D)
- 2742: 6(float) Load 135(f16c1)
- 2743: 154(fvec2) ImageQueryLod 2741 2742
+ 2742:6(float16_t) Load 135(f16c1)
+ 2743:154(f16vec2) ImageQueryLod 2741 2742
2744: 53(fvec2) Load 2733(lod)
2745: 53(fvec2) FAdd 2744 2743
Store 2733(lod) 2745
@@ -3645,8 +3645,8 @@ spv.float16Fetch.frag
2750: 53(fvec2) FAdd 2749 2748
Store 2733(lod) 2750
2751: 143 Load 145(s2D)
- 2752: 154(fvec2) Load 156(f16c2)
- 2753: 154(fvec2) ImageQueryLod 2751 2752
+ 2752:154(f16vec2) Load 156(f16c2)
+ 2753:154(f16vec2) ImageQueryLod 2751 2752
2754: 53(fvec2) Load 2733(lod)
2755: 53(fvec2) FAdd 2754 2753
Store 2733(lod) 2755
@@ -3657,8 +3657,8 @@ spv.float16Fetch.frag
2760: 53(fvec2) FAdd 2759 2758
Store 2733(lod) 2760
2761: 163 Load 165(s3D)
- 2762: 175(fvec3) Load 177(f16c3)
- 2763: 154(fvec2) ImageQueryLod 2761 2762
+ 2762:175(f16vec3) Load 177(f16c3)
+ 2763:154(f16vec2) ImageQueryLod 2761 2762
2764: 53(fvec2) Load 2733(lod)
2765: 53(fvec2) FAdd 2764 2763
Store 2733(lod) 2765
@@ -3669,8 +3669,8 @@ spv.float16Fetch.frag
2770: 53(fvec2) FAdd 2769 2768
Store 2733(lod) 2770
2771: 184 Load 186(sCube)
- 2772: 175(fvec3) Load 177(f16c3)
- 2773: 154(fvec2) ImageQueryLod 2771 2772
+ 2772:175(f16vec3) Load 177(f16c3)
+ 2773:154(f16vec2) ImageQueryLod 2771 2772
2774: 53(fvec2) Load 2733(lod)
2775: 53(fvec2) FAdd 2774 2773
Store 2733(lod) 2775
@@ -3681,8 +3681,8 @@ spv.float16Fetch.frag
2780: 53(fvec2) FAdd 2779 2778
Store 2733(lod) 2780
2781: 269 Load 271(s1DArray)
- 2782: 6(float) Load 135(f16c1)
- 2783: 154(fvec2) ImageQueryLod 2781 2782
+ 2782:6(float16_t) Load 135(f16c1)
+ 2783:154(f16vec2) ImageQueryLod 2781 2782
2784: 53(fvec2) Load 2733(lod)
2785: 53(fvec2) FAdd 2784 2783
Store 2733(lod) 2785
@@ -3693,8 +3693,8 @@ spv.float16Fetch.frag
2790: 53(fvec2) FAdd 2789 2788
Store 2733(lod) 2790
2791: 284 Load 286(s2DArray)
- 2792: 154(fvec2) Load 156(f16c2)
- 2793: 154(fvec2) ImageQueryLod 2791 2792
+ 2792:154(f16vec2) Load 156(f16c2)
+ 2793:154(f16vec2) ImageQueryLod 2791 2792
2794: 53(fvec2) Load 2733(lod)
2795: 53(fvec2) FAdd 2794 2793
Store 2733(lod) 2795
@@ -3705,8 +3705,8 @@ spv.float16Fetch.frag
2800: 53(fvec2) FAdd 2799 2798
Store 2733(lod) 2800
2801: 299 Load 301(sCubeArray)
- 2802: 175(fvec3) Load 177(f16c3)
- 2803: 154(fvec2) ImageQueryLod 2801 2802
+ 2802:175(f16vec3) Load 177(f16c3)
+ 2803:154(f16vec2) ImageQueryLod 2801 2802
2804: 53(fvec2) Load 2733(lod)
2805: 53(fvec2) FAdd 2804 2803
Store 2733(lod) 2805
@@ -3717,8 +3717,8 @@ spv.float16Fetch.frag
2810: 53(fvec2) FAdd 2809 2808
Store 2733(lod) 2810
2811: 199 Load 201(s1DShadow)
- 2812: 6(float) Load 135(f16c1)
- 2813: 154(fvec2) ImageQueryLod 2811 2812
+ 2812:6(float16_t) Load 135(f16c1)
+ 2813:154(f16vec2) ImageQueryLod 2811 2812
2814: 53(fvec2) Load 2733(lod)
2815: 53(fvec2) FAdd 2814 2813
Store 2733(lod) 2815
@@ -3729,8 +3729,8 @@ spv.float16Fetch.frag
2820: 53(fvec2) FAdd 2819 2818
Store 2733(lod) 2820
2821: 224 Load 226(s2DShadow)
- 2822: 154(fvec2) Load 156(f16c2)
- 2823: 154(fvec2) ImageQueryLod 2821 2822
+ 2822:154(f16vec2) Load 156(f16c2)
+ 2823:154(f16vec2) ImageQueryLod 2821 2822
2824: 53(fvec2) Load 2733(lod)
2825: 53(fvec2) FAdd 2824 2823
Store 2733(lod) 2825
@@ -3741,8 +3741,8 @@ spv.float16Fetch.frag
2830: 53(fvec2) FAdd 2829 2828
Store 2733(lod) 2830
2831: 391 Load 393(sCubeArrayShadow)
- 2832: 175(fvec3) Load 177(f16c3)
- 2833: 154(fvec2) ImageQueryLod 2831 2832
+ 2832:175(f16vec3) Load 177(f16c3)
+ 2833:154(f16vec2) ImageQueryLod 2831 2832
2834: 53(fvec2) Load 2733(lod)
2835: 53(fvec2) FAdd 2834 2833
Store 2733(lod) 2835
@@ -3753,8 +3753,8 @@ spv.float16Fetch.frag
2840: 53(fvec2) FAdd 2839 2838
Store 2733(lod) 2840
2841: 316 Load 318(s1DArrayShadow)
- 2842: 6(float) Load 135(f16c1)
- 2843: 154(fvec2) ImageQueryLod 2841 2842
+ 2842:6(float16_t) Load 135(f16c1)
+ 2843:154(f16vec2) ImageQueryLod 2841 2842
2844: 53(fvec2) Load 2733(lod)
2845: 53(fvec2) FAdd 2844 2843
Store 2733(lod) 2845
@@ -3765,8 +3765,8 @@ spv.float16Fetch.frag
2850: 53(fvec2) FAdd 2849 2848
Store 2733(lod) 2850
2851: 337 Load 339(s2DArrayShadow)
- 2852: 154(fvec2) Load 156(f16c2)
- 2853: 154(fvec2) ImageQueryLod 2851 2852
+ 2852:154(f16vec2) Load 156(f16c2)
+ 2853:154(f16vec2) ImageQueryLod 2851 2852
2854: 53(fvec2) Load 2733(lod)
2855: 53(fvec2) FAdd 2854 2853
Store 2733(lod) 2855
@@ -3777,8 +3777,8 @@ spv.float16Fetch.frag
2860: 53(fvec2) FAdd 2859 2858
Store 2733(lod) 2860
2861: 391 Load 393(sCubeArrayShadow)
- 2862: 175(fvec3) Load 177(f16c3)
- 2863: 154(fvec2) ImageQueryLod 2861 2862
+ 2862:175(f16vec3) Load 177(f16c3)
+ 2863:154(f16vec2) ImageQueryLod 2861 2862
2864: 53(fvec2) Load 2733(lod)
2865: 53(fvec2) FAdd 2864 2863
Store 2733(lod) 2865
@@ -3889,88 +3889,88 @@ spv.float16Fetch.frag
2949: 47(int) Load 2938(samples)
ReturnValue 2949
FunctionEnd
-62(testImageLoad(): 7(fvec4) Function None 8
+62(testImageLoad(): 7(f16vec4) Function None 8
63: Label
2952(texel): 64(ptr) Variable Function
Store 2952(texel) 121
2956: 2953 Load 2955(i1D)
2957: 52(float) Load 128(c1)
2958: 47(int) ConvertFToS 2957
- 2959: 7(fvec4) ImageRead 2956 2958
- 2960: 7(fvec4) Load 2952(texel)
- 2961: 7(fvec4) FAdd 2960 2959
+ 2959: 7(f16vec4) ImageRead 2956 2958
+ 2960: 7(f16vec4) Load 2952(texel)
+ 2961: 7(f16vec4) FAdd 2960 2959
Store 2952(texel) 2961
2965: 2962 Load 2964(i2D)
2966: 53(fvec2) Load 148(c2)
2967: 721(ivec2) ConvertFToS 2966
- 2968: 7(fvec4) ImageRead 2965 2967
- 2969: 7(fvec4) Load 2952(texel)
- 2970: 7(fvec4) FAdd 2969 2968
+ 2968: 7(f16vec4) ImageRead 2965 2967
+ 2969: 7(f16vec4) Load 2952(texel)
+ 2970: 7(f16vec4) FAdd 2969 2968
Store 2952(texel) 2970
2974: 2971 Load 2973(i3D)
2975: 167(fvec3) Load 169(c3)
2976: 734(ivec3) ConvertFToS 2975
- 2977: 7(fvec4) ImageRead 2974 2976
- 2978: 7(fvec4) Load 2952(texel)
- 2979: 7(fvec4) FAdd 2978 2977
+ 2977: 7(f16vec4) ImageRead 2974 2976
+ 2978: 7(f16vec4) Load 2952(texel)
+ 2979: 7(f16vec4) FAdd 2978 2977
Store 2952(texel) 2979
2983: 2980 Load 2982(i2DRect)
2984: 53(fvec2) Load 148(c2)
2985: 721(ivec2) ConvertFToS 2984
- 2986: 7(fvec4) ImageRead 2983 2985
- 2987: 7(fvec4) Load 2952(texel)
- 2988: 7(fvec4) FAdd 2987 2986
+ 2986: 7(f16vec4) ImageRead 2983 2985
+ 2987: 7(f16vec4) Load 2952(texel)
+ 2988: 7(f16vec4) FAdd 2987 2986
Store 2952(texel) 2988
2992: 2989 Load 2991(iCube)
2993: 167(fvec3) Load 169(c3)
2994: 734(ivec3) ConvertFToS 2993
- 2995: 7(fvec4) ImageRead 2992 2994
- 2996: 7(fvec4) Load 2952(texel)
- 2997: 7(fvec4) FAdd 2996 2995
+ 2995: 7(f16vec4) ImageRead 2992 2994
+ 2996: 7(f16vec4) Load 2952(texel)
+ 2997: 7(f16vec4) FAdd 2996 2995
Store 2952(texel) 2997
3001: 2998 Load 3000(iBuffer)
3002: 52(float) Load 128(c1)
3003: 47(int) ConvertFToS 3002
- 3004: 7(fvec4) ImageRead 3001 3003
- 3005: 7(fvec4) Load 2952(texel)
- 3006: 7(fvec4) FAdd 3005 3004
+ 3004: 7(f16vec4) ImageRead 3001 3003
+ 3005: 7(f16vec4) Load 2952(texel)
+ 3006: 7(f16vec4) FAdd 3005 3004
Store 2952(texel) 3006
3010: 3007 Load 3009(i1DArray)
3011: 53(fvec2) Load 148(c2)
3012: 721(ivec2) ConvertFToS 3011
- 3013: 7(fvec4) ImageRead 3010 3012
- 3014: 7(fvec4) Load 2952(texel)
- 3015: 7(fvec4) FAdd 3014 3013
+ 3013: 7(f16vec4) ImageRead 3010 3012
+ 3014: 7(f16vec4) Load 2952(texel)
+ 3015: 7(f16vec4) FAdd 3014 3013
Store 2952(texel) 3015
3019: 3016 Load 3018(i2DArray)
3020: 167(fvec3) Load 169(c3)
3021: 734(ivec3) ConvertFToS 3020
- 3022: 7(fvec4) ImageRead 3019 3021
- 3023: 7(fvec4) Load 2952(texel)
- 3024: 7(fvec4) FAdd 3023 3022
+ 3022: 7(f16vec4) ImageRead 3019 3021
+ 3023: 7(f16vec4) Load 2952(texel)
+ 3024: 7(f16vec4) FAdd 3023 3022
Store 2952(texel) 3024
3028: 3025 Load 3027(iCubeArray)
3029: 167(fvec3) Load 169(c3)
3030: 734(ivec3) ConvertFToS 3029
- 3031: 7(fvec4) ImageRead 3028 3030
- 3032: 7(fvec4) Load 2952(texel)
- 3033: 7(fvec4) FAdd 3032 3031
+ 3031: 7(f16vec4) ImageRead 3028 3030
+ 3032: 7(f16vec4) Load 2952(texel)
+ 3033: 7(f16vec4) FAdd 3032 3031
Store 2952(texel) 3033
3037: 3034 Load 3036(i2DMS)
3038: 53(fvec2) Load 148(c2)
3039: 721(ivec2) ConvertFToS 3038
- 3040: 7(fvec4) ImageRead 3037 3039 Sample 709
- 3041: 7(fvec4) Load 2952(texel)
- 3042: 7(fvec4) FAdd 3041 3040
+ 3040: 7(f16vec4) ImageRead 3037 3039 Sample 709
+ 3041: 7(f16vec4) Load 2952(texel)
+ 3042: 7(f16vec4) FAdd 3041 3040
Store 2952(texel) 3042
3046: 3043 Load 3045(i2DMSArray)
3047: 167(fvec3) Load 169(c3)
3048: 734(ivec3) ConvertFToS 3047
- 3049: 7(fvec4) ImageRead 3046 3048 Sample 709
- 3050: 7(fvec4) Load 2952(texel)
- 3051: 7(fvec4) FAdd 3050 3049
+ 3049: 7(f16vec4) ImageRead 3046 3048 Sample 709
+ 3050: 7(f16vec4) Load 2952(texel)
+ 3051: 7(f16vec4) FAdd 3050 3049
Store 2952(texel) 3051
- 3052: 7(fvec4) Load 2952(texel)
+ 3052: 7(f16vec4) Load 2952(texel)
ReturnValue 3052
FunctionEnd
67(testImageStore(vf164;): 2 Function None 65
@@ -3979,101 +3979,101 @@ spv.float16Fetch.frag
3055: 2953 Load 2955(i1D)
3056: 52(float) Load 128(c1)
3057: 47(int) ConvertFToS 3056
- 3058: 7(fvec4) Load 66(data)
+ 3058: 7(f16vec4) Load 66(data)
ImageWrite 3055 3057 3058
3059: 2962 Load 2964(i2D)
3060: 53(fvec2) Load 148(c2)
3061: 721(ivec2) ConvertFToS 3060
- 3062: 7(fvec4) Load 66(data)
+ 3062: 7(f16vec4) Load 66(data)
ImageWrite 3059 3061 3062
3063: 2971 Load 2973(i3D)
3064: 167(fvec3) Load 169(c3)
3065: 734(ivec3) ConvertFToS 3064
- 3066: 7(fvec4) Load 66(data)
+ 3066: 7(f16vec4) Load 66(data)
ImageWrite 3063 3065 3066
3067: 2980 Load 2982(i2DRect)
3068: 53(fvec2) Load 148(c2)
3069: 721(ivec2) ConvertFToS 3068
- 3070: 7(fvec4) Load 66(data)
+ 3070: 7(f16vec4) Load 66(data)
ImageWrite 3067 3069 3070
3071: 2989 Load 2991(iCube)
3072: 167(fvec3) Load 169(c3)
3073: 734(ivec3) ConvertFToS 3072
- 3074: 7(fvec4) Load 66(data)
+ 3074: 7(f16vec4) Load 66(data)
ImageWrite 3071 3073 3074
3075: 2998 Load 3000(iBuffer)
3076: 52(float) Load 128(c1)
3077: 47(int) ConvertFToS 3076
- 3078: 7(fvec4) Load 66(data)
+ 3078: 7(f16vec4) Load 66(data)
ImageWrite 3075 3077 3078
3079: 3007 Load 3009(i1DArray)
3080: 53(fvec2) Load 148(c2)
3081: 721(ivec2) ConvertFToS 3080
- 3082: 7(fvec4) Load 66(data)
+ 3082: 7(f16vec4) Load 66(data)
ImageWrite 3079 3081 3082
3083: 3016 Load 3018(i2DArray)
3084: 167(fvec3) Load 169(c3)
3085: 734(ivec3) ConvertFToS 3084
- 3086: 7(fvec4) Load 66(data)
+ 3086: 7(f16vec4) Load 66(data)
ImageWrite 3083 3085 3086
3087: 3025 Load 3027(iCubeArray)
3088: 167(fvec3) Load 169(c3)
3089: 734(ivec3) ConvertFToS 3088
- 3090: 7(fvec4) Load 66(data)
+ 3090: 7(f16vec4) Load 66(data)
ImageWrite 3087 3089 3090
3091: 3034 Load 3036(i2DMS)
3092: 53(fvec2) Load 148(c2)
3093: 721(ivec2) ConvertFToS 3092
- 3094: 7(fvec4) Load 66(data)
+ 3094: 7(f16vec4) Load 66(data)
ImageWrite 3091 3093 3094 Sample 709
3095: 3043 Load 3045(i2DMSArray)
3096: 167(fvec3) Load 169(c3)
3097: 734(ivec3) ConvertFToS 3096
- 3098: 7(fvec4) Load 66(data)
+ 3098: 7(f16vec4) Load 66(data)
ImageWrite 3095 3097 3098 Sample 709
Return
FunctionEnd
-69(testSparseTexture(): 7(fvec4) Function None 8
+69(testSparseTexture(): 7(f16vec4) Function None 8
70: Label
3099(texel): 64(ptr) Variable Function
Store 3099(texel) 121
3100: 143 Load 145(s2D)
3101: 53(fvec2) Load 148(c2)
3103:3102(ResType) ImageSparseSampleImplicitLod 3100 3101
- 3104: 7(fvec4) CompositeExtract 3103 1
+ 3104: 7(f16vec4) CompositeExtract 3103 1
Store 3099(texel) 3104
3105: 47(int) CompositeExtract 3103 0
3106: 143 Load 145(s2D)
- 3107: 154(fvec2) Load 156(f16c2)
- 3108: 6(float) Load 137(f16bias)
+ 3107:154(f16vec2) Load 156(f16c2)
+ 3108:6(float16_t) Load 137(f16bias)
3109:3102(ResType) ImageSparseSampleImplicitLod 3106 3107 Bias 3108
- 3110: 7(fvec4) CompositeExtract 3109 1
+ 3110: 7(f16vec4) CompositeExtract 3109 1
Store 3099(texel) 3110
3111: 47(int) CompositeExtract 3109 0
3112: 163 Load 165(s3D)
3113: 167(fvec3) Load 169(c3)
3114:3102(ResType) ImageSparseSampleImplicitLod 3112 3113
- 3115: 7(fvec4) CompositeExtract 3114 1
+ 3115: 7(f16vec4) CompositeExtract 3114 1
Store 3099(texel) 3115
3116: 47(int) CompositeExtract 3114 0
3117: 163 Load 165(s3D)
- 3118: 175(fvec3) Load 177(f16c3)
- 3119: 6(float) Load 137(f16bias)
+ 3118:175(f16vec3) Load 177(f16c3)
+ 3119:6(float16_t) Load 137(f16bias)
3120:3102(ResType) ImageSparseSampleImplicitLod 3117 3118 Bias 3119
- 3121: 7(fvec4) CompositeExtract 3120 1
+ 3121: 7(f16vec4) CompositeExtract 3120 1
Store 3099(texel) 3121
3122: 47(int) CompositeExtract 3120 0
3123: 184 Load 186(sCube)
3124: 167(fvec3) Load 169(c3)
3125:3102(ResType) ImageSparseSampleImplicitLod 3123 3124
- 3126: 7(fvec4) CompositeExtract 3125 1
+ 3126: 7(f16vec4) CompositeExtract 3125 1
Store 3099(texel) 3126
3127: 47(int) CompositeExtract 3125 0
3128: 184 Load 186(sCube)
- 3129: 175(fvec3) Load 177(f16c3)
- 3130: 6(float) Load 137(f16bias)
+ 3129:175(f16vec3) Load 177(f16c3)
+ 3130:6(float16_t) Load 137(f16bias)
3131:3102(ResType) ImageSparseSampleImplicitLod 3128 3129 Bias 3130
- 3132: 7(fvec4) CompositeExtract 3131 1
+ 3132: 7(f16vec4) CompositeExtract 3131 1
Store 3099(texel) 3132
3133: 47(int) CompositeExtract 3131 0
3134: 224 Load 226(s2DShadow)
@@ -4081,16 +4081,16 @@ spv.float16Fetch.frag
3136: 208(ptr) AccessChain 3099(texel) 207
3137: 52(float) CompositeExtract 3135 2
3139:3138(ResType) ImageSparseSampleDrefImplicitLod 3134 3135 3137
- 3140: 6(float) CompositeExtract 3139 1
+ 3140:6(float16_t) CompositeExtract 3139 1
Store 3136 3140
3141: 47(int) CompositeExtract 3139 0
3142: 224 Load 226(s2DShadow)
- 3143: 154(fvec2) Load 156(f16c2)
+ 3143:154(f16vec2) Load 156(f16c2)
3144: 52(float) Load 215(compare)
3145: 208(ptr) AccessChain 3099(texel) 207
- 3146: 6(float) Load 137(f16bias)
+ 3146:6(float16_t) Load 137(f16bias)
3147:3138(ResType) ImageSparseSampleDrefImplicitLod 3142 3143 3144 Bias 3146
- 3148: 6(float) CompositeExtract 3147 1
+ 3148:6(float16_t) CompositeExtract 3147 1
Store 3145 3148
3149: 47(int) CompositeExtract 3147 0
3150: 245 Load 247(sCubeShadow)
@@ -4098,42 +4098,42 @@ spv.float16Fetch.frag
3152: 208(ptr) AccessChain 3099(texel) 207
3153: 52(float) CompositeExtract 3151 3
3154:3138(ResType) ImageSparseSampleDrefImplicitLod 3150 3151 3153
- 3155: 6(float) CompositeExtract 3154 1
+ 3155:6(float16_t) CompositeExtract 3154 1
Store 3152 3155
3156: 47(int) CompositeExtract 3154 0
3157: 245 Load 247(sCubeShadow)
- 3158: 175(fvec3) Load 177(f16c3)
+ 3158:175(f16vec3) Load 177(f16c3)
3159: 52(float) Load 215(compare)
3160: 208(ptr) AccessChain 3099(texel) 207
- 3161: 6(float) Load 137(f16bias)
+ 3161:6(float16_t) Load 137(f16bias)
3162:3138(ResType) ImageSparseSampleDrefImplicitLod 3157 3158 3159 Bias 3161
- 3163: 6(float) CompositeExtract 3162 1
+ 3163:6(float16_t) CompositeExtract 3162 1
Store 3160 3163
3164: 47(int) CompositeExtract 3162 0
3165: 284 Load 286(s2DArray)
3166: 167(fvec3) Load 169(c3)
3167:3102(ResType) ImageSparseSampleImplicitLod 3165 3166
- 3168: 7(fvec4) CompositeExtract 3167 1
+ 3168: 7(f16vec4) CompositeExtract 3167 1
Store 3099(texel) 3168
3169: 47(int) CompositeExtract 3167 0
3170: 284 Load 286(s2DArray)
- 3171: 175(fvec3) Load 177(f16c3)
- 3172: 6(float) Load 137(f16bias)
+ 3171:175(f16vec3) Load 177(f16c3)
+ 3172:6(float16_t) Load 137(f16bias)
3173:3102(ResType) ImageSparseSampleImplicitLod 3170 3171 Bias 3172
- 3174: 7(fvec4) CompositeExtract 3173 1
+ 3174: 7(f16vec4) CompositeExtract 3173 1
Store 3099(texel) 3174
3175: 47(int) CompositeExtract 3173 0
3176: 299 Load 301(sCubeArray)
3177: 249(fvec4) Load 251(c4)
3178:3102(ResType) ImageSparseSampleImplicitLod 3176 3177
- 3179: 7(fvec4) CompositeExtract 3178 1
+ 3179: 7(f16vec4) CompositeExtract 3178 1
Store 3099(texel) 3179
3180: 47(int) CompositeExtract 3178 0
3181: 299 Load 301(sCubeArray)
- 3182: 7(fvec4) Load 309(f16c4)
- 3183: 6(float) Load 137(f16bias)
+ 3182: 7(f16vec4) Load 309(f16c4)
+ 3183:6(float16_t) Load 137(f16bias)
3184:3102(ResType) ImageSparseSampleImplicitLod 3181 3182 Bias 3183
- 3185: 7(fvec4) CompositeExtract 3184 1
+ 3185: 7(f16vec4) CompositeExtract 3184 1
Store 3099(texel) 3185
3186: 47(int) CompositeExtract 3184 0
3187: 337 Load 339(s2DArrayShadow)
@@ -4141,27 +4141,27 @@ spv.float16Fetch.frag
3189: 208(ptr) AccessChain 3099(texel) 207
3190: 52(float) CompositeExtract 3188 3
3191:3138(ResType) ImageSparseSampleDrefImplicitLod 3187 3188 3190
- 3192: 6(float) CompositeExtract 3191 1
+ 3192:6(float16_t) CompositeExtract 3191 1
Store 3189 3192
3193: 47(int) CompositeExtract 3191 0
3194: 337 Load 339(s2DArrayShadow)
- 3195: 175(fvec3) Load 177(f16c3)
+ 3195:175(f16vec3) Load 177(f16c3)
3196: 52(float) Load 215(compare)
3197: 208(ptr) AccessChain 3099(texel) 207
3198:3138(ResType) ImageSparseSampleDrefImplicitLod 3194 3195 3196
- 3199: 6(float) CompositeExtract 3198 1
+ 3199:6(float16_t) CompositeExtract 3198 1
Store 3197 3199
3200: 47(int) CompositeExtract 3198 0
3201: 357 Load 359(s2DRect)
3202: 53(fvec2) Load 148(c2)
3203:3102(ResType) ImageSparseSampleImplicitLod 3201 3202
- 3204: 7(fvec4) CompositeExtract 3203 1
+ 3204: 7(f16vec4) CompositeExtract 3203 1
Store 3099(texel) 3204
3205: 47(int) CompositeExtract 3203 0
3206: 357 Load 359(s2DRect)
- 3207: 154(fvec2) Load 156(f16c2)
+ 3207:154(f16vec2) Load 156(f16c2)
3208:3102(ResType) ImageSparseSampleImplicitLod 3206 3207
- 3209: 7(fvec4) CompositeExtract 3208 1
+ 3209: 7(f16vec4) CompositeExtract 3208 1
Store 3099(texel) 3209
3210: 47(int) CompositeExtract 3208 0
3211: 371 Load 373(s2DRectShadow)
@@ -4169,15 +4169,15 @@ spv.float16Fetch.frag
3213: 208(ptr) AccessChain 3099(texel) 207
3214: 52(float) CompositeExtract 3212 2
3215:3138(ResType) ImageSparseSampleDrefImplicitLod 3211 3212 3214
- 3216: 6(float) CompositeExtract 3215 1
+ 3216:6(float16_t) CompositeExtract 3215 1
Store 3213 3216
3217: 47(int) CompositeExtract 3215 0
3218: 371 Load 373(s2DRectShadow)
- 3219: 154(fvec2) Load 156(f16c2)
+ 3219:154(f16vec2) Load 156(f16c2)
3220: 52(float) Load 215(compare)
3221: 208(ptr) AccessChain 3099(texel) 207
3222:3138(ResType) ImageSparseSampleDrefImplicitLod 3218 3219 3220
- 3223: 6(float) CompositeExtract 3222 1
+ 3223:6(float16_t) CompositeExtract 3222 1
Store 3221 3223
3224: 47(int) CompositeExtract 3222 0
3225: 391 Load 393(sCubeArrayShadow)
@@ -4185,21 +4185,21 @@ spv.float16Fetch.frag
3227: 52(float) Load 215(compare)
3228: 208(ptr) AccessChain 3099(texel) 207
3229:3138(ResType) ImageSparseSampleDrefImplicitLod 3225 3226 3227
- 3230: 6(float) CompositeExtract 3229 1
+ 3230:6(float16_t) CompositeExtract 3229 1
Store 3228 3230
3231: 47(int) CompositeExtract 3229 0
3232: 391 Load 393(sCubeArrayShadow)
- 3233: 7(fvec4) Load 309(f16c4)
+ 3233: 7(f16vec4) Load 309(f16c4)
3234: 52(float) Load 215(compare)
3235: 208(ptr) AccessChain 3099(texel) 207
3236:3138(ResType) ImageSparseSampleDrefImplicitLod 3232 3233 3234
- 3237: 6(float) CompositeExtract 3236 1
+ 3237:6(float16_t) CompositeExtract 3236 1
Store 3235 3237
3238: 47(int) CompositeExtract 3236 0
- 3239: 7(fvec4) Load 3099(texel)
+ 3239: 7(f16vec4) Load 3099(texel)
ReturnValue 3239
FunctionEnd
-71(testSparseTextureLod(): 7(fvec4) Function None 8
+71(testSparseTextureLod(): 7(f16vec4) Function None 8
72: Label
3242(texel): 64(ptr) Variable Function
Store 3242(texel) 121
@@ -4207,42 +4207,42 @@ spv.float16Fetch.frag
3244: 53(fvec2) Load 148(c2)
3245: 52(float) Load 565(lod)
3246:3102(ResType) ImageSparseSampleExplicitLod 3243 3244 Lod 3245
- 3247: 7(fvec4) CompositeExtract 3246 1
+ 3247: 7(f16vec4) CompositeExtract 3246 1
Store 3242(texel) 3247
3248: 47(int) CompositeExtract 3246 0
3249: 143 Load 145(s2D)
- 3250: 154(fvec2) Load 156(f16c2)
- 3251: 6(float) Load 572(f16lod)
+ 3250:154(f16vec2) Load 156(f16c2)
+ 3251:6(float16_t) Load 572(f16lod)
3252:3102(ResType) ImageSparseSampleExplicitLod 3249 3250 Lod 3251
- 3253: 7(fvec4) CompositeExtract 3252 1
+ 3253: 7(f16vec4) CompositeExtract 3252 1
Store 3242(texel) 3253
3254: 47(int) CompositeExtract 3252 0
3255: 163 Load 165(s3D)
3256: 167(fvec3) Load 169(c3)
3257: 52(float) Load 565(lod)
3258:3102(ResType) ImageSparseSampleExplicitLod 3255 3256 Lod 3257
- 3259: 7(fvec4) CompositeExtract 3258 1
+ 3259: 7(f16vec4) CompositeExtract 3258 1
Store 3242(texel) 3259
3260: 47(int) CompositeExtract 3258 0
3261: 163 Load 165(s3D)
- 3262: 175(fvec3) Load 177(f16c3)
- 3263: 6(float) Load 572(f16lod)
+ 3262:175(f16vec3) Load 177(f16c3)
+ 3263:6(float16_t) Load 572(f16lod)
3264:3102(ResType) ImageSparseSampleExplicitLod 3261 3262 Lod 3263
- 3265: 7(fvec4) CompositeExtract 3264 1
+ 3265: 7(f16vec4) CompositeExtract 3264 1
Store 3242(texel) 3265
3266: 47(int) CompositeExtract 3264 0
3267: 184 Load 186(sCube)
3268: 167(fvec3) Load 169(c3)
3269: 52(float) Load 565(lod)
3270:3102(ResType) ImageSparseSampleExplicitLod 3267 3268 Lod 3269
- 3271: 7(fvec4) CompositeExtract 3270 1
+ 3271: 7(f16vec4) CompositeExtract 3270 1
Store 3242(texel) 3271
3272: 47(int) CompositeExtract 3270 0
3273: 184 Load 186(sCube)
- 3274: 175(fvec3) Load 177(f16c3)
- 3275: 6(float) Load 572(f16lod)
+ 3274:175(f16vec3) Load 177(f16c3)
+ 3275:6(float16_t) Load 572(f16lod)
3276:3102(ResType) ImageSparseSampleExplicitLod 3273 3274 Lod 3275
- 3277: 7(fvec4) CompositeExtract 3276 1
+ 3277: 7(f16vec4) CompositeExtract 3276 1
Store 3242(texel) 3277
3278: 47(int) CompositeExtract 3276 0
3279: 224 Load 226(s2DShadow)
@@ -4251,89 +4251,89 @@ spv.float16Fetch.frag
3282: 208(ptr) AccessChain 3242(texel) 207
3283: 52(float) CompositeExtract 3280 2
3284:3138(ResType) ImageSparseSampleDrefExplicitLod 3279 3280 3283 Lod 3281
- 3285: 6(float) CompositeExtract 3284 1
+ 3285:6(float16_t) CompositeExtract 3284 1
Store 3282 3285
3286: 47(int) CompositeExtract 3284 0
3287: 224 Load 226(s2DShadow)
- 3288: 154(fvec2) Load 156(f16c2)
+ 3288:154(f16vec2) Load 156(f16c2)
3289: 52(float) Load 215(compare)
- 3290: 6(float) Load 572(f16lod)
+ 3290:6(float16_t) Load 572(f16lod)
3291: 208(ptr) AccessChain 3242(texel) 207
3292:3138(ResType) ImageSparseSampleDrefExplicitLod 3287 3288 3289 Lod 3290
- 3293: 6(float) CompositeExtract 3292 1
+ 3293:6(float16_t) CompositeExtract 3292 1
Store 3291 3293
3294: 47(int) CompositeExtract 3292 0
3295: 284 Load 286(s2DArray)
3296: 167(fvec3) Load 169(c3)
3297: 52(float) Load 565(lod)
3298:3102(ResType) ImageSparseSampleExplicitLod 3295 3296 Lod 3297
- 3299: 7(fvec4) CompositeExtract 3298 1
+ 3299: 7(f16vec4) CompositeExtract 3298 1
Store 3242(texel) 3299
3300: 47(int) CompositeExtract 3298 0
3301: 284 Load 286(s2DArray)
- 3302: 175(fvec3) Load 177(f16c3)
- 3303: 6(float) Load 572(f16lod)
+ 3302:175(f16vec3) Load 177(f16c3)
+ 3303:6(float16_t) Load 572(f16lod)
3304:3102(ResType) ImageSparseSampleExplicitLod 3301 3302 Lod 3303
- 3305: 7(fvec4) CompositeExtract 3304 1
+ 3305: 7(f16vec4) CompositeExtract 3304 1
Store 3242(texel) 3305
3306: 47(int) CompositeExtract 3304 0
3307: 299 Load 301(sCubeArray)
3308: 249(fvec4) Load 251(c4)
3309: 52(float) Load 565(lod)
3310:3102(ResType) ImageSparseSampleExplicitLod 3307 3308 Lod 3309
- 3311: 7(fvec4) CompositeExtract 3310 1
+ 3311: 7(f16vec4) CompositeExtract 3310 1
Store 3242(texel) 3311
3312: 47(int) CompositeExtract 3310 0
3313: 299 Load 301(sCubeArray)
- 3314: 7(fvec4) Load 309(f16c4)
- 3315: 6(float) Load 572(f16lod)
+ 3314: 7(f16vec4) Load 309(f16c4)
+ 3315:6(float16_t) Load 572(f16lod)
3316:3102(ResType) ImageSparseSampleExplicitLod 3313 3314 Lod 3315
- 3317: 7(fvec4) CompositeExtract 3316 1
+ 3317: 7(f16vec4) CompositeExtract 3316 1
Store 3242(texel) 3317
3318: 47(int) CompositeExtract 3316 0
- 3319: 7(fvec4) Load 3242(texel)
+ 3319: 7(f16vec4) Load 3242(texel)
ReturnValue 3319
FunctionEnd
-73(testSparseTextureOffset(): 7(fvec4) Function None 8
+73(testSparseTextureOffset(): 7(f16vec4) Function None 8
74: Label
3322(texel): 64(ptr) Variable Function
Store 3322(texel) 121
3323: 143 Load 145(s2D)
3324: 53(fvec2) Load 148(c2)
3325:3102(ResType) ImageSparseSampleImplicitLod 3323 3324 ConstOffset 722
- 3326: 7(fvec4) CompositeExtract 3325 1
+ 3326: 7(f16vec4) CompositeExtract 3325 1
Store 3322(texel) 3326
3327: 47(int) CompositeExtract 3325 0
3328: 143 Load 145(s2D)
- 3329: 154(fvec2) Load 156(f16c2)
- 3330: 6(float) Load 137(f16bias)
+ 3329:154(f16vec2) Load 156(f16c2)
+ 3330:6(float16_t) Load 137(f16bias)
3331:3102(ResType) ImageSparseSampleImplicitLod 3328 3329 Bias ConstOffset 3330 722
- 3332: 7(fvec4) CompositeExtract 3331 1
+ 3332: 7(f16vec4) CompositeExtract 3331 1
Store 3322(texel) 3332
3333: 47(int) CompositeExtract 3331 0
3334: 163 Load 165(s3D)
3335: 167(fvec3) Load 169(c3)
3336:3102(ResType) ImageSparseSampleImplicitLod 3334 3335 ConstOffset 735
- 3337: 7(fvec4) CompositeExtract 3336 1
+ 3337: 7(f16vec4) CompositeExtract 3336 1
Store 3322(texel) 3337
3338: 47(int) CompositeExtract 3336 0
3339: 163 Load 165(s3D)
- 3340: 175(fvec3) Load 177(f16c3)
- 3341: 6(float) Load 137(f16bias)
+ 3340:175(f16vec3) Load 177(f16c3)
+ 3341:6(float16_t) Load 137(f16bias)
3342:3102(ResType) ImageSparseSampleImplicitLod 3339 3340 Bias ConstOffset 3341 735
- 3343: 7(fvec4) CompositeExtract 3342 1
+ 3343: 7(f16vec4) CompositeExtract 3342 1
Store 3322(texel) 3343
3344: 47(int) CompositeExtract 3342 0
3345: 357 Load 359(s2DRect)
3346: 53(fvec2) Load 148(c2)
3347:3102(ResType) ImageSparseSampleImplicitLod 3345 3346 ConstOffset 722
- 3348: 7(fvec4) CompositeExtract 3347 1
+ 3348: 7(f16vec4) CompositeExtract 3347 1
Store 3322(texel) 3348
3349: 47(int) CompositeExtract 3347 0
3350: 357 Load 359(s2DRect)
- 3351: 154(fvec2) Load 156(f16c2)
+ 3351:154(f16vec2) Load 156(f16c2)
3352:3102(ResType) ImageSparseSampleImplicitLod 3350 3351 ConstOffset 722
- 3353: 7(fvec4) CompositeExtract 3352 1
+ 3353: 7(f16vec4) CompositeExtract 3352 1
Store 3322(texel) 3353
3354: 47(int) CompositeExtract 3352 0
3355: 371 Load 373(s2DRectShadow)
@@ -4341,15 +4341,15 @@ spv.float16Fetch.frag
3357: 208(ptr) AccessChain 3322(texel) 207
3358: 52(float) CompositeExtract 3356 2
3359:3138(ResType) ImageSparseSampleDrefImplicitLod 3355 3356 3358 ConstOffset 722
- 3360: 6(float) CompositeExtract 3359 1
+ 3360:6(float16_t) CompositeExtract 3359 1
Store 3357 3360
3361: 47(int) CompositeExtract 3359 0
3362: 371 Load 373(s2DRectShadow)
- 3363: 154(fvec2) Load 156(f16c2)
+ 3363:154(f16vec2) Load 156(f16c2)
3364: 52(float) Load 215(compare)
3365: 208(ptr) AccessChain 3322(texel) 207
3366:3138(ResType) ImageSparseSampleDrefImplicitLod 3362 3363 3364 ConstOffset 722
- 3367: 6(float) CompositeExtract 3366 1
+ 3367:6(float16_t) CompositeExtract 3366 1
Store 3365 3367
3368: 47(int) CompositeExtract 3366 0
3369: 224 Load 226(s2DShadow)
@@ -4357,29 +4357,29 @@ spv.float16Fetch.frag
3371: 208(ptr) AccessChain 3322(texel) 207
3372: 52(float) CompositeExtract 3370 2
3373:3138(ResType) ImageSparseSampleDrefImplicitLod 3369 3370 3372 ConstOffset 722
- 3374: 6(float) CompositeExtract 3373 1
+ 3374:6(float16_t) CompositeExtract 3373 1
Store 3371 3374
3375: 47(int) CompositeExtract 3373 0
3376: 224 Load 226(s2DShadow)
- 3377: 154(fvec2) Load 156(f16c2)
+ 3377:154(f16vec2) Load 156(f16c2)
3378: 52(float) Load 215(compare)
3379: 208(ptr) AccessChain 3322(texel) 207
- 3380: 6(float) Load 137(f16bias)
+ 3380:6(float16_t) Load 137(f16bias)
3381:3138(ResType) ImageSparseSampleDrefImplicitLod 3376 3377 3378 Bias ConstOffset 3380 722
- 3382: 6(float) CompositeExtract 3381 1
+ 3382:6(float16_t) CompositeExtract 3381 1
Store 3379 3382
3383: 47(int) CompositeExtract 3381 0
3384: 284 Load 286(s2DArray)
3385: 167(fvec3) Load 169(c3)
3386:3102(ResType) ImageSparseSampleImplicitLod 3384 3385 ConstOffset 722
- 3387: 7(fvec4) CompositeExtract 3386 1
+ 3387: 7(f16vec4) CompositeExtract 3386 1
Store 3322(texel) 3387
3388: 47(int) CompositeExtract 3386 0
3389: 284 Load 286(s2DArray)
- 3390: 175(fvec3) Load 177(f16c3)
- 3391: 6(float) Load 137(f16bias)
+ 3390:175(f16vec3) Load 177(f16c3)
+ 3391:6(float16_t) Load 137(f16bias)
3392:3102(ResType) ImageSparseSampleImplicitLod 3389 3390 Bias ConstOffset 3391 722
- 3393: 7(fvec4) CompositeExtract 3392 1
+ 3393: 7(f16vec4) CompositeExtract 3392 1
Store 3322(texel) 3393
3394: 47(int) CompositeExtract 3392 0
3395: 337 Load 339(s2DArrayShadow)
@@ -4387,21 +4387,21 @@ spv.float16Fetch.frag
3397: 208(ptr) AccessChain 3322(texel) 207
3398: 52(float) CompositeExtract 3396 3
3399:3138(ResType) ImageSparseSampleDrefImplicitLod 3395 3396 3398 ConstOffset 722
- 3400: 6(float) CompositeExtract 3399 1
+ 3400:6(float16_t) CompositeExtract 3399 1
Store 3397 3400
3401: 47(int) CompositeExtract 3399 0
3402: 337 Load 339(s2DArrayShadow)
- 3403: 175(fvec3) Load 177(f16c3)
+ 3403:175(f16vec3) Load 177(f16c3)
3404: 52(float) Load 215(compare)
3405: 208(ptr) AccessChain 3322(texel) 207
3406:3138(ResType) ImageSparseSampleDrefImplicitLod 3402 3403 3404 ConstOffset 722
- 3407: 6(float) CompositeExtract 3406 1
+ 3407:6(float16_t) CompositeExtract 3406 1
Store 3405 3407
3408: 47(int) CompositeExtract 3406 0
- 3409: 7(fvec4) Load 3322(texel)
+ 3409: 7(f16vec4) Load 3322(texel)
ReturnValue 3409
FunctionEnd
-75(testSparseTextureLodOffset(): 7(fvec4) Function None 8
+75(testSparseTextureLodOffset(): 7(f16vec4) Function None 8
76: Label
3412(texel): 64(ptr) Variable Function
Store 3412(texel) 121
@@ -4409,28 +4409,28 @@ spv.float16Fetch.frag
3414: 53(fvec2) Load 148(c2)
3415: 52(float) Load 565(lod)
3416:3102(ResType) ImageSparseSampleExplicitLod 3413 3414 Lod ConstOffset 3415 722
- 3417: 7(fvec4) CompositeExtract 3416 1
+ 3417: 7(f16vec4) CompositeExtract 3416 1
Store 3412(texel) 3417
3418: 47(int) CompositeExtract 3416 0
3419: 143 Load 145(s2D)
- 3420: 154(fvec2) Load 156(f16c2)
- 3421: 6(float) Load 572(f16lod)
+ 3420:154(f16vec2) Load 156(f16c2)
+ 3421:6(float16_t) Load 572(f16lod)
3422:3102(ResType) ImageSparseSampleExplicitLod 3419 3420 Lod ConstOffset 3421 722
- 3423: 7(fvec4) CompositeExtract 3422 1
+ 3423: 7(f16vec4) CompositeExtract 3422 1
Store 3412(texel) 3423
3424: 47(int) CompositeExtract 3422 0
3425: 163 Load 165(s3D)
3426: 167(fvec3) Load 169(c3)
3427: 52(float) Load 565(lod)
3428:3102(ResType) ImageSparseSampleExplicitLod 3425 3426 Lod ConstOffset 3427 735
- 3429: 7(fvec4) CompositeExtract 3428 1
+ 3429: 7(f16vec4) CompositeExtract 3428 1
Store 3412(texel) 3429
3430: 47(int) CompositeExtract 3428 0
3431: 163 Load 165(s3D)
- 3432: 175(fvec3) Load 177(f16c3)
- 3433: 6(float) Load 572(f16lod)
+ 3432:175(f16vec3) Load 177(f16c3)
+ 3433:6(float16_t) Load 572(f16lod)
3434:3102(ResType) ImageSparseSampleExplicitLod 3431 3432 Lod ConstOffset 3433 735
- 3435: 7(fvec4) CompositeExtract 3434 1
+ 3435: 7(f16vec4) CompositeExtract 3434 1
Store 3412(texel) 3435
3436: 47(int) CompositeExtract 3434 0
3437: 224 Load 226(s2DShadow)
@@ -4439,36 +4439,36 @@ spv.float16Fetch.frag
3440: 208(ptr) AccessChain 3412(texel) 207
3441: 52(float) CompositeExtract 3438 2
3442:3138(ResType) ImageSparseSampleDrefExplicitLod 3437 3438 3441 Lod ConstOffset 3439 722
- 3443: 6(float) CompositeExtract 3442 1
+ 3443:6(float16_t) CompositeExtract 3442 1
Store 3440 3443
3444: 47(int) CompositeExtract 3442 0
3445: 224 Load 226(s2DShadow)
- 3446: 154(fvec2) Load 156(f16c2)
+ 3446:154(f16vec2) Load 156(f16c2)
3447: 52(float) Load 215(compare)
- 3448: 6(float) Load 572(f16lod)
+ 3448:6(float16_t) Load 572(f16lod)
3449: 208(ptr) AccessChain 3412(texel) 207
3450:3138(ResType) ImageSparseSampleDrefExplicitLod 3445 3446 3447 Lod ConstOffset 3448 722
- 3451: 6(float) CompositeExtract 3450 1
+ 3451:6(float16_t) CompositeExtract 3450 1
Store 3449 3451
3452: 47(int) CompositeExtract 3450 0
3453: 284 Load 286(s2DArray)
3454: 167(fvec3) Load 169(c3)
3455: 52(float) Load 565(lod)
3456:3102(ResType) ImageSparseSampleExplicitLod 3453 3454 Lod ConstOffset 3455 722
- 3457: 7(fvec4) CompositeExtract 3456 1
+ 3457: 7(f16vec4) CompositeExtract 3456 1
Store 3412(texel) 3457
3458: 47(int) CompositeExtract 3456 0
3459: 284 Load 286(s2DArray)
- 3460: 175(fvec3) Load 177(f16c3)
- 3461: 6(float) Load 572(f16lod)
+ 3460:175(f16vec3) Load 177(f16c3)
+ 3461:6(float16_t) Load 572(f16lod)
3462:3102(ResType) ImageSparseSampleExplicitLod 3459 3460 Lod ConstOffset 3461 722
- 3463: 7(fvec4) CompositeExtract 3462 1
+ 3463: 7(f16vec4) CompositeExtract 3462 1
Store 3412(texel) 3463
3464: 47(int) CompositeExtract 3462 0
- 3465: 7(fvec4) Load 3412(texel)
+ 3465: 7(f16vec4) Load 3412(texel)
ReturnValue 3465
FunctionEnd
-77(testSparseTextureGrad(): 7(fvec4) Function None 8
+77(testSparseTextureGrad(): 7(f16vec4) Function None 8
78: Label
3468(texel): 64(ptr) Variable Function
Store 3468(texel) 121
@@ -4477,15 +4477,15 @@ spv.float16Fetch.frag
3471: 53(fvec2) Load 1409(dPdxy2)
3472: 53(fvec2) Load 1409(dPdxy2)
3473:3102(ResType) ImageSparseSampleExplicitLod 3469 3470 Grad 3471 3472
- 3474: 7(fvec4) CompositeExtract 3473 1
+ 3474: 7(f16vec4) CompositeExtract 3473 1
Store 3468(texel) 3474
3475: 47(int) CompositeExtract 3473 0
3476: 143 Load 145(s2D)
- 3477: 154(fvec2) Load 156(f16c2)
- 3478: 154(fvec2) Load 1417(f16dPdxy2)
- 3479: 154(fvec2) Load 1417(f16dPdxy2)
+ 3477:154(f16vec2) Load 156(f16c2)
+ 3478:154(f16vec2) Load 1417(f16dPdxy2)
+ 3479:154(f16vec2) Load 1417(f16dPdxy2)
3480:3102(ResType) ImageSparseSampleExplicitLod 3476 3477 Grad 3478 3479
- 3481: 7(fvec4) CompositeExtract 3480 1
+ 3481: 7(f16vec4) CompositeExtract 3480 1
Store 3468(texel) 3481
3482: 47(int) CompositeExtract 3480 0
3483: 163 Load 165(s3D)
@@ -4493,15 +4493,15 @@ spv.float16Fetch.frag
3485: 167(fvec3) Load 1425(dPdxy3)
3486: 167(fvec3) Load 1425(dPdxy3)
3487:3102(ResType) ImageSparseSampleExplicitLod 3483 3484 Grad 3485 3486
- 3488: 7(fvec4) CompositeExtract 3487 1
+ 3488: 7(f16vec4) CompositeExtract 3487 1
Store 3468(texel) 3488
3489: 47(int) CompositeExtract 3487 0
3490: 163 Load 165(s3D)
- 3491: 175(fvec3) Load 177(f16c3)
- 3492: 175(fvec3) Load 1433(f16dPdxy3)
- 3493: 175(fvec3) Load 1433(f16dPdxy3)
+ 3491:175(f16vec3) Load 177(f16c3)
+ 3492:175(f16vec3) Load 1433(f16dPdxy3)
+ 3493:175(f16vec3) Load 1433(f16dPdxy3)
3494:3102(ResType) ImageSparseSampleExplicitLod 3490 3491 Grad 3492 3493
- 3495: 7(fvec4) CompositeExtract 3494 1
+ 3495: 7(f16vec4) CompositeExtract 3494 1
Store 3468(texel) 3495
3496: 47(int) CompositeExtract 3494 0
3497: 184 Load 186(sCube)
@@ -4509,15 +4509,15 @@ spv.float16Fetch.frag
3499: 167(fvec3) Load 1425(dPdxy3)
3500: 167(fvec3) Load 1425(dPdxy3)
3501:3102(ResType) ImageSparseSampleExplicitLod 3497 3498 Grad 3499 3500
- 3502: 7(fvec4) CompositeExtract 3501 1
+ 3502: 7(f16vec4) CompositeExtract 3501 1
Store 3468(texel) 3502
3503: 47(int) CompositeExtract 3501 0
3504: 184 Load 186(sCube)
- 3505: 175(fvec3) Load 177(f16c3)
- 3506: 175(fvec3) Load 1433(f16dPdxy3)
- 3507: 175(fvec3) Load 1433(f16dPdxy3)
+ 3505:175(f16vec3) Load 177(f16c3)
+ 3506:175(f16vec3) Load 1433(f16dPdxy3)
+ 3507:175(f16vec3) Load 1433(f16dPdxy3)
3508:3102(ResType) ImageSparseSampleExplicitLod 3504 3505 Grad 3506 3507
- 3509: 7(fvec4) CompositeExtract 3508 1
+ 3509: 7(f16vec4) CompositeExtract 3508 1
Store 3468(texel) 3509
3510: 47(int) CompositeExtract 3508 0
3511: 357 Load 359(s2DRect)
@@ -4525,15 +4525,15 @@ spv.float16Fetch.frag
3513: 53(fvec2) Load 1409(dPdxy2)
3514: 53(fvec2) Load 1409(dPdxy2)
3515:3102(ResType) ImageSparseSampleExplicitLod 3511 3512 Grad 3513 3514
- 3516: 7(fvec4) CompositeExtract 3515 1
+ 3516: 7(f16vec4) CompositeExtract 3515 1
Store 3468(texel) 3516
3517: 47(int) CompositeExtract 3515 0
3518: 357 Load 359(s2DRect)
- 3519: 154(fvec2) Load 156(f16c2)
- 3520: 154(fvec2) Load 1417(f16dPdxy2)
- 3521: 154(fvec2) Load 1417(f16dPdxy2)
+ 3519:154(f16vec2) Load 156(f16c2)
+ 3520:154(f16vec2) Load 1417(f16dPdxy2)
+ 3521:154(f16vec2) Load 1417(f16dPdxy2)
3522:3102(ResType) ImageSparseSampleExplicitLod 3518 3519 Grad 3520 3521
- 3523: 7(fvec4) CompositeExtract 3522 1
+ 3523: 7(f16vec4) CompositeExtract 3522 1
Store 3468(texel) 3523
3524: 47(int) CompositeExtract 3522 0
3525: 371 Load 373(s2DRectShadow)
@@ -4543,17 +4543,17 @@ spv.float16Fetch.frag
3529: 208(ptr) AccessChain 3468(texel) 207
3530: 52(float) CompositeExtract 3526 2
3531:3138(ResType) ImageSparseSampleDrefExplicitLod 3525 3526 3530 Grad 3527 3528
- 3532: 6(float) CompositeExtract 3531 1
+ 3532:6(float16_t) CompositeExtract 3531 1
Store 3529 3532
3533: 47(int) CompositeExtract 3531 0
3534: 371 Load 373(s2DRectShadow)
- 3535: 154(fvec2) Load 156(f16c2)
+ 3535:154(f16vec2) Load 156(f16c2)
3536: 52(float) Load 215(compare)
- 3537: 154(fvec2) Load 1417(f16dPdxy2)
- 3538: 154(fvec2) Load 1417(f16dPdxy2)
+ 3537:154(f16vec2) Load 1417(f16dPdxy2)
+ 3538:154(f16vec2) Load 1417(f16dPdxy2)
3539: 208(ptr) AccessChain 3468(texel) 207
3540:3138(ResType) ImageSparseSampleDrefExplicitLod 3534 3535 3536 Grad 3537 3538
- 3541: 6(float) CompositeExtract 3540 1
+ 3541:6(float16_t) CompositeExtract 3540 1
Store 3539 3541
3542: 47(int) CompositeExtract 3540 0
3543: 224 Load 226(s2DShadow)
@@ -4563,17 +4563,17 @@ spv.float16Fetch.frag
3547: 208(ptr) AccessChain 3468(texel) 207
3548: 52(float) CompositeExtract 3544 2
3549:3138(ResType) ImageSparseSampleDrefExplicitLod 3543 3544 3548 Grad 3545 3546
- 3550: 6(float) CompositeExtract 3549 1
+ 3550:6(float16_t) CompositeExtract 3549 1
Store 3547 3550
3551: 47(int) CompositeExtract 3549 0
3552: 224 Load 226(s2DShadow)
- 3553: 154(fvec2) Load 156(f16c2)
+ 3553:154(f16vec2) Load 156(f16c2)
3554: 52(float) Load 215(compare)
- 3555: 154(fvec2) Load 1417(f16dPdxy2)
- 3556: 154(fvec2) Load 1417(f16dPdxy2)
+ 3555:154(f16vec2) Load 1417(f16dPdxy2)
+ 3556:154(f16vec2) Load 1417(f16dPdxy2)
3557: 208(ptr) AccessChain 3468(texel) 207
3558:3138(ResType) ImageSparseSampleDrefExplicitLod 3552 3553 3554 Grad 3555 3556
- 3559: 6(float) CompositeExtract 3558 1
+ 3559:6(float16_t) CompositeExtract 3558 1
Store 3557 3559
3560: 47(int) CompositeExtract 3558 0
3561: 245 Load 247(sCubeShadow)
@@ -4583,17 +4583,17 @@ spv.float16Fetch.frag
3565: 208(ptr) AccessChain 3468(texel) 207
3566: 52(float) CompositeExtract 3562 3
3567:3138(ResType) ImageSparseSampleDrefExplicitLod 3561 3562 3566 Grad 3563 3564
- 3568: 6(float) CompositeExtract 3567 1
+ 3568:6(float16_t) CompositeExtract 3567 1
Store 3565 3568
3569: 47(int) CompositeExtract 3567 0
3570: 245 Load 247(sCubeShadow)
- 3571: 175(fvec3) Load 177(f16c3)
+ 3571:175(f16vec3) Load 177(f16c3)
3572: 52(float) Load 215(compare)
- 3573: 175(fvec3) Load 1433(f16dPdxy3)
- 3574: 175(fvec3) Load 1433(f16dPdxy3)
+ 3573:175(f16vec3) Load 1433(f16dPdxy3)
+ 3574:175(f16vec3) Load 1433(f16dPdxy3)
3575: 208(ptr) AccessChain 3468(texel) 207
3576:3138(ResType) ImageSparseSampleDrefExplicitLod 3570 3571 3572 Grad 3573 3574
- 3577: 6(float) CompositeExtract 3576 1
+ 3577:6(float16_t) CompositeExtract 3576 1
Store 3575 3577
3578: 47(int) CompositeExtract 3576 0
3579: 284 Load 286(s2DArray)
@@ -4601,15 +4601,15 @@ spv.float16Fetch.frag
3581: 53(fvec2) Load 1409(dPdxy2)
3582: 53(fvec2) Load 1409(dPdxy2)
3583:3102(ResType) ImageSparseSampleExplicitLod 3579 3580 Grad 3581 3582
- 3584: 7(fvec4) CompositeExtract 3583 1
+ 3584: 7(f16vec4) CompositeExtract 3583 1
Store 3468(texel) 3584
3585: 47(int) CompositeExtract 3583 0
3586: 284 Load 286(s2DArray)
- 3587: 175(fvec3) Load 177(f16c3)
- 3588: 154(fvec2) Load 1417(f16dPdxy2)
- 3589: 154(fvec2) Load 1417(f16dPdxy2)
+ 3587:175(f16vec3) Load 177(f16c3)
+ 3588:154(f16vec2) Load 1417(f16dPdxy2)
+ 3589:154(f16vec2) Load 1417(f16dPdxy2)
3590:3102(ResType) ImageSparseSampleExplicitLod 3586 3587 Grad 3588 3589
- 3591: 7(fvec4) CompositeExtract 3590 1
+ 3591: 7(f16vec4) CompositeExtract 3590 1
Store 3468(texel) 3591
3592: 47(int) CompositeExtract 3590 0
3593: 337 Load 339(s2DArrayShadow)
@@ -4619,17 +4619,17 @@ spv.float16Fetch.frag
3597: 208(ptr) AccessChain 3468(texel) 207
3598: 52(float) CompositeExtract 3594 3
3599:3138(ResType) ImageSparseSampleDrefExplicitLod 3593 3594 3598 Grad 3595 3596
- 3600: 6(float) CompositeExtract 3599 1
+ 3600:6(float16_t) CompositeExtract 3599 1
Store 3597 3600
3601: 47(int) CompositeExtract 3599 0
3602: 337 Load 339(s2DArrayShadow)
- 3603: 175(fvec3) Load 177(f16c3)
+ 3603:175(f16vec3) Load 177(f16c3)
3604: 52(float) Load 215(compare)
- 3605: 154(fvec2) Load 1417(f16dPdxy2)
- 3606: 154(fvec2) Load 1417(f16dPdxy2)
+ 3605:154(f16vec2) Load 1417(f16dPdxy2)
+ 3606:154(f16vec2) Load 1417(f16dPdxy2)
3607: 208(ptr) AccessChain 3468(texel) 207
3608:3138(ResType) ImageSparseSampleDrefExplicitLod 3602 3603 3604 Grad 3605 3606
- 3609: 6(float) CompositeExtract 3608 1
+ 3609:6(float16_t) CompositeExtract 3608 1
Store 3607 3609
3610: 47(int) CompositeExtract 3608 0
3611: 299 Load 301(sCubeArray)
@@ -4637,21 +4637,21 @@ spv.float16Fetch.frag
3613: 167(fvec3) Load 1425(dPdxy3)
3614: 167(fvec3) Load 1425(dPdxy3)
3615:3102(ResType) ImageSparseSampleExplicitLod 3611 3612 Grad 3613 3614
- 3616: 7(fvec4) CompositeExtract 3615 1
+ 3616: 7(f16vec4) CompositeExtract 3615 1
Store 3468(texel) 3616
3617: 47(int) CompositeExtract 3615 0
3618: 299 Load 301(sCubeArray)
- 3619: 7(fvec4) Load 309(f16c4)
- 3620: 175(fvec3) Load 1433(f16dPdxy3)
- 3621: 175(fvec3) Load 1433(f16dPdxy3)
+ 3619: 7(f16vec4) Load 309(f16c4)
+ 3620:175(f16vec3) Load 1433(f16dPdxy3)
+ 3621:175(f16vec3) Load 1433(f16dPdxy3)
3622:3102(ResType) ImageSparseSampleExplicitLod 3618 3619 Grad 3620 3621
- 3623: 7(fvec4) CompositeExtract 3622 1
+ 3623: 7(f16vec4) CompositeExtract 3622 1
Store 3468(texel) 3623
3624: 47(int) CompositeExtract 3622 0
- 3625: 7(fvec4) Load 3468(texel)
+ 3625: 7(f16vec4) Load 3468(texel)
ReturnValue 3625
FunctionEnd
-79(testSparseTextureGradOffset(): 7(fvec4) Function None 8
+79(testSparseTextureGradOffset(): 7(f16vec4) Function None 8
80: Label
3628(texel): 64(ptr) Variable Function
Store 3628(texel) 121
@@ -4660,15 +4660,15 @@ spv.float16Fetch.frag
3631: 53(fvec2) Load 1409(dPdxy2)
3632: 53(fvec2) Load 1409(dPdxy2)
3633:3102(ResType) ImageSparseSampleExplicitLod 3629 3630 Grad ConstOffset 3631 3632 722
- 3634: 7(fvec4) CompositeExtract 3633 1
+ 3634: 7(f16vec4) CompositeExtract 3633 1
Store 3628(texel) 3634
3635: 47(int) CompositeExtract 3633 0
3636: 143 Load 145(s2D)
- 3637: 154(fvec2) Load 156(f16c2)
- 3638: 154(fvec2) Load 1417(f16dPdxy2)
- 3639: 154(fvec2) Load 1417(f16dPdxy2)
+ 3637:154(f16vec2) Load 156(f16c2)
+ 3638:154(f16vec2) Load 1417(f16dPdxy2)
+ 3639:154(f16vec2) Load 1417(f16dPdxy2)
3640:3102(ResType) ImageSparseSampleExplicitLod 3636 3637 Grad ConstOffset 3638 3639 722
- 3641: 7(fvec4) CompositeExtract 3640 1
+ 3641: 7(f16vec4) CompositeExtract 3640 1
Store 3628(texel) 3641
3642: 47(int) CompositeExtract 3640 0
3643: 163 Load 165(s3D)
@@ -4676,15 +4676,15 @@ spv.float16Fetch.frag
3645: 167(fvec3) Load 1425(dPdxy3)
3646: 167(fvec3) Load 1425(dPdxy3)
3647:3102(ResType) ImageSparseSampleExplicitLod 3643 3644 Grad ConstOffset 3645 3646 735
- 3648: 7(fvec4) CompositeExtract 3647 1
+ 3648: 7(f16vec4) CompositeExtract 3647 1
Store 3628(texel) 3648
3649: 47(int) CompositeExtract 3647 0
3650: 163 Load 165(s3D)
- 3651: 175(fvec3) Load 177(f16c3)
- 3652: 175(fvec3) Load 1433(f16dPdxy3)
- 3653: 175(fvec3) Load 1433(f16dPdxy3)
+ 3651:175(f16vec3) Load 177(f16c3)
+ 3652:175(f16vec3) Load 1433(f16dPdxy3)
+ 3653:175(f16vec3) Load 1433(f16dPdxy3)
3654:3102(ResType) ImageSparseSampleExplicitLod 3650 3651 Grad ConstOffset 3652 3653 735
- 3655: 7(fvec4) CompositeExtract 3654 1
+ 3655: 7(f16vec4) CompositeExtract 3654 1
Store 3628(texel) 3655
3656: 47(int) CompositeExtract 3654 0
3657: 357 Load 359(s2DRect)
@@ -4692,15 +4692,15 @@ spv.float16Fetch.frag
3659: 53(fvec2) Load 1409(dPdxy2)
3660: 53(fvec2) Load 1409(dPdxy2)
3661:3102(ResType) ImageSparseSampleExplicitLod 3657 3658 Grad ConstOffset 3659 3660 722
- 3662: 7(fvec4) CompositeExtract 3661 1
+ 3662: 7(f16vec4) CompositeExtract 3661 1
Store 3628(texel) 3662
3663: 47(int) CompositeExtract 3661 0
3664: 357 Load 359(s2DRect)
- 3665: 154(fvec2) Load 156(f16c2)
- 3666: 154(fvec2) Load 1417(f16dPdxy2)
- 3667: 154(fvec2) Load 1417(f16dPdxy2)
+ 3665:154(f16vec2) Load 156(f16c2)
+ 3666:154(f16vec2) Load 1417(f16dPdxy2)
+ 3667:154(f16vec2) Load 1417(f16dPdxy2)
3668:3102(ResType) ImageSparseSampleExplicitLod 3664 3665 Grad ConstOffset 3666 3667 722
- 3669: 7(fvec4) CompositeExtract 3668 1
+ 3669: 7(f16vec4) CompositeExtract 3668 1
Store 3628(texel) 3669
3670: 47(int) CompositeExtract 3668 0
3671: 371 Load 373(s2DRectShadow)
@@ -4710,17 +4710,17 @@ spv.float16Fetch.frag
3675: 208(ptr) AccessChain 3628(texel) 207
3676: 52(float) CompositeExtract 3672 2
3677:3138(ResType) ImageSparseSampleDrefExplicitLod 3671 3672 3676 Grad ConstOffset 3673 3674 722
- 3678: 6(float) CompositeExtract 3677 1
+ 3678:6(float16_t) CompositeExtract 3677 1
Store 3675 3678
3679: 47(int) CompositeExtract 3677 0
3680: 371 Load 373(s2DRectShadow)
- 3681: 154(fvec2) Load 156(f16c2)
+ 3681:154(f16vec2) Load 156(f16c2)
3682: 52(float) Load 215(compare)
- 3683: 154(fvec2) Load 1417(f16dPdxy2)
- 3684: 154(fvec2) Load 1417(f16dPdxy2)
+ 3683:154(f16vec2) Load 1417(f16dPdxy2)
+ 3684:154(f16vec2) Load 1417(f16dPdxy2)
3685: 208(ptr) AccessChain 3628(texel) 207
3686:3138(ResType) ImageSparseSampleDrefExplicitLod 3680 3681 3682 Grad ConstOffset 3683 3684 722
- 3687: 6(float) CompositeExtract 3686 1
+ 3687:6(float16_t) CompositeExtract 3686 1
Store 3685 3687
3688: 47(int) CompositeExtract 3686 0
3689: 224 Load 226(s2DShadow)
@@ -4730,17 +4730,17 @@ spv.float16Fetch.frag
3693: 208(ptr) AccessChain 3628(texel) 207
3694: 52(float) CompositeExtract 3690 2
3695:3138(ResType) ImageSparseSampleDrefExplicitLod 3689 3690 3694 Grad ConstOffset 3691 3692 722
- 3696: 6(float) CompositeExtract 3695 1
+ 3696:6(float16_t) CompositeExtract 3695 1
Store 3693 3696
3697: 47(int) CompositeExtract 3695 0
3698: 224 Load 226(s2DShadow)
- 3699: 154(fvec2) Load 156(f16c2)
+ 3699:154(f16vec2) Load 156(f16c2)
3700: 52(float) Load 215(compare)
- 3701: 154(fvec2) Load 1417(f16dPdxy2)
- 3702: 154(fvec2) Load 1417(f16dPdxy2)
+ 3701:154(f16vec2) Load 1417(f16dPdxy2)
+ 3702:154(f16vec2) Load 1417(f16dPdxy2)
3703: 208(ptr) AccessChain 3628(texel) 207
3704:3138(ResType) ImageSparseSampleDrefExplicitLod 3698 3699 3700 Grad ConstOffset 3701 3702 722
- 3705: 6(float) CompositeExtract 3704 1
+ 3705:6(float16_t) CompositeExtract 3704 1
Store 3703 3705
3706: 47(int) CompositeExtract 3704 0
3707: 284 Load 286(s2DArray)
@@ -4748,15 +4748,15 @@ spv.float16Fetch.frag
3709: 53(fvec2) Load 1409(dPdxy2)
3710: 53(fvec2) Load 1409(dPdxy2)
3711:3102(ResType) ImageSparseSampleExplicitLod 3707 3708 Grad ConstOffset 3709 3710 722
- 3712: 7(fvec4) CompositeExtract 3711 1
+ 3712: 7(f16vec4) CompositeExtract 3711 1
Store 3628(texel) 3712
3713: 47(int) CompositeExtract 3711 0
3714: 284 Load 286(s2DArray)
- 3715: 175(fvec3) Load 177(f16c3)
- 3716: 154(fvec2) Load 1417(f16dPdxy2)
- 3717: 154(fvec2) Load 1417(f16dPdxy2)
+ 3715:175(f16vec3) Load 177(f16c3)
+ 3716:154(f16vec2) Load 1417(f16dPdxy2)
+ 3717:154(f16vec2) Load 1417(f16dPdxy2)
3718:3102(ResType) ImageSparseSampleExplicitLod 3714 3715 Grad ConstOffset 3716 3717 722
- 3719: 7(fvec4) CompositeExtract 3718 1
+ 3719: 7(f16vec4) CompositeExtract 3718 1
Store 3628(texel) 3719
3720: 47(int) CompositeExtract 3718 0
3721: 337 Load 339(s2DArrayShadow)
@@ -4766,23 +4766,23 @@ spv.float16Fetch.frag
3725: 208(ptr) AccessChain 3628(texel) 207
3726: 52(float) CompositeExtract 3722 3
3727:3138(ResType) ImageSparseSampleDrefExplicitLod 3721 3722 3726 Grad ConstOffset 3723 3724 722
- 3728: 6(float) CompositeExtract 3727 1
+ 3728:6(float16_t) CompositeExtract 3727 1
Store 3725 3728
3729: 47(int) CompositeExtract 3727 0
3730: 337 Load 339(s2DArrayShadow)
- 3731: 175(fvec3) Load 177(f16c3)
+ 3731:175(f16vec3) Load 177(f16c3)
3732: 52(float) Load 215(compare)
- 3733: 154(fvec2) Load 1417(f16dPdxy2)
- 3734: 154(fvec2) Load 1417(f16dPdxy2)
+ 3733:154(f16vec2) Load 1417(f16dPdxy2)
+ 3734:154(f16vec2) Load 1417(f16dPdxy2)
3735: 208(ptr) AccessChain 3628(texel) 207
3736:3138(ResType) ImageSparseSampleDrefExplicitLod 3730 3731 3732 Grad ConstOffset 3733 3734 722
- 3737: 6(float) CompositeExtract 3736 1
+ 3737:6(float16_t) CompositeExtract 3736 1
Store 3735 3737
3738: 47(int) CompositeExtract 3736 0
- 3739: 7(fvec4) Load 3628(texel)
+ 3739: 7(f16vec4) Load 3628(texel)
ReturnValue 3739
FunctionEnd
-81(testSparseTexelFetch(): 7(fvec4) Function None 8
+81(testSparseTexelFetch(): 7(f16vec4) Function None 8
82: Label
3742(texel): 64(ptr) Variable Function
Store 3742(texel) 121
@@ -4793,7 +4793,7 @@ spv.float16Fetch.frag
3747: 47(int) ConvertFToS 3746
3748: 142 Image 3743
3749:3102(ResType) ImageSparseFetch 3748 3745 Lod 3747
- 3750: 7(fvec4) CompositeExtract 3749 1
+ 3750: 7(f16vec4) CompositeExtract 3749 1
Store 3742(texel) 3750
3751: 47(int) CompositeExtract 3749 0
3752: 163 Load 165(s3D)
@@ -4803,7 +4803,7 @@ spv.float16Fetch.frag
3756: 47(int) ConvertFToS 3755
3757: 162 Image 3752
3758:3102(ResType) ImageSparseFetch 3757 3754 Lod 3756
- 3759: 7(fvec4) CompositeExtract 3758 1
+ 3759: 7(f16vec4) CompositeExtract 3758 1
Store 3742(texel) 3759
3760: 47(int) CompositeExtract 3758 0
3761: 357 Load 359(s2DRect)
@@ -4811,7 +4811,7 @@ spv.float16Fetch.frag
3763: 721(ivec2) ConvertFToS 3762
3764: 356 Image 3761
3765:3102(ResType) ImageSparseFetch 3764 3763
- 3766: 7(fvec4) CompositeExtract 3765 1
+ 3766: 7(f16vec4) CompositeExtract 3765 1
Store 3742(texel) 3766
3767: 47(int) CompositeExtract 3765 0
3768: 284 Load 286(s2DArray)
@@ -4821,7 +4821,7 @@ spv.float16Fetch.frag
3772: 47(int) ConvertFToS 3771
3773: 283 Image 3768
3774:3102(ResType) ImageSparseFetch 3773 3770 Lod 3772
- 3775: 7(fvec4) CompositeExtract 3774 1
+ 3775: 7(f16vec4) CompositeExtract 3774 1
Store 3742(texel) 3775
3776: 47(int) CompositeExtract 3774 0
3777: 1309 Load 1311(s2DMS)
@@ -4829,7 +4829,7 @@ spv.float16Fetch.frag
3779: 721(ivec2) ConvertFToS 3778
3780: 1308 Image 3777
3781:3102(ResType) ImageSparseFetch 3780 3779 Sample 709
- 3782: 7(fvec4) CompositeExtract 3781 1
+ 3782: 7(f16vec4) CompositeExtract 3781 1
Store 3742(texel) 3782
3783: 47(int) CompositeExtract 3781 0
3784: 1320 Load 1322(s2DMSArray)
@@ -4837,13 +4837,13 @@ spv.float16Fetch.frag
3786: 734(ivec3) ConvertFToS 3785
3787: 1319 Image 3784
3788:3102(ResType) ImageSparseFetch 3787 3786 Sample 1326
- 3789: 7(fvec4) CompositeExtract 3788 1
+ 3789: 7(f16vec4) CompositeExtract 3788 1
Store 3742(texel) 3789
3790: 47(int) CompositeExtract 3788 0
- 3791: 7(fvec4) Load 3742(texel)
+ 3791: 7(f16vec4) Load 3742(texel)
ReturnValue 3791
FunctionEnd
-83(testSparseTexelFetchOffset(): 7(fvec4) Function None 8
+83(testSparseTexelFetchOffset(): 7(f16vec4) Function None 8
84: Label
3794(texel): 64(ptr) Variable Function
Store 3794(texel) 121
@@ -4854,7 +4854,7 @@ spv.float16Fetch.frag
3799: 47(int) ConvertFToS 3798
3800: 142 Image 3795
3801:3102(ResType) ImageSparseFetch 3800 3797 Lod ConstOffset 3799 722
- 3802: 7(fvec4) CompositeExtract 3801 1
+ 3802: 7(f16vec4) CompositeExtract 3801 1
Store 3794(texel) 3802
3803: 47(int) CompositeExtract 3801 0
3804: 163 Load 165(s3D)
@@ -4864,7 +4864,7 @@ spv.float16Fetch.frag
3808: 47(int) ConvertFToS 3807
3809: 162 Image 3804
3810:3102(ResType) ImageSparseFetch 3809 3806 Lod ConstOffset 3808 735
- 3811: 7(fvec4) CompositeExtract 3810 1
+ 3811: 7(f16vec4) CompositeExtract 3810 1
Store 3794(texel) 3811
3812: 47(int) CompositeExtract 3810 0
3813: 357 Load 359(s2DRect)
@@ -4872,7 +4872,7 @@ spv.float16Fetch.frag
3815: 721(ivec2) ConvertFToS 3814
3816: 356 Image 3813
3817:3102(ResType) ImageSparseFetch 3816 3815 ConstOffset 722
- 3818: 7(fvec4) CompositeExtract 3817 1
+ 3818: 7(f16vec4) CompositeExtract 3817 1
Store 3794(texel) 3818
3819: 47(int) CompositeExtract 3817 0
3820: 284 Load 286(s2DArray)
@@ -4882,328 +4882,328 @@ spv.float16Fetch.frag
3824: 47(int) ConvertFToS 3823
3825: 283 Image 3820
3826:3102(ResType) ImageSparseFetch 3825 3822 Lod ConstOffset 3824 722
- 3827: 7(fvec4) CompositeExtract 3826 1
+ 3827: 7(f16vec4) CompositeExtract 3826 1
Store 3794(texel) 3827
3828: 47(int) CompositeExtract 3826 0
- 3829: 7(fvec4) Load 3794(texel)
+ 3829: 7(f16vec4) Load 3794(texel)
ReturnValue 3829
FunctionEnd
-85(testSparseTextureGather(): 7(fvec4) Function None 8
+85(testSparseTextureGather(): 7(f16vec4) Function None 8
86: Label
3832(texel): 64(ptr) Variable Function
Store 3832(texel) 121
3833: 143 Load 145(s2D)
3834: 53(fvec2) Load 148(c2)
3835:3102(ResType) ImageSparseGather 3833 3834 2187
- 3836: 7(fvec4) CompositeExtract 3835 1
+ 3836: 7(f16vec4) CompositeExtract 3835 1
Store 3832(texel) 3836
3837: 47(int) CompositeExtract 3835 0
3838: 143 Load 145(s2D)
- 3839: 154(fvec2) Load 156(f16c2)
- 3840: 6(float) Load 137(f16bias)
+ 3839:154(f16vec2) Load 156(f16c2)
+ 3840:6(float16_t) Load 137(f16bias)
3841:3102(ResType) ImageSparseGather 3838 3839 2187 Bias 3840
- 3842: 7(fvec4) CompositeExtract 3841 1
+ 3842: 7(f16vec4) CompositeExtract 3841 1
Store 3832(texel) 3842
3843: 47(int) CompositeExtract 3841 0
3844: 284 Load 286(s2DArray)
3845: 167(fvec3) Load 169(c3)
3846:3102(ResType) ImageSparseGather 3844 3845 2187
- 3847: 7(fvec4) CompositeExtract 3846 1
+ 3847: 7(f16vec4) CompositeExtract 3846 1
Store 3832(texel) 3847
3848: 47(int) CompositeExtract 3846 0
3849: 284 Load 286(s2DArray)
- 3850: 175(fvec3) Load 177(f16c3)
- 3851: 6(float) Load 137(f16bias)
+ 3850:175(f16vec3) Load 177(f16c3)
+ 3851:6(float16_t) Load 137(f16bias)
3852:3102(ResType) ImageSparseGather 3849 3850 2187 Bias 3851
- 3853: 7(fvec4) CompositeExtract 3852 1
+ 3853: 7(f16vec4) CompositeExtract 3852 1
Store 3832(texel) 3853
3854: 47(int) CompositeExtract 3852 0
3855: 184 Load 186(sCube)
3856: 167(fvec3) Load 169(c3)
3857:3102(ResType) ImageSparseGather 3855 3856 2187
- 3858: 7(fvec4) CompositeExtract 3857 1
+ 3858: 7(f16vec4) CompositeExtract 3857 1
Store 3832(texel) 3858
3859: 47(int) CompositeExtract 3857 0
3860: 184 Load 186(sCube)
- 3861: 175(fvec3) Load 177(f16c3)
- 3862: 6(float) Load 137(f16bias)
+ 3861:175(f16vec3) Load 177(f16c3)
+ 3862:6(float16_t) Load 137(f16bias)
3863:3102(ResType) ImageSparseGather 3860 3861 2187 Bias 3862
- 3864: 7(fvec4) CompositeExtract 3863 1
+ 3864: 7(f16vec4) CompositeExtract 3863 1
Store 3832(texel) 3864
3865: 47(int) CompositeExtract 3863 0
3866: 299 Load 301(sCubeArray)
3867: 249(fvec4) Load 251(c4)
3868:3102(ResType) ImageSparseGather 3866 3867 2187
- 3869: 7(fvec4) CompositeExtract 3868 1
+ 3869: 7(f16vec4) CompositeExtract 3868 1
Store 3832(texel) 3869
3870: 47(int) CompositeExtract 3868 0
3871: 299 Load 301(sCubeArray)
- 3872: 7(fvec4) Load 309(f16c4)
- 3873: 6(float) Load 137(f16bias)
+ 3872: 7(f16vec4) Load 309(f16c4)
+ 3873:6(float16_t) Load 137(f16bias)
3874:3102(ResType) ImageSparseGather 3871 3872 2187 Bias 3873
- 3875: 7(fvec4) CompositeExtract 3874 1
+ 3875: 7(f16vec4) CompositeExtract 3874 1
Store 3832(texel) 3875
3876: 47(int) CompositeExtract 3874 0
3877: 357 Load 359(s2DRect)
3878: 53(fvec2) Load 148(c2)
3879:3102(ResType) ImageSparseGather 3877 3878 2187
- 3880: 7(fvec4) CompositeExtract 3879 1
+ 3880: 7(f16vec4) CompositeExtract 3879 1
Store 3832(texel) 3880
3881: 47(int) CompositeExtract 3879 0
3882: 357 Load 359(s2DRect)
- 3883: 154(fvec2) Load 156(f16c2)
+ 3883:154(f16vec2) Load 156(f16c2)
3884:3102(ResType) ImageSparseGather 3882 3883 2187
- 3885: 7(fvec4) CompositeExtract 3884 1
+ 3885: 7(f16vec4) CompositeExtract 3884 1
Store 3832(texel) 3885
3886: 47(int) CompositeExtract 3884 0
3887: 224 Load 226(s2DShadow)
3888: 53(fvec2) Load 148(c2)
3889: 52(float) Load 215(compare)
3890:3102(ResType) ImageSparseDrefGather 3887 3888 3889
- 3891: 7(fvec4) CompositeExtract 3890 1
+ 3891: 7(f16vec4) CompositeExtract 3890 1
Store 3832(texel) 3891
3892: 47(int) CompositeExtract 3890 0
3893: 224 Load 226(s2DShadow)
- 3894: 154(fvec2) Load 156(f16c2)
+ 3894:154(f16vec2) Load 156(f16c2)
3895: 52(float) Load 215(compare)
3896:3102(ResType) ImageSparseDrefGather 3893 3894 3895
- 3897: 7(fvec4) CompositeExtract 3896 1
+ 3897: 7(f16vec4) CompositeExtract 3896 1
Store 3832(texel) 3897
3898: 47(int) CompositeExtract 3896 0
3899: 337 Load 339(s2DArrayShadow)
3900: 167(fvec3) Load 169(c3)
3901: 52(float) Load 215(compare)
3902:3102(ResType) ImageSparseDrefGather 3899 3900 3901
- 3903: 7(fvec4) CompositeExtract 3902 1
+ 3903: 7(f16vec4) CompositeExtract 3902 1
Store 3832(texel) 3903
3904: 47(int) CompositeExtract 3902 0
3905: 337 Load 339(s2DArrayShadow)
- 3906: 175(fvec3) Load 177(f16c3)
+ 3906:175(f16vec3) Load 177(f16c3)
3907: 52(float) Load 215(compare)
3908:3102(ResType) ImageSparseDrefGather 3905 3906 3907
- 3909: 7(fvec4) CompositeExtract 3908 1
+ 3909: 7(f16vec4) CompositeExtract 3908 1
Store 3832(texel) 3909
3910: 47(int) CompositeExtract 3908 0
3911: 245 Load 247(sCubeShadow)
3912: 167(fvec3) Load 169(c3)
3913: 52(float) Load 215(compare)
3914:3102(ResType) ImageSparseDrefGather 3911 3912 3913
- 3915: 7(fvec4) CompositeExtract 3914 1
+ 3915: 7(f16vec4) CompositeExtract 3914 1
Store 3832(texel) 3915
3916: 47(int) CompositeExtract 3914 0
3917: 245 Load 247(sCubeShadow)
- 3918: 175(fvec3) Load 177(f16c3)
+ 3918:175(f16vec3) Load 177(f16c3)
3919: 52(float) Load 215(compare)
3920:3102(ResType) ImageSparseDrefGather 3917 3918 3919
- 3921: 7(fvec4) CompositeExtract 3920 1
+ 3921: 7(f16vec4) CompositeExtract 3920 1
Store 3832(texel) 3921
3922: 47(int) CompositeExtract 3920 0
3923: 391 Load 393(sCubeArrayShadow)
3924: 249(fvec4) Load 251(c4)
3925: 52(float) Load 215(compare)
3926:3102(ResType) ImageSparseDrefGather 3923 3924 3925
- 3927: 7(fvec4) CompositeExtract 3926 1
+ 3927: 7(f16vec4) CompositeExtract 3926 1
Store 3832(texel) 3927
3928: 47(int) CompositeExtract 3926 0
3929: 391 Load 393(sCubeArrayShadow)
- 3930: 7(fvec4) Load 309(f16c4)
+ 3930: 7(f16vec4) Load 309(f16c4)
3931: 52(float) Load 215(compare)
3932:3102(ResType) ImageSparseDrefGather 3929 3930 3931
- 3933: 7(fvec4) CompositeExtract 3932 1
+ 3933: 7(f16vec4) CompositeExtract 3932 1
Store 3832(texel) 3933
3934: 47(int) CompositeExtract 3932 0
3935: 371 Load 373(s2DRectShadow)
3936: 53(fvec2) Load 148(c2)
3937: 52(float) Load 215(compare)
3938:3102(ResType) ImageSparseDrefGather 3935 3936 3937
- 3939: 7(fvec4) CompositeExtract 3938 1
+ 3939: 7(f16vec4) CompositeExtract 3938 1
Store 3832(texel) 3939
3940: 47(int) CompositeExtract 3938 0
3941: 371 Load 373(s2DRectShadow)
- 3942: 154(fvec2) Load 156(f16c2)
+ 3942:154(f16vec2) Load 156(f16c2)
3943: 52(float) Load 215(compare)
3944:3102(ResType) ImageSparseDrefGather 3941 3942 3943
- 3945: 7(fvec4) CompositeExtract 3944 1
+ 3945: 7(f16vec4) CompositeExtract 3944 1
Store 3832(texel) 3945
3946: 47(int) CompositeExtract 3944 0
- 3947: 7(fvec4) Load 3832(texel)
+ 3947: 7(f16vec4) Load 3832(texel)
ReturnValue 3947
FunctionEnd
-87(testSparseTextureGatherOffset(): 7(fvec4) Function None 8
+87(testSparseTextureGatherOffset(): 7(f16vec4) Function None 8
88: Label
3950(texel): 64(ptr) Variable Function
Store 3950(texel) 121
3951: 143 Load 145(s2D)
3952: 53(fvec2) Load 148(c2)
3953:3102(ResType) ImageSparseGather 3951 3952 2187 ConstOffset 722
- 3954: 7(fvec4) CompositeExtract 3953 1
+ 3954: 7(f16vec4) CompositeExtract 3953 1
Store 3950(texel) 3954
3955: 47(int) CompositeExtract 3953 0
3956: 143 Load 145(s2D)
- 3957: 154(fvec2) Load 156(f16c2)
- 3958: 6(float) Load 137(f16bias)
+ 3957:154(f16vec2) Load 156(f16c2)
+ 3958:6(float16_t) Load 137(f16bias)
3959:3102(ResType) ImageSparseGather 3956 3957 2187 Bias ConstOffset 3958 722
- 3960: 7(fvec4) CompositeExtract 3959 1
+ 3960: 7(f16vec4) CompositeExtract 3959 1
Store 3950(texel) 3960
3961: 47(int) CompositeExtract 3959 0
3962: 284 Load 286(s2DArray)
3963: 167(fvec3) Load 169(c3)
3964:3102(ResType) ImageSparseGather 3962 3963 2187 ConstOffset 722
- 3965: 7(fvec4) CompositeExtract 3964 1
+ 3965: 7(f16vec4) CompositeExtract 3964 1
Store 3950(texel) 3965
3966: 47(int) CompositeExtract 3964 0
3967: 284 Load 286(s2DArray)
- 3968: 175(fvec3) Load 177(f16c3)
- 3969: 6(float) Load 137(f16bias)
+ 3968:175(f16vec3) Load 177(f16c3)
+ 3969:6(float16_t) Load 137(f16bias)
3970:3102(ResType) ImageSparseGather 3967 3968 2187 Bias ConstOffset 3969 722
- 3971: 7(fvec4) CompositeExtract 3970 1
+ 3971: 7(f16vec4) CompositeExtract 3970 1
Store 3950(texel) 3971
3972: 47(int) CompositeExtract 3970 0
3973: 357 Load 359(s2DRect)
3974: 53(fvec2) Load 148(c2)
3975:3102(ResType) ImageSparseGather 3973 3974 2187 ConstOffset 722
- 3976: 7(fvec4) CompositeExtract 3975 1
+ 3976: 7(f16vec4) CompositeExtract 3975 1
Store 3950(texel) 3976
3977: 47(int) CompositeExtract 3975 0
3978: 357 Load 359(s2DRect)
- 3979: 154(fvec2) Load 156(f16c2)
+ 3979:154(f16vec2) Load 156(f16c2)
3980:3102(ResType) ImageSparseGather 3978 3979 2187 ConstOffset 722
- 3981: 7(fvec4) CompositeExtract 3980 1
+ 3981: 7(f16vec4) CompositeExtract 3980 1
Store 3950(texel) 3981
3982: 47(int) CompositeExtract 3980 0
3983: 224 Load 226(s2DShadow)
3984: 53(fvec2) Load 148(c2)
3985: 52(float) Load 215(compare)
3986:3102(ResType) ImageSparseDrefGather 3983 3984 3985 ConstOffset 722
- 3987: 7(fvec4) CompositeExtract 3986 1
+ 3987: 7(f16vec4) CompositeExtract 3986 1
Store 3950(texel) 3987
3988: 47(int) CompositeExtract 3986 0
3989: 224 Load 226(s2DShadow)
- 3990: 154(fvec2) Load 156(f16c2)
+ 3990:154(f16vec2) Load 156(f16c2)
3991: 52(float) Load 215(compare)
3992:3102(ResType) ImageSparseDrefGather 3989 3990 3991 ConstOffset 722
- 3993: 7(fvec4) CompositeExtract 3992 1
+ 3993: 7(f16vec4) CompositeExtract 3992 1
Store 3950(texel) 3993
3994: 47(int) CompositeExtract 3992 0
3995: 337 Load 339(s2DArrayShadow)
3996: 167(fvec3) Load 169(c3)
3997: 52(float) Load 215(compare)
3998:3102(ResType) ImageSparseDrefGather 3995 3996 3997 ConstOffset 722
- 3999: 7(fvec4) CompositeExtract 3998 1
+ 3999: 7(f16vec4) CompositeExtract 3998 1
Store 3950(texel) 3999
4000: 47(int) CompositeExtract 3998 0
4001: 337 Load 339(s2DArrayShadow)
- 4002: 175(fvec3) Load 177(f16c3)
+ 4002:175(f16vec3) Load 177(f16c3)
4003: 52(float) Load 215(compare)
4004:3102(ResType) ImageSparseDrefGather 4001 4002 4003 ConstOffset 722
- 4005: 7(fvec4) CompositeExtract 4004 1
+ 4005: 7(f16vec4) CompositeExtract 4004 1
Store 3950(texel) 4005
4006: 47(int) CompositeExtract 4004 0
4007: 371 Load 373(s2DRectShadow)
4008: 53(fvec2) Load 148(c2)
4009: 52(float) Load 215(compare)
4010:3102(ResType) ImageSparseDrefGather 4007 4008 4009 ConstOffset 722
- 4011: 7(fvec4) CompositeExtract 4010 1
+ 4011: 7(f16vec4) CompositeExtract 4010 1
Store 3950(texel) 4011
4012: 47(int) CompositeExtract 4010 0
4013: 371 Load 373(s2DRectShadow)
- 4014: 154(fvec2) Load 156(f16c2)
+ 4014:154(f16vec2) Load 156(f16c2)
4015: 52(float) Load 215(compare)
4016:3102(ResType) ImageSparseDrefGather 4013 4014 4015 ConstOffset 722
- 4017: 7(fvec4) CompositeExtract 4016 1
+ 4017: 7(f16vec4) CompositeExtract 4016 1
Store 3950(texel) 4017
4018: 47(int) CompositeExtract 4016 0
- 4019: 7(fvec4) Load 3950(texel)
+ 4019: 7(f16vec4) Load 3950(texel)
ReturnValue 4019
FunctionEnd
-89(testSparseTextureGatherOffsets(): 7(fvec4) Function None 8
+89(testSparseTextureGatherOffsets(): 7(f16vec4) Function None 8
90: Label
4022(texel): 64(ptr) Variable Function
Store 4022(texel) 121
4023: 143 Load 145(s2D)
4024: 53(fvec2) Load 148(c2)
4025:3102(ResType) ImageSparseGather 4023 4024 2187 ConstOffsets 2380
- 4026: 7(fvec4) CompositeExtract 4025 1
+ 4026: 7(f16vec4) CompositeExtract 4025 1
Store 4022(texel) 4026
4027: 47(int) CompositeExtract 4025 0
4028: 143 Load 145(s2D)
- 4029: 154(fvec2) Load 156(f16c2)
- 4030: 6(float) Load 137(f16bias)
+ 4029:154(f16vec2) Load 156(f16c2)
+ 4030:6(float16_t) Load 137(f16bias)
4031:3102(ResType) ImageSparseGather 4028 4029 2187 Bias ConstOffsets 4030 2380
- 4032: 7(fvec4) CompositeExtract 4031 1
+ 4032: 7(f16vec4) CompositeExtract 4031 1
Store 4022(texel) 4032
4033: 47(int) CompositeExtract 4031 0
4034: 284 Load 286(s2DArray)
4035: 167(fvec3) Load 169(c3)
4036:3102(ResType) ImageSparseGather 4034 4035 2187 ConstOffsets 2380
- 4037: 7(fvec4) CompositeExtract 4036 1
+ 4037: 7(f16vec4) CompositeExtract 4036 1
Store 4022(texel) 4037
4038: 47(int) CompositeExtract 4036 0
4039: 284 Load 286(s2DArray)
- 4040: 175(fvec3) Load 177(f16c3)
- 4041: 6(float) Load 137(f16bias)
+ 4040:175(f16vec3) Load 177(f16c3)
+ 4041:6(float16_t) Load 137(f16bias)
4042:3102(ResType) ImageSparseGather 4039 4040 2187 Bias ConstOffsets 4041 2380
- 4043: 7(fvec4) CompositeExtract 4042 1
+ 4043: 7(f16vec4) CompositeExtract 4042 1
Store 4022(texel) 4043
4044: 47(int) CompositeExtract 4042 0
4045: 357 Load 359(s2DRect)
4046: 53(fvec2) Load 148(c2)
4047:3102(ResType) ImageSparseGather 4045 4046 2187 ConstOffsets 2380
- 4048: 7(fvec4) CompositeExtract 4047 1
+ 4048: 7(f16vec4) CompositeExtract 4047 1
Store 4022(texel) 4048
4049: 47(int) CompositeExtract 4047 0
4050: 357 Load 359(s2DRect)
- 4051: 154(fvec2) Load 156(f16c2)
+ 4051:154(f16vec2) Load 156(f16c2)
4052:3102(ResType) ImageSparseGather 4050 4051 2187 ConstOffsets 2380
- 4053: 7(fvec4) CompositeExtract 4052 1
+ 4053: 7(f16vec4) CompositeExtract 4052 1
Store 4022(texel) 4053
4054: 47(int) CompositeExtract 4052 0
4055: 224 Load 226(s2DShadow)
4056: 53(fvec2) Load 148(c2)
4057: 52(float) Load 215(compare)
4058:3102(ResType) ImageSparseDrefGather 4055 4056 4057 ConstOffsets 2380
- 4059: 7(fvec4) CompositeExtract 4058 1
+ 4059: 7(f16vec4) CompositeExtract 4058 1
Store 4022(texel) 4059
4060: 47(int) CompositeExtract 4058 0
4061: 224 Load 226(s2DShadow)
- 4062: 154(fvec2) Load 156(f16c2)
+ 4062:154(f16vec2) Load 156(f16c2)
4063: 52(float) Load 215(compare)
4064:3102(ResType) ImageSparseDrefGather 4061 4062 4063 ConstOffsets 2380
- 4065: 7(fvec4) CompositeExtract 4064 1
+ 4065: 7(f16vec4) CompositeExtract 4064 1
Store 4022(texel) 4065
4066: 47(int) CompositeExtract 4064 0
4067: 337 Load 339(s2DArrayShadow)
4068: 167(fvec3) Load 169(c3)
4069: 52(float) Load 215(compare)
4070:3102(ResType) ImageSparseDrefGather 4067 4068 4069 ConstOffsets 2380
- 4071: 7(fvec4) CompositeExtract 4070 1
+ 4071: 7(f16vec4) CompositeExtract 4070 1
Store 4022(texel) 4071
4072: 47(int) CompositeExtract 4070 0
4073: 337 Load 339(s2DArrayShadow)
- 4074: 175(fvec3) Load 177(f16c3)
+ 4074:175(f16vec3) Load 177(f16c3)
4075: 52(float) Load 215(compare)
4076:3102(ResType) ImageSparseDrefGather 4073 4074 4075 ConstOffsets 2380
- 4077: 7(fvec4) CompositeExtract 4076 1
+ 4077: 7(f16vec4) CompositeExtract 4076 1
Store 4022(texel) 4077
4078: 47(int) CompositeExtract 4076 0
4079: 371 Load 373(s2DRectShadow)
4080: 53(fvec2) Load 148(c2)
4081: 52(float) Load 215(compare)
4082:3102(ResType) ImageSparseDrefGather 4079 4080 4081 ConstOffsets 2380
- 4083: 7(fvec4) CompositeExtract 4082 1
+ 4083: 7(f16vec4) CompositeExtract 4082 1
Store 4022(texel) 4083
4084: 47(int) CompositeExtract 4082 0
4085: 371 Load 373(s2DRectShadow)
- 4086: 154(fvec2) Load 156(f16c2)
+ 4086:154(f16vec2) Load 156(f16c2)
4087: 52(float) Load 215(compare)
4088:3102(ResType) ImageSparseDrefGather 4085 4086 4087 ConstOffsets 2380
- 4089: 7(fvec4) CompositeExtract 4088 1
+ 4089: 7(f16vec4) CompositeExtract 4088 1
Store 4022(texel) 4089
4090: 47(int) CompositeExtract 4088 0
- 4091: 7(fvec4) Load 4022(texel)
+ 4091: 7(f16vec4) Load 4022(texel)
ReturnValue 4091
FunctionEnd
-91(testSparseTextureGatherLod(): 7(fvec4) Function None 8
+91(testSparseTextureGatherLod(): 7(f16vec4) Function None 8
92: Label
4094(texel): 64(ptr) Variable Function
Store 4094(texel) 121
@@ -5211,62 +5211,62 @@ spv.float16Fetch.frag
4096: 53(fvec2) Load 148(c2)
4097: 52(float) Load 565(lod)
4098:3102(ResType) ImageSparseGather 4095 4096 2187 Lod 4097
- 4099: 7(fvec4) CompositeExtract 4098 1
+ 4099: 7(f16vec4) CompositeExtract 4098 1
Store 4094(texel) 4099
4100: 47(int) CompositeExtract 4098 0
4101: 143 Load 145(s2D)
- 4102: 154(fvec2) Load 156(f16c2)
- 4103: 6(float) Load 572(f16lod)
+ 4102:154(f16vec2) Load 156(f16c2)
+ 4103:6(float16_t) Load 572(f16lod)
4104:3102(ResType) ImageSparseGather 4101 4102 2187 Lod 4103
- 4105: 7(fvec4) CompositeExtract 4104 1
+ 4105: 7(f16vec4) CompositeExtract 4104 1
Store 4094(texel) 4105
4106: 47(int) CompositeExtract 4104 0
4107: 284 Load 286(s2DArray)
4108: 167(fvec3) Load 169(c3)
4109: 52(float) Load 565(lod)
4110:3102(ResType) ImageSparseGather 4107 4108 2187 Lod 4109
- 4111: 7(fvec4) CompositeExtract 4110 1
+ 4111: 7(f16vec4) CompositeExtract 4110 1
Store 4094(texel) 4111
4112: 47(int) CompositeExtract 4110 0
4113: 284 Load 286(s2DArray)
- 4114: 175(fvec3) Load 177(f16c3)
- 4115: 6(float) Load 572(f16lod)
+ 4114:175(f16vec3) Load 177(f16c3)
+ 4115:6(float16_t) Load 572(f16lod)
4116:3102(ResType) ImageSparseGather 4113 4114 2187 Lod 4115
- 4117: 7(fvec4) CompositeExtract 4116 1
+ 4117: 7(f16vec4) CompositeExtract 4116 1
Store 4094(texel) 4117
4118: 47(int) CompositeExtract 4116 0
4119: 184 Load 186(sCube)
4120: 167(fvec3) Load 169(c3)
4121: 52(float) Load 565(lod)
4122:3102(ResType) ImageSparseGather 4119 4120 2187 Lod 4121
- 4123: 7(fvec4) CompositeExtract 4122 1
+ 4123: 7(f16vec4) CompositeExtract 4122 1
Store 4094(texel) 4123
4124: 47(int) CompositeExtract 4122 0
4125: 184 Load 186(sCube)
- 4126: 175(fvec3) Load 177(f16c3)
- 4127: 6(float) Load 572(f16lod)
+ 4126:175(f16vec3) Load 177(f16c3)
+ 4127:6(float16_t) Load 572(f16lod)
4128:3102(ResType) ImageSparseGather 4125 4126 2187 Lod 4127
- 4129: 7(fvec4) CompositeExtract 4128 1
+ 4129: 7(f16vec4) CompositeExtract 4128 1
Store 4094(texel) 4129
4130: 47(int) CompositeExtract 4128 0
4131: 299 Load 301(sCubeArray)
4132: 249(fvec4) Load 251(c4)
4133: 52(float) Load 565(lod)
4134:3102(ResType) ImageSparseGather 4131 4132 2187 Lod 4133
- 4135: 7(fvec4) CompositeExtract 4134 1
+ 4135: 7(f16vec4) CompositeExtract 4134 1
Store 4094(texel) 4135
4136: 47(int) CompositeExtract 4134 0
4137: 299 Load 301(sCubeArray)
- 4138: 7(fvec4) Load 309(f16c4)
- 4139: 6(float) Load 572(f16lod)
+ 4138: 7(f16vec4) Load 309(f16c4)
+ 4139:6(float16_t) Load 572(f16lod)
4140:3102(ResType) ImageSparseGather 4137 4138 2187 Lod 4139
- 4141: 7(fvec4) CompositeExtract 4140 1
+ 4141: 7(f16vec4) CompositeExtract 4140 1
Store 4094(texel) 4141
4142: 47(int) CompositeExtract 4140 0
- 4143: 7(fvec4) Load 4094(texel)
+ 4143: 7(f16vec4) Load 4094(texel)
ReturnValue 4143
FunctionEnd
-93(testSparseTextureGatherLodOffset(): 7(fvec4) Function None 8
+93(testSparseTextureGatherLodOffset(): 7(f16vec4) Function None 8
94: Label
4146(texel): 64(ptr) Variable Function
Store 4146(texel) 121
@@ -5274,34 +5274,34 @@ spv.float16Fetch.frag
4148: 53(fvec2) Load 148(c2)
4149: 52(float) Load 565(lod)
4150:3102(ResType) ImageSparseGather 4147 4148 2187 Lod ConstOffset 4149 722
- 4151: 7(fvec4) CompositeExtract 4150 1
+ 4151: 7(f16vec4) CompositeExtract 4150 1
Store 4146(texel) 4151
4152: 47(int) CompositeExtract 4150 0
4153: 143 Load 145(s2D)
- 4154: 154(fvec2) Load 156(f16c2)
- 4155: 6(float) Load 572(f16lod)
+ 4154:154(f16vec2) Load 156(f16c2)
+ 4155:6(float16_t) Load 572(f16lod)
4156:3102(ResType) ImageSparseGather 4153 4154 2187 Lod ConstOffset 4155 722
- 4157: 7(fvec4) CompositeExtract 4156 1
+ 4157: 7(f16vec4) CompositeExtract 4156 1
Store 4146(texel) 4157
4158: 47(int) CompositeExtract 4156 0
4159: 284 Load 286(s2DArray)
4160: 167(fvec3) Load 169(c3)
4161: 52(float) Load 565(lod)
4162:3102(ResType) ImageSparseGather 4159 4160 2187 Lod ConstOffset 4161 722
- 4163: 7(fvec4) CompositeExtract 4162 1
+ 4163: 7(f16vec4) CompositeExtract 4162 1
Store 4146(texel) 4163
4164: 47(int) CompositeExtract 4162 0
4165: 284 Load 286(s2DArray)
- 4166: 175(fvec3) Load 177(f16c3)
- 4167: 6(float) Load 572(f16lod)
+ 4166:175(f16vec3) Load 177(f16c3)
+ 4167:6(float16_t) Load 572(f16lod)
4168:3102(ResType) ImageSparseGather 4165 4166 2187 Lod ConstOffset 4167 722
- 4169: 7(fvec4) CompositeExtract 4168 1
+ 4169: 7(f16vec4) CompositeExtract 4168 1
Store 4146(texel) 4169
4170: 47(int) CompositeExtract 4168 0
- 4171: 7(fvec4) Load 4146(texel)
+ 4171: 7(f16vec4) Load 4146(texel)
ReturnValue 4171
FunctionEnd
-95(testSparseTextureGatherLodOffsets(): 7(fvec4) Function None 8
+95(testSparseTextureGatherLodOffsets(): 7(f16vec4) Function None 8
96: Label
4174(texel): 64(ptr) Variable Function
Store 4174(texel) 121
@@ -5309,34 +5309,34 @@ spv.float16Fetch.frag
4176: 53(fvec2) Load 148(c2)
4177: 52(float) Load 565(lod)
4178:3102(ResType) ImageSparseGather 4175 4176 2187 Lod ConstOffsets 4177 2380
- 4179: 7(fvec4) CompositeExtract 4178 1
+ 4179: 7(f16vec4) CompositeExtract 4178 1
Store 4174(texel) 4179
4180: 47(int) CompositeExtract 4178 0
4181: 143 Load 145(s2D)
- 4182: 154(fvec2) Load 156(f16c2)
- 4183: 6(float) Load 572(f16lod)
+ 4182:154(f16vec2) Load 156(f16c2)
+ 4183:6(float16_t) Load 572(f16lod)
4184:3102(ResType) ImageSparseGather 4181 4182 2187 Lod ConstOffsets 4183 2380
- 4185: 7(fvec4) CompositeExtract 4184 1
+ 4185: 7(f16vec4) CompositeExtract 4184 1
Store 4174(texel) 4185
4186: 47(int) CompositeExtract 4184 0
4187: 284 Load 286(s2DArray)
4188: 167(fvec3) Load 169(c3)
4189: 52(float) Load 565(lod)
4190:3102(ResType) ImageSparseGather 4187 4188 2187 Lod ConstOffsets 4189 2380
- 4191: 7(fvec4) CompositeExtract 4190 1
+ 4191: 7(f16vec4) CompositeExtract 4190 1
Store 4174(texel) 4191
4192: 47(int) CompositeExtract 4190 0
4193: 284 Load 286(s2DArray)
- 4194: 175(fvec3) Load 177(f16c3)
- 4195: 6(float) Load 572(f16lod)
+ 4194:175(f16vec3) Load 177(f16c3)
+ 4195:6(float16_t) Load 572(f16lod)
4196:3102(ResType) ImageSparseGather 4193 4194 2187 Lod ConstOffsets 4195 2380
- 4197: 7(fvec4) CompositeExtract 4196 1
+ 4197: 7(f16vec4) CompositeExtract 4196 1
Store 4174(texel) 4197
4198: 47(int) CompositeExtract 4196 0
- 4199: 7(fvec4) Load 4174(texel)
+ 4199: 7(f16vec4) Load 4174(texel)
ReturnValue 4199
FunctionEnd
-97(testSparseImageLoad(): 7(fvec4) Function None 8
+97(testSparseImageLoad(): 7(f16vec4) Function None 8
98: Label
4202(texel): 64(ptr) Variable Function
Store 4202(texel) 121
@@ -5344,62 +5344,62 @@ spv.float16Fetch.frag
4204: 53(fvec2) Load 148(c2)
4205: 721(ivec2) ConvertFToS 4204
4206:3102(ResType) ImageSparseRead 4203 4205
- 4207: 7(fvec4) CompositeExtract 4206 1
+ 4207: 7(f16vec4) CompositeExtract 4206 1
Store 4202(texel) 4207
4208: 47(int) CompositeExtract 4206 0
4209: 2971 Load 2973(i3D)
4210: 167(fvec3) Load 169(c3)
4211: 734(ivec3) ConvertFToS 4210
4212:3102(ResType) ImageSparseRead 4209 4211
- 4213: 7(fvec4) CompositeExtract 4212 1
+ 4213: 7(f16vec4) CompositeExtract 4212 1
Store 4202(texel) 4213
4214: 47(int) CompositeExtract 4212 0
4215: 2980 Load 2982(i2DRect)
4216: 53(fvec2) Load 148(c2)
4217: 721(ivec2) ConvertFToS 4216
4218:3102(ResType) ImageSparseRead 4215 4217
- 4219: 7(fvec4) CompositeExtract 4218 1
+ 4219: 7(f16vec4) CompositeExtract 4218 1
Store 4202(texel) 4219
4220: 47(int) CompositeExtract 4218 0
4221: 2989 Load 2991(iCube)
4222: 167(fvec3) Load 169(c3)
4223: 734(ivec3) ConvertFToS 4222
4224:3102(ResType) ImageSparseRead 4221 4223
- 4225: 7(fvec4) CompositeExtract 4224 1
+ 4225: 7(f16vec4) CompositeExtract 4224 1
Store 4202(texel) 4225
4226: 47(int) CompositeExtract 4224 0
4227: 3016 Load 3018(i2DArray)
4228: 167(fvec3) Load 169(c3)
4229: 734(ivec3) ConvertFToS 4228
4230:3102(ResType) ImageSparseRead 4227 4229
- 4231: 7(fvec4) CompositeExtract 4230 1
+ 4231: 7(f16vec4) CompositeExtract 4230 1
Store 4202(texel) 4231
4232: 47(int) CompositeExtract 4230 0
4233: 3025 Load 3027(iCubeArray)
4234: 167(fvec3) Load 169(c3)
4235: 734(ivec3) ConvertFToS 4234
4236:3102(ResType) ImageSparseRead 4233 4235
- 4237: 7(fvec4) CompositeExtract 4236 1
+ 4237: 7(f16vec4) CompositeExtract 4236 1
Store 4202(texel) 4237
4238: 47(int) CompositeExtract 4236 0
4239: 3034 Load 3036(i2DMS)
4240: 53(fvec2) Load 148(c2)
4241: 721(ivec2) ConvertFToS 4240
4242:3102(ResType) ImageSparseRead 4239 4241 Sample 709
- 4243: 7(fvec4) CompositeExtract 4242 1
+ 4243: 7(f16vec4) CompositeExtract 4242 1
Store 4202(texel) 4243
4244: 47(int) CompositeExtract 4242 0
4245: 3043 Load 3045(i2DMSArray)
4246: 167(fvec3) Load 169(c3)
4247: 734(ivec3) ConvertFToS 4246
4248:3102(ResType) ImageSparseRead 4245 4247 Sample 1326
- 4249: 7(fvec4) CompositeExtract 4248 1
+ 4249: 7(f16vec4) CompositeExtract 4248 1
Store 4202(texel) 4249
4250: 47(int) CompositeExtract 4248 0
- 4251: 7(fvec4) Load 4202(texel)
+ 4251: 7(f16vec4) Load 4202(texel)
ReturnValue 4251
FunctionEnd
-99(testSparseTextureClamp(): 7(fvec4) Function None 8
+99(testSparseTextureClamp(): 7(f16vec4) Function None 8
100: Label
4254(texel): 64(ptr) Variable Function
Store 4254(texel) 121
@@ -5407,45 +5407,45 @@ spv.float16Fetch.frag
4256: 53(fvec2) Load 148(c2)
4258: 52(float) Load 4257(lodClamp)
4259:3102(ResType) ImageSparseSampleImplicitLod 4255 4256 MinLod 4258
- 4260: 7(fvec4) CompositeExtract 4259 1
+ 4260: 7(f16vec4) CompositeExtract 4259 1
Store 4254(texel) 4260
4261: 47(int) CompositeExtract 4259 0
4262: 143 Load 145(s2D)
- 4263: 154(fvec2) Load 156(f16c2)
- 4265: 6(float) Load 4264(f16lodClamp)
- 4266: 6(float) Load 137(f16bias)
+ 4263:154(f16vec2) Load 156(f16c2)
+ 4265:6(float16_t) Load 4264(f16lodClamp)
+ 4266:6(float16_t) Load 137(f16bias)
4267:3102(ResType) ImageSparseSampleImplicitLod 4262 4263 Bias MinLod 4266 4265
- 4268: 7(fvec4) CompositeExtract 4267 1
+ 4268: 7(f16vec4) CompositeExtract 4267 1
Store 4254(texel) 4268
4269: 47(int) CompositeExtract 4267 0
4270: 163 Load 165(s3D)
4271: 167(fvec3) Load 169(c3)
4272: 52(float) Load 4257(lodClamp)
4273:3102(ResType) ImageSparseSampleImplicitLod 4270 4271 MinLod 4272
- 4274: 7(fvec4) CompositeExtract 4273 1
+ 4274: 7(f16vec4) CompositeExtract 4273 1
Store 4254(texel) 4274
4275: 47(int) CompositeExtract 4273 0
4276: 163 Load 165(s3D)
- 4277: 175(fvec3) Load 177(f16c3)
- 4278: 6(float) Load 4264(f16lodClamp)
- 4279: 6(float) Load 137(f16bias)
+ 4277:175(f16vec3) Load 177(f16c3)
+ 4278:6(float16_t) Load 4264(f16lodClamp)
+ 4279:6(float16_t) Load 137(f16bias)
4280:3102(ResType) ImageSparseSampleImplicitLod 4276 4277 Bias MinLod 4279 4278
- 4281: 7(fvec4) CompositeExtract 4280 1
+ 4281: 7(f16vec4) CompositeExtract 4280 1
Store 4254(texel) 4281
4282: 47(int) CompositeExtract 4280 0
4283: 184 Load 186(sCube)
4284: 167(fvec3) Load 169(c3)
4285: 52(float) Load 4257(lodClamp)
4286:3102(ResType) ImageSparseSampleImplicitLod 4283 4284 MinLod 4285
- 4287: 7(fvec4) CompositeExtract 4286 1
+ 4287: 7(f16vec4) CompositeExtract 4286 1
Store 4254(texel) 4287
4288: 47(int) CompositeExtract 4286 0
4289: 184 Load 186(sCube)
- 4290: 175(fvec3) Load 177(f16c3)
- 4291: 6(float) Load 4264(f16lodClamp)
- 4292: 6(float) Load 137(f16bias)
+ 4290:175(f16vec3) Load 177(f16c3)
+ 4291:6(float16_t) Load 4264(f16lodClamp)
+ 4292:6(float16_t) Load 137(f16bias)
4293:3102(ResType) ImageSparseSampleImplicitLod 4289 4290 Bias MinLod 4292 4291
- 4294: 7(fvec4) CompositeExtract 4293 1
+ 4294: 7(f16vec4) CompositeExtract 4293 1
Store 4254(texel) 4294
4295: 47(int) CompositeExtract 4293 0
4296: 224 Load 226(s2DShadow)
@@ -5454,17 +5454,17 @@ spv.float16Fetch.frag
4299: 208(ptr) AccessChain 4254(texel) 207
4300: 52(float) CompositeExtract 4297 2
4301:3138(ResType) ImageSparseSampleDrefImplicitLod 4296 4297 4300 MinLod 4298
- 4302: 6(float) CompositeExtract 4301 1
+ 4302:6(float16_t) CompositeExtract 4301 1
Store 4299 4302
4303: 47(int) CompositeExtract 4301 0
4304: 224 Load 226(s2DShadow)
- 4305: 154(fvec2) Load 156(f16c2)
+ 4305:154(f16vec2) Load 156(f16c2)
4306: 52(float) Load 215(compare)
- 4307: 6(float) Load 4264(f16lodClamp)
+ 4307:6(float16_t) Load 4264(f16lodClamp)
4308: 208(ptr) AccessChain 4254(texel) 207
- 4309: 6(float) Load 137(f16bias)
+ 4309:6(float16_t) Load 137(f16bias)
4310:3138(ResType) ImageSparseSampleDrefImplicitLod 4304 4305 4306 Bias MinLod 4309 4307
- 4311: 6(float) CompositeExtract 4310 1
+ 4311:6(float16_t) CompositeExtract 4310 1
Store 4308 4311
4312: 47(int) CompositeExtract 4310 0
4313: 245 Load 247(sCubeShadow)
@@ -5473,47 +5473,47 @@ spv.float16Fetch.frag
4316: 208(ptr) AccessChain 4254(texel) 207
4317: 52(float) CompositeExtract 4314 3
4318:3138(ResType) ImageSparseSampleDrefImplicitLod 4313 4314 4317 MinLod 4315
- 4319: 6(float) CompositeExtract 4318 1
+ 4319:6(float16_t) CompositeExtract 4318 1
Store 4316 4319
4320: 47(int) CompositeExtract 4318 0
4321: 245 Load 247(sCubeShadow)
- 4322: 175(fvec3) Load 177(f16c3)
+ 4322:175(f16vec3) Load 177(f16c3)
4323: 52(float) Load 215(compare)
- 4324: 6(float) Load 4264(f16lodClamp)
+ 4324:6(float16_t) Load 4264(f16lodClamp)
4325: 208(ptr) AccessChain 4254(texel) 207
- 4326: 6(float) Load 137(f16bias)
+ 4326:6(float16_t) Load 137(f16bias)
4327:3138(ResType) ImageSparseSampleDrefImplicitLod 4321 4322 4323 Bias MinLod 4326 4324
- 4328: 6(float) CompositeExtract 4327 1
+ 4328:6(float16_t) CompositeExtract 4327 1
Store 4325 4328
4329: 47(int) CompositeExtract 4327 0
4330: 284 Load 286(s2DArray)
4331: 167(fvec3) Load 169(c3)
4332: 52(float) Load 4257(lodClamp)
4333:3102(ResType) ImageSparseSampleImplicitLod 4330 4331 MinLod 4332
- 4334: 7(fvec4) CompositeExtract 4333 1
+ 4334: 7(f16vec4) CompositeExtract 4333 1
Store 4254(texel) 4334
4335: 47(int) CompositeExtract 4333 0
4336: 284 Load 286(s2DArray)
- 4337: 175(fvec3) Load 177(f16c3)
- 4338: 6(float) Load 4264(f16lodClamp)
- 4339: 6(float) Load 137(f16bias)
+ 4337:175(f16vec3) Load 177(f16c3)
+ 4338:6(float16_t) Load 4264(f16lodClamp)
+ 4339:6(float16_t) Load 137(f16bias)
4340:3102(ResType) ImageSparseSampleImplicitLod 4336 4337 Bias MinLod 4339 4338
- 4341: 7(fvec4) CompositeExtract 4340 1
+ 4341: 7(f16vec4) CompositeExtract 4340 1
Store 4254(texel) 4341
4342: 47(int) CompositeExtract 4340 0
4343: 299 Load 301(sCubeArray)
4344: 249(fvec4) Load 251(c4)
4345: 52(float) Load 4257(lodClamp)
4346:3102(ResType) ImageSparseSampleImplicitLod 4343 4344 MinLod 4345
- 4347: 7(fvec4) CompositeExtract 4346 1
+ 4347: 7(f16vec4) CompositeExtract 4346 1
Store 4254(texel) 4347
4348: 47(int) CompositeExtract 4346 0
4349: 299 Load 301(sCubeArray)
- 4350: 7(fvec4) Load 309(f16c4)
- 4351: 6(float) Load 4264(f16lodClamp)
- 4352: 6(float) Load 137(f16bias)
+ 4350: 7(f16vec4) Load 309(f16c4)
+ 4351:6(float16_t) Load 4264(f16lodClamp)
+ 4352:6(float16_t) Load 137(f16bias)
4353:3102(ResType) ImageSparseSampleImplicitLod 4349 4350 Bias MinLod 4352 4351
- 4354: 7(fvec4) CompositeExtract 4353 1
+ 4354: 7(f16vec4) CompositeExtract 4353 1
Store 4254(texel) 4354
4355: 47(int) CompositeExtract 4353 0
4356: 337 Load 339(s2DArrayShadow)
@@ -5522,16 +5522,16 @@ spv.float16Fetch.frag
4359: 208(ptr) AccessChain 4254(texel) 207
4360: 52(float) CompositeExtract 4357 3
4361:3138(ResType) ImageSparseSampleDrefImplicitLod 4356 4357 4360 MinLod 4358
- 4362: 6(float) CompositeExtract 4361 1
+ 4362:6(float16_t) CompositeExtract 4361 1
Store 4359 4362
4363: 47(int) CompositeExtract 4361 0
4364: 337 Load 339(s2DArrayShadow)
- 4365: 175(fvec3) Load 177(f16c3)
+ 4365:175(f16vec3) Load 177(f16c3)
4366: 52(float) Load 215(compare)
- 4367: 6(float) Load 4264(f16lodClamp)
+ 4367:6(float16_t) Load 4264(f16lodClamp)
4368: 208(ptr) AccessChain 4254(texel) 207
4369:3138(ResType) ImageSparseSampleDrefImplicitLod 4364 4365 4366 MinLod 4367
- 4370: 6(float) CompositeExtract 4369 1
+ 4370:6(float16_t) CompositeExtract 4369 1
Store 4368 4370
4371: 47(int) CompositeExtract 4369 0
4372: 391 Load 393(sCubeArrayShadow)
@@ -5540,258 +5540,258 @@ spv.float16Fetch.frag
4375: 52(float) Load 4257(lodClamp)
4376: 208(ptr) AccessChain 4254(texel) 207
4377:3138(ResType) ImageSparseSampleDrefImplicitLod 4372 4373 4374 MinLod 4375
- 4378: 6(float) CompositeExtract 4377 1
+ 4378:6(float16_t) CompositeExtract 4377 1
Store 4376 4378
4379: 47(int) CompositeExtract 4377 0
4380: 391 Load 393(sCubeArrayShadow)
- 4381: 7(fvec4) Load 309(f16c4)
+ 4381: 7(f16vec4) Load 309(f16c4)
4382: 52(float) Load 215(compare)
- 4383: 6(float) Load 4264(f16lodClamp)
+ 4383:6(float16_t) Load 4264(f16lodClamp)
4384: 208(ptr) AccessChain 4254(texel) 207
4385:3138(ResType) ImageSparseSampleDrefImplicitLod 4380 4381 4382 MinLod 4383
- 4386: 6(float) CompositeExtract 4385 1
+ 4386:6(float16_t) CompositeExtract 4385 1
Store 4384 4386
4387: 47(int) CompositeExtract 4385 0
- 4388: 7(fvec4) Load 4254(texel)
+ 4388: 7(f16vec4) Load 4254(texel)
ReturnValue 4388
FunctionEnd
-101(testTextureClamp(): 7(fvec4) Function None 8
+101(testTextureClamp(): 7(f16vec4) Function None 8
102: Label
4391(texel): 64(ptr) Variable Function
Store 4391(texel) 121
4392: 123 Load 125(s1D)
4393: 52(float) Load 128(c1)
4394: 52(float) Load 4257(lodClamp)
- 4395: 7(fvec4) ImageSampleImplicitLod 4392 4393 MinLod 4394
- 4396: 7(fvec4) Load 4391(texel)
- 4397: 7(fvec4) FAdd 4396 4395
+ 4395: 7(f16vec4) ImageSampleImplicitLod 4392 4393 MinLod 4394
+ 4396: 7(f16vec4) Load 4391(texel)
+ 4397: 7(f16vec4) FAdd 4396 4395
Store 4391(texel) 4397
4398: 123 Load 125(s1D)
- 4399: 6(float) Load 135(f16c1)
- 4400: 6(float) Load 4264(f16lodClamp)
- 4401: 6(float) Load 137(f16bias)
- 4402: 7(fvec4) ImageSampleImplicitLod 4398 4399 Bias MinLod 4401 4400
- 4403: 7(fvec4) Load 4391(texel)
- 4404: 7(fvec4) FAdd 4403 4402
+ 4399:6(float16_t) Load 135(f16c1)
+ 4400:6(float16_t) Load 4264(f16lodClamp)
+ 4401:6(float16_t) Load 137(f16bias)
+ 4402: 7(f16vec4) ImageSampleImplicitLod 4398 4399 Bias MinLod 4401 4400
+ 4403: 7(f16vec4) Load 4391(texel)
+ 4404: 7(f16vec4) FAdd 4403 4402
Store 4391(texel) 4404
4405: 143 Load 145(s2D)
4406: 53(fvec2) Load 148(c2)
4407: 52(float) Load 4257(lodClamp)
- 4408: 7(fvec4) ImageSampleImplicitLod 4405 4406 MinLod 4407
- 4409: 7(fvec4) Load 4391(texel)
- 4410: 7(fvec4) FAdd 4409 4408
+ 4408: 7(f16vec4) ImageSampleImplicitLod 4405 4406 MinLod 4407
+ 4409: 7(f16vec4) Load 4391(texel)
+ 4410: 7(f16vec4) FAdd 4409 4408
Store 4391(texel) 4410
4411: 143 Load 145(s2D)
- 4412: 154(fvec2) Load 156(f16c2)
- 4413: 6(float) Load 4264(f16lodClamp)
- 4414: 6(float) Load 137(f16bias)
- 4415: 7(fvec4) ImageSampleImplicitLod 4411 4412 Bias MinLod 4414 4413
- 4416: 7(fvec4) Load 4391(texel)
- 4417: 7(fvec4) FAdd 4416 4415
+ 4412:154(f16vec2) Load 156(f16c2)
+ 4413:6(float16_t) Load 4264(f16lodClamp)
+ 4414:6(float16_t) Load 137(f16bias)
+ 4415: 7(f16vec4) ImageSampleImplicitLod 4411 4412 Bias MinLod 4414 4413
+ 4416: 7(f16vec4) Load 4391(texel)
+ 4417: 7(f16vec4) FAdd 4416 4415
Store 4391(texel) 4417
4418: 163 Load 165(s3D)
4419: 167(fvec3) Load 169(c3)
4420: 52(float) Load 4257(lodClamp)
- 4421: 7(fvec4) ImageSampleImplicitLod 4418 4419 MinLod 4420
- 4422: 7(fvec4) Load 4391(texel)
- 4423: 7(fvec4) FAdd 4422 4421
+ 4421: 7(f16vec4) ImageSampleImplicitLod 4418 4419 MinLod 4420
+ 4422: 7(f16vec4) Load 4391(texel)
+ 4423: 7(f16vec4) FAdd 4422 4421
Store 4391(texel) 4423
4424: 163 Load 165(s3D)
- 4425: 175(fvec3) Load 177(f16c3)
- 4426: 6(float) Load 4264(f16lodClamp)
- 4427: 6(float) Load 137(f16bias)
- 4428: 7(fvec4) ImageSampleImplicitLod 4424 4425 Bias MinLod 4427 4426
- 4429: 7(fvec4) Load 4391(texel)
- 4430: 7(fvec4) FAdd 4429 4428
+ 4425:175(f16vec3) Load 177(f16c3)
+ 4426:6(float16_t) Load 4264(f16lodClamp)
+ 4427:6(float16_t) Load 137(f16bias)
+ 4428: 7(f16vec4) ImageSampleImplicitLod 4424 4425 Bias MinLod 4427 4426
+ 4429: 7(f16vec4) Load 4391(texel)
+ 4430: 7(f16vec4) FAdd 4429 4428
Store 4391(texel) 4430
4431: 184 Load 186(sCube)
4432: 167(fvec3) Load 169(c3)
4433: 52(float) Load 4257(lodClamp)
- 4434: 7(fvec4) ImageSampleImplicitLod 4431 4432 MinLod 4433
- 4435: 7(fvec4) Load 4391(texel)
- 4436: 7(fvec4) FAdd 4435 4434
+ 4434: 7(f16vec4) ImageSampleImplicitLod 4431 4432 MinLod 4433
+ 4435: 7(f16vec4) Load 4391(texel)
+ 4436: 7(f16vec4) FAdd 4435 4434
Store 4391(texel) 4436
4437: 184 Load 186(sCube)
- 4438: 175(fvec3) Load 177(f16c3)
- 4439: 6(float) Load 4264(f16lodClamp)
- 4440: 6(float) Load 137(f16bias)
- 4441: 7(fvec4) ImageSampleImplicitLod 4437 4438 Bias MinLod 4440 4439
- 4442: 7(fvec4) Load 4391(texel)
- 4443: 7(fvec4) FAdd 4442 4441
+ 4438:175(f16vec3) Load 177(f16c3)
+ 4439:6(float16_t) Load 4264(f16lodClamp)
+ 4440:6(float16_t) Load 137(f16bias)
+ 4441: 7(f16vec4) ImageSampleImplicitLod 4437 4438 Bias MinLod 4440 4439
+ 4442: 7(f16vec4) Load 4391(texel)
+ 4443: 7(f16vec4) FAdd 4442 4441
Store 4391(texel) 4443
4444: 199 Load 201(s1DShadow)
4445: 167(fvec3) Load 169(c3)
4446: 52(float) Load 4257(lodClamp)
4447: 52(float) CompositeExtract 4445 2
- 4448: 6(float) ImageSampleDrefImplicitLod 4444 4445 4447 MinLod 4446
+ 4448:6(float16_t) ImageSampleDrefImplicitLod 4444 4445 4447 MinLod 4446
4449: 208(ptr) AccessChain 4391(texel) 207
- 4450: 6(float) Load 4449
- 4451: 6(float) FAdd 4450 4448
+ 4450:6(float16_t) Load 4449
+ 4451:6(float16_t) FAdd 4450 4448
4452: 208(ptr) AccessChain 4391(texel) 207
Store 4452 4451
4453: 199 Load 201(s1DShadow)
- 4454: 154(fvec2) Load 156(f16c2)
+ 4454:154(f16vec2) Load 156(f16c2)
4455: 52(float) Load 215(compare)
- 4456: 6(float) Load 4264(f16lodClamp)
- 4457: 6(float) Load 137(f16bias)
- 4458: 6(float) ImageSampleDrefImplicitLod 4453 4454 4455 Bias MinLod 4457 4456
+ 4456:6(float16_t) Load 4264(f16lodClamp)
+ 4457:6(float16_t) Load 137(f16bias)
+ 4458:6(float16_t) ImageSampleDrefImplicitLod 4453 4454 4455 Bias MinLod 4457 4456
4459: 208(ptr) AccessChain 4391(texel) 207
- 4460: 6(float) Load 4459
- 4461: 6(float) FAdd 4460 4458
+ 4460:6(float16_t) Load 4459
+ 4461:6(float16_t) FAdd 4460 4458
4462: 208(ptr) AccessChain 4391(texel) 207
Store 4462 4461
4463: 224 Load 226(s2DShadow)
4464: 167(fvec3) Load 169(c3)
4465: 52(float) Load 4257(lodClamp)
4466: 52(float) CompositeExtract 4464 2
- 4467: 6(float) ImageSampleDrefImplicitLod 4463 4464 4466 MinLod 4465
+ 4467:6(float16_t) ImageSampleDrefImplicitLod 4463 4464 4466 MinLod 4465
4468: 208(ptr) AccessChain 4391(texel) 207
- 4469: 6(float) Load 4468
- 4470: 6(float) FAdd 4469 4467
+ 4469:6(float16_t) Load 4468
+ 4470:6(float16_t) FAdd 4469 4467
4471: 208(ptr) AccessChain 4391(texel) 207
Store 4471 4470
4472: 224 Load 226(s2DShadow)
- 4473: 154(fvec2) Load 156(f16c2)
+ 4473:154(f16vec2) Load 156(f16c2)
4474: 52(float) Load 215(compare)
- 4475: 6(float) Load 4264(f16lodClamp)
- 4476: 6(float) Load 137(f16bias)
- 4477: 6(float) ImageSampleDrefImplicitLod 4472 4473 4474 Bias MinLod 4476 4475
+ 4475:6(float16_t) Load 4264(f16lodClamp)
+ 4476:6(float16_t) Load 137(f16bias)
+ 4477:6(float16_t) ImageSampleDrefImplicitLod 4472 4473 4474 Bias MinLod 4476 4475
4478: 208(ptr) AccessChain 4391(texel) 207
- 4479: 6(float) Load 4478
- 4480: 6(float) FAdd 4479 4477
+ 4479:6(float16_t) Load 4478
+ 4480:6(float16_t) FAdd 4479 4477
4481: 208(ptr) AccessChain 4391(texel) 207
Store 4481 4480
4482: 245 Load 247(sCubeShadow)
4483: 249(fvec4) Load 251(c4)
4484: 52(float) Load 4257(lodClamp)
4485: 52(float) CompositeExtract 4483 3
- 4486: 6(float) ImageSampleDrefImplicitLod 4482 4483 4485 MinLod 4484
+ 4486:6(float16_t) ImageSampleDrefImplicitLod 4482 4483 4485 MinLod 4484
4487: 208(ptr) AccessChain 4391(texel) 207
- 4488: 6(float) Load 4487
- 4489: 6(float) FAdd 4488 4486
+ 4488:6(float16_t) Load 4487
+ 4489:6(float16_t) FAdd 4488 4486
4490: 208(ptr) AccessChain 4391(texel) 207
Store 4490 4489
4491: 245 Load 247(sCubeShadow)
- 4492: 175(fvec3) Load 177(f16c3)
+ 4492:175(f16vec3) Load 177(f16c3)
4493: 52(float) Load 215(compare)
- 4494: 6(float) Load 4264(f16lodClamp)
- 4495: 6(float) Load 137(f16bias)
- 4496: 6(float) ImageSampleDrefImplicitLod 4491 4492 4493 Bias MinLod 4495 4494
+ 4494:6(float16_t) Load 4264(f16lodClamp)
+ 4495:6(float16_t) Load 137(f16bias)
+ 4496:6(float16_t) ImageSampleDrefImplicitLod 4491 4492 4493 Bias MinLod 4495 4494
4497: 208(ptr) AccessChain 4391(texel) 207
- 4498: 6(float) Load 4497
- 4499: 6(float) FAdd 4498 4496
+ 4498:6(float16_t) Load 4497
+ 4499:6(float16_t) FAdd 4498 4496
4500: 208(ptr) AccessChain 4391(texel) 207
Store 4500 4499
4501: 269 Load 271(s1DArray)
4502: 53(fvec2) Load 148(c2)
4503: 52(float) Load 4257(lodClamp)
- 4504: 7(fvec4) ImageSampleImplicitLod 4501 4502 MinLod 4503
- 4505: 7(fvec4) Load 4391(texel)
- 4506: 7(fvec4) FAdd 4505 4504
+ 4504: 7(f16vec4) ImageSampleImplicitLod 4501 4502 MinLod 4503
+ 4505: 7(f16vec4) Load 4391(texel)
+ 4506: 7(f16vec4) FAdd 4505 4504
Store 4391(texel) 4506
4507: 269 Load 271(s1DArray)
- 4508: 154(fvec2) Load 156(f16c2)
- 4509: 6(float) Load 4264(f16lodClamp)
- 4510: 6(float) Load 137(f16bias)
- 4511: 7(fvec4) ImageSampleImplicitLod 4507 4508 Bias MinLod 4510 4509
- 4512: 7(fvec4) Load 4391(texel)
- 4513: 7(fvec4) FAdd 4512 4511
+ 4508:154(f16vec2) Load 156(f16c2)
+ 4509:6(float16_t) Load 4264(f16lodClamp)
+ 4510:6(float16_t) Load 137(f16bias)
+ 4511: 7(f16vec4) ImageSampleImplicitLod 4507 4508 Bias MinLod 4510 4509
+ 4512: 7(f16vec4) Load 4391(texel)
+ 4513: 7(f16vec4) FAdd 4512 4511
Store 4391(texel) 4513
4514: 284 Load 286(s2DArray)
4515: 167(fvec3) Load 169(c3)
4516: 52(float) Load 4257(lodClamp)
- 4517: 7(fvec4) ImageSampleImplicitLod 4514 4515 MinLod 4516
- 4518: 7(fvec4) Load 4391(texel)
- 4519: 7(fvec4) FAdd 4518 4517
+ 4517: 7(f16vec4) ImageSampleImplicitLod 4514 4515 MinLod 4516
+ 4518: 7(f16vec4) Load 4391(texel)
+ 4519: 7(f16vec4) FAdd 4518 4517
Store 4391(texel) 4519
4520: 284 Load 286(s2DArray)
- 4521: 175(fvec3) Load 177(f16c3)
- 4522: 6(float) Load 4264(f16lodClamp)
- 4523: 6(float) Load 137(f16bias)
- 4524: 7(fvec4) ImageSampleImplicitLod 4520 4521 Bias MinLod 4523 4522
- 4525: 7(fvec4) Load 4391(texel)
- 4526: 7(fvec4) FAdd 4525 4524
+ 4521:175(f16vec3) Load 177(f16c3)
+ 4522:6(float16_t) Load 4264(f16lodClamp)
+ 4523:6(float16_t) Load 137(f16bias)
+ 4524: 7(f16vec4) ImageSampleImplicitLod 4520 4521 Bias MinLod 4523 4522
+ 4525: 7(f16vec4) Load 4391(texel)
+ 4526: 7(f16vec4) FAdd 4525 4524
Store 4391(texel) 4526
4527: 299 Load 301(sCubeArray)
4528: 249(fvec4) Load 251(c4)
4529: 52(float) Load 4257(lodClamp)
- 4530: 7(fvec4) ImageSampleImplicitLod 4527 4528 MinLod 4529
- 4531: 7(fvec4) Load 4391(texel)
- 4532: 7(fvec4) FAdd 4531 4530
+ 4530: 7(f16vec4) ImageSampleImplicitLod 4527 4528 MinLod 4529
+ 4531: 7(f16vec4) Load 4391(texel)
+ 4532: 7(f16vec4) FAdd 4531 4530
Store 4391(texel) 4532
4533: 299 Load 301(sCubeArray)
- 4534: 7(fvec4) Load 309(f16c4)
- 4535: 6(float) Load 4264(f16lodClamp)
- 4536: 6(float) Load 137(f16bias)
- 4537: 7(fvec4) ImageSampleImplicitLod 4533 4534 Bias MinLod 4536 4535
- 4538: 7(fvec4) Load 4391(texel)
- 4539: 7(fvec4) FAdd 4538 4537
+ 4534: 7(f16vec4) Load 309(f16c4)
+ 4535:6(float16_t) Load 4264(f16lodClamp)
+ 4536:6(float16_t) Load 137(f16bias)
+ 4537: 7(f16vec4) ImageSampleImplicitLod 4533 4534 Bias MinLod 4536 4535
+ 4538: 7(f16vec4) Load 4391(texel)
+ 4539: 7(f16vec4) FAdd 4538 4537
Store 4391(texel) 4539
4540: 316 Load 318(s1DArrayShadow)
4541: 167(fvec3) Load 169(c3)
4542: 52(float) Load 4257(lodClamp)
4543: 52(float) CompositeExtract 4541 2
- 4544: 6(float) ImageSampleDrefImplicitLod 4540 4541 4543 MinLod 4542
+ 4544:6(float16_t) ImageSampleDrefImplicitLod 4540 4541 4543 MinLod 4542
4545: 208(ptr) AccessChain 4391(texel) 207
- 4546: 6(float) Load 4545
- 4547: 6(float) FAdd 4546 4544
+ 4546:6(float16_t) Load 4545
+ 4547:6(float16_t) FAdd 4546 4544
4548: 208(ptr) AccessChain 4391(texel) 207
Store 4548 4547
4549: 316 Load 318(s1DArrayShadow)
- 4550: 154(fvec2) Load 156(f16c2)
+ 4550:154(f16vec2) Load 156(f16c2)
4551: 52(float) Load 215(compare)
- 4552: 6(float) Load 4264(f16lodClamp)
- 4553: 6(float) Load 137(f16bias)
- 4554: 6(float) ImageSampleDrefImplicitLod 4549 4550 4551 Bias MinLod 4553 4552
+ 4552:6(float16_t) Load 4264(f16lodClamp)
+ 4553:6(float16_t) Load 137(f16bias)
+ 4554:6(float16_t) ImageSampleDrefImplicitLod 4549 4550 4551 Bias MinLod 4553 4552
4555: 208(ptr) AccessChain 4391(texel) 207
- 4556: 6(float) Load 4555
- 4557: 6(float) FAdd 4556 4554
+ 4556:6(float16_t) Load 4555
+ 4557:6(float16_t) FAdd 4556 4554
4558: 208(ptr) AccessChain 4391(texel) 207
Store 4558 4557
4559: 337 Load 339(s2DArrayShadow)
4560: 249(fvec4) Load 251(c4)
4561: 52(float) Load 4257(lodClamp)
4562: 52(float) CompositeExtract 4560 3
- 4563: 6(float) ImageSampleDrefImplicitLod 4559 4560 4562 MinLod 4561
+ 4563:6(float16_t) ImageSampleDrefImplicitLod 4559 4560 4562 MinLod 4561
4564: 208(ptr) AccessChain 4391(texel) 207
- 4565: 6(float) Load 4564
- 4566: 6(float) FAdd 4565 4563
+ 4565:6(float16_t) Load 4564
+ 4566:6(float16_t) FAdd 4565 4563
4567: 208(ptr) AccessChain 4391(texel) 207
Store 4567 4566
4568: 337 Load 339(s2DArrayShadow)
- 4569: 175(fvec3) Load 177(f16c3)
+ 4569:175(f16vec3) Load 177(f16c3)
4570: 52(float) Load 215(compare)
- 4571: 6(float) Load 4264(f16lodClamp)
- 4572: 6(float) ImageSampleDrefImplicitLod 4568 4569 4570 MinLod 4571
+ 4571:6(float16_t) Load 4264(f16lodClamp)
+ 4572:6(float16_t) ImageSampleDrefImplicitLod 4568 4569 4570 MinLod 4571
4573: 208(ptr) AccessChain 4391(texel) 207
- 4574: 6(float) Load 4573
- 4575: 6(float) FAdd 4574 4572
+ 4574:6(float16_t) Load 4573
+ 4575:6(float16_t) FAdd 4574 4572
4576: 208(ptr) AccessChain 4391(texel) 207
Store 4576 4575
4577: 391 Load 393(sCubeArrayShadow)
4578: 249(fvec4) Load 251(c4)
4579: 52(float) Load 215(compare)
4580: 52(float) Load 4257(lodClamp)
- 4581: 6(float) ImageSampleDrefImplicitLod 4577 4578 4579 MinLod 4580
+ 4581:6(float16_t) ImageSampleDrefImplicitLod 4577 4578 4579 MinLod 4580
4582: 208(ptr) AccessChain 4391(texel) 207
- 4583: 6(float) Load 4582
- 4584: 6(float) FAdd 4583 4581
+ 4583:6(float16_t) Load 4582
+ 4584:6(float16_t) FAdd 4583 4581
4585: 208(ptr) AccessChain 4391(texel) 207
Store 4585 4584
4586: 391 Load 393(sCubeArrayShadow)
- 4587: 7(fvec4) Load 309(f16c4)
+ 4587: 7(f16vec4) Load 309(f16c4)
4588: 52(float) Load 215(compare)
- 4589: 6(float) Load 4264(f16lodClamp)
- 4590: 6(float) ImageSampleDrefImplicitLod 4586 4587 4588 MinLod 4589
+ 4589:6(float16_t) Load 4264(f16lodClamp)
+ 4590:6(float16_t) ImageSampleDrefImplicitLod 4586 4587 4588 MinLod 4589
4591: 208(ptr) AccessChain 4391(texel) 207
- 4592: 6(float) Load 4591
- 4593: 6(float) FAdd 4592 4590
+ 4592:6(float16_t) Load 4591
+ 4593:6(float16_t) FAdd 4592 4590
4594: 208(ptr) AccessChain 4391(texel) 207
Store 4594 4593
- 4595: 7(fvec4) Load 4391(texel)
+ 4595: 7(f16vec4) Load 4391(texel)
ReturnValue 4595
FunctionEnd
-103(testSparseTextureOffsetClamp(): 7(fvec4) Function None 8
+103(testSparseTextureOffsetClamp(): 7(f16vec4) Function None 8
104: Label
4598(texel): 64(ptr) Variable Function
Store 4598(texel) 121
@@ -5799,30 +5799,30 @@ spv.float16Fetch.frag
4600: 53(fvec2) Load 148(c2)
4601: 52(float) Load 4257(lodClamp)
4602:3102(ResType) ImageSparseSampleImplicitLod 4599 4600 ConstOffset MinLod 722 4601
- 4603: 7(fvec4) CompositeExtract 4602 1
+ 4603: 7(f16vec4) CompositeExtract 4602 1
Store 4598(texel) 4603
4604: 47(int) CompositeExtract 4602 0
4605: 143 Load 145(s2D)
- 4606: 154(fvec2) Load 156(f16c2)
- 4607: 6(float) Load 4264(f16lodClamp)
- 4608: 6(float) Load 137(f16bias)
+ 4606:154(f16vec2) Load 156(f16c2)
+ 4607:6(float16_t) Load 4264(f16lodClamp)
+ 4608:6(float16_t) Load 137(f16bias)
4609:3102(ResType) ImageSparseSampleImplicitLod 4605 4606 Bias ConstOffset MinLod 4608 722 4607
- 4610: 7(fvec4) CompositeExtract 4609 1
+ 4610: 7(f16vec4) CompositeExtract 4609 1
Store 4598(texel) 4610
4611: 47(int) CompositeExtract 4609 0
4612: 163 Load 165(s3D)
4613: 167(fvec3) Load 169(c3)
4614: 52(float) Load 4257(lodClamp)
4615:3102(ResType) ImageSparseSampleImplicitLod 4612 4613 ConstOffset MinLod 735 4614
- 4616: 7(fvec4) CompositeExtract 4615 1
+ 4616: 7(f16vec4) CompositeExtract 4615 1
Store 4598(texel) 4616
4617: 47(int) CompositeExtract 4615 0
4618: 163 Load 165(s3D)
- 4619: 175(fvec3) Load 177(f16c3)
- 4620: 6(float) Load 4264(f16lodClamp)
- 4621: 6(float) Load 137(f16bias)
+ 4619:175(f16vec3) Load 177(f16c3)
+ 4620:6(float16_t) Load 4264(f16lodClamp)
+ 4621:6(float16_t) Load 137(f16bias)
4622:3102(ResType) ImageSparseSampleImplicitLod 4618 4619 Bias ConstOffset MinLod 4621 735 4620
- 4623: 7(fvec4) CompositeExtract 4622 1
+ 4623: 7(f16vec4) CompositeExtract 4622 1
Store 4598(texel) 4623
4624: 47(int) CompositeExtract 4622 0
4625: 224 Load 226(s2DShadow)
@@ -5831,32 +5831,32 @@ spv.float16Fetch.frag
4628: 208(ptr) AccessChain 4598(texel) 207
4629: 52(float) CompositeExtract 4626 2
4630:3138(ResType) ImageSparseSampleDrefImplicitLod 4625 4626 4629 ConstOffset MinLod 722 4627
- 4631: 6(float) CompositeExtract 4630 1
+ 4631:6(float16_t) CompositeExtract 4630 1
Store 4628 4631
4632: 47(int) CompositeExtract 4630 0
4633: 224 Load 226(s2DShadow)
- 4634: 154(fvec2) Load 156(f16c2)
+ 4634:154(f16vec2) Load 156(f16c2)
4635: 52(float) Load 215(compare)
- 4636: 6(float) Load 4264(f16lodClamp)
+ 4636:6(float16_t) Load 4264(f16lodClamp)
4637: 208(ptr) AccessChain 4598(texel) 207
- 4638: 6(float) Load 137(f16bias)
+ 4638:6(float16_t) Load 137(f16bias)
4639:3138(ResType) ImageSparseSampleDrefImplicitLod 4633 4634 4635 Bias ConstOffset MinLod 4638 722 4636
- 4640: 6(float) CompositeExtract 4639 1
+ 4640:6(float16_t) CompositeExtract 4639 1
Store 4637 4640
4641: 47(int) CompositeExtract 4639 0
4642: 284 Load 286(s2DArray)
4643: 167(fvec3) Load 169(c3)
4644: 52(float) Load 4257(lodClamp)
4645:3102(ResType) ImageSparseSampleImplicitLod 4642 4643 ConstOffset MinLod 722 4644
- 4646: 7(fvec4) CompositeExtract 4645 1
+ 4646: 7(f16vec4) CompositeExtract 4645 1
Store 4598(texel) 4646
4647: 47(int) CompositeExtract 4645 0
4648: 284 Load 286(s2DArray)
- 4649: 175(fvec3) Load 177(f16c3)
- 4650: 6(float) Load 4264(f16lodClamp)
- 4651: 6(float) Load 137(f16bias)
+ 4649:175(f16vec3) Load 177(f16c3)
+ 4650:6(float16_t) Load 4264(f16lodClamp)
+ 4651:6(float16_t) Load 137(f16bias)
4652:3102(ResType) ImageSparseSampleImplicitLod 4648 4649 Bias ConstOffset MinLod 4651 722 4650
- 4653: 7(fvec4) CompositeExtract 4652 1
+ 4653: 7(f16vec4) CompositeExtract 4652 1
Store 4598(texel) 4653
4654: 47(int) CompositeExtract 4652 0
4655: 337 Load 339(s2DArrayShadow)
@@ -5865,187 +5865,187 @@ spv.float16Fetch.frag
4658: 208(ptr) AccessChain 4598(texel) 207
4659: 52(float) CompositeExtract 4656 3
4660:3138(ResType) ImageSparseSampleDrefImplicitLod 4655 4656 4659 ConstOffset MinLod 722 4657
- 4661: 6(float) CompositeExtract 4660 1
+ 4661:6(float16_t) CompositeExtract 4660 1
Store 4658 4661
4662: 47(int) CompositeExtract 4660 0
4663: 337 Load 339(s2DArrayShadow)
- 4664: 175(fvec3) Load 177(f16c3)
+ 4664:175(f16vec3) Load 177(f16c3)
4665: 52(float) Load 215(compare)
- 4666: 6(float) Load 4264(f16lodClamp)
+ 4666:6(float16_t) Load 4264(f16lodClamp)
4667: 208(ptr) AccessChain 4598(texel) 207
4668:3138(ResType) ImageSparseSampleDrefImplicitLod 4663 4664 4665 ConstOffset MinLod 722 4666
- 4669: 6(float) CompositeExtract 4668 1
+ 4669:6(float16_t) CompositeExtract 4668 1
Store 4667 4669
4670: 47(int) CompositeExtract 4668 0
- 4671: 7(fvec4) Load 4598(texel)
+ 4671: 7(f16vec4) Load 4598(texel)
ReturnValue 4671
FunctionEnd
-105(testTextureOffsetClamp(): 7(fvec4) Function None 8
+105(testTextureOffsetClamp(): 7(f16vec4) Function None 8
106: Label
4674(texel): 64(ptr) Variable Function
Store 4674(texel) 121
4675: 123 Load 125(s1D)
4676: 52(float) Load 128(c1)
4677: 52(float) Load 4257(lodClamp)
- 4678: 7(fvec4) ImageSampleImplicitLod 4675 4676 ConstOffset MinLod 709 4677
- 4679: 7(fvec4) Load 4674(texel)
- 4680: 7(fvec4) FAdd 4679 4678
+ 4678: 7(f16vec4) ImageSampleImplicitLod 4675 4676 ConstOffset MinLod 709 4677
+ 4679: 7(f16vec4) Load 4674(texel)
+ 4680: 7(f16vec4) FAdd 4679 4678
Store 4674(texel) 4680
4681: 123 Load 125(s1D)
- 4682: 6(float) Load 135(f16c1)
- 4683: 6(float) Load 4264(f16lodClamp)
- 4684: 6(float) Load 137(f16bias)
- 4685: 7(fvec4) ImageSampleImplicitLod 4681 4682 Bias ConstOffset MinLod 4684 709 4683
- 4686: 7(fvec4) Load 4674(texel)
- 4687: 7(fvec4) FAdd 4686 4685
+ 4682:6(float16_t) Load 135(f16c1)
+ 4683:6(float16_t) Load 4264(f16lodClamp)
+ 4684:6(float16_t) Load 137(f16bias)
+ 4685: 7(f16vec4) ImageSampleImplicitLod 4681 4682 Bias ConstOffset MinLod 4684 709 4683
+ 4686: 7(f16vec4) Load 4674(texel)
+ 4687: 7(f16vec4) FAdd 4686 4685
Store 4674(texel) 4687
4688: 143 Load 145(s2D)
4689: 53(fvec2) Load 148(c2)
4690: 52(float) Load 4257(lodClamp)
- 4691: 7(fvec4) ImageSampleImplicitLod 4688 4689 ConstOffset MinLod 722 4690
- 4692: 7(fvec4) Load 4674(texel)
- 4693: 7(fvec4) FAdd 4692 4691
+ 4691: 7(f16vec4) ImageSampleImplicitLod 4688 4689 ConstOffset MinLod 722 4690
+ 4692: 7(f16vec4) Load 4674(texel)
+ 4693: 7(f16vec4) FAdd 4692 4691
Store 4674(texel) 4693
4694: 143 Load 145(s2D)
- 4695: 154(fvec2) Load 156(f16c2)
- 4696: 6(float) Load 4264(f16lodClamp)
- 4697: 6(float) Load 137(f16bias)
- 4698: 7(fvec4) ImageSampleImplicitLod 4694 4695 Bias ConstOffset MinLod 4697 722 4696
- 4699: 7(fvec4) Load 4674(texel)
- 4700: 7(fvec4) FAdd 4699 4698
+ 4695:154(f16vec2) Load 156(f16c2)
+ 4696:6(float16_t) Load 4264(f16lodClamp)
+ 4697:6(float16_t) Load 137(f16bias)
+ 4698: 7(f16vec4) ImageSampleImplicitLod 4694 4695 Bias ConstOffset MinLod 4697 722 4696
+ 4699: 7(f16vec4) Load 4674(texel)
+ 4700: 7(f16vec4) FAdd 4699 4698
Store 4674(texel) 4700
4701: 163 Load 165(s3D)
4702: 167(fvec3) Load 169(c3)
4703: 52(float) Load 4257(lodClamp)
- 4704: 7(fvec4) ImageSampleImplicitLod 4701 4702 ConstOffset MinLod 735 4703
- 4705: 7(fvec4) Load 4674(texel)
- 4706: 7(fvec4) FAdd 4705 4704
+ 4704: 7(f16vec4) ImageSampleImplicitLod 4701 4702 ConstOffset MinLod 735 4703
+ 4705: 7(f16vec4) Load 4674(texel)
+ 4706: 7(f16vec4) FAdd 4705 4704
Store 4674(texel) 4706
4707: 163 Load 165(s3D)
- 4708: 175(fvec3) Load 177(f16c3)
- 4709: 6(float) Load 4264(f16lodClamp)
- 4710: 6(float) Load 137(f16bias)
- 4711: 7(fvec4) ImageSampleImplicitLod 4707 4708 Bias ConstOffset MinLod 4710 735 4709
- 4712: 7(fvec4) Load 4674(texel)
- 4713: 7(fvec4) FAdd 4712 4711
+ 4708:175(f16vec3) Load 177(f16c3)
+ 4709:6(float16_t) Load 4264(f16lodClamp)
+ 4710:6(float16_t) Load 137(f16bias)
+ 4711: 7(f16vec4) ImageSampleImplicitLod 4707 4708 Bias ConstOffset MinLod 4710 735 4709
+ 4712: 7(f16vec4) Load 4674(texel)
+ 4713: 7(f16vec4) FAdd 4712 4711
Store 4674(texel) 4713
4714: 199 Load 201(s1DShadow)
4715: 167(fvec3) Load 169(c3)
4716: 52(float) Load 4257(lodClamp)
4717: 52(float) CompositeExtract 4715 2
- 4718: 6(float) ImageSampleDrefImplicitLod 4714 4715 4717 ConstOffset MinLod 709 4716
+ 4718:6(float16_t) ImageSampleDrefImplicitLod 4714 4715 4717 ConstOffset MinLod 709 4716
4719: 208(ptr) AccessChain 4674(texel) 207
- 4720: 6(float) Load 4719
- 4721: 6(float) FAdd 4720 4718
+ 4720:6(float16_t) Load 4719
+ 4721:6(float16_t) FAdd 4720 4718
4722: 208(ptr) AccessChain 4674(texel) 207
Store 4722 4721
4723: 199 Load 201(s1DShadow)
- 4724: 154(fvec2) Load 156(f16c2)
+ 4724:154(f16vec2) Load 156(f16c2)
4725: 52(float) Load 215(compare)
- 4726: 6(float) Load 4264(f16lodClamp)
- 4727: 6(float) Load 137(f16bias)
- 4728: 6(float) ImageSampleDrefImplicitLod 4723 4724 4725 Bias ConstOffset MinLod 4727 709 4726
+ 4726:6(float16_t) Load 4264(f16lodClamp)
+ 4727:6(float16_t) Load 137(f16bias)
+ 4728:6(float16_t) ImageSampleDrefImplicitLod 4723 4724 4725 Bias ConstOffset MinLod 4727 709 4726
4729: 208(ptr) AccessChain 4674(texel) 207
- 4730: 6(float) Load 4729
- 4731: 6(float) FAdd 4730 4728
+ 4730:6(float16_t) Load 4729
+ 4731:6(float16_t) FAdd 4730 4728
4732: 208(ptr) AccessChain 4674(texel) 207
Store 4732 4731
4733: 224 Load 226(s2DShadow)
4734: 167(fvec3) Load 169(c3)
4735: 52(float) Load 4257(lodClamp)
4736: 52(float) CompositeExtract 4734 2
- 4737: 6(float) ImageSampleDrefImplicitLod 4733 4734 4736 ConstOffset MinLod 722 4735
+ 4737:6(float16_t) ImageSampleDrefImplicitLod 4733 4734 4736 ConstOffset MinLod 722 4735
4738: 208(ptr) AccessChain 4674(texel) 207
- 4739: 6(float) Load 4738
- 4740: 6(float) FAdd 4739 4737
+ 4739:6(float16_t) Load 4738
+ 4740:6(float16_t) FAdd 4739 4737
4741: 208(ptr) AccessChain 4674(texel) 207
Store 4741 4740
4742: 224 Load 226(s2DShadow)
- 4743: 154(fvec2) Load 156(f16c2)
+ 4743:154(f16vec2) Load 156(f16c2)
4744: 52(float) Load 215(compare)
- 4745: 6(float) Load 4264(f16lodClamp)
- 4746: 6(float) Load 137(f16bias)
- 4747: 6(float) ImageSampleDrefImplicitLod 4742 4743 4744 Bias ConstOffset MinLod 4746 722 4745
+ 4745:6(float16_t) Load 4264(f16lodClamp)
+ 4746:6(float16_t) Load 137(f16bias)
+ 4747:6(float16_t) ImageSampleDrefImplicitLod 4742 4743 4744 Bias ConstOffset MinLod 4746 722 4745
4748: 208(ptr) AccessChain 4674(texel) 207
- 4749: 6(float) Load 4748
- 4750: 6(float) FAdd 4749 4747
+ 4749:6(float16_t) Load 4748
+ 4750:6(float16_t) FAdd 4749 4747
4751: 208(ptr) AccessChain 4674(texel) 207
Store 4751 4750
4752: 269 Load 271(s1DArray)
4753: 53(fvec2) Load 148(c2)
4754: 52(float) Load 4257(lodClamp)
- 4755: 7(fvec4) ImageSampleImplicitLod 4752 4753 ConstOffset MinLod 709 4754
- 4756: 7(fvec4) Load 4674(texel)
- 4757: 7(fvec4) FAdd 4756 4755
+ 4755: 7(f16vec4) ImageSampleImplicitLod 4752 4753 ConstOffset MinLod 709 4754
+ 4756: 7(f16vec4) Load 4674(texel)
+ 4757: 7(f16vec4) FAdd 4756 4755
Store 4674(texel) 4757
4758: 269 Load 271(s1DArray)
- 4759: 154(fvec2) Load 156(f16c2)
- 4760: 6(float) Load 4264(f16lodClamp)
- 4761: 6(float) Load 137(f16bias)
- 4762: 7(fvec4) ImageSampleImplicitLod 4758 4759 Bias ConstOffset MinLod 4761 709 4760
- 4763: 7(fvec4) Load 4674(texel)
- 4764: 7(fvec4) FAdd 4763 4762
+ 4759:154(f16vec2) Load 156(f16c2)
+ 4760:6(float16_t) Load 4264(f16lodClamp)
+ 4761:6(float16_t) Load 137(f16bias)
+ 4762: 7(f16vec4) ImageSampleImplicitLod 4758 4759 Bias ConstOffset MinLod 4761 709 4760
+ 4763: 7(f16vec4) Load 4674(texel)
+ 4764: 7(f16vec4) FAdd 4763 4762
Store 4674(texel) 4764
4765: 284 Load 286(s2DArray)
4766: 167(fvec3) Load 169(c3)
4767: 52(float) Load 4257(lodClamp)
- 4768: 7(fvec4) ImageSampleImplicitLod 4765 4766 ConstOffset MinLod 722 4767
- 4769: 7(fvec4) Load 4674(texel)
- 4770: 7(fvec4) FAdd 4769 4768
+ 4768: 7(f16vec4) ImageSampleImplicitLod 4765 4766 ConstOffset MinLod 722 4767
+ 4769: 7(f16vec4) Load 4674(texel)
+ 4770: 7(f16vec4) FAdd 4769 4768
Store 4674(texel) 4770
4771: 284 Load 286(s2DArray)
- 4772: 175(fvec3) Load 177(f16c3)
- 4773: 6(float) Load 4264(f16lodClamp)
- 4774: 6(float) Load 137(f16bias)
- 4775: 7(fvec4) ImageSampleImplicitLod 4771 4772 Bias ConstOffset MinLod 4774 722 4773
- 4776: 7(fvec4) Load 4674(texel)
- 4777: 7(fvec4) FAdd 4776 4775
+ 4772:175(f16vec3) Load 177(f16c3)
+ 4773:6(float16_t) Load 4264(f16lodClamp)
+ 4774:6(float16_t) Load 137(f16bias)
+ 4775: 7(f16vec4) ImageSampleImplicitLod 4771 4772 Bias ConstOffset MinLod 4774 722 4773
+ 4776: 7(f16vec4) Load 4674(texel)
+ 4777: 7(f16vec4) FAdd 4776 4775
Store 4674(texel) 4777
4778: 316 Load 318(s1DArrayShadow)
4779: 167(fvec3) Load 169(c3)
4780: 52(float) Load 4257(lodClamp)
4781: 52(float) CompositeExtract 4779 2
- 4782: 6(float) ImageSampleDrefImplicitLod 4778 4779 4781 ConstOffset MinLod 709 4780
+ 4782:6(float16_t) ImageSampleDrefImplicitLod 4778 4779 4781 ConstOffset MinLod 709 4780
4783: 208(ptr) AccessChain 4674(texel) 207
- 4784: 6(float) Load 4783
- 4785: 6(float) FAdd 4784 4782
+ 4784:6(float16_t) Load 4783
+ 4785:6(float16_t) FAdd 4784 4782
4786: 208(ptr) AccessChain 4674(texel) 207
Store 4786 4785
4787: 316 Load 318(s1DArrayShadow)
- 4788: 154(fvec2) Load 156(f16c2)
+ 4788:154(f16vec2) Load 156(f16c2)
4789: 52(float) Load 215(compare)
- 4790: 6(float) Load 4264(f16lodClamp)
- 4791: 6(float) Load 137(f16bias)
- 4792: 6(float) ImageSampleDrefImplicitLod 4787 4788 4789 Bias ConstOffset MinLod 4791 709 4790
+ 4790:6(float16_t) Load 4264(f16lodClamp)
+ 4791:6(float16_t) Load 137(f16bias)
+ 4792:6(float16_t) ImageSampleDrefImplicitLod 4787 4788 4789 Bias ConstOffset MinLod 4791 709 4790
4793: 208(ptr) AccessChain 4674(texel) 207
- 4794: 6(float) Load 4793
- 4795: 6(float) FAdd 4794 4792
+ 4794:6(float16_t) Load 4793
+ 4795:6(float16_t) FAdd 4794 4792
4796: 208(ptr) AccessChain 4674(texel) 207
Store 4796 4795
4797: 337 Load 339(s2DArrayShadow)
4798: 249(fvec4) Load 251(c4)
4799: 52(float) Load 4257(lodClamp)
4800: 52(float) CompositeExtract 4798 3
- 4801: 6(float) ImageSampleDrefImplicitLod 4797 4798 4800 ConstOffset MinLod 722 4799
+ 4801:6(float16_t) ImageSampleDrefImplicitLod 4797 4798 4800 ConstOffset MinLod 722 4799
4802: 208(ptr) AccessChain 4674(texel) 207
- 4803: 6(float) Load 4802
- 4804: 6(float) FAdd 4803 4801
+ 4803:6(float16_t) Load 4802
+ 4804:6(float16_t) FAdd 4803 4801
4805: 208(ptr) AccessChain 4674(texel) 207
Store 4805 4804
4806: 337 Load 339(s2DArrayShadow)
- 4807: 175(fvec3) Load 177(f16c3)
+ 4807:175(f16vec3) Load 177(f16c3)
4808: 52(float) Load 215(compare)
- 4809: 6(float) Load 4264(f16lodClamp)
- 4810: 6(float) ImageSampleDrefImplicitLod 4806 4807 4808 ConstOffset MinLod 722 4809
+ 4809:6(float16_t) Load 4264(f16lodClamp)
+ 4810:6(float16_t) ImageSampleDrefImplicitLod 4806 4807 4808 ConstOffset MinLod 722 4809
4811: 208(ptr) AccessChain 4674(texel) 207
- 4812: 6(float) Load 4811
- 4813: 6(float) FAdd 4812 4810
+ 4812:6(float16_t) Load 4811
+ 4813:6(float16_t) FAdd 4812 4810
4814: 208(ptr) AccessChain 4674(texel) 207
Store 4814 4813
- 4815: 7(fvec4) Load 4674(texel)
+ 4815: 7(f16vec4) Load 4674(texel)
ReturnValue 4815
FunctionEnd
-107(testSparseTextureGradClamp(): 7(fvec4) Function None 8
+107(testSparseTextureGradClamp(): 7(f16vec4) Function None 8
108: Label
4818(texel): 64(ptr) Variable Function
Store 4818(texel) 121
@@ -6055,16 +6055,16 @@ spv.float16Fetch.frag
4822: 53(fvec2) Load 1409(dPdxy2)
4823: 52(float) Load 4257(lodClamp)
4824:3102(ResType) ImageSparseSampleExplicitLod 4819 4820 Grad MinLod 4821 4822 4823
- 4825: 7(fvec4) CompositeExtract 4824 1
+ 4825: 7(f16vec4) CompositeExtract 4824 1
Store 4818(texel) 4825
4826: 47(int) CompositeExtract 4824 0
4827: 143 Load 145(s2D)
- 4828: 154(fvec2) Load 156(f16c2)
- 4829: 154(fvec2) Load 1417(f16dPdxy2)
- 4830: 154(fvec2) Load 1417(f16dPdxy2)
- 4831: 6(float) Load 4264(f16lodClamp)
+ 4828:154(f16vec2) Load 156(f16c2)
+ 4829:154(f16vec2) Load 1417(f16dPdxy2)
+ 4830:154(f16vec2) Load 1417(f16dPdxy2)
+ 4831:6(float16_t) Load 4264(f16lodClamp)
4832:3102(ResType) ImageSparseSampleExplicitLod 4827 4828 Grad MinLod 4829 4830 4831
- 4833: 7(fvec4) CompositeExtract 4832 1
+ 4833: 7(f16vec4) CompositeExtract 4832 1
Store 4818(texel) 4833
4834: 47(int) CompositeExtract 4832 0
4835: 163 Load 165(s3D)
@@ -6073,16 +6073,16 @@ spv.float16Fetch.frag
4838: 167(fvec3) Load 1425(dPdxy3)
4839: 52(float) Load 4257(lodClamp)
4840:3102(ResType) ImageSparseSampleExplicitLod 4835 4836 Grad MinLod 4837 4838 4839
- 4841: 7(fvec4) CompositeExtract 4840 1
+ 4841: 7(f16vec4) CompositeExtract 4840 1
Store 4818(texel) 4841
4842: 47(int) CompositeExtract 4840 0
4843: 163 Load 165(s3D)
- 4844: 175(fvec3) Load 177(f16c3)
- 4845: 175(fvec3) Load 1433(f16dPdxy3)
- 4846: 175(fvec3) Load 1433(f16dPdxy3)
- 4847: 6(float) Load 4264(f16lodClamp)
+ 4844:175(f16vec3) Load 177(f16c3)
+ 4845:175(f16vec3) Load 1433(f16dPdxy3)
+ 4846:175(f16vec3) Load 1433(f16dPdxy3)
+ 4847:6(float16_t) Load 4264(f16lodClamp)
4848:3102(ResType) ImageSparseSampleExplicitLod 4843 4844 Grad MinLod 4845 4846 4847
- 4849: 7(fvec4) CompositeExtract 4848 1
+ 4849: 7(f16vec4) CompositeExtract 4848 1
Store 4818(texel) 4849
4850: 47(int) CompositeExtract 4848 0
4851: 184 Load 186(sCube)
@@ -6091,16 +6091,16 @@ spv.float16Fetch.frag
4854: 167(fvec3) Load 1425(dPdxy3)
4855: 52(float) Load 4257(lodClamp)
4856:3102(ResType) ImageSparseSampleExplicitLod 4851 4852 Grad MinLod 4853 4854 4855
- 4857: 7(fvec4) CompositeExtract 4856 1
+ 4857: 7(f16vec4) CompositeExtract 4856 1
Store 4818(texel) 4857
4858: 47(int) CompositeExtract 4856 0
4859: 184 Load 186(sCube)
- 4860: 175(fvec3) Load 177(f16c3)
- 4861: 175(fvec3) Load 1433(f16dPdxy3)
- 4862: 175(fvec3) Load 1433(f16dPdxy3)
- 4863: 6(float) Load 4264(f16lodClamp)
+ 4860:175(f16vec3) Load 177(f16c3)
+ 4861:175(f16vec3) Load 1433(f16dPdxy3)
+ 4862:175(f16vec3) Load 1433(f16dPdxy3)
+ 4863:6(float16_t) Load 4264(f16lodClamp)
4864:3102(ResType) ImageSparseSampleExplicitLod 4859 4860 Grad MinLod 4861 4862 4863
- 4865: 7(fvec4) CompositeExtract 4864 1
+ 4865: 7(f16vec4) CompositeExtract 4864 1
Store 4818(texel) 4865
4866: 47(int) CompositeExtract 4864 0
4867: 224 Load 226(s2DShadow)
@@ -6111,18 +6111,18 @@ spv.float16Fetch.frag
4872: 208(ptr) AccessChain 4818(texel) 207
4873: 52(float) CompositeExtract 4868 2
4874:3138(ResType) ImageSparseSampleDrefExplicitLod 4867 4868 4873 Grad MinLod 4869 4870 4871
- 4875: 6(float) CompositeExtract 4874 1
+ 4875:6(float16_t) CompositeExtract 4874 1
Store 4872 4875
4876: 47(int) CompositeExtract 4874 0
4877: 224 Load 226(s2DShadow)
- 4878: 154(fvec2) Load 156(f16c2)
+ 4878:154(f16vec2) Load 156(f16c2)
4879: 52(float) Load 215(compare)
- 4880: 154(fvec2) Load 1417(f16dPdxy2)
- 4881: 154(fvec2) Load 1417(f16dPdxy2)
- 4882: 6(float) Load 4264(f16lodClamp)
+ 4880:154(f16vec2) Load 1417(f16dPdxy2)
+ 4881:154(f16vec2) Load 1417(f16dPdxy2)
+ 4882:6(float16_t) Load 4264(f16lodClamp)
4883: 208(ptr) AccessChain 4818(texel) 207
4884:3138(ResType) ImageSparseSampleDrefExplicitLod 4877 4878 4879 Grad MinLod 4880 4881 4882
- 4885: 6(float) CompositeExtract 4884 1
+ 4885:6(float16_t) CompositeExtract 4884 1
Store 4883 4885
4886: 47(int) CompositeExtract 4884 0
4887: 245 Load 247(sCubeShadow)
@@ -6133,18 +6133,18 @@ spv.float16Fetch.frag
4892: 208(ptr) AccessChain 4818(texel) 207
4893: 52(float) CompositeExtract 4888 3
4894:3138(ResType) ImageSparseSampleDrefExplicitLod 4887 4888 4893 Grad MinLod 4889 4890 4891
- 4895: 6(float) CompositeExtract 4894 1
+ 4895:6(float16_t) CompositeExtract 4894 1
Store 4892 4895
4896: 47(int) CompositeExtract 4894 0
4897: 245 Load 247(sCubeShadow)
- 4898: 175(fvec3) Load 177(f16c3)
+ 4898:175(f16vec3) Load 177(f16c3)
4899: 52(float) Load 215(compare)
- 4900: 175(fvec3) Load 1433(f16dPdxy3)
- 4901: 175(fvec3) Load 1433(f16dPdxy3)
- 4902: 6(float) Load 4264(f16lodClamp)
+ 4900:175(f16vec3) Load 1433(f16dPdxy3)
+ 4901:175(f16vec3) Load 1433(f16dPdxy3)
+ 4902:6(float16_t) Load 4264(f16lodClamp)
4903: 208(ptr) AccessChain 4818(texel) 207
4904:3138(ResType) ImageSparseSampleDrefExplicitLod 4897 4898 4899 Grad MinLod 4900 4901 4902
- 4905: 6(float) CompositeExtract 4904 1
+ 4905:6(float16_t) CompositeExtract 4904 1
Store 4903 4905
4906: 47(int) CompositeExtract 4904 0
4907: 284 Load 286(s2DArray)
@@ -6153,16 +6153,16 @@ spv.float16Fetch.frag
4910: 53(fvec2) Load 1409(dPdxy2)
4911: 52(float) Load 4257(lodClamp)
4912:3102(ResType) ImageSparseSampleExplicitLod 4907 4908 Grad MinLod 4909 4910 4911
- 4913: 7(fvec4) CompositeExtract 4912 1
+ 4913: 7(f16vec4) CompositeExtract 4912 1
Store 4818(texel) 4913
4914: 47(int) CompositeExtract 4912 0
4915: 284 Load 286(s2DArray)
- 4916: 175(fvec3) Load 177(f16c3)
- 4917: 154(fvec2) Load 1417(f16dPdxy2)
- 4918: 154(fvec2) Load 1417(f16dPdxy2)
- 4919: 6(float) Load 4264(f16lodClamp)
+ 4916:175(f16vec3) Load 177(f16c3)
+ 4917:154(f16vec2) Load 1417(f16dPdxy2)
+ 4918:154(f16vec2) Load 1417(f16dPdxy2)
+ 4919:6(float16_t) Load 4264(f16lodClamp)
4920:3102(ResType) ImageSparseSampleExplicitLod 4915 4916 Grad MinLod 4917 4918 4919
- 4921: 7(fvec4) CompositeExtract 4920 1
+ 4921: 7(f16vec4) CompositeExtract 4920 1
Store 4818(texel) 4921
4922: 47(int) CompositeExtract 4920 0
4923: 337 Load 339(s2DArrayShadow)
@@ -6173,18 +6173,18 @@ spv.float16Fetch.frag
4928: 208(ptr) AccessChain 4818(texel) 207
4929: 52(float) CompositeExtract 4924 3
4930:3138(ResType) ImageSparseSampleDrefExplicitLod 4923 4924 4929 Grad MinLod 4925 4926 4927
- 4931: 6(float) CompositeExtract 4930 1
+ 4931:6(float16_t) CompositeExtract 4930 1
Store 4928 4931
4932: 47(int) CompositeExtract 4930 0
4933: 337 Load 339(s2DArrayShadow)
- 4934: 175(fvec3) Load 177(f16c3)
+ 4934:175(f16vec3) Load 177(f16c3)
4935: 52(float) Load 215(compare)
- 4936: 154(fvec2) Load 1417(f16dPdxy2)
- 4937: 154(fvec2) Load 1417(f16dPdxy2)
- 4938: 6(float) Load 4264(f16lodClamp)
+ 4936:154(f16vec2) Load 1417(f16dPdxy2)
+ 4937:154(f16vec2) Load 1417(f16dPdxy2)
+ 4938:6(float16_t) Load 4264(f16lodClamp)
4939: 208(ptr) AccessChain 4818(texel) 207
4940:3138(ResType) ImageSparseSampleDrefExplicitLod 4933 4934 4935 Grad MinLod 4936 4937 4938
- 4941: 6(float) CompositeExtract 4940 1
+ 4941:6(float16_t) CompositeExtract 4940 1
Store 4939 4941
4942: 47(int) CompositeExtract 4940 0
4943: 299 Load 301(sCubeArray)
@@ -6193,22 +6193,22 @@ spv.float16Fetch.frag
4946: 167(fvec3) Load 1425(dPdxy3)
4947: 52(float) Load 4257(lodClamp)
4948:3102(ResType) ImageSparseSampleExplicitLod 4943 4944 Grad MinLod 4945 4946 4947
- 4949: 7(fvec4) CompositeExtract 4948 1
+ 4949: 7(f16vec4) CompositeExtract 4948 1
Store 4818(texel) 4949
4950: 47(int) CompositeExtract 4948 0
4951: 299 Load 301(sCubeArray)
- 4952: 7(fvec4) Load 309(f16c4)
- 4953: 175(fvec3) Load 1433(f16dPdxy3)
- 4954: 175(fvec3) Load 1433(f16dPdxy3)
- 4955: 6(float) Load 4264(f16lodClamp)
+ 4952: 7(f16vec4) Load 309(f16c4)
+ 4953:175(f16vec3) Load 1433(f16dPdxy3)
+ 4954:175(f16vec3) Load 1433(f16dPdxy3)
+ 4955:6(float16_t) Load 4264(f16lodClamp)
4956:3102(ResType) ImageSparseSampleExplicitLod 4951 4952 Grad MinLod 4953 4954 4955
- 4957: 7(fvec4) CompositeExtract 4956 1
+ 4957: 7(f16vec4) CompositeExtract 4956 1
Store 4818(texel) 4957
4958: 47(int) CompositeExtract 4956 0
- 4959: 7(fvec4) Load 4818(texel)
+ 4959: 7(f16vec4) Load 4818(texel)
ReturnValue 4959
FunctionEnd
-109(testTextureGradClamp(): 7(fvec4) Function None 8
+109(testTextureGradClamp(): 7(f16vec4) Function None 8
110: Label
4962(texel): 64(ptr) Variable Function
Store 4962(texel) 121
@@ -6217,72 +6217,72 @@ spv.float16Fetch.frag
4965: 52(float) Load 1393(dPdxy1)
4966: 52(float) Load 1393(dPdxy1)
4967: 52(float) Load 4257(lodClamp)
- 4968: 7(fvec4) ImageSampleExplicitLod 4963 4964 Grad MinLod 4965 4966 4967
- 4969: 7(fvec4) Load 4962(texel)
- 4970: 7(fvec4) FAdd 4969 4968
+ 4968: 7(f16vec4) ImageSampleExplicitLod 4963 4964 Grad MinLod 4965 4966 4967
+ 4969: 7(f16vec4) Load 4962(texel)
+ 4970: 7(f16vec4) FAdd 4969 4968
Store 4962(texel) 4970
4971: 123 Load 125(s1D)
- 4972: 6(float) Load 135(f16c1)
- 4973: 6(float) Load 1401(f16dPdxy1)
- 4974: 6(float) Load 1401(f16dPdxy1)
- 4975: 6(float) Load 4264(f16lodClamp)
- 4976: 7(fvec4) ImageSampleExplicitLod 4971 4972 Grad MinLod 4973 4974 4975
- 4977: 7(fvec4) Load 4962(texel)
- 4978: 7(fvec4) FAdd 4977 4976
+ 4972:6(float16_t) Load 135(f16c1)
+ 4973:6(float16_t) Load 1401(f16dPdxy1)
+ 4974:6(float16_t) Load 1401(f16dPdxy1)
+ 4975:6(float16_t) Load 4264(f16lodClamp)
+ 4976: 7(f16vec4) ImageSampleExplicitLod 4971 4972 Grad MinLod 4973 4974 4975
+ 4977: 7(f16vec4) Load 4962(texel)
+ 4978: 7(f16vec4) FAdd 4977 4976
Store 4962(texel) 4978
4979: 143 Load 145(s2D)
4980: 53(fvec2) Load 148(c2)
4981: 53(fvec2) Load 1409(dPdxy2)
4982: 53(fvec2) Load 1409(dPdxy2)
4983: 52(float) Load 4257(lodClamp)
- 4984: 7(fvec4) ImageSampleExplicitLod 4979 4980 Grad MinLod 4981 4982 4983
- 4985: 7(fvec4) Load 4962(texel)
- 4986: 7(fvec4) FAdd 4985 4984
+ 4984: 7(f16vec4) ImageSampleExplicitLod 4979 4980 Grad MinLod 4981 4982 4983
+ 4985: 7(f16vec4) Load 4962(texel)
+ 4986: 7(f16vec4) FAdd 4985 4984
Store 4962(texel) 4986
4987: 143 Load 145(s2D)
- 4988: 154(fvec2) Load 156(f16c2)
- 4989: 154(fvec2) Load 1417(f16dPdxy2)
- 4990: 154(fvec2) Load 1417(f16dPdxy2)
- 4991: 6(float) Load 4264(f16lodClamp)
- 4992: 7(fvec4) ImageSampleExplicitLod 4987 4988 Grad MinLod 4989 4990 4991
- 4993: 7(fvec4) Load 4962(texel)
- 4994: 7(fvec4) FAdd 4993 4992
+ 4988:154(f16vec2) Load 156(f16c2)
+ 4989:154(f16vec2) Load 1417(f16dPdxy2)
+ 4990:154(f16vec2) Load 1417(f16dPdxy2)
+ 4991:6(float16_t) Load 4264(f16lodClamp)
+ 4992: 7(f16vec4) ImageSampleExplicitLod 4987 4988 Grad MinLod 4989 4990 4991
+ 4993: 7(f16vec4) Load 4962(texel)
+ 4994: 7(f16vec4) FAdd 4993 4992
Store 4962(texel) 4994
4995: 163 Load 165(s3D)
4996: 167(fvec3) Load 169(c3)
4997: 167(fvec3) Load 1425(dPdxy3)
4998: 167(fvec3) Load 1425(dPdxy3)
4999: 52(float) Load 4257(lodClamp)
- 5000: 7(fvec4) ImageSampleExplicitLod 4995 4996 Grad MinLod 4997 4998 4999
- 5001: 7(fvec4) Load 4962(texel)
- 5002: 7(fvec4) FAdd 5001 5000
+ 5000: 7(f16vec4) ImageSampleExplicitLod 4995 4996 Grad MinLod 4997 4998 4999
+ 5001: 7(f16vec4) Load 4962(texel)
+ 5002: 7(f16vec4) FAdd 5001 5000
Store 4962(texel) 5002
5003: 163 Load 165(s3D)
- 5004: 175(fvec3) Load 177(f16c3)
- 5005: 175(fvec3) Load 1433(f16dPdxy3)
- 5006: 175(fvec3) Load 1433(f16dPdxy3)
- 5007: 6(float) Load 4264(f16lodClamp)
- 5008: 7(fvec4) ImageSampleExplicitLod 5003 5004 Grad MinLod 5005 5006 5007
- 5009: 7(fvec4) Load 4962(texel)
- 5010: 7(fvec4) FAdd 5009 5008
+ 5004:175(f16vec3) Load 177(f16c3)
+ 5005:175(f16vec3) Load 1433(f16dPdxy3)
+ 5006:175(f16vec3) Load 1433(f16dPdxy3)
+ 5007:6(float16_t) Load 4264(f16lodClamp)
+ 5008: 7(f16vec4) ImageSampleExplicitLod 5003 5004 Grad MinLod 5005 5006 5007
+ 5009: 7(f16vec4) Load 4962(texel)
+ 5010: 7(f16vec4) FAdd 5009 5008
Store 4962(texel) 5010
5011: 184 Load 186(sCube)
5012: 167(fvec3) Load 169(c3)
5013: 167(fvec3) Load 1425(dPdxy3)
5014: 167(fvec3) Load 1425(dPdxy3)
5015: 52(float) Load 4257(lodClamp)
- 5016: 7(fvec4) ImageSampleExplicitLod 5011 5012 Grad MinLod 5013 5014 5015
- 5017: 7(fvec4) Load 4962(texel)
- 5018: 7(fvec4) FAdd 5017 5016
+ 5016: 7(f16vec4) ImageSampleExplicitLod 5011 5012 Grad MinLod 5013 5014 5015
+ 5017: 7(f16vec4) Load 4962(texel)
+ 5018: 7(f16vec4) FAdd 5017 5016
Store 4962(texel) 5018
5019: 184 Load 186(sCube)
- 5020: 175(fvec3) Load 177(f16c3)
- 5021: 175(fvec3) Load 1433(f16dPdxy3)
- 5022: 175(fvec3) Load 1433(f16dPdxy3)
- 5023: 6(float) Load 4264(f16lodClamp)
- 5024: 7(fvec4) ImageSampleExplicitLod 5019 5020 Grad MinLod 5021 5022 5023
- 5025: 7(fvec4) Load 4962(texel)
- 5026: 7(fvec4) FAdd 5025 5024
+ 5020:175(f16vec3) Load 177(f16c3)
+ 5021:175(f16vec3) Load 1433(f16dPdxy3)
+ 5022:175(f16vec3) Load 1433(f16dPdxy3)
+ 5023:6(float16_t) Load 4264(f16lodClamp)
+ 5024: 7(f16vec4) ImageSampleExplicitLod 5019 5020 Grad MinLod 5021 5022 5023
+ 5025: 7(f16vec4) Load 4962(texel)
+ 5026: 7(f16vec4) FAdd 5025 5024
Store 4962(texel) 5026
5027: 199 Load 201(s1DShadow)
5028: 167(fvec3) Load 169(c3)
@@ -6290,22 +6290,22 @@ spv.float16Fetch.frag
5030: 52(float) Load 1393(dPdxy1)
5031: 52(float) Load 4257(lodClamp)
5032: 52(float) CompositeExtract 5028 2
- 5033: 6(float) ImageSampleDrefExplicitLod 5027 5028 5032 Grad MinLod 5029 5030 5031
+ 5033:6(float16_t) ImageSampleDrefExplicitLod 5027 5028 5032 Grad MinLod 5029 5030 5031
5034: 208(ptr) AccessChain 4962(texel) 207
- 5035: 6(float) Load 5034
- 5036: 6(float) FAdd 5035 5033
+ 5035:6(float16_t) Load 5034
+ 5036:6(float16_t) FAdd 5035 5033
5037: 208(ptr) AccessChain 4962(texel) 207
Store 5037 5036
5038: 199 Load 201(s1DShadow)
- 5039: 154(fvec2) Load 156(f16c2)
+ 5039:154(f16vec2) Load 156(f16c2)
5040: 52(float) Load 215(compare)
- 5041: 6(float) Load 1401(f16dPdxy1)
- 5042: 6(float) Load 1401(f16dPdxy1)
- 5043: 6(float) Load 4264(f16lodClamp)
- 5044: 6(float) ImageSampleDrefExplicitLod 5038 5039 5040 Grad MinLod 5041 5042 5043
+ 5041:6(float16_t) Load 1401(f16dPdxy1)
+ 5042:6(float16_t) Load 1401(f16dPdxy1)
+ 5043:6(float16_t) Load 4264(f16lodClamp)
+ 5044:6(float16_t) ImageSampleDrefExplicitLod 5038 5039 5040 Grad MinLod 5041 5042 5043
5045: 208(ptr) AccessChain 4962(texel) 207
- 5046: 6(float) Load 5045
- 5047: 6(float) FAdd 5046 5044
+ 5046:6(float16_t) Load 5045
+ 5047:6(float16_t) FAdd 5046 5044
5048: 208(ptr) AccessChain 4962(texel) 207
Store 5048 5047
5049: 224 Load 226(s2DShadow)
@@ -6314,22 +6314,22 @@ spv.float16Fetch.frag
5052: 53(fvec2) Load 1409(dPdxy2)
5053: 52(float) Load 4257(lodClamp)
5054: 52(float) CompositeExtract 5050 2
- 5055: 6(float) ImageSampleDrefExplicitLod 5049 5050 5054 Grad MinLod 5051 5052 5053
+ 5055:6(float16_t) ImageSampleDrefExplicitLod 5049 5050 5054 Grad MinLod 5051 5052 5053
5056: 208(ptr) AccessChain 4962(texel) 207
- 5057: 6(float) Load 5056
- 5058: 6(float) FAdd 5057 5055
+ 5057:6(float16_t) Load 5056
+ 5058:6(float16_t) FAdd 5057 5055
5059: 208(ptr) AccessChain 4962(texel) 207
Store 5059 5058
5060: 224 Load 226(s2DShadow)
- 5061: 154(fvec2) Load 156(f16c2)
+ 5061:154(f16vec2) Load 156(f16c2)
5062: 52(float) Load 215(compare)
- 5063: 154(fvec2) Load 1417(f16dPdxy2)
- 5064: 154(fvec2) Load 1417(f16dPdxy2)
- 5065: 6(float) Load 4264(f16lodClamp)
- 5066: 6(float) ImageSampleDrefExplicitLod 5060 5061 5062 Grad MinLod 5063 5064 5065
+ 5063:154(f16vec2) Load 1417(f16dPdxy2)
+ 5064:154(f16vec2) Load 1417(f16dPdxy2)
+ 5065:6(float16_t) Load 4264(f16lodClamp)
+ 5066:6(float16_t) ImageSampleDrefExplicitLod 5060 5061 5062 Grad MinLod 5063 5064 5065
5067: 208(ptr) AccessChain 4962(texel) 207
- 5068: 6(float) Load 5067
- 5069: 6(float) FAdd 5068 5066
+ 5068:6(float16_t) Load 5067
+ 5069:6(float16_t) FAdd 5068 5066
5070: 208(ptr) AccessChain 4962(texel) 207
Store 5070 5069
5071: 245 Load 247(sCubeShadow)
@@ -6338,22 +6338,22 @@ spv.float16Fetch.frag
5074: 167(fvec3) Load 1425(dPdxy3)
5075: 52(float) Load 4257(lodClamp)
5076: 52(float) CompositeExtract 5072 3
- 5077: 6(float) ImageSampleDrefExplicitLod 5071 5072 5076 Grad MinLod 5073 5074 5075
+ 5077:6(float16_t) ImageSampleDrefExplicitLod 5071 5072 5076 Grad MinLod 5073 5074 5075
5078: 208(ptr) AccessChain 4962(texel) 207
- 5079: 6(float) Load 5078
- 5080: 6(float) FAdd 5079 5077
+ 5079:6(float16_t) Load 5078
+ 5080:6(float16_t) FAdd 5079 5077
5081: 208(ptr) AccessChain 4962(texel) 207
Store 5081 5080
5082: 245 Load 247(sCubeShadow)
- 5083: 175(fvec3) Load 177(f16c3)
+ 5083:175(f16vec3) Load 177(f16c3)
5084: 52(float) Load 215(compare)
- 5085: 175(fvec3) Load 1433(f16dPdxy3)
- 5086: 175(fvec3) Load 1433(f16dPdxy3)
- 5087: 6(float) Load 4264(f16lodClamp)
- 5088: 6(float) ImageSampleDrefExplicitLod 5082 5083 5084 Grad MinLod 5085 5086 5087
+ 5085:175(f16vec3) Load 1433(f16dPdxy3)
+ 5086:175(f16vec3) Load 1433(f16dPdxy3)
+ 5087:6(float16_t) Load 4264(f16lodClamp)
+ 5088:6(float16_t) ImageSampleDrefExplicitLod 5082 5083 5084 Grad MinLod 5085 5086 5087
5089: 208(ptr) AccessChain 4962(texel) 207
- 5090: 6(float) Load 5089
- 5091: 6(float) FAdd 5090 5088
+ 5090:6(float16_t) Load 5089
+ 5091:6(float16_t) FAdd 5090 5088
5092: 208(ptr) AccessChain 4962(texel) 207
Store 5092 5091
5093: 269 Load 271(s1DArray)
@@ -6361,36 +6361,36 @@ spv.float16Fetch.frag
5095: 52(float) Load 1393(dPdxy1)
5096: 52(float) Load 1393(dPdxy1)
5097: 52(float) Load 4257(lodClamp)
- 5098: 7(fvec4) ImageSampleExplicitLod 5093 5094 Grad MinLod 5095 5096 5097
- 5099: 7(fvec4) Load 4962(texel)
- 5100: 7(fvec4) FAdd 5099 5098
+ 5098: 7(f16vec4) ImageSampleExplicitLod 5093 5094 Grad MinLod 5095 5096 5097
+ 5099: 7(f16vec4) Load 4962(texel)
+ 5100: 7(f16vec4) FAdd 5099 5098
Store 4962(texel) 5100
5101: 269 Load 271(s1DArray)
- 5102: 154(fvec2) Load 156(f16c2)
- 5103: 6(float) Load 1401(f16dPdxy1)
- 5104: 6(float) Load 1401(f16dPdxy1)
- 5105: 6(float) Load 4264(f16lodClamp)
- 5106: 7(fvec4) ImageSampleExplicitLod 5101 5102 Grad MinLod 5103 5104 5105
- 5107: 7(fvec4) Load 4962(texel)
- 5108: 7(fvec4) FAdd 5107 5106
+ 5102:154(f16vec2) Load 156(f16c2)
+ 5103:6(float16_t) Load 1401(f16dPdxy1)
+ 5104:6(float16_t) Load 1401(f16dPdxy1)
+ 5105:6(float16_t) Load 4264(f16lodClamp)
+ 5106: 7(f16vec4) ImageSampleExplicitLod 5101 5102 Grad MinLod 5103 5104 5105
+ 5107: 7(f16vec4) Load 4962(texel)
+ 5108: 7(f16vec4) FAdd 5107 5106
Store 4962(texel) 5108
5109: 284 Load 286(s2DArray)
5110: 167(fvec3) Load 169(c3)
5111: 53(fvec2) Load 1409(dPdxy2)
5112: 53(fvec2) Load 1409(dPdxy2)
5113: 52(float) Load 4257(lodClamp)
- 5114: 7(fvec4) ImageSampleExplicitLod 5109 5110 Grad MinLod 5111 5112 5113
- 5115: 7(fvec4) Load 4962(texel)
- 5116: 7(fvec4) FAdd 5115 5114
+ 5114: 7(f16vec4) ImageSampleExplicitLod 5109 5110 Grad MinLod 5111 5112 5113
+ 5115: 7(f16vec4) Load 4962(texel)
+ 5116: 7(f16vec4) FAdd 5115 5114
Store 4962(texel) 5116
5117: 284 Load 286(s2DArray)
- 5118: 175(fvec3) Load 177(f16c3)
- 5119: 154(fvec2) Load 1417(f16dPdxy2)
- 5120: 154(fvec2) Load 1417(f16dPdxy2)
- 5121: 6(float) Load 4264(f16lodClamp)
- 5122: 7(fvec4) ImageSampleExplicitLod 5117 5118 Grad MinLod 5119 5120 5121
- 5123: 7(fvec4) Load 4962(texel)
- 5124: 7(fvec4) FAdd 5123 5122
+ 5118:175(f16vec3) Load 177(f16c3)
+ 5119:154(f16vec2) Load 1417(f16dPdxy2)
+ 5120:154(f16vec2) Load 1417(f16dPdxy2)
+ 5121:6(float16_t) Load 4264(f16lodClamp)
+ 5122: 7(f16vec4) ImageSampleExplicitLod 5117 5118 Grad MinLod 5119 5120 5121
+ 5123: 7(f16vec4) Load 4962(texel)
+ 5124: 7(f16vec4) FAdd 5123 5122
Store 4962(texel) 5124
5125: 316 Load 318(s1DArrayShadow)
5126: 167(fvec3) Load 169(c3)
@@ -6398,22 +6398,22 @@ spv.float16Fetch.frag
5128: 52(float) Load 1393(dPdxy1)
5129: 52(float) Load 4257(lodClamp)
5130: 52(float) CompositeExtract 5126 2
- 5131: 6(float) ImageSampleDrefExplicitLod 5125 5126 5130 Grad MinLod 5127 5128 5129
+ 5131:6(float16_t) ImageSampleDrefExplicitLod 5125 5126 5130 Grad MinLod 5127 5128 5129
5132: 208(ptr) AccessChain 4962(texel) 207
- 5133: 6(float) Load 5132
- 5134: 6(float) FAdd 5133 5131
+ 5133:6(float16_t) Load 5132
+ 5134:6(float16_t) FAdd 5133 5131
5135: 208(ptr) AccessChain 4962(texel) 207
Store 5135 5134
5136: 316 Load 318(s1DArrayShadow)
- 5137: 154(fvec2) Load 156(f16c2)
+ 5137:154(f16vec2) Load 156(f16c2)
5138: 52(float) Load 215(compare)
- 5139: 6(float) Load 1401(f16dPdxy1)
- 5140: 6(float) Load 1401(f16dPdxy1)
- 5141: 6(float) Load 4264(f16lodClamp)
- 5142: 6(float) ImageSampleDrefExplicitLod 5136 5137 5138 Grad MinLod 5139 5140 5141
+ 5139:6(float16_t) Load 1401(f16dPdxy1)
+ 5140:6(float16_t) Load 1401(f16dPdxy1)
+ 5141:6(float16_t) Load 4264(f16lodClamp)
+ 5142:6(float16_t) ImageSampleDrefExplicitLod 5136 5137 5138 Grad MinLod 5139 5140 5141
5143: 208(ptr) AccessChain 4962(texel) 207
- 5144: 6(float) Load 5143
- 5145: 6(float) FAdd 5144 5142
+ 5144:6(float16_t) Load 5143
+ 5145:6(float16_t) FAdd 5144 5142
5146: 208(ptr) AccessChain 4962(texel) 207
Store 5146 5145
5147: 337 Load 339(s2DArrayShadow)
@@ -6422,22 +6422,22 @@ spv.float16Fetch.frag
5150: 53(fvec2) Load 1409(dPdxy2)
5151: 52(float) Load 4257(lodClamp)
5152: 52(float) CompositeExtract 5148 3
- 5153: 6(float) ImageSampleDrefExplicitLod 5147 5148 5152 Grad MinLod 5149 5150 5151
+ 5153:6(float16_t) ImageSampleDrefExplicitLod 5147 5148 5152 Grad MinLod 5149 5150 5151
5154: 208(ptr) AccessChain 4962(texel) 207
- 5155: 6(float) Load 5154
- 5156: 6(float) FAdd 5155 5153
+ 5155:6(float16_t) Load 5154
+ 5156:6(float16_t) FAdd 5155 5153
5157: 208(ptr) AccessChain 4962(texel) 207
Store 5157 5156
5158: 337 Load 339(s2DArrayShadow)
- 5159: 175(fvec3) Load 177(f16c3)
+ 5159:175(f16vec3) Load 177(f16c3)
5160: 52(float) Load 215(compare)
- 5161: 154(fvec2) Load 1417(f16dPdxy2)
- 5162: 154(fvec2) Load 1417(f16dPdxy2)
- 5163: 6(float) Load 4264(f16lodClamp)
- 5164: 6(float) ImageSampleDrefExplicitLod 5158 5159 5160 Grad MinLod 5161 5162 5163
+ 5161:154(f16vec2) Load 1417(f16dPdxy2)
+ 5162:154(f16vec2) Load 1417(f16dPdxy2)
+ 5163:6(float16_t) Load 4264(f16lodClamp)
+ 5164:6(float16_t) ImageSampleDrefExplicitLod 5158 5159 5160 Grad MinLod 5161 5162 5163
5165: 208(ptr) AccessChain 4962(texel) 207
- 5166: 6(float) Load 5165
- 5167: 6(float) FAdd 5166 5164
+ 5166:6(float16_t) Load 5165
+ 5167:6(float16_t) FAdd 5166 5164
5168: 208(ptr) AccessChain 4962(texel) 207
Store 5168 5167
5169: 299 Load 301(sCubeArray)
@@ -6445,23 +6445,23 @@ spv.float16Fetch.frag
5171: 167(fvec3) Load 1425(dPdxy3)
5172: 167(fvec3) Load 1425(dPdxy3)
5173: 52(float) Load 4257(lodClamp)
- 5174: 7(fvec4) ImageSampleExplicitLod 5169 5170 Grad MinLod 5171 5172 5173
- 5175: 7(fvec4) Load 4962(texel)
- 5176: 7(fvec4) FAdd 5175 5174
+ 5174: 7(f16vec4) ImageSampleExplicitLod 5169 5170 Grad MinLod 5171 5172 5173
+ 5175: 7(f16vec4) Load 4962(texel)
+ 5176: 7(f16vec4) FAdd 5175 5174
Store 4962(texel) 5176
5177: 299 Load 301(sCubeArray)
- 5178: 7(fvec4) Load 309(f16c4)
- 5179: 175(fvec3) Load 1433(f16dPdxy3)
- 5180: 175(fvec3) Load 1433(f16dPdxy3)
- 5181: 6(float) Load 4264(f16lodClamp)
- 5182: 7(fvec4) ImageSampleExplicitLod 5177 5178 Grad MinLod 5179 5180 5181
- 5183: 7(fvec4) Load 4962(texel)
- 5184: 7(fvec4) FAdd 5183 5182
+ 5178: 7(f16vec4) Load 309(f16c4)
+ 5179:175(f16vec3) Load 1433(f16dPdxy3)
+ 5180:175(f16vec3) Load 1433(f16dPdxy3)
+ 5181:6(float16_t) Load 4264(f16lodClamp)
+ 5182: 7(f16vec4) ImageSampleExplicitLod 5177 5178 Grad MinLod 5179 5180 5181
+ 5183: 7(f16vec4) Load 4962(texel)
+ 5184: 7(f16vec4) FAdd 5183 5182
Store 4962(texel) 5184
- 5185: 7(fvec4) Load 4962(texel)
+ 5185: 7(f16vec4) Load 4962(texel)
ReturnValue 5185
FunctionEnd
-111(testSparseTextureGradOffsetClamp(): 7(fvec4) Function None 8
+111(testSparseTextureGradOffsetClamp(): 7(f16vec4) Function None 8
112: Label
5188(texel): 64(ptr) Variable Function
Store 5188(texel) 121
@@ -6471,16 +6471,16 @@ spv.float16Fetch.frag
5192: 53(fvec2) Load 1409(dPdxy2)
5193: 52(float) Load 4257(lodClamp)
5194:3102(ResType) ImageSparseSampleExplicitLod 5189 5190 Grad ConstOffset MinLod 5191 5192 722 5193
- 5195: 7(fvec4) CompositeExtract 5194 1
+ 5195: 7(f16vec4) CompositeExtract 5194 1
Store 5188(texel) 5195
5196: 47(int) CompositeExtract 5194 0
5197: 143 Load 145(s2D)
- 5198: 154(fvec2) Load 156(f16c2)
- 5199: 154(fvec2) Load 1417(f16dPdxy2)
- 5200: 154(fvec2) Load 1417(f16dPdxy2)
- 5201: 6(float) Load 4264(f16lodClamp)
+ 5198:154(f16vec2) Load 156(f16c2)
+ 5199:154(f16vec2) Load 1417(f16dPdxy2)
+ 5200:154(f16vec2) Load 1417(f16dPdxy2)
+ 5201:6(float16_t) Load 4264(f16lodClamp)
5202:3102(ResType) ImageSparseSampleExplicitLod 5197 5198 Grad ConstOffset MinLod 5199 5200 722 5201
- 5203: 7(fvec4) CompositeExtract 5202 1
+ 5203: 7(f16vec4) CompositeExtract 5202 1
Store 5188(texel) 5203
5204: 47(int) CompositeExtract 5202 0
5205: 163 Load 165(s3D)
@@ -6489,16 +6489,16 @@ spv.float16Fetch.frag
5208: 167(fvec3) Load 1425(dPdxy3)
5209: 52(float) Load 4257(lodClamp)
5210:3102(ResType) ImageSparseSampleExplicitLod 5205 5206 Grad ConstOffset MinLod 5207 5208 735 5209
- 5211: 7(fvec4) CompositeExtract 5210 1
+ 5211: 7(f16vec4) CompositeExtract 5210 1
Store 5188(texel) 5211
5212: 47(int) CompositeExtract 5210 0
5213: 163 Load 165(s3D)
- 5214: 175(fvec3) Load 177(f16c3)
- 5215: 175(fvec3) Load 1433(f16dPdxy3)
- 5216: 175(fvec3) Load 1433(f16dPdxy3)
- 5217: 6(float) Load 4264(f16lodClamp)
+ 5214:175(f16vec3) Load 177(f16c3)
+ 5215:175(f16vec3) Load 1433(f16dPdxy3)
+ 5216:175(f16vec3) Load 1433(f16dPdxy3)
+ 5217:6(float16_t) Load 4264(f16lodClamp)
5218:3102(ResType) ImageSparseSampleExplicitLod 5213 5214 Grad ConstOffset MinLod 5215 5216 735 5217
- 5219: 7(fvec4) CompositeExtract 5218 1
+ 5219: 7(f16vec4) CompositeExtract 5218 1
Store 5188(texel) 5219
5220: 47(int) CompositeExtract 5218 0
5221: 224 Load 226(s2DShadow)
@@ -6509,18 +6509,18 @@ spv.float16Fetch.frag
5226: 208(ptr) AccessChain 5188(texel) 207
5227: 52(float) CompositeExtract 5222 2
5228:3138(ResType) ImageSparseSampleDrefExplicitLod 5221 5222 5227 Grad ConstOffset MinLod 5223 5224 722 5225
- 5229: 6(float) CompositeExtract 5228 1
+ 5229:6(float16_t) CompositeExtract 5228 1
Store 5226 5229
5230: 47(int) CompositeExtract 5228 0
5231: 224 Load 226(s2DShadow)
- 5232: 154(fvec2) Load 156(f16c2)
+ 5232:154(f16vec2) Load 156(f16c2)
5233: 52(float) Load 215(compare)
- 5234: 154(fvec2) Load 1417(f16dPdxy2)
- 5235: 154(fvec2) Load 1417(f16dPdxy2)
- 5236: 6(float) Load 4264(f16lodClamp)
+ 5234:154(f16vec2) Load 1417(f16dPdxy2)
+ 5235:154(f16vec2) Load 1417(f16dPdxy2)
+ 5236:6(float16_t) Load 4264(f16lodClamp)
5237: 208(ptr) AccessChain 5188(texel) 207
5238:3138(ResType) ImageSparseSampleDrefExplicitLod 5231 5232 5233 Grad ConstOffset MinLod 5234 5235 722 5236
- 5239: 6(float) CompositeExtract 5238 1
+ 5239:6(float16_t) CompositeExtract 5238 1
Store 5237 5239
5240: 47(int) CompositeExtract 5238 0
5241: 284 Load 286(s2DArray)
@@ -6529,16 +6529,16 @@ spv.float16Fetch.frag
5244: 53(fvec2) Load 1409(dPdxy2)
5245: 52(float) Load 4257(lodClamp)
5246:3102(ResType) ImageSparseSampleExplicitLod 5241 5242 Grad ConstOffset MinLod 5243 5244 722 5245
- 5247: 7(fvec4) CompositeExtract 5246 1
+ 5247: 7(f16vec4) CompositeExtract 5246 1
Store 5188(texel) 5247
5248: 47(int) CompositeExtract 5246 0
5249: 284 Load 286(s2DArray)
- 5250: 175(fvec3) Load 177(f16c3)
- 5251: 154(fvec2) Load 1417(f16dPdxy2)
- 5252: 154(fvec2) Load 1417(f16dPdxy2)
- 5253: 6(float) Load 4264(f16lodClamp)
+ 5250:175(f16vec3) Load 177(f16c3)
+ 5251:154(f16vec2) Load 1417(f16dPdxy2)
+ 5252:154(f16vec2) Load 1417(f16dPdxy2)
+ 5253:6(float16_t) Load 4264(f16lodClamp)
5254:3102(ResType) ImageSparseSampleExplicitLod 5249 5250 Grad ConstOffset MinLod 5251 5252 722 5253
- 5255: 7(fvec4) CompositeExtract 5254 1
+ 5255: 7(f16vec4) CompositeExtract 5254 1
Store 5188(texel) 5255
5256: 47(int) CompositeExtract 5254 0
5257: 337 Load 339(s2DArrayShadow)
@@ -6549,24 +6549,24 @@ spv.float16Fetch.frag
5262: 208(ptr) AccessChain 5188(texel) 207
5263: 52(float) CompositeExtract 5258 3
5264:3138(ResType) ImageSparseSampleDrefExplicitLod 5257 5258 5263 Grad ConstOffset MinLod 5259 5260 722 5261
- 5265: 6(float) CompositeExtract 5264 1
+ 5265:6(float16_t) CompositeExtract 5264 1
Store 5262 5265
5266: 47(int) CompositeExtract 5264 0
5267: 337 Load 339(s2DArrayShadow)
- 5268: 175(fvec3) Load 177(f16c3)
+ 5268:175(f16vec3) Load 177(f16c3)
5269: 52(float) Load 215(compare)
- 5270: 154(fvec2) Load 1417(f16dPdxy2)
- 5271: 154(fvec2) Load 1417(f16dPdxy2)
- 5272: 6(float) Load 4264(f16lodClamp)
+ 5270:154(f16vec2) Load 1417(f16dPdxy2)
+ 5271:154(f16vec2) Load 1417(f16dPdxy2)
+ 5272:6(float16_t) Load 4264(f16lodClamp)
5273: 208(ptr) AccessChain 5188(texel) 207
5274:3138(ResType) ImageSparseSampleDrefExplicitLod 5267 5268 5269 Grad ConstOffset MinLod 5270 5271 722 5272
- 5275: 6(float) CompositeExtract 5274 1
+ 5275:6(float16_t) CompositeExtract 5274 1
Store 5273 5275
5276: 47(int) CompositeExtract 5274 0
- 5277: 7(fvec4) Load 5188(texel)
+ 5277: 7(f16vec4) Load 5188(texel)
ReturnValue 5277
FunctionEnd
-113(testTextureGradOffsetClamp(): 7(fvec4) Function None 8
+113(testTextureGradOffsetClamp(): 7(f16vec4) Function None 8
114: Label
5280(texel): 64(ptr) Variable Function
Store 5280(texel) 121
@@ -6575,54 +6575,54 @@ spv.float16Fetch.frag
5283: 52(float) Load 1393(dPdxy1)
5284: 52(float) Load 1393(dPdxy1)
5285: 52(float) Load 4257(lodClamp)
- 5286: 7(fvec4) ImageSampleExplicitLod 5281 5282 Grad ConstOffset MinLod 5283 5284 709 5285
- 5287: 7(fvec4) Load 5280(texel)
- 5288: 7(fvec4) FAdd 5287 5286
+ 5286: 7(f16vec4) ImageSampleExplicitLod 5281 5282 Grad ConstOffset MinLod 5283 5284 709 5285
+ 5287: 7(f16vec4) Load 5280(texel)
+ 5288: 7(f16vec4) FAdd 5287 5286
Store 5280(texel) 5288
5289: 123 Load 125(s1D)
- 5290: 6(float) Load 135(f16c1)
- 5291: 6(float) Load 1401(f16dPdxy1)
- 5292: 6(float) Load 1401(f16dPdxy1)
- 5293: 6(float) Load 4264(f16lodClamp)
- 5294: 7(fvec4) ImageSampleExplicitLod 5289 5290 Grad ConstOffset MinLod 5291 5292 709 5293
- 5295: 7(fvec4) Load 5280(texel)
- 5296: 7(fvec4) FAdd 5295 5294
+ 5290:6(float16_t) Load 135(f16c1)
+ 5291:6(float16_t) Load 1401(f16dPdxy1)
+ 5292:6(float16_t) Load 1401(f16dPdxy1)
+ 5293:6(float16_t) Load 4264(f16lodClamp)
+ 5294: 7(f16vec4) ImageSampleExplicitLod 5289 5290 Grad ConstOffset MinLod 5291 5292 709 5293
+ 5295: 7(f16vec4) Load 5280(texel)
+ 5296: 7(f16vec4) FAdd 5295 5294
Store 5280(texel) 5296
5297: 143 Load 145(s2D)
5298: 53(fvec2) Load 148(c2)
5299: 53(fvec2) Load 1409(dPdxy2)
5300: 53(fvec2) Load 1409(dPdxy2)
5301: 52(float) Load 4257(lodClamp)
- 5302: 7(fvec4) ImageSampleExplicitLod 5297 5298 Grad ConstOffset MinLod 5299 5300 722 5301
- 5303: 7(fvec4) Load 5280(texel)
- 5304: 7(fvec4) FAdd 5303 5302
+ 5302: 7(f16vec4) ImageSampleExplicitLod 5297 5298 Grad ConstOffset MinLod 5299 5300 722 5301
+ 5303: 7(f16vec4) Load 5280(texel)
+ 5304: 7(f16vec4) FAdd 5303 5302
Store 5280(texel) 5304
5305: 143 Load 145(s2D)
- 5306: 154(fvec2) Load 156(f16c2)
- 5307: 154(fvec2) Load 1417(f16dPdxy2)
- 5308: 154(fvec2) Load 1417(f16dPdxy2)
- 5309: 6(float) Load 4264(f16lodClamp)
- 5310: 7(fvec4) ImageSampleExplicitLod 5305 5306 Grad ConstOffset MinLod 5307 5308 722 5309
- 5311: 7(fvec4) Load 5280(texel)
- 5312: 7(fvec4) FAdd 5311 5310
+ 5306:154(f16vec2) Load 156(f16c2)
+ 5307:154(f16vec2) Load 1417(f16dPdxy2)
+ 5308:154(f16vec2) Load 1417(f16dPdxy2)
+ 5309:6(float16_t) Load 4264(f16lodClamp)
+ 5310: 7(f16vec4) ImageSampleExplicitLod 5305 5306 Grad ConstOffset MinLod 5307 5308 722 5309
+ 5311: 7(f16vec4) Load 5280(texel)
+ 5312: 7(f16vec4) FAdd 5311 5310
Store 5280(texel) 5312
5313: 163 Load 165(s3D)
5314: 167(fvec3) Load 169(c3)
5315: 167(fvec3) Load 1425(dPdxy3)
5316: 167(fvec3) Load 1425(dPdxy3)
5317: 52(float) Load 4257(lodClamp)
- 5318: 7(fvec4) ImageSampleExplicitLod 5313 5314 Grad ConstOffset MinLod 5315 5316 735 5317
- 5319: 7(fvec4) Load 5280(texel)
- 5320: 7(fvec4) FAdd 5319 5318
+ 5318: 7(f16vec4) ImageSampleExplicitLod 5313 5314 Grad ConstOffset MinLod 5315 5316 735 5317
+ 5319: 7(f16vec4) Load 5280(texel)
+ 5320: 7(f16vec4) FAdd 5319 5318
Store 5280(texel) 5320
5321: 163 Load 165(s3D)
- 5322: 175(fvec3) Load 177(f16c3)
- 5323: 175(fvec3) Load 1433(f16dPdxy3)
- 5324: 175(fvec3) Load 1433(f16dPdxy3)
- 5325: 6(float) Load 4264(f16lodClamp)
- 5326: 7(fvec4) ImageSampleExplicitLod 5321 5322 Grad ConstOffset MinLod 5323 5324 735 5325
- 5327: 7(fvec4) Load 5280(texel)
- 5328: 7(fvec4) FAdd 5327 5326
+ 5322:175(f16vec3) Load 177(f16c3)
+ 5323:175(f16vec3) Load 1433(f16dPdxy3)
+ 5324:175(f16vec3) Load 1433(f16dPdxy3)
+ 5325:6(float16_t) Load 4264(f16lodClamp)
+ 5326: 7(f16vec4) ImageSampleExplicitLod 5321 5322 Grad ConstOffset MinLod 5323 5324 735 5325
+ 5327: 7(f16vec4) Load 5280(texel)
+ 5328: 7(f16vec4) FAdd 5327 5326
Store 5280(texel) 5328
5329: 199 Load 201(s1DShadow)
5330: 167(fvec3) Load 169(c3)
@@ -6630,22 +6630,22 @@ spv.float16Fetch.frag
5332: 52(float) Load 1393(dPdxy1)
5333: 52(float) Load 4257(lodClamp)
5334: 52(float) CompositeExtract 5330 2
- 5335: 6(float) ImageSampleDrefExplicitLod 5329 5330 5334 Grad ConstOffset MinLod 5331 5332 709 5333
+ 5335:6(float16_t) ImageSampleDrefExplicitLod 5329 5330 5334 Grad ConstOffset MinLod 5331 5332 709 5333
5336: 208(ptr) AccessChain 5280(texel) 207
- 5337: 6(float) Load 5336
- 5338: 6(float) FAdd 5337 5335
+ 5337:6(float16_t) Load 5336
+ 5338:6(float16_t) FAdd 5337 5335
5339: 208(ptr) AccessChain 5280(texel) 207
Store 5339 5338
5340: 199 Load 201(s1DShadow)
- 5341: 154(fvec2) Load 156(f16c2)
+ 5341:154(f16vec2) Load 156(f16c2)
5342: 52(float) Load 215(compare)
- 5343: 6(float) Load 1401(f16dPdxy1)
- 5344: 6(float) Load 1401(f16dPdxy1)
- 5345: 6(float) Load 4264(f16lodClamp)
- 5346: 6(float) ImageSampleDrefExplicitLod 5340 5341 5342 Grad ConstOffset MinLod 5343 5344 709 5345
+ 5343:6(float16_t) Load 1401(f16dPdxy1)
+ 5344:6(float16_t) Load 1401(f16dPdxy1)
+ 5345:6(float16_t) Load 4264(f16lodClamp)
+ 5346:6(float16_t) ImageSampleDrefExplicitLod 5340 5341 5342 Grad ConstOffset MinLod 5343 5344 709 5345
5347: 208(ptr) AccessChain 5280(texel) 207
- 5348: 6(float) Load 5347
- 5349: 6(float) FAdd 5348 5346
+ 5348:6(float16_t) Load 5347
+ 5349:6(float16_t) FAdd 5348 5346
5350: 208(ptr) AccessChain 5280(texel) 207
Store 5350 5349
5351: 224 Load 226(s2DShadow)
@@ -6654,22 +6654,22 @@ spv.float16Fetch.frag
5354: 53(fvec2) Load 1409(dPdxy2)
5355: 52(float) Load 4257(lodClamp)
5356: 52(float) CompositeExtract 5352 2
- 5357: 6(float) ImageSampleDrefExplicitLod 5351 5352 5356 Grad ConstOffset MinLod 5353 5354 722 5355
+ 5357:6(float16_t) ImageSampleDrefExplicitLod 5351 5352 5356 Grad ConstOffset MinLod 5353 5354 722 5355
5358: 208(ptr) AccessChain 5280(texel) 207
- 5359: 6(float) Load 5358
- 5360: 6(float) FAdd 5359 5357
+ 5359:6(float16_t) Load 5358
+ 5360:6(float16_t) FAdd 5359 5357
5361: 208(ptr) AccessChain 5280(texel) 207
Store 5361 5360
5362: 224 Load 226(s2DShadow)
- 5363: 154(fvec2) Load 156(f16c2)
+ 5363:154(f16vec2) Load 156(f16c2)
5364: 52(float) Load 215(compare)
- 5365: 154(fvec2) Load 1417(f16dPdxy2)
- 5366: 154(fvec2) Load 1417(f16dPdxy2)
- 5367: 6(float) Load 4264(f16lodClamp)
- 5368: 6(float) ImageSampleDrefExplicitLod 5362 5363 5364 Grad ConstOffset MinLod 5365 5366 722 5367
+ 5365:154(f16vec2) Load 1417(f16dPdxy2)
+ 5366:154(f16vec2) Load 1417(f16dPdxy2)
+ 5367:6(float16_t) Load 4264(f16lodClamp)
+ 5368:6(float16_t) ImageSampleDrefExplicitLod 5362 5363 5364 Grad ConstOffset MinLod 5365 5366 722 5367
5369: 208(ptr) AccessChain 5280(texel) 207
- 5370: 6(float) Load 5369
- 5371: 6(float) FAdd 5370 5368
+ 5370:6(float16_t) Load 5369
+ 5371:6(float16_t) FAdd 5370 5368
5372: 208(ptr) AccessChain 5280(texel) 207
Store 5372 5371
5373: 269 Load 271(s1DArray)
@@ -6677,36 +6677,36 @@ spv.float16Fetch.frag
5375: 52(float) Load 1393(dPdxy1)
5376: 52(float) Load 1393(dPdxy1)
5377: 52(float) Load 4257(lodClamp)
- 5378: 7(fvec4) ImageSampleExplicitLod 5373 5374 Grad ConstOffset MinLod 5375 5376 709 5377
- 5379: 7(fvec4) Load 5280(texel)
- 5380: 7(fvec4) FAdd 5379 5378
+ 5378: 7(f16vec4) ImageSampleExplicitLod 5373 5374 Grad ConstOffset MinLod 5375 5376 709 5377
+ 5379: 7(f16vec4) Load 5280(texel)
+ 5380: 7(f16vec4) FAdd 5379 5378
Store 5280(texel) 5380
5381: 269 Load 271(s1DArray)
- 5382: 154(fvec2) Load 156(f16c2)
- 5383: 6(float) Load 1401(f16dPdxy1)
- 5384: 6(float) Load 1401(f16dPdxy1)
- 5385: 6(float) Load 4264(f16lodClamp)
- 5386: 7(fvec4) ImageSampleExplicitLod 5381 5382 Grad ConstOffset MinLod 5383 5384 709 5385
- 5387: 7(fvec4) Load 5280(texel)
- 5388: 7(fvec4) FAdd 5387 5386
+ 5382:154(f16vec2) Load 156(f16c2)
+ 5383:6(float16_t) Load 1401(f16dPdxy1)
+ 5384:6(float16_t) Load 1401(f16dPdxy1)
+ 5385:6(float16_t) Load 4264(f16lodClamp)
+ 5386: 7(f16vec4) ImageSampleExplicitLod 5381 5382 Grad ConstOffset MinLod 5383 5384 709 5385
+ 5387: 7(f16vec4) Load 5280(texel)
+ 5388: 7(f16vec4) FAdd 5387 5386
Store 5280(texel) 5388
5389: 284 Load 286(s2DArray)
5390: 167(fvec3) Load 169(c3)
5391: 53(fvec2) Load 1409(dPdxy2)
5392: 53(fvec2) Load 1409(dPdxy2)
5393: 52(float) Load 4257(lodClamp)
- 5394: 7(fvec4) ImageSampleExplicitLod 5389 5390 Grad ConstOffset MinLod 5391 5392 722 5393
- 5395: 7(fvec4) Load 5280(texel)
- 5396: 7(fvec4) FAdd 5395 5394
+ 5394: 7(f16vec4) ImageSampleExplicitLod 5389 5390 Grad ConstOffset MinLod 5391 5392 722 5393
+ 5395: 7(f16vec4) Load 5280(texel)
+ 5396: 7(f16vec4) FAdd 5395 5394
Store 5280(texel) 5396
5397: 284 Load 286(s2DArray)
- 5398: 175(fvec3) Load 177(f16c3)
- 5399: 154(fvec2) Load 1417(f16dPdxy2)
- 5400: 154(fvec2) Load 1417(f16dPdxy2)
- 5401: 6(float) Load 4264(f16lodClamp)
- 5402: 7(fvec4) ImageSampleExplicitLod 5397 5398 Grad ConstOffset MinLod 5399 5400 722 5401
- 5403: 7(fvec4) Load 5280(texel)
- 5404: 7(fvec4) FAdd 5403 5402
+ 5398:175(f16vec3) Load 177(f16c3)
+ 5399:154(f16vec2) Load 1417(f16dPdxy2)
+ 5400:154(f16vec2) Load 1417(f16dPdxy2)
+ 5401:6(float16_t) Load 4264(f16lodClamp)
+ 5402: 7(f16vec4) ImageSampleExplicitLod 5397 5398 Grad ConstOffset MinLod 5399 5400 722 5401
+ 5403: 7(f16vec4) Load 5280(texel)
+ 5404: 7(f16vec4) FAdd 5403 5402
Store 5280(texel) 5404
5405: 316 Load 318(s1DArrayShadow)
5406: 167(fvec3) Load 169(c3)
@@ -6714,22 +6714,22 @@ spv.float16Fetch.frag
5408: 52(float) Load 1393(dPdxy1)
5409: 52(float) Load 4257(lodClamp)
5410: 52(float) CompositeExtract 5406 2
- 5411: 6(float) ImageSampleDrefExplicitLod 5405 5406 5410 Grad ConstOffset MinLod 5407 5408 709 5409
+ 5411:6(float16_t) ImageSampleDrefExplicitLod 5405 5406 5410 Grad ConstOffset MinLod 5407 5408 709 5409
5412: 208(ptr) AccessChain 5280(texel) 207
- 5413: 6(float) Load 5412
- 5414: 6(float) FAdd 5413 5411
+ 5413:6(float16_t) Load 5412
+ 5414:6(float16_t) FAdd 5413 5411
5415: 208(ptr) AccessChain 5280(texel) 207
Store 5415 5414
5416: 316 Load 318(s1DArrayShadow)
- 5417: 154(fvec2) Load 156(f16c2)
+ 5417:154(f16vec2) Load 156(f16c2)
5418: 52(float) Load 215(compare)
- 5419: 6(float) Load 1401(f16dPdxy1)
- 5420: 6(float) Load 1401(f16dPdxy1)
- 5421: 6(float) Load 4264(f16lodClamp)
- 5422: 6(float) ImageSampleDrefExplicitLod 5416 5417 5418 Grad ConstOffset MinLod 5419 5420 709 5421
+ 5419:6(float16_t) Load 1401(f16dPdxy1)
+ 5420:6(float16_t) Load 1401(f16dPdxy1)
+ 5421:6(float16_t) Load 4264(f16lodClamp)
+ 5422:6(float16_t) ImageSampleDrefExplicitLod 5416 5417 5418 Grad ConstOffset MinLod 5419 5420 709 5421
5423: 208(ptr) AccessChain 5280(texel) 207
- 5424: 6(float) Load 5423
- 5425: 6(float) FAdd 5424 5422
+ 5424:6(float16_t) Load 5423
+ 5425:6(float16_t) FAdd 5424 5422
5426: 208(ptr) AccessChain 5280(texel) 207
Store 5426 5425
5427: 337 Load 339(s2DArrayShadow)
@@ -6738,28 +6738,28 @@ spv.float16Fetch.frag
5430: 53(fvec2) Load 1409(dPdxy2)
5431: 52(float) Load 4257(lodClamp)
5432: 52(float) CompositeExtract 5428 3
- 5433: 6(float) ImageSampleDrefExplicitLod 5427 5428 5432 Grad ConstOffset MinLod 5429 5430 722 5431
+ 5433:6(float16_t) ImageSampleDrefExplicitLod 5427 5428 5432 Grad ConstOffset MinLod 5429 5430 722 5431
5434: 208(ptr) AccessChain 5280(texel) 207
- 5435: 6(float) Load 5434
- 5436: 6(float) FAdd 5435 5433
+ 5435:6(float16_t) Load 5434
+ 5436:6(float16_t) FAdd 5435 5433
5437: 208(ptr) AccessChain 5280(texel) 207
Store 5437 5436
5438: 337 Load 339(s2DArrayShadow)
- 5439: 175(fvec3) Load 177(f16c3)
+ 5439:175(f16vec3) Load 177(f16c3)
5440: 52(float) Load 215(compare)
- 5441: 154(fvec2) Load 1417(f16dPdxy2)
- 5442: 154(fvec2) Load 1417(f16dPdxy2)
- 5443: 6(float) Load 4264(f16lodClamp)
- 5444: 6(float) ImageSampleDrefExplicitLod 5438 5439 5440 Grad ConstOffset MinLod 5441 5442 722 5443
+ 5441:154(f16vec2) Load 1417(f16dPdxy2)
+ 5442:154(f16vec2) Load 1417(f16dPdxy2)
+ 5443:6(float16_t) Load 4264(f16lodClamp)
+ 5444:6(float16_t) ImageSampleDrefExplicitLod 5438 5439 5440 Grad ConstOffset MinLod 5441 5442 722 5443
5445: 208(ptr) AccessChain 5280(texel) 207
- 5446: 6(float) Load 5445
- 5447: 6(float) FAdd 5446 5444
+ 5446:6(float16_t) Load 5445
+ 5447:6(float16_t) FAdd 5446 5444
5448: 208(ptr) AccessChain 5280(texel) 207
Store 5448 5447
- 5449: 7(fvec4) Load 5280(texel)
+ 5449: 7(f16vec4) Load 5280(texel)
ReturnValue 5449
FunctionEnd
-115(testCombinedTextureSampler(): 7(fvec4) Function None 8
+115(testCombinedTextureSampler(): 7(f16vec4) Function None 8
116: Label
5452(texel): 64(ptr) Variable Function
Store 5452(texel) 121
@@ -6767,91 +6767,91 @@ spv.float16Fetch.frag
5459: 5456 Load 5458(s)
5460: 123 SampledImage 5455 5459
5461: 52(float) Load 128(c1)
- 5462: 7(fvec4) ImageSampleImplicitLod 5460 5461
- 5463: 7(fvec4) Load 5452(texel)
- 5464: 7(fvec4) FAdd 5463 5462
+ 5462: 7(f16vec4) ImageSampleImplicitLod 5460 5461
+ 5463: 7(f16vec4) Load 5452(texel)
+ 5464: 7(f16vec4) FAdd 5463 5462
Store 5452(texel) 5464
5465: 122 Load 5454(t1D)
5466: 5456 Load 5458(s)
5467: 123 SampledImage 5465 5466
- 5468: 6(float) Load 135(f16c1)
- 5469: 6(float) Load 137(f16bias)
- 5470: 7(fvec4) ImageSampleImplicitLod 5467 5468 Bias 5469
- 5471: 7(fvec4) Load 5452(texel)
- 5472: 7(fvec4) FAdd 5471 5470
+ 5468:6(float16_t) Load 135(f16c1)
+ 5469:6(float16_t) Load 137(f16bias)
+ 5470: 7(f16vec4) ImageSampleImplicitLod 5467 5468 Bias 5469
+ 5471: 7(f16vec4) Load 5452(texel)
+ 5472: 7(f16vec4) FAdd 5471 5470
Store 5452(texel) 5472
5475: 142 Load 5474(t2D)
5476: 5456 Load 5458(s)
5477: 143 SampledImage 5475 5476
5478: 53(fvec2) Load 148(c2)
- 5479: 7(fvec4) ImageSampleImplicitLod 5477 5478
- 5480: 7(fvec4) Load 5452(texel)
- 5481: 7(fvec4) FAdd 5480 5479
+ 5479: 7(f16vec4) ImageSampleImplicitLod 5477 5478
+ 5480: 7(f16vec4) Load 5452(texel)
+ 5481: 7(f16vec4) FAdd 5480 5479
Store 5452(texel) 5481
5482: 142 Load 5474(t2D)
5483: 5456 Load 5458(s)
5484: 143 SampledImage 5482 5483
- 5485: 154(fvec2) Load 156(f16c2)
- 5486: 6(float) Load 137(f16bias)
- 5487: 7(fvec4) ImageSampleImplicitLod 5484 5485 Bias 5486
- 5488: 7(fvec4) Load 5452(texel)
- 5489: 7(fvec4) FAdd 5488 5487
+ 5485:154(f16vec2) Load 156(f16c2)
+ 5486:6(float16_t) Load 137(f16bias)
+ 5487: 7(f16vec4) ImageSampleImplicitLod 5484 5485 Bias 5486
+ 5488: 7(f16vec4) Load 5452(texel)
+ 5489: 7(f16vec4) FAdd 5488 5487
Store 5452(texel) 5489
5492: 162 Load 5491(t3D)
5493: 5456 Load 5458(s)
5494: 163 SampledImage 5492 5493
5495: 167(fvec3) Load 169(c3)
- 5496: 7(fvec4) ImageSampleImplicitLod 5494 5495
- 5497: 7(fvec4) Load 5452(texel)
- 5498: 7(fvec4) FAdd 5497 5496
+ 5496: 7(f16vec4) ImageSampleImplicitLod 5494 5495
+ 5497: 7(f16vec4) Load 5452(texel)
+ 5498: 7(f16vec4) FAdd 5497 5496
Store 5452(texel) 5498
5499: 162 Load 5491(t3D)
5500: 5456 Load 5458(s)
5501: 163 SampledImage 5499 5500
- 5502: 175(fvec3) Load 177(f16c3)
- 5503: 6(float) Load 137(f16bias)
- 5504: 7(fvec4) ImageSampleImplicitLod 5501 5502 Bias 5503
- 5505: 7(fvec4) Load 5452(texel)
- 5506: 7(fvec4) FAdd 5505 5504
+ 5502:175(f16vec3) Load 177(f16c3)
+ 5503:6(float16_t) Load 137(f16bias)
+ 5504: 7(f16vec4) ImageSampleImplicitLod 5501 5502 Bias 5503
+ 5505: 7(f16vec4) Load 5452(texel)
+ 5506: 7(f16vec4) FAdd 5505 5504
Store 5452(texel) 5506
5509: 183 Load 5508(tCube)
5510: 5456 Load 5458(s)
5511: 184 SampledImage 5509 5510
5512: 167(fvec3) Load 169(c3)
- 5513: 7(fvec4) ImageSampleImplicitLod 5511 5512
- 5514: 7(fvec4) Load 5452(texel)
- 5515: 7(fvec4) FAdd 5514 5513
+ 5513: 7(f16vec4) ImageSampleImplicitLod 5511 5512
+ 5514: 7(f16vec4) Load 5452(texel)
+ 5515: 7(f16vec4) FAdd 5514 5513
Store 5452(texel) 5515
5516: 183 Load 5508(tCube)
5517: 5456 Load 5458(s)
5518: 184 SampledImage 5516 5517
- 5519: 175(fvec3) Load 177(f16c3)
- 5520: 6(float) Load 137(f16bias)
- 5521: 7(fvec4) ImageSampleImplicitLod 5518 5519 Bias 5520
- 5522: 7(fvec4) Load 5452(texel)
- 5523: 7(fvec4) FAdd 5522 5521
+ 5519:175(f16vec3) Load 177(f16c3)
+ 5520:6(float16_t) Load 137(f16bias)
+ 5521: 7(f16vec4) ImageSampleImplicitLod 5518 5519 Bias 5520
+ 5522: 7(f16vec4) Load 5452(texel)
+ 5523: 7(f16vec4) FAdd 5522 5521
Store 5452(texel) 5523
5524: 122 Load 5454(t1D)
5526: 5456 Load 5525(sShadow)
5527: 199 SampledImage 5524 5526
5528: 167(fvec3) Load 169(c3)
5529: 52(float) CompositeExtract 5528 2
- 5530: 6(float) ImageSampleDrefImplicitLod 5527 5528 5529
+ 5530:6(float16_t) ImageSampleDrefImplicitLod 5527 5528 5529
5531: 208(ptr) AccessChain 5452(texel) 207
- 5532: 6(float) Load 5531
- 5533: 6(float) FAdd 5532 5530
+ 5532:6(float16_t) Load 5531
+ 5533:6(float16_t) FAdd 5532 5530
5534: 208(ptr) AccessChain 5452(texel) 207
Store 5534 5533
5535: 122 Load 5454(t1D)
5536: 5456 Load 5525(sShadow)
5537: 199 SampledImage 5535 5536
- 5538: 154(fvec2) Load 156(f16c2)
+ 5538:154(f16vec2) Load 156(f16c2)
5539: 52(float) Load 215(compare)
- 5540: 6(float) Load 137(f16bias)
- 5541: 6(float) ImageSampleDrefImplicitLod 5537 5538 5539 Bias 5540
+ 5540:6(float16_t) Load 137(f16bias)
+ 5541:6(float16_t) ImageSampleDrefImplicitLod 5537 5538 5539 Bias 5540
5542: 208(ptr) AccessChain 5452(texel) 207
- 5543: 6(float) Load 5542
- 5544: 6(float) FAdd 5543 5541
+ 5543:6(float16_t) Load 5542
+ 5544:6(float16_t) FAdd 5543 5541
5545: 208(ptr) AccessChain 5452(texel) 207
Store 5545 5544
5546: 142 Load 5474(t2D)
@@ -6859,22 +6859,22 @@ spv.float16Fetch.frag
5548: 224 SampledImage 5546 5547
5549: 167(fvec3) Load 169(c3)
5550: 52(float) CompositeExtract 5549 2
- 5551: 6(float) ImageSampleDrefImplicitLod 5548 5549 5550
+ 5551:6(float16_t) ImageSampleDrefImplicitLod 5548 5549 5550
5552: 208(ptr) AccessChain 5452(texel) 207
- 5553: 6(float) Load 5552
- 5554: 6(float) FAdd 5553 5551
+ 5553:6(float16_t) Load 5552
+ 5554:6(float16_t) FAdd 5553 5551
5555: 208(ptr) AccessChain 5452(texel) 207
Store 5555 5554
5556: 142 Load 5474(t2D)
5557: 5456 Load 5525(sShadow)
5558: 224 SampledImage 5556 5557
- 5559: 154(fvec2) Load 156(f16c2)
+ 5559:154(f16vec2) Load 156(f16c2)
5560: 52(float) Load 215(compare)
- 5561: 6(float) Load 137(f16bias)
- 5562: 6(float) ImageSampleDrefImplicitLod 5558 5559 5560 Bias 5561
+ 5561:6(float16_t) Load 137(f16bias)
+ 5562:6(float16_t) ImageSampleDrefImplicitLod 5558 5559 5560 Bias 5561
5563: 208(ptr) AccessChain 5452(texel) 207
- 5564: 6(float) Load 5563
- 5565: 6(float) FAdd 5564 5562
+ 5564:6(float16_t) Load 5563
+ 5565:6(float16_t) FAdd 5564 5562
5566: 208(ptr) AccessChain 5452(texel) 207
Store 5566 5565
5567: 183 Load 5508(tCube)
@@ -6882,96 +6882,96 @@ spv.float16Fetch.frag
5569: 245 SampledImage 5567 5568
5570: 249(fvec4) Load 251(c4)
5571: 52(float) CompositeExtract 5570 3
- 5572: 6(float) ImageSampleDrefImplicitLod 5569 5570 5571
+ 5572:6(float16_t) ImageSampleDrefImplicitLod 5569 5570 5571
5573: 208(ptr) AccessChain 5452(texel) 207
- 5574: 6(float) Load 5573
- 5575: 6(float) FAdd 5574 5572
+ 5574:6(float16_t) Load 5573
+ 5575:6(float16_t) FAdd 5574 5572
5576: 208(ptr) AccessChain 5452(texel) 207
Store 5576 5575
5577: 183 Load 5508(tCube)
5578: 5456 Load 5525(sShadow)
5579: 245 SampledImage 5577 5578
- 5580: 175(fvec3) Load 177(f16c3)
+ 5580:175(f16vec3) Load 177(f16c3)
5581: 52(float) Load 215(compare)
- 5582: 6(float) Load 137(f16bias)
- 5583: 6(float) ImageSampleDrefImplicitLod 5579 5580 5581 Bias 5582
+ 5582:6(float16_t) Load 137(f16bias)
+ 5583:6(float16_t) ImageSampleDrefImplicitLod 5579 5580 5581 Bias 5582
5584: 208(ptr) AccessChain 5452(texel) 207
- 5585: 6(float) Load 5584
- 5586: 6(float) FAdd 5585 5583
+ 5585:6(float16_t) Load 5584
+ 5586:6(float16_t) FAdd 5585 5583
5587: 208(ptr) AccessChain 5452(texel) 207
Store 5587 5586
5590: 268 Load 5589(t1DArray)
5591: 5456 Load 5458(s)
5592: 269 SampledImage 5590 5591
5593: 53(fvec2) Load 148(c2)
- 5594: 7(fvec4) ImageSampleImplicitLod 5592 5593
- 5595: 7(fvec4) Load 5452(texel)
- 5596: 7(fvec4) FAdd 5595 5594
+ 5594: 7(f16vec4) ImageSampleImplicitLod 5592 5593
+ 5595: 7(f16vec4) Load 5452(texel)
+ 5596: 7(f16vec4) FAdd 5595 5594
Store 5452(texel) 5596
5597: 268 Load 5589(t1DArray)
5598: 5456 Load 5458(s)
5599: 269 SampledImage 5597 5598
- 5600: 154(fvec2) Load 156(f16c2)
- 5601: 6(float) Load 137(f16bias)
- 5602: 7(fvec4) ImageSampleImplicitLod 5599 5600 Bias 5601
- 5603: 7(fvec4) Load 5452(texel)
- 5604: 7(fvec4) FAdd 5603 5602
+ 5600:154(f16vec2) Load 156(f16c2)
+ 5601:6(float16_t) Load 137(f16bias)
+ 5602: 7(f16vec4) ImageSampleImplicitLod 5599 5600 Bias 5601
+ 5603: 7(f16vec4) Load 5452(texel)
+ 5604: 7(f16vec4) FAdd 5603 5602
Store 5452(texel) 5604
5607: 283 Load 5606(t2DArray)
5608: 5456 Load 5458(s)
5609: 284 SampledImage 5607 5608
5610: 167(fvec3) Load 169(c3)
- 5611: 7(fvec4) ImageSampleImplicitLod 5609 5610
- 5612: 7(fvec4) Load 5452(texel)
- 5613: 7(fvec4) FAdd 5612 5611
+ 5611: 7(f16vec4) ImageSampleImplicitLod 5609 5610
+ 5612: 7(f16vec4) Load 5452(texel)
+ 5613: 7(f16vec4) FAdd 5612 5611
Store 5452(texel) 5613
5614: 283 Load 5606(t2DArray)
5615: 5456 Load 5458(s)
5616: 284 SampledImage 5614 5615
- 5617: 175(fvec3) Load 177(f16c3)
- 5618: 6(float) Load 137(f16bias)
- 5619: 7(fvec4) ImageSampleImplicitLod 5616 5617 Bias 5618
- 5620: 7(fvec4) Load 5452(texel)
- 5621: 7(fvec4) FAdd 5620 5619
+ 5617:175(f16vec3) Load 177(f16c3)
+ 5618:6(float16_t) Load 137(f16bias)
+ 5619: 7(f16vec4) ImageSampleImplicitLod 5616 5617 Bias 5618
+ 5620: 7(f16vec4) Load 5452(texel)
+ 5621: 7(f16vec4) FAdd 5620 5619
Store 5452(texel) 5621
5624: 298 Load 5623(tCubeArray)
5625: 5456 Load 5458(s)
5626: 299 SampledImage 5624 5625
5627: 249(fvec4) Load 251(c4)
- 5628: 7(fvec4) ImageSampleImplicitLod 5626 5627
- 5629: 7(fvec4) Load 5452(texel)
- 5630: 7(fvec4) FAdd 5629 5628
+ 5628: 7(f16vec4) ImageSampleImplicitLod 5626 5627
+ 5629: 7(f16vec4) Load 5452(texel)
+ 5630: 7(f16vec4) FAdd 5629 5628
Store 5452(texel) 5630
5631: 298 Load 5623(tCubeArray)
5632: 5456 Load 5458(s)
5633: 299 SampledImage 5631 5632
- 5634: 7(fvec4) Load 309(f16c4)
- 5635: 6(float) Load 137(f16bias)
- 5636: 7(fvec4) ImageSampleImplicitLod 5633 5634 Bias 5635
- 5637: 7(fvec4) Load 5452(texel)
- 5638: 7(fvec4) FAdd 5637 5636
+ 5634: 7(f16vec4) Load 309(f16c4)
+ 5635:6(float16_t) Load 137(f16bias)
+ 5636: 7(f16vec4) ImageSampleImplicitLod 5633 5634 Bias 5635
+ 5637: 7(f16vec4) Load 5452(texel)
+ 5638: 7(f16vec4) FAdd 5637 5636
Store 5452(texel) 5638
5639: 268 Load 5589(t1DArray)
5640: 5456 Load 5525(sShadow)
5641: 316 SampledImage 5639 5640
5642: 167(fvec3) Load 169(c3)
5643: 52(float) CompositeExtract 5642 2
- 5644: 6(float) ImageSampleDrefImplicitLod 5641 5642 5643
+ 5644:6(float16_t) ImageSampleDrefImplicitLod 5641 5642 5643
5645: 208(ptr) AccessChain 5452(texel) 207
- 5646: 6(float) Load 5645
- 5647: 6(float) FAdd 5646 5644
+ 5646:6(float16_t) Load 5645
+ 5647:6(float16_t) FAdd 5646 5644
5648: 208(ptr) AccessChain 5452(texel) 207
Store 5648 5647
5649: 268 Load 5589(t1DArray)
5650: 5456 Load 5525(sShadow)
5651: 316 SampledImage 5649 5650
- 5652: 154(fvec2) Load 156(f16c2)
+ 5652:154(f16vec2) Load 156(f16c2)
5653: 52(float) Load 215(compare)
- 5654: 6(float) Load 137(f16bias)
- 5655: 6(float) ImageSampleDrefImplicitLod 5651 5652 5653 Bias 5654
+ 5654:6(float16_t) Load 137(f16bias)
+ 5655:6(float16_t) ImageSampleDrefImplicitLod 5651 5652 5653 Bias 5654
5656: 208(ptr) AccessChain 5452(texel) 207
- 5657: 6(float) Load 5656
- 5658: 6(float) FAdd 5657 5655
+ 5657:6(float16_t) Load 5656
+ 5658:6(float16_t) FAdd 5657 5655
5659: 208(ptr) AccessChain 5452(texel) 207
Store 5659 5658
5660: 283 Load 5606(t2DArray)
@@ -6979,59 +6979,59 @@ spv.float16Fetch.frag
5662: 337 SampledImage 5660 5661
5663: 249(fvec4) Load 251(c4)
5664: 52(float) CompositeExtract 5663 3
- 5665: 6(float) ImageSampleDrefImplicitLod 5662 5663 5664
+ 5665:6(float16_t) ImageSampleDrefImplicitLod 5662 5663 5664
5666: 208(ptr) AccessChain 5452(texel) 207
- 5667: 6(float) Load 5666
- 5668: 6(float) FAdd 5667 5665
+ 5667:6(float16_t) Load 5666
+ 5668:6(float16_t) FAdd 5667 5665
5669: 208(ptr) AccessChain 5452(texel) 207
Store 5669 5668
5670: 283 Load 5606(t2DArray)
5671: 5456 Load 5525(sShadow)
5672: 337 SampledImage 5670 5671
- 5673: 175(fvec3) Load 177(f16c3)
+ 5673:175(f16vec3) Load 177(f16c3)
5674: 52(float) Load 215(compare)
- 5675: 6(float) ImageSampleDrefImplicitLod 5672 5673 5674
+ 5675:6(float16_t) ImageSampleDrefImplicitLod 5672 5673 5674
5676: 208(ptr) AccessChain 5452(texel) 207
- 5677: 6(float) Load 5676
- 5678: 6(float) FAdd 5677 5675
+ 5677:6(float16_t) Load 5676
+ 5678:6(float16_t) FAdd 5677 5675
5679: 208(ptr) AccessChain 5452(texel) 207
Store 5679 5678
5682: 356 Load 5681(t2DRect)
5683: 5456 Load 5458(s)
5684: 357 SampledImage 5682 5683
5685: 53(fvec2) Load 148(c2)
- 5686: 7(fvec4) ImageSampleImplicitLod 5684 5685
- 5687: 7(fvec4) Load 5452(texel)
- 5688: 7(fvec4) FAdd 5687 5686
+ 5686: 7(f16vec4) ImageSampleImplicitLod 5684 5685
+ 5687: 7(f16vec4) Load 5452(texel)
+ 5688: 7(f16vec4) FAdd 5687 5686
Store 5452(texel) 5688
5689: 356 Load 5681(t2DRect)
5690: 5456 Load 5458(s)
5691: 357 SampledImage 5689 5690
- 5692: 154(fvec2) Load 156(f16c2)
- 5693: 7(fvec4) ImageSampleImplicitLod 5691 5692
- 5694: 7(fvec4) Load 5452(texel)
- 5695: 7(fvec4) FAdd 5694 5693
+ 5692:154(f16vec2) Load 156(f16c2)
+ 5693: 7(f16vec4) ImageSampleImplicitLod 5691 5692
+ 5694: 7(f16vec4) Load 5452(texel)
+ 5695: 7(f16vec4) FAdd 5694 5693
Store 5452(texel) 5695
5696: 356 Load 5681(t2DRect)
5697: 5456 Load 5525(sShadow)
5698: 371 SampledImage 5696 5697
5699: 167(fvec3) Load 169(c3)
5700: 52(float) CompositeExtract 5699 2
- 5701: 6(float) ImageSampleDrefImplicitLod 5698 5699 5700
+ 5701:6(float16_t) ImageSampleDrefImplicitLod 5698 5699 5700
5702: 208(ptr) AccessChain 5452(texel) 207
- 5703: 6(float) Load 5702
- 5704: 6(float) FAdd 5703 5701
+ 5703:6(float16_t) Load 5702
+ 5704:6(float16_t) FAdd 5703 5701
5705: 208(ptr) AccessChain 5452(texel) 207
Store 5705 5704
5706: 356 Load 5681(t2DRect)
5707: 5456 Load 5525(sShadow)
5708: 371 SampledImage 5706 5707
- 5709: 154(fvec2) Load 156(f16c2)
+ 5709:154(f16vec2) Load 156(f16c2)
5710: 52(float) Load 215(compare)
- 5711: 6(float) ImageSampleDrefImplicitLod 5708 5709 5710
+ 5711:6(float16_t) ImageSampleDrefImplicitLod 5708 5709 5710
5712: 208(ptr) AccessChain 5452(texel) 207
- 5713: 6(float) Load 5712
- 5714: 6(float) FAdd 5713 5711
+ 5713:6(float16_t) Load 5712
+ 5714:6(float16_t) FAdd 5713 5711
5715: 208(ptr) AccessChain 5452(texel) 207
Store 5715 5714
5716: 298 Load 5623(tCubeArray)
@@ -7039,32 +7039,32 @@ spv.float16Fetch.frag
5718: 391 SampledImage 5716 5717
5719: 249(fvec4) Load 251(c4)
5720: 52(float) Load 215(compare)
- 5721: 6(float) ImageSampleDrefImplicitLod 5718 5719 5720
+ 5721:6(float16_t) ImageSampleDrefImplicitLod 5718 5719 5720
5722: 208(ptr) AccessChain 5452(texel) 207
- 5723: 6(float) Load 5722
- 5724: 6(float) FAdd 5723 5721
+ 5723:6(float16_t) Load 5722
+ 5724:6(float16_t) FAdd 5723 5721
5725: 208(ptr) AccessChain 5452(texel) 207
Store 5725 5724
5726: 298 Load 5623(tCubeArray)
5727: 5456 Load 5525(sShadow)
5728: 391 SampledImage 5726 5727
- 5729: 7(fvec4) Load 309(f16c4)
+ 5729: 7(f16vec4) Load 309(f16c4)
5730: 52(float) Load 215(compare)
- 5731: 6(float) ImageSampleDrefImplicitLod 5728 5729 5730
+ 5731:6(float16_t) ImageSampleDrefImplicitLod 5728 5729 5730
5732: 208(ptr) AccessChain 5452(texel) 207
- 5733: 6(float) Load 5732
- 5734: 6(float) FAdd 5733 5731
+ 5733:6(float16_t) Load 5732
+ 5734:6(float16_t) FAdd 5733 5731
5735: 208(ptr) AccessChain 5452(texel) 207
Store 5735 5734
- 5736: 7(fvec4) Load 5452(texel)
+ 5736: 7(f16vec4) Load 5452(texel)
ReturnValue 5736
FunctionEnd
-117(testSubpassLoad(): 7(fvec4) Function None 8
+117(testSubpassLoad(): 7(f16vec4) Function None 8
118: Label
5742: 5739 Load 5741(subpass)
- 5744: 7(fvec4) ImageRead 5742 5743
+ 5744: 7(f16vec4) ImageRead 5742 5743
5748: 5745 Load 5747(subpassMS)
- 5749: 7(fvec4) ImageRead 5748 5743 Sample 1326
- 5750: 7(fvec4) FAdd 5744 5749
+ 5749: 7(f16vec4) ImageRead 5748 5743 Sample 1326
+ 5750: 7(f16vec4) FAdd 5744 5749
ReturnValue 5750
FunctionEnd
diff --git a/Test/baseResults/spv.float32.frag.out b/Test/baseResults/spv.float32.frag.out
index f9fe3211..71799923 100644
--- a/Test/baseResults/spv.float32.frag.out
+++ b/Test/baseResults/spv.float32.frag.out
@@ -142,8 +142,8 @@ spv.float32.frag
107: TypeBool
108: TypePointer Function 107(bool)
149: TypeFloat 64
- 150: TypeVector 149(float) 3
- 151: TypePointer Function 150(fvec3)
+ 150: TypeVector 149(float64_t) 3
+ 151: TypePointer Function 150(f64vec3)
153: TypeVector 26(float) 3
154: TypePointer Function 153(fvec3)
158: TypeVector 107(bool) 3
@@ -152,28 +152,28 @@ spv.float32.frag
163: 153(fvec3) ConstantComposite 162 162 162
164: 153(fvec3) ConstantComposite 54 54 54
172: TypeFloat 16
- 173: TypeVector 172(float) 3
- 174: TypePointer Function 173(fvec3)
+ 173: TypeVector 172(float16_t) 3
+ 174: TypePointer Function 173(f16vec3)
180: TypeInt 8 1
- 181: TypeVector 180(int) 3
- 182: TypePointer Function 181(ivec3)
+ 181: TypeVector 180(int8_t) 3
+ 182: TypePointer Function 181(i8vec3)
186: TypeInt 16 1
- 187: TypeVector 186(int) 3
- 188: TypePointer Function 187(ivec3)
+ 187: TypeVector 186(int16_t) 3
+ 188: TypePointer Function 187(i16vec3)
192: TypeInt 32 1
193: TypeVector 192(int) 3
194: TypePointer Function 193(ivec3)
198: TypeInt 64 1
- 199: TypeVector 198(int) 3
- 200: TypePointer Function 199(ivec3)
+ 199: TypeVector 198(int64_t) 3
+ 200: TypePointer Function 199(i64vec3)
207: TypeInt 16 0
- 208: TypeVector 207(int) 3
- 209: TypePointer Function 208(ivec3)
+ 208: TypeVector 207(int16_t) 3
+ 209: TypePointer Function 208(i16vec3)
213: TypeVector 31(int) 3
214: TypePointer Function 213(ivec3)
218: TypeInt 64 0
- 219: TypeVector 218(int) 3
- 220: TypePointer Function 219(ivec3)
+ 219: TypeVector 218(int64_t) 3
+ 220: TypePointer Function 219(i64vec3)
224: TypeVector 26(float) 4
225: TypePointer Function 224(fvec4)
374(ResType): TypeStruct 153(fvec3) 193(ivec3)
@@ -199,14 +199,14 @@ spv.float32.frag
519(B1): TypeStruct 26(float) 27(fvec2) 153(fvec3) 515 409 516 517(S) 518
520: TypePointer Uniform 519(B1)
521: 520(ptr) Variable Uniform
- 522(sf16): 172(float) SpecConstant 12288
+ 522(sf16):172(float16_t) SpecConstant 12288
523(sf): 26(float) SpecConstant 1048576000
- 524(sd): 149(float) SpecConstant 0 1071644672
+ 524(sd):149(float64_t) SpecConstant 0 1071644672
525: 26(float) SpecConstantOp 115 522(sf16)
526: 26(float) SpecConstantOp 115 522(sf16)
- 527: 149(float) SpecConstantOp 115 526
- 528: 172(float) SpecConstantOp 115 523(sf)
- 529: 172(float) SpecConstantOp 115 524(sd)
+ 527:149(float64_t) SpecConstantOp 115 526
+ 528:172(float16_t) SpecConstantOp 115 523(sf)
+ 529:172(float16_t) SpecConstantOp 115 524(sd)
4(main): 2 Function None 3
5: Label
Return
@@ -368,7 +368,7 @@ spv.float32.frag
215(u32v): 214(ptr) Variable Function
221(u64v): 220(ptr) Variable Function
156: 153(fvec3) Load 155(f32v)
- 157: 150(fvec3) FConvert 156
+ 157:150(f64vec3) FConvert 156
Store 152(f64v) 157
161: 158(bvec3) Load 160(bv)
165: 153(fvec3) Select 161 164 163
@@ -376,41 +376,41 @@ spv.float32.frag
166: 153(fvec3) Load 155(f32v)
167: 158(bvec3) FOrdNotEqual 166 163
Store 160(bv) 167
- 168: 150(fvec3) Load 152(f64v)
+ 168:150(f64vec3) Load 152(f64v)
169: 153(fvec3) FConvert 168
Store 155(f32v) 169
170: 153(fvec3) Load 155(f32v)
- 171: 150(fvec3) FConvert 170
+ 171:150(f64vec3) FConvert 170
Store 152(f64v) 171
- 176: 173(fvec3) Load 175(f16v)
+ 176:173(f16vec3) Load 175(f16v)
177: 153(fvec3) FConvert 176
Store 155(f32v) 177
178: 153(fvec3) Load 155(f32v)
- 179: 173(fvec3) FConvert 178
+ 179:173(f16vec3) FConvert 178
Store 175(f16v) 179
184: 153(fvec3) Load 155(f32v)
- 185: 181(ivec3) ConvertFToS 184
+ 185: 181(i8vec3) ConvertFToS 184
Store 183(i8v) 185
190: 153(fvec3) Load 155(f32v)
- 191: 187(ivec3) ConvertFToS 190
+ 191:187(i16vec3) ConvertFToS 190
Store 189(i16v) 191
196: 153(fvec3) Load 155(f32v)
197: 193(ivec3) ConvertFToS 196
Store 195(i32v) 197
202: 153(fvec3) Load 155(f32v)
- 203: 199(ivec3) ConvertFToS 202
+ 203:199(i64vec3) ConvertFToS 202
Store 201(i64v) 203
205: 153(fvec3) Load 155(f32v)
- 206: 181(ivec3) ConvertFToS 205
+ 206: 181(i8vec3) ConvertFToS 205
Store 204(u8v) 206
211: 153(fvec3) Load 155(f32v)
- 212: 208(ivec3) ConvertFToU 211
+ 212:208(i16vec3) ConvertFToU 211
Store 210(u16v) 212
216: 153(fvec3) Load 155(f32v)
217: 213(ivec3) ConvertFToU 216
Store 215(u32v) 217
222: 153(fvec3) Load 155(f32v)
- 223: 219(ivec3) ConvertFToU 222
+ 223:219(i64vec3) ConvertFToU 222
Store 221(u64v) 223
Return
FunctionEnd
diff --git a/Test/baseResults/spv.float64.frag.out b/Test/baseResults/spv.float64.frag.out
index 0e3a5a0b..b0e8bc46 100644
--- a/Test/baseResults/spv.float64.frag.out
+++ b/Test/baseResults/spv.float64.frag.out
@@ -127,86 +127,86 @@ spv.float64.frag
2: TypeVoid
3: TypeFunction 2
26: TypeFloat 64
- 27: TypeVector 26(float) 2
- 28: TypePointer Function 27(fvec2)
- 30: 26(float) Constant 2696277389 1051772663
+ 27: TypeVector 26(float64_t) 2
+ 28: TypePointer Function 27(f64vec2)
+ 30:26(float64_t) Constant 2696277389 1051772663
31: TypeInt 32 0
32: 31(int) Constant 0
- 33: TypePointer Function 26(float)
- 35: 26(float) Constant 0 3218079744
- 36: 26(float) Constant 3951369912 1067366481
- 37: 27(fvec2) ConstantComposite 35 36
- 54: 26(float) Constant 0 1072693248
- 60: TypeMatrix 27(fvec2) 2
+ 33: TypePointer Function 26(float64_t)
+ 35:26(float64_t) Constant 0 3218079744
+ 36:26(float64_t) Constant 3951369912 1067366481
+ 37: 27(f64vec2) ConstantComposite 35 36
+ 54:26(float64_t) Constant 0 1072693248
+ 60: TypeMatrix 27(f64vec2) 2
61: TypePointer Function 60
88: 31(int) Constant 1
107: TypeBool
108: TypePointer Function 107(bool)
- 149: TypeVector 26(float) 3
- 150: TypePointer Function 149(fvec3)
+ 149: TypeVector 26(float64_t) 3
+ 150: TypePointer Function 149(f64vec3)
152: TypeVector 107(bool) 3
153: TypePointer Function 152(bvec3)
- 156: 26(float) Constant 0 0
- 157: 149(fvec3) ConstantComposite 156 156 156
- 158: 149(fvec3) ConstantComposite 54 54 54
+ 156:26(float64_t) Constant 0 0
+ 157:149(f64vec3) ConstantComposite 156 156 156
+ 158:149(f64vec3) ConstantComposite 54 54 54
162: TypeFloat 16
- 163: TypeVector 162(float) 3
- 164: TypePointer Function 163(fvec3)
+ 163: TypeVector 162(float16_t) 3
+ 164: TypePointer Function 163(f16vec3)
170: TypeInt 8 1
- 171: TypeVector 170(int) 3
- 172: TypePointer Function 171(ivec3)
+ 171: TypeVector 170(int8_t) 3
+ 172: TypePointer Function 171(i8vec3)
176: TypeInt 16 1
- 177: TypeVector 176(int) 3
- 178: TypePointer Function 177(ivec3)
+ 177: TypeVector 176(int16_t) 3
+ 178: TypePointer Function 177(i16vec3)
182: TypeInt 32 1
183: TypeVector 182(int) 3
184: TypePointer Function 183(ivec3)
188: TypeInt 64 1
- 189: TypeVector 188(int) 3
- 190: TypePointer Function 189(ivec3)
+ 189: TypeVector 188(int64_t) 3
+ 190: TypePointer Function 189(i64vec3)
197: TypeInt 16 0
- 198: TypeVector 197(int) 3
- 199: TypePointer Function 198(ivec3)
+ 198: TypeVector 197(int16_t) 3
+ 199: TypePointer Function 198(i16vec3)
203: TypeVector 31(int) 3
204: TypePointer Function 203(ivec3)
208: TypeInt 64 0
- 209: TypeVector 208(int) 3
- 210: TypePointer Function 209(ivec3)
- 214: TypeVector 26(float) 4
- 215: TypePointer Function 214(fvec4)
- 364(ResType): TypeStruct 149(fvec3) 183(ivec3)
+ 209: TypeVector 208(int64_t) 3
+ 210: TypePointer Function 209(i64vec3)
+ 214: TypeVector 26(float64_t) 4
+ 215: TypePointer Function 214(f64vec4)
+ 364(ResType): TypeStruct 149(f64vec3) 183(ivec3)
397: TypeFloat 32
398: TypePointer Function 397(float)
- 402: TypeMatrix 149(fvec3) 2
+ 402: TypeMatrix 149(f64vec3) 2
403: TypePointer Function 402
- 421: TypeMatrix 27(fvec2) 3
+ 421: TypeMatrix 27(f64vec2) 3
422: TypePointer Function 421
- 427: TypeMatrix 149(fvec3) 3
+ 427: TypeMatrix 149(f64vec3) 3
428: TypePointer Function 427
- 432: TypeMatrix 214(fvec4) 4
+ 432: TypeMatrix 214(f64vec4) 4
433: TypePointer Function 432
- 460: TypePointer Input 149(fvec3)
+ 460: TypePointer Input 149(f64vec3)
461(if64v): 460(ptr) Variable Input
- 462: TypePointer Input 26(float)
+ 462: TypePointer Input 26(float64_t)
499: 182(int) Constant 1
- 504: 26(float) Constant 0 1071644672
- 505: 27(fvec2) ConstantComposite 504 504
+ 504:26(float64_t) Constant 0 1071644672
+ 505: 27(f64vec2) ConstantComposite 504 504
507: 31(int) Constant 2
- 508: TypeArray 26(float) 507
+ 508: TypeArray 26(float64_t) 507
509: TypeArray 402 507
- 510(S): TypeStruct 26(float) 27(fvec2) 149(fvec3)
+ 510(S): TypeStruct 26(float64_t) 27(f64vec2) 149(f64vec3)
511: TypeArray 510(S) 507
- 512(B1): TypeStruct 26(float) 27(fvec2) 149(fvec3) 508 402 509 510(S) 511
+ 512(B1): TypeStruct 26(float64_t) 27(f64vec2) 149(f64vec3) 508 402 509 510(S) 511
513: TypePointer Uniform 512(B1)
514: 513(ptr) Variable Uniform
- 515(sf16): 162(float) SpecConstant 12288
+ 515(sf16):162(float16_t) SpecConstant 12288
516(sf): 397(float) SpecConstant 1048576000
- 517(sd): 26(float) SpecConstant 0 1071644672
+ 517(sd):26(float64_t) SpecConstant 0 1071644672
518: 397(float) SpecConstantOp 115 515(sf16)
519: 397(float) SpecConstantOp 115 515(sf16)
- 520: 26(float) SpecConstantOp 115 519
- 521: 162(float) SpecConstantOp 115 516(sf)
- 522: 162(float) SpecConstantOp 115 517(sd)
+ 520:26(float64_t) SpecConstantOp 115 519
+ 521:162(float16_t) SpecConstantOp 115 516(sf)
+ 522:162(float16_t) SpecConstantOp 115 517(sd)
4(main): 2 Function None 3
5: Label
Return
@@ -216,8 +216,8 @@ spv.float64.frag
29(f64v): 28(ptr) Variable Function
34: 33(ptr) AccessChain 29(f64v) 32
Store 34 30
- 38: 27(fvec2) Load 29(f64v)
- 39: 27(fvec2) FAdd 38 37
+ 38: 27(f64vec2) Load 29(f64v)
+ 39: 27(f64vec2) FAdd 38 37
Store 29(f64v) 39
Return
FunctionEnd
@@ -227,125 +227,125 @@ spv.float64.frag
62(f64m): 61(ptr) Variable Function
85(f64): 33(ptr) Variable Function
109(b): 108(ptr) Variable Function
- 41: 27(fvec2) Load 40(f64v)
- 42: 27(fvec2) Load 40(f64v)
- 43: 27(fvec2) FAdd 42 41
+ 41: 27(f64vec2) Load 40(f64v)
+ 42: 27(f64vec2) Load 40(f64v)
+ 43: 27(f64vec2) FAdd 42 41
Store 40(f64v) 43
- 44: 27(fvec2) Load 40(f64v)
- 45: 27(fvec2) Load 40(f64v)
- 46: 27(fvec2) FSub 45 44
+ 44: 27(f64vec2) Load 40(f64v)
+ 45: 27(f64vec2) Load 40(f64v)
+ 46: 27(f64vec2) FSub 45 44
Store 40(f64v) 46
- 47: 27(fvec2) Load 40(f64v)
- 48: 27(fvec2) Load 40(f64v)
- 49: 27(fvec2) FMul 48 47
+ 47: 27(f64vec2) Load 40(f64v)
+ 48: 27(f64vec2) Load 40(f64v)
+ 49: 27(f64vec2) FMul 48 47
Store 40(f64v) 49
- 50: 27(fvec2) Load 40(f64v)
- 51: 27(fvec2) Load 40(f64v)
- 52: 27(fvec2) FDiv 51 50
+ 50: 27(f64vec2) Load 40(f64v)
+ 51: 27(f64vec2) Load 40(f64v)
+ 52: 27(f64vec2) FDiv 51 50
Store 40(f64v) 52
- 53: 27(fvec2) Load 40(f64v)
- 55: 27(fvec2) CompositeConstruct 54 54
- 56: 27(fvec2) FAdd 53 55
+ 53: 27(f64vec2) Load 40(f64v)
+ 55: 27(f64vec2) CompositeConstruct 54 54
+ 56: 27(f64vec2) FAdd 53 55
Store 40(f64v) 56
- 57: 27(fvec2) Load 40(f64v)
- 58: 27(fvec2) CompositeConstruct 54 54
- 59: 27(fvec2) FSub 57 58
+ 57: 27(f64vec2) Load 40(f64v)
+ 58: 27(f64vec2) CompositeConstruct 54 54
+ 59: 27(f64vec2) FSub 57 58
Store 40(f64v) 59
63: 60 Load 62(f64m)
- 64: 27(fvec2) CompositeConstruct 54 54
- 65: 27(fvec2) CompositeExtract 63 0
- 66: 27(fvec2) FAdd 65 64
- 67: 27(fvec2) CompositeExtract 63 1
- 68: 27(fvec2) FAdd 67 64
+ 64: 27(f64vec2) CompositeConstruct 54 54
+ 65: 27(f64vec2) CompositeExtract 63 0
+ 66: 27(f64vec2) FAdd 65 64
+ 67: 27(f64vec2) CompositeExtract 63 1
+ 68: 27(f64vec2) FAdd 67 64
69: 60 CompositeConstruct 66 68
Store 62(f64m) 69
70: 60 Load 62(f64m)
- 71: 27(fvec2) CompositeConstruct 54 54
- 72: 27(fvec2) CompositeExtract 70 0
- 73: 27(fvec2) FSub 72 71
- 74: 27(fvec2) CompositeExtract 70 1
- 75: 27(fvec2) FSub 74 71
+ 71: 27(f64vec2) CompositeConstruct 54 54
+ 72: 27(f64vec2) CompositeExtract 70 0
+ 73: 27(f64vec2) FSub 72 71
+ 74: 27(f64vec2) CompositeExtract 70 1
+ 75: 27(f64vec2) FSub 74 71
76: 60 CompositeConstruct 73 75
Store 62(f64m) 76
- 77: 27(fvec2) Load 40(f64v)
- 78: 27(fvec2) FNegate 77
+ 77: 27(f64vec2) Load 40(f64v)
+ 78: 27(f64vec2) FNegate 77
Store 40(f64v) 78
79: 60 Load 62(f64m)
- 80: 27(fvec2) CompositeExtract 79 0
- 81: 27(fvec2) FNegate 80
- 82: 27(fvec2) CompositeExtract 79 1
- 83: 27(fvec2) FNegate 82
+ 80: 27(f64vec2) CompositeExtract 79 0
+ 81: 27(f64vec2) FNegate 80
+ 82: 27(f64vec2) CompositeExtract 79 1
+ 83: 27(f64vec2) FNegate 82
84: 60 CompositeConstruct 81 83
Store 62(f64m) 84
86: 33(ptr) AccessChain 40(f64v) 32
- 87: 26(float) Load 86
+ 87:26(float64_t) Load 86
89: 33(ptr) AccessChain 40(f64v) 88
- 90: 26(float) Load 89
- 91: 26(float) FAdd 87 90
+ 90:26(float64_t) Load 89
+ 91:26(float64_t) FAdd 87 90
Store 85(f64) 91
92: 33(ptr) AccessChain 40(f64v) 32
- 93: 26(float) Load 92
+ 93:26(float64_t) Load 92
94: 33(ptr) AccessChain 40(f64v) 88
- 95: 26(float) Load 94
- 96: 26(float) FSub 93 95
+ 95:26(float64_t) Load 94
+ 96:26(float64_t) FSub 93 95
Store 85(f64) 96
97: 33(ptr) AccessChain 40(f64v) 32
- 98: 26(float) Load 97
+ 98:26(float64_t) Load 97
99: 33(ptr) AccessChain 40(f64v) 88
- 100: 26(float) Load 99
- 101: 26(float) FMul 98 100
+ 100:26(float64_t) Load 99
+ 101:26(float64_t) FMul 98 100
Store 85(f64) 101
102: 33(ptr) AccessChain 40(f64v) 32
- 103: 26(float) Load 102
+ 103:26(float64_t) Load 102
104: 33(ptr) AccessChain 40(f64v) 88
- 105: 26(float) Load 104
- 106: 26(float) FDiv 103 105
+ 105:26(float64_t) Load 104
+ 106:26(float64_t) FDiv 103 105
Store 85(f64) 106
110: 33(ptr) AccessChain 40(f64v) 32
- 111: 26(float) Load 110
- 112: 26(float) Load 85(f64)
+ 111:26(float64_t) Load 110
+ 112:26(float64_t) Load 85(f64)
113: 107(bool) FOrdNotEqual 111 112
Store 109(b) 113
114: 33(ptr) AccessChain 40(f64v) 88
- 115: 26(float) Load 114
- 116: 26(float) Load 85(f64)
+ 115:26(float64_t) Load 114
+ 116:26(float64_t) Load 85(f64)
117: 107(bool) FOrdEqual 115 116
Store 109(b) 117
118: 33(ptr) AccessChain 40(f64v) 32
- 119: 26(float) Load 118
- 120: 26(float) Load 85(f64)
+ 119:26(float64_t) Load 118
+ 120:26(float64_t) Load 85(f64)
121: 107(bool) FOrdGreaterThan 119 120
Store 109(b) 121
122: 33(ptr) AccessChain 40(f64v) 88
- 123: 26(float) Load 122
- 124: 26(float) Load 85(f64)
+ 123:26(float64_t) Load 122
+ 124:26(float64_t) Load 85(f64)
125: 107(bool) FOrdLessThan 123 124
Store 109(b) 125
126: 33(ptr) AccessChain 40(f64v) 32
- 127: 26(float) Load 126
- 128: 26(float) Load 85(f64)
+ 127:26(float64_t) Load 126
+ 128:26(float64_t) Load 85(f64)
129: 107(bool) FOrdGreaterThanEqual 127 128
Store 109(b) 129
130: 33(ptr) AccessChain 40(f64v) 88
- 131: 26(float) Load 130
- 132: 26(float) Load 85(f64)
+ 131:26(float64_t) Load 130
+ 132:26(float64_t) Load 85(f64)
133: 107(bool) FOrdLessThanEqual 131 132
Store 109(b) 133
- 134: 27(fvec2) Load 40(f64v)
- 135: 26(float) Load 85(f64)
- 136: 27(fvec2) VectorTimesScalar 134 135
+ 134: 27(f64vec2) Load 40(f64v)
+ 135:26(float64_t) Load 85(f64)
+ 136: 27(f64vec2) VectorTimesScalar 134 135
Store 40(f64v) 136
137: 60 Load 62(f64m)
- 138: 26(float) Load 85(f64)
+ 138:26(float64_t) Load 85(f64)
139: 60 MatrixTimesScalar 137 138
Store 62(f64m) 139
140: 60 Load 62(f64m)
- 141: 27(fvec2) Load 40(f64v)
- 142: 27(fvec2) MatrixTimesVector 140 141
+ 141: 27(f64vec2) Load 40(f64v)
+ 142: 27(f64vec2) MatrixTimesVector 140 141
Store 40(f64v) 142
- 143: 27(fvec2) Load 40(f64v)
+ 143: 27(f64vec2) Load 40(f64v)
144: 60 Load 62(f64m)
- 145: 27(fvec2) VectorTimesMatrix 143 144
+ 145: 27(f64vec2) VectorTimesMatrix 143 144
Store 40(f64v) 145
146: 60 Load 62(f64m)
147: 60 Load 62(f64m)
@@ -367,40 +367,40 @@ spv.float64.frag
205(u32v): 204(ptr) Variable Function
211(u64v): 210(ptr) Variable Function
155: 152(bvec3) Load 154(bv)
- 159: 149(fvec3) Select 155 158 157
+ 159:149(f64vec3) Select 155 158 157
Store 151(f64v) 159
- 160: 149(fvec3) Load 151(f64v)
+ 160:149(f64vec3) Load 151(f64v)
161: 152(bvec3) FOrdNotEqual 160 157
Store 154(bv) 161
- 166: 163(fvec3) Load 165(f16v)
- 167: 149(fvec3) FConvert 166
+ 166:163(f16vec3) Load 165(f16v)
+ 167:149(f64vec3) FConvert 166
Store 151(f64v) 167
- 168: 149(fvec3) Load 151(f64v)
- 169: 163(fvec3) FConvert 168
+ 168:149(f64vec3) Load 151(f64v)
+ 169:163(f16vec3) FConvert 168
Store 165(f16v) 169
- 174: 149(fvec3) Load 151(f64v)
- 175: 171(ivec3) ConvertFToS 174
+ 174:149(f64vec3) Load 151(f64v)
+ 175: 171(i8vec3) ConvertFToS 174
Store 173(i8v) 175
- 180: 149(fvec3) Load 151(f64v)
- 181: 177(ivec3) ConvertFToS 180
+ 180:149(f64vec3) Load 151(f64v)
+ 181:177(i16vec3) ConvertFToS 180
Store 179(i16v) 181
- 186: 149(fvec3) Load 151(f64v)
+ 186:149(f64vec3) Load 151(f64v)
187: 183(ivec3) ConvertFToS 186
Store 185(i32v) 187
- 192: 149(fvec3) Load 151(f64v)
- 193: 189(ivec3) ConvertFToS 192
+ 192:149(f64vec3) Load 151(f64v)
+ 193:189(i64vec3) ConvertFToS 192
Store 191(i64v) 193
- 195: 149(fvec3) Load 151(f64v)
- 196: 171(ivec3) ConvertFToS 195
+ 195:149(f64vec3) Load 151(f64v)
+ 196: 171(i8vec3) ConvertFToS 195
Store 194(u8v) 196
- 201: 149(fvec3) Load 151(f64v)
- 202: 198(ivec3) ConvertFToU 201
+ 201:149(f64vec3) Load 151(f64v)
+ 202:198(i16vec3) ConvertFToU 201
Store 200(u16v) 202
- 206: 149(fvec3) Load 151(f64v)
+ 206:149(f64vec3) Load 151(f64v)
207: 203(ivec3) ConvertFToU 206
Store 205(u32v) 207
- 212: 149(fvec3) Load 151(f64v)
- 213: 209(ivec3) ConvertFToU 212
+ 212:149(f64vec3) Load 151(f64v)
+ 213:209(i64vec3) ConvertFToU 212
Store 211(u64v) 213
Return
FunctionEnd
@@ -408,51 +408,51 @@ spv.float64.frag
13: Label
216(f64v2): 215(ptr) Variable Function
217(f64v1): 215(ptr) Variable Function
- 218: 214(fvec4) Load 217(f64v1)
- 219: 214(fvec4) ExtInst 1(GLSL.std.450) 11(Radians) 218
+ 218:214(f64vec4) Load 217(f64v1)
+ 219:214(f64vec4) ExtInst 1(GLSL.std.450) 11(Radians) 218
Store 216(f64v2) 219
- 220: 214(fvec4) Load 217(f64v1)
- 221: 214(fvec4) ExtInst 1(GLSL.std.450) 12(Degrees) 220
+ 220:214(f64vec4) Load 217(f64v1)
+ 221:214(f64vec4) ExtInst 1(GLSL.std.450) 12(Degrees) 220
Store 216(f64v2) 221
- 222: 214(fvec4) Load 217(f64v1)
- 223: 214(fvec4) ExtInst 1(GLSL.std.450) 13(Sin) 222
+ 222:214(f64vec4) Load 217(f64v1)
+ 223:214(f64vec4) ExtInst 1(GLSL.std.450) 13(Sin) 222
Store 216(f64v2) 223
- 224: 214(fvec4) Load 217(f64v1)
- 225: 214(fvec4) ExtInst 1(GLSL.std.450) 14(Cos) 224
+ 224:214(f64vec4) Load 217(f64v1)
+ 225:214(f64vec4) ExtInst 1(GLSL.std.450) 14(Cos) 224
Store 216(f64v2) 225
- 226: 214(fvec4) Load 217(f64v1)
- 227: 214(fvec4) ExtInst 1(GLSL.std.450) 15(Tan) 226
+ 226:214(f64vec4) Load 217(f64v1)
+ 227:214(f64vec4) ExtInst 1(GLSL.std.450) 15(Tan) 226
Store 216(f64v2) 227
- 228: 214(fvec4) Load 217(f64v1)
- 229: 214(fvec4) ExtInst 1(GLSL.std.450) 16(Asin) 228
+ 228:214(f64vec4) Load 217(f64v1)
+ 229:214(f64vec4) ExtInst 1(GLSL.std.450) 16(Asin) 228
Store 216(f64v2) 229
- 230: 214(fvec4) Load 217(f64v1)
- 231: 214(fvec4) ExtInst 1(GLSL.std.450) 17(Acos) 230
+ 230:214(f64vec4) Load 217(f64v1)
+ 231:214(f64vec4) ExtInst 1(GLSL.std.450) 17(Acos) 230
Store 216(f64v2) 231
- 232: 214(fvec4) Load 217(f64v1)
- 233: 214(fvec4) Load 216(f64v2)
- 234: 214(fvec4) ExtInst 1(GLSL.std.450) 25(Atan2) 232 233
+ 232:214(f64vec4) Load 217(f64v1)
+ 233:214(f64vec4) Load 216(f64v2)
+ 234:214(f64vec4) ExtInst 1(GLSL.std.450) 25(Atan2) 232 233
Store 216(f64v2) 234
- 235: 214(fvec4) Load 217(f64v1)
- 236: 214(fvec4) ExtInst 1(GLSL.std.450) 18(Atan) 235
+ 235:214(f64vec4) Load 217(f64v1)
+ 236:214(f64vec4) ExtInst 1(GLSL.std.450) 18(Atan) 235
Store 216(f64v2) 236
- 237: 214(fvec4) Load 217(f64v1)
- 238: 214(fvec4) ExtInst 1(GLSL.std.450) 19(Sinh) 237
+ 237:214(f64vec4) Load 217(f64v1)
+ 238:214(f64vec4) ExtInst 1(GLSL.std.450) 19(Sinh) 237
Store 216(f64v2) 238
- 239: 214(fvec4) Load 217(f64v1)
- 240: 214(fvec4) ExtInst 1(GLSL.std.450) 20(Cosh) 239
+ 239:214(f64vec4) Load 217(f64v1)
+ 240:214(f64vec4) ExtInst 1(GLSL.std.450) 20(Cosh) 239
Store 216(f64v2) 240
- 241: 214(fvec4) Load 217(f64v1)
- 242: 214(fvec4) ExtInst 1(GLSL.std.450) 21(Tanh) 241
+ 241:214(f64vec4) Load 217(f64v1)
+ 242:214(f64vec4) ExtInst 1(GLSL.std.450) 21(Tanh) 241
Store 216(f64v2) 242
- 243: 214(fvec4) Load 217(f64v1)
- 244: 214(fvec4) ExtInst 1(GLSL.std.450) 22(Asinh) 243
+ 243:214(f64vec4) Load 217(f64v1)
+ 244:214(f64vec4) ExtInst 1(GLSL.std.450) 22(Asinh) 243
Store 216(f64v2) 244
- 245: 214(fvec4) Load 217(f64v1)
- 246: 214(fvec4) ExtInst 1(GLSL.std.450) 23(Acosh) 245
+ 245:214(f64vec4) Load 217(f64v1)
+ 246:214(f64vec4) ExtInst 1(GLSL.std.450) 23(Acosh) 245
Store 216(f64v2) 246
- 247: 214(fvec4) Load 217(f64v1)
- 248: 214(fvec4) ExtInst 1(GLSL.std.450) 24(Atanh) 247
+ 247:214(f64vec4) Load 217(f64v1)
+ 248:214(f64vec4) ExtInst 1(GLSL.std.450) 24(Atanh) 247
Store 216(f64v2) 248
Return
FunctionEnd
@@ -460,27 +460,27 @@ spv.float64.frag
15: Label
249(f64v2): 28(ptr) Variable Function
250(f64v1): 28(ptr) Variable Function
- 251: 27(fvec2) Load 250(f64v1)
- 252: 27(fvec2) Load 249(f64v2)
- 253: 27(fvec2) ExtInst 1(GLSL.std.450) 26(Pow) 251 252
+ 251: 27(f64vec2) Load 250(f64v1)
+ 252: 27(f64vec2) Load 249(f64v2)
+ 253: 27(f64vec2) ExtInst 1(GLSL.std.450) 26(Pow) 251 252
Store 249(f64v2) 253
- 254: 27(fvec2) Load 250(f64v1)
- 255: 27(fvec2) ExtInst 1(GLSL.std.450) 27(Exp) 254
+ 254: 27(f64vec2) Load 250(f64v1)
+ 255: 27(f64vec2) ExtInst 1(GLSL.std.450) 27(Exp) 254
Store 249(f64v2) 255
- 256: 27(fvec2) Load 250(f64v1)
- 257: 27(fvec2) ExtInst 1(GLSL.std.450) 28(Log) 256
+ 256: 27(f64vec2) Load 250(f64v1)
+ 257: 27(f64vec2) ExtInst 1(GLSL.std.450) 28(Log) 256
Store 249(f64v2) 257
- 258: 27(fvec2) Load 250(f64v1)
- 259: 27(fvec2) ExtInst 1(GLSL.std.450) 29(Exp2) 258
+ 258: 27(f64vec2) Load 250(f64v1)
+ 259: 27(f64vec2) ExtInst 1(GLSL.std.450) 29(Exp2) 258
Store 249(f64v2) 259
- 260: 27(fvec2) Load 250(f64v1)
- 261: 27(fvec2) ExtInst 1(GLSL.std.450) 30(Log2) 260
+ 260: 27(f64vec2) Load 250(f64v1)
+ 261: 27(f64vec2) ExtInst 1(GLSL.std.450) 30(Log2) 260
Store 249(f64v2) 261
- 262: 27(fvec2) Load 250(f64v1)
- 263: 27(fvec2) ExtInst 1(GLSL.std.450) 31(Sqrt) 262
+ 262: 27(f64vec2) Load 250(f64v1)
+ 263: 27(f64vec2) ExtInst 1(GLSL.std.450) 31(Sqrt) 262
Store 249(f64v2) 263
- 264: 27(fvec2) Load 250(f64v1)
- 265: 27(fvec2) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 264
+ 264: 27(f64vec2) Load 250(f64v1)
+ 265: 27(f64vec2) ExtInst 1(GLSL.std.450) 32(InverseSqrt) 264
Store 249(f64v2) 265
Return
FunctionEnd
@@ -493,132 +493,132 @@ spv.float64.frag
332(bv): 153(ptr) Variable Function
353(b): 108(ptr) Variable Function
363(iv): 184(ptr) Variable Function
- 268: 149(fvec3) Load 267(f64v1)
- 269: 149(fvec3) ExtInst 1(GLSL.std.450) 4(FAbs) 268
+ 268:149(f64vec3) Load 267(f64v1)
+ 269:149(f64vec3) ExtInst 1(GLSL.std.450) 4(FAbs) 268
Store 266(f64v2) 269
- 270: 149(fvec3) Load 267(f64v1)
- 271: 149(fvec3) ExtInst 1(GLSL.std.450) 6(FSign) 270
+ 270:149(f64vec3) Load 267(f64v1)
+ 271:149(f64vec3) ExtInst 1(GLSL.std.450) 6(FSign) 270
Store 266(f64v2) 271
- 272: 149(fvec3) Load 267(f64v1)
- 273: 149(fvec3) ExtInst 1(GLSL.std.450) 8(Floor) 272
+ 272:149(f64vec3) Load 267(f64v1)
+ 273:149(f64vec3) ExtInst 1(GLSL.std.450) 8(Floor) 272
Store 266(f64v2) 273
- 274: 149(fvec3) Load 267(f64v1)
- 275: 149(fvec3) ExtInst 1(GLSL.std.450) 3(Trunc) 274
+ 274:149(f64vec3) Load 267(f64v1)
+ 275:149(f64vec3) ExtInst 1(GLSL.std.450) 3(Trunc) 274
Store 266(f64v2) 275
- 276: 149(fvec3) Load 267(f64v1)
- 277: 149(fvec3) ExtInst 1(GLSL.std.450) 1(Round) 276
+ 276:149(f64vec3) Load 267(f64v1)
+ 277:149(f64vec3) ExtInst 1(GLSL.std.450) 1(Round) 276
Store 266(f64v2) 277
- 278: 149(fvec3) Load 267(f64v1)
- 279: 149(fvec3) ExtInst 1(GLSL.std.450) 2(RoundEven) 278
+ 278:149(f64vec3) Load 267(f64v1)
+ 279:149(f64vec3) ExtInst 1(GLSL.std.450) 2(RoundEven) 278
Store 266(f64v2) 279
- 280: 149(fvec3) Load 267(f64v1)
- 281: 149(fvec3) ExtInst 1(GLSL.std.450) 9(Ceil) 280
+ 280:149(f64vec3) Load 267(f64v1)
+ 281:149(f64vec3) ExtInst 1(GLSL.std.450) 9(Ceil) 280
Store 266(f64v2) 281
- 282: 149(fvec3) Load 267(f64v1)
- 283: 149(fvec3) ExtInst 1(GLSL.std.450) 10(Fract) 282
+ 282:149(f64vec3) Load 267(f64v1)
+ 283:149(f64vec3) ExtInst 1(GLSL.std.450) 10(Fract) 282
Store 266(f64v2) 283
- 284: 149(fvec3) Load 267(f64v1)
- 285: 149(fvec3) Load 266(f64v2)
- 286: 149(fvec3) FMod 284 285
+ 284:149(f64vec3) Load 267(f64v1)
+ 285:149(f64vec3) Load 266(f64v2)
+ 286:149(f64vec3) FMod 284 285
Store 266(f64v2) 286
- 287: 149(fvec3) Load 267(f64v1)
- 289: 26(float) Load 288(f64)
- 290: 149(fvec3) CompositeConstruct 289 289 289
- 291: 149(fvec3) FMod 287 290
+ 287:149(f64vec3) Load 267(f64v1)
+ 289:26(float64_t) Load 288(f64)
+ 290:149(f64vec3) CompositeConstruct 289 289 289
+ 291:149(f64vec3) FMod 287 290
Store 266(f64v2) 291
- 293: 149(fvec3) Load 267(f64v1)
- 294: 149(fvec3) ExtInst 1(GLSL.std.450) 35(Modf) 293 266(f64v2)
+ 293:149(f64vec3) Load 267(f64v1)
+ 294:149(f64vec3) ExtInst 1(GLSL.std.450) 35(Modf) 293 266(f64v2)
Store 292(f64v3) 294
- 295: 149(fvec3) Load 267(f64v1)
- 296: 149(fvec3) Load 266(f64v2)
- 297: 149(fvec3) ExtInst 1(GLSL.std.450) 37(FMin) 295 296
+ 295:149(f64vec3) Load 267(f64v1)
+ 296:149(f64vec3) Load 266(f64v2)
+ 297:149(f64vec3) ExtInst 1(GLSL.std.450) 37(FMin) 295 296
Store 292(f64v3) 297
- 298: 149(fvec3) Load 267(f64v1)
- 299: 26(float) Load 288(f64)
- 300: 149(fvec3) CompositeConstruct 299 299 299
- 301: 149(fvec3) ExtInst 1(GLSL.std.450) 37(FMin) 298 300
+ 298:149(f64vec3) Load 267(f64v1)
+ 299:26(float64_t) Load 288(f64)
+ 300:149(f64vec3) CompositeConstruct 299 299 299
+ 301:149(f64vec3) ExtInst 1(GLSL.std.450) 37(FMin) 298 300
Store 292(f64v3) 301
- 302: 149(fvec3) Load 267(f64v1)
- 303: 149(fvec3) Load 266(f64v2)
- 304: 149(fvec3) ExtInst 1(GLSL.std.450) 40(FMax) 302 303
+ 302:149(f64vec3) Load 267(f64v1)
+ 303:149(f64vec3) Load 266(f64v2)
+ 304:149(f64vec3) ExtInst 1(GLSL.std.450) 40(FMax) 302 303
Store 292(f64v3) 304
- 305: 149(fvec3) Load 267(f64v1)
- 306: 26(float) Load 288(f64)
- 307: 149(fvec3) CompositeConstruct 306 306 306
- 308: 149(fvec3) ExtInst 1(GLSL.std.450) 40(FMax) 305 307
+ 305:149(f64vec3) Load 267(f64v1)
+ 306:26(float64_t) Load 288(f64)
+ 307:149(f64vec3) CompositeConstruct 306 306 306
+ 308:149(f64vec3) ExtInst 1(GLSL.std.450) 40(FMax) 305 307
Store 292(f64v3) 308
- 309: 149(fvec3) Load 267(f64v1)
- 310: 26(float) Load 288(f64)
+ 309:149(f64vec3) Load 267(f64v1)
+ 310:26(float64_t) Load 288(f64)
311: 33(ptr) AccessChain 266(f64v2) 32
- 312: 26(float) Load 311
- 313: 149(fvec3) CompositeConstruct 310 310 310
- 314: 149(fvec3) CompositeConstruct 312 312 312
- 315: 149(fvec3) ExtInst 1(GLSL.std.450) 43(FClamp) 309 313 314
+ 312:26(float64_t) Load 311
+ 313:149(f64vec3) CompositeConstruct 310 310 310
+ 314:149(f64vec3) CompositeConstruct 312 312 312
+ 315:149(f64vec3) ExtInst 1(GLSL.std.450) 43(FClamp) 309 313 314
Store 292(f64v3) 315
- 316: 149(fvec3) Load 267(f64v1)
- 317: 149(fvec3) Load 266(f64v2)
- 318: 26(float) Load 288(f64)
- 319: 149(fvec3) CompositeConstruct 318 318 318
- 320: 149(fvec3) ExtInst 1(GLSL.std.450) 43(FClamp) 316 317 319
+ 316:149(f64vec3) Load 267(f64v1)
+ 317:149(f64vec3) Load 266(f64v2)
+ 318:26(float64_t) Load 288(f64)
+ 319:149(f64vec3) CompositeConstruct 318 318 318
+ 320:149(f64vec3) ExtInst 1(GLSL.std.450) 43(FClamp) 316 317 319
Store 292(f64v3) 320
- 321: 149(fvec3) Load 267(f64v1)
- 322: 149(fvec3) Load 266(f64v2)
- 323: 26(float) Load 288(f64)
- 324: 149(fvec3) CompositeConstruct 323 323 323
- 325: 149(fvec3) ExtInst 1(GLSL.std.450) 46(FMix) 321 322 324
+ 321:149(f64vec3) Load 267(f64v1)
+ 322:149(f64vec3) Load 266(f64v2)
+ 323:26(float64_t) Load 288(f64)
+ 324:149(f64vec3) CompositeConstruct 323 323 323
+ 325:149(f64vec3) ExtInst 1(GLSL.std.450) 46(FMix) 321 322 324
Store 292(f64v3) 325
- 326: 149(fvec3) Load 267(f64v1)
- 327: 149(fvec3) Load 266(f64v2)
- 328: 149(fvec3) Load 292(f64v3)
- 329: 149(fvec3) ExtInst 1(GLSL.std.450) 46(FMix) 326 327 328
+ 326:149(f64vec3) Load 267(f64v1)
+ 327:149(f64vec3) Load 266(f64v2)
+ 328:149(f64vec3) Load 292(f64v3)
+ 329:149(f64vec3) ExtInst 1(GLSL.std.450) 46(FMix) 326 327 328
Store 292(f64v3) 329
- 330: 149(fvec3) Load 267(f64v1)
- 331: 149(fvec3) Load 266(f64v2)
+ 330:149(f64vec3) Load 267(f64v1)
+ 331:149(f64vec3) Load 266(f64v2)
333: 152(bvec3) Load 332(bv)
- 334: 149(fvec3) Select 333 331 330
+ 334:149(f64vec3) Select 333 331 330
Store 292(f64v3) 334
- 335: 149(fvec3) Load 267(f64v1)
- 336: 149(fvec3) Load 266(f64v2)
- 337: 149(fvec3) ExtInst 1(GLSL.std.450) 48(Step) 335 336
+ 335:149(f64vec3) Load 267(f64v1)
+ 336:149(f64vec3) Load 266(f64v2)
+ 337:149(f64vec3) ExtInst 1(GLSL.std.450) 48(Step) 335 336
Store 292(f64v3) 337
- 338: 26(float) Load 288(f64)
- 339: 149(fvec3) Load 292(f64v3)
- 340: 149(fvec3) CompositeConstruct 338 338 338
- 341: 149(fvec3) ExtInst 1(GLSL.std.450) 48(Step) 340 339
+ 338:26(float64_t) Load 288(f64)
+ 339:149(f64vec3) Load 292(f64v3)
+ 340:149(f64vec3) CompositeConstruct 338 338 338
+ 341:149(f64vec3) ExtInst 1(GLSL.std.450) 48(Step) 340 339
Store 292(f64v3) 341
- 342: 149(fvec3) Load 267(f64v1)
- 343: 149(fvec3) Load 266(f64v2)
- 344: 149(fvec3) Load 292(f64v3)
- 345: 149(fvec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 342 343 344
+ 342:149(f64vec3) Load 267(f64v1)
+ 343:149(f64vec3) Load 266(f64v2)
+ 344:149(f64vec3) Load 292(f64v3)
+ 345:149(f64vec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 342 343 344
Store 292(f64v3) 345
- 346: 26(float) Load 288(f64)
+ 346:26(float64_t) Load 288(f64)
347: 33(ptr) AccessChain 267(f64v1) 32
- 348: 26(float) Load 347
- 349: 149(fvec3) Load 266(f64v2)
- 350: 149(fvec3) CompositeConstruct 346 346 346
- 351: 149(fvec3) CompositeConstruct 348 348 348
- 352: 149(fvec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 350 351 349
+ 348:26(float64_t) Load 347
+ 349:149(f64vec3) Load 266(f64v2)
+ 350:149(f64vec3) CompositeConstruct 346 346 346
+ 351:149(f64vec3) CompositeConstruct 348 348 348
+ 352:149(f64vec3) ExtInst 1(GLSL.std.450) 49(SmoothStep) 350 351 349
Store 292(f64v3) 352
- 354: 26(float) Load 288(f64)
+ 354:26(float64_t) Load 288(f64)
355: 107(bool) IsNan 354
Store 353(b) 355
- 356: 149(fvec3) Load 267(f64v1)
+ 356:149(f64vec3) Load 267(f64v1)
357: 152(bvec3) IsInf 356
Store 332(bv) 357
- 358: 149(fvec3) Load 267(f64v1)
- 359: 149(fvec3) Load 266(f64v2)
- 360: 149(fvec3) Load 292(f64v3)
- 361: 149(fvec3) ExtInst 1(GLSL.std.450) 50(Fma) 358 359 360
+ 358:149(f64vec3) Load 267(f64v1)
+ 359:149(f64vec3) Load 266(f64v2)
+ 360:149(f64vec3) Load 292(f64v3)
+ 361:149(f64vec3) ExtInst 1(GLSL.std.450) 50(Fma) 358 359 360
Store 292(f64v3) 361
- 362: 149(fvec3) Load 267(f64v1)
+ 362:149(f64vec3) Load 267(f64v1)
365:364(ResType) ExtInst 1(GLSL.std.450) 52(FrexpStruct) 362
366: 183(ivec3) CompositeExtract 365 1
Store 363(iv) 366
- 367: 149(fvec3) CompositeExtract 365 0
+ 367:149(f64vec3) CompositeExtract 365 0
Store 266(f64v2) 367
- 368: 149(fvec3) Load 267(f64v1)
+ 368:149(f64vec3) Load 267(f64v1)
369: 183(ivec3) Load 363(iv)
- 370: 149(fvec3) ExtInst 1(GLSL.std.450) 53(Ldexp) 368 369
+ 370:149(f64vec3) ExtInst 1(GLSL.std.450) 53(Ldexp) 368 369
Store 266(f64v2) 370
Return
FunctionEnd
@@ -629,37 +629,37 @@ spv.float64.frag
376(f64v2): 150(ptr) Variable Function
382(f64v3): 150(ptr) Variable Function
399(f): 398(ptr) Variable Function
- 373: 149(fvec3) Load 372(f64v1)
- 374: 26(float) ExtInst 1(GLSL.std.450) 66(Length) 373
+ 373:149(f64vec3) Load 372(f64v1)
+ 374:26(float64_t) ExtInst 1(GLSL.std.450) 66(Length) 373
Store 371(f64) 374
- 375: 149(fvec3) Load 372(f64v1)
- 377: 149(fvec3) Load 376(f64v2)
- 378: 26(float) ExtInst 1(GLSL.std.450) 67(Distance) 375 377
+ 375:149(f64vec3) Load 372(f64v1)
+ 377:149(f64vec3) Load 376(f64v2)
+ 378:26(float64_t) ExtInst 1(GLSL.std.450) 67(Distance) 375 377
Store 371(f64) 378
- 379: 149(fvec3) Load 372(f64v1)
- 380: 149(fvec3) Load 376(f64v2)
- 381: 26(float) Dot 379 380
+ 379:149(f64vec3) Load 372(f64v1)
+ 380:149(f64vec3) Load 376(f64v2)
+ 381:26(float64_t) Dot 379 380
Store 371(f64) 381
- 383: 149(fvec3) Load 372(f64v1)
- 384: 149(fvec3) Load 376(f64v2)
- 385: 149(fvec3) ExtInst 1(GLSL.std.450) 68(Cross) 383 384
+ 383:149(f64vec3) Load 372(f64v1)
+ 384:149(f64vec3) Load 376(f64v2)
+ 385:149(f64vec3) ExtInst 1(GLSL.std.450) 68(Cross) 383 384
Store 382(f64v3) 385
- 386: 149(fvec3) Load 372(f64v1)
- 387: 149(fvec3) ExtInst 1(GLSL.std.450) 69(Normalize) 386
+ 386:149(f64vec3) Load 372(f64v1)
+ 387:149(f64vec3) ExtInst 1(GLSL.std.450) 69(Normalize) 386
Store 376(f64v2) 387
- 388: 149(fvec3) Load 372(f64v1)
- 389: 149(fvec3) Load 376(f64v2)
- 390: 149(fvec3) Load 382(f64v3)
- 391: 149(fvec3) ExtInst 1(GLSL.std.450) 70(FaceForward) 388 389 390
+ 388:149(f64vec3) Load 372(f64v1)
+ 389:149(f64vec3) Load 376(f64v2)
+ 390:149(f64vec3) Load 382(f64v3)
+ 391:149(f64vec3) ExtInst 1(GLSL.std.450) 70(FaceForward) 388 389 390
Store 382(f64v3) 391
- 392: 149(fvec3) Load 372(f64v1)
- 393: 149(fvec3) Load 376(f64v2)
- 394: 149(fvec3) ExtInst 1(GLSL.std.450) 71(Reflect) 392 393
+ 392:149(f64vec3) Load 372(f64v1)
+ 393:149(f64vec3) Load 376(f64v2)
+ 394:149(f64vec3) ExtInst 1(GLSL.std.450) 71(Reflect) 392 393
Store 382(f64v3) 394
- 395: 149(fvec3) Load 372(f64v1)
- 396: 149(fvec3) Load 376(f64v2)
+ 395:149(f64vec3) Load 372(f64v1)
+ 396:149(f64vec3) Load 376(f64v2)
400: 397(float) Load 399(f)
- 401: 149(fvec3) ExtInst 1(GLSL.std.450) 72(Refract) 395 396 400
+ 401:149(f64vec3) ExtInst 1(GLSL.std.450) 72(Refract) 395 396 400
Store 382(f64v3) 401
Return
FunctionEnd
@@ -677,23 +677,23 @@ spv.float64.frag
435(f64m7): 433(ptr) Variable Function
406: 402 Load 405(f64m1)
408: 402 Load 407(f64m2)
- 409: 149(fvec3) CompositeExtract 406 0
- 410: 149(fvec3) CompositeExtract 408 0
- 411: 149(fvec3) FMul 409 410
- 412: 149(fvec3) CompositeExtract 406 1
- 413: 149(fvec3) CompositeExtract 408 1
- 414: 149(fvec3) FMul 412 413
+ 409:149(f64vec3) CompositeExtract 406 0
+ 410:149(f64vec3) CompositeExtract 408 0
+ 411:149(f64vec3) FMul 409 410
+ 412:149(f64vec3) CompositeExtract 406 1
+ 413:149(f64vec3) CompositeExtract 408 1
+ 414:149(f64vec3) FMul 412 413
415: 402 CompositeConstruct 411 414
Store 404(f64m3) 415
- 417: 149(fvec3) Load 416(f64v1)
- 419: 27(fvec2) Load 418(f64v2)
+ 417:149(f64vec3) Load 416(f64v1)
+ 419: 27(f64vec2) Load 418(f64v2)
420: 402 OuterProduct 417 419
Store 405(f64m1) 420
424: 402 Load 405(f64m1)
425: 421 Transpose 424
Store 423(f64m4) 425
430: 427 Load 429(f64m5)
- 431: 26(float) ExtInst 1(GLSL.std.450) 33(Determinant) 430
+ 431:26(float64_t) ExtInst 1(GLSL.std.450) 33(Determinant) 430
Store 426(f64) 431
436: 432 Load 435(f64m7)
437: 432 ExtInst 1(GLSL.std.450) 34(MatrixInverse) 436
@@ -705,28 +705,28 @@ spv.float64.frag
438(bv): 153(ptr) Variable Function
439(f64v1): 150(ptr) Variable Function
441(f64v2): 150(ptr) Variable Function
- 440: 149(fvec3) Load 439(f64v1)
- 442: 149(fvec3) Load 441(f64v2)
+ 440:149(f64vec3) Load 439(f64v1)
+ 442:149(f64vec3) Load 441(f64v2)
443: 152(bvec3) FOrdLessThan 440 442
Store 438(bv) 443
- 444: 149(fvec3) Load 439(f64v1)
- 445: 149(fvec3) Load 441(f64v2)
+ 444:149(f64vec3) Load 439(f64v1)
+ 445:149(f64vec3) Load 441(f64v2)
446: 152(bvec3) FOrdLessThanEqual 444 445
Store 438(bv) 446
- 447: 149(fvec3) Load 439(f64v1)
- 448: 149(fvec3) Load 441(f64v2)
+ 447:149(f64vec3) Load 439(f64v1)
+ 448:149(f64vec3) Load 441(f64v2)
449: 152(bvec3) FOrdGreaterThan 447 448
Store 438(bv) 449
- 450: 149(fvec3) Load 439(f64v1)
- 451: 149(fvec3) Load 441(f64v2)
+ 450:149(f64vec3) Load 439(f64v1)
+ 451:149(f64vec3) Load 441(f64v2)
452: 152(bvec3) FOrdGreaterThanEqual 450 451
Store 438(bv) 452
- 453: 149(fvec3) Load 439(f64v1)
- 454: 149(fvec3) Load 441(f64v2)
+ 453:149(f64vec3) Load 439(f64v1)
+ 454:149(f64vec3) Load 441(f64v2)
455: 152(bvec3) FOrdEqual 453 454
Store 438(bv) 455
- 456: 149(fvec3) Load 439(f64v1)
- 457: 149(fvec3) Load 441(f64v2)
+ 456:149(f64vec3) Load 439(f64v1)
+ 457:149(f64vec3) Load 441(f64v2)
458: 152(bvec3) FOrdNotEqual 456 457
Store 438(bv) 458
Return
@@ -735,57 +735,57 @@ spv.float64.frag
25: Label
459(f64v): 150(ptr) Variable Function
463: 462(ptr) AccessChain 461(if64v) 32
- 464: 26(float) Load 463
- 465: 26(float) DPdx 464
+ 464:26(float64_t) Load 463
+ 465:26(float64_t) DPdx 464
466: 33(ptr) AccessChain 459(f64v) 32
Store 466 465
467: 462(ptr) AccessChain 461(if64v) 88
- 468: 26(float) Load 467
- 469: 26(float) DPdy 468
+ 468:26(float64_t) Load 467
+ 469:26(float64_t) DPdy 468
470: 33(ptr) AccessChain 459(f64v) 88
Store 470 469
- 471: 149(fvec3) Load 461(if64v)
- 472: 27(fvec2) VectorShuffle 471 471 0 1
- 473: 27(fvec2) DPdxFine 472
- 474: 149(fvec3) Load 459(f64v)
- 475: 149(fvec3) VectorShuffle 474 473 3 4 2
+ 471:149(f64vec3) Load 461(if64v)
+ 472: 27(f64vec2) VectorShuffle 471 471 0 1
+ 473: 27(f64vec2) DPdxFine 472
+ 474:149(f64vec3) Load 459(f64v)
+ 475:149(f64vec3) VectorShuffle 474 473 3 4 2
Store 459(f64v) 475
- 476: 149(fvec3) Load 461(if64v)
- 477: 27(fvec2) VectorShuffle 476 476 0 1
- 478: 27(fvec2) DPdyFine 477
- 479: 149(fvec3) Load 459(f64v)
- 480: 149(fvec3) VectorShuffle 479 478 3 4 2
+ 476:149(f64vec3) Load 461(if64v)
+ 477: 27(f64vec2) VectorShuffle 476 476 0 1
+ 478: 27(f64vec2) DPdyFine 477
+ 479:149(f64vec3) Load 459(f64v)
+ 480:149(f64vec3) VectorShuffle 479 478 3 4 2
Store 459(f64v) 480
- 481: 149(fvec3) Load 461(if64v)
- 482: 149(fvec3) DPdxCoarse 481
+ 481:149(f64vec3) Load 461(if64v)
+ 482:149(f64vec3) DPdxCoarse 481
Store 459(f64v) 482
- 483: 149(fvec3) Load 461(if64v)
- 484: 149(fvec3) DPdxCoarse 483
+ 483:149(f64vec3) Load 461(if64v)
+ 484:149(f64vec3) DPdxCoarse 483
Store 459(f64v) 484
485: 462(ptr) AccessChain 461(if64v) 32
- 486: 26(float) Load 485
- 487: 26(float) Fwidth 486
+ 486:26(float64_t) Load 485
+ 487:26(float64_t) Fwidth 486
488: 33(ptr) AccessChain 459(f64v) 32
Store 488 487
- 489: 149(fvec3) Load 461(if64v)
- 490: 27(fvec2) VectorShuffle 489 489 0 1
- 491: 27(fvec2) FwidthFine 490
- 492: 149(fvec3) Load 459(f64v)
- 493: 149(fvec3) VectorShuffle 492 491 3 4 2
+ 489:149(f64vec3) Load 461(if64v)
+ 490: 27(f64vec2) VectorShuffle 489 489 0 1
+ 491: 27(f64vec2) FwidthFine 490
+ 492:149(f64vec3) Load 459(f64v)
+ 493:149(f64vec3) VectorShuffle 492 491 3 4 2
Store 459(f64v) 493
- 494: 149(fvec3) Load 461(if64v)
- 495: 149(fvec3) FwidthCoarse 494
+ 494:149(f64vec3) Load 461(if64v)
+ 495:149(f64vec3) FwidthCoarse 494
Store 459(f64v) 495
496: 462(ptr) AccessChain 461(if64v) 32
- 497: 26(float) ExtInst 1(GLSL.std.450) 76(InterpolateAtCentroid) 496
+ 497:26(float64_t) ExtInst 1(GLSL.std.450) 76(InterpolateAtCentroid) 496
498: 33(ptr) AccessChain 459(f64v) 32
Store 498 497
- 500: 149(fvec3) ExtInst 1(GLSL.std.450) 77(InterpolateAtSample) 461(if64v) 499
- 501: 27(fvec2) VectorShuffle 500 500 0 1
- 502: 149(fvec3) Load 459(f64v)
- 503: 149(fvec3) VectorShuffle 502 501 3 4 2
+ 500:149(f64vec3) ExtInst 1(GLSL.std.450) 77(InterpolateAtSample) 461(if64v) 499
+ 501: 27(f64vec2) VectorShuffle 500 500 0 1
+ 502:149(f64vec3) Load 459(f64v)
+ 503:149(f64vec3) VectorShuffle 502 501 3 4 2
Store 459(f64v) 503
- 506: 149(fvec3) ExtInst 1(GLSL.std.450) 78(InterpolateAtOffset) 461(if64v) 505
+ 506:149(f64vec3) ExtInst 1(GLSL.std.450) 78(InterpolateAtOffset) 461(if64v) 505
Store 459(f64v) 506
Return
FunctionEnd
diff --git a/Test/baseResults/spv.hlslOffsets.vert.out b/Test/baseResults/spv.hlslOffsets.vert.out
index f3bb586f..c20c213c 100644
--- a/Test/baseResults/spv.hlslOffsets.vert.out
+++ b/Test/baseResults/spv.hlslOffsets.vert.out
@@ -66,8 +66,8 @@ Shader version: 450
7: TypeVector 6(float) 3
8: TypeVector 6(float) 2
9: TypeFloat 64
- 10: TypeVector 9(float) 2
- 11(block): TypeStruct 6(float) 7(fvec3) 6(float) 7(fvec3) 7(fvec3) 8(fvec2) 8(fvec2) 6(float) 8(fvec2) 6(float) 6(float) 8(fvec2) 8(fvec2) 10(fvec2)
+ 10: TypeVector 9(float64_t) 2
+ 11(block): TypeStruct 6(float) 7(fvec3) 6(float) 7(fvec3) 7(fvec3) 8(fvec2) 8(fvec2) 6(float) 8(fvec2) 6(float) 6(float) 8(fvec2) 8(fvec2) 10(f64vec2)
12: TypePointer Uniform 11(block)
13: 12(ptr) Variable Uniform
4(main): 2 Function None 3
diff --git a/Test/baseResults/spv.int16.amd.frag.out b/Test/baseResults/spv.int16.amd.frag.out
index 0cafb892..3303654e 100644
--- a/Test/baseResults/spv.int16.amd.frag.out
+++ b/Test/baseResults/spv.int16.amd.frag.out
@@ -96,14 +96,14 @@ spv.int16.amd.frag
2: TypeVoid
3: TypeFunction 2
14: TypeInt 16 0
- 15: TypePointer Function 14(int)
+ 15: TypePointer Function 14(int16_t)
17: TypeInt 16 1
18: TypeInt 32 0
19: 18(int) Constant 3
- 20: TypeArray 17(int) 19
- 21: 17(int) Constant 273
- 22: 17(int) Constant 4294967294
- 23: 17(int) Constant 256
+ 20: TypeArray 17(int16_t) 19
+ 21: 17(int16_t) Constant 273
+ 22: 17(int16_t) Constant 4294967294
+ 23: 17(int16_t) Constant 256
24: 20 ConstantComposite 21 22 23
25(Uniforms): TypeStruct 18(int)
26: TypePointer Uniform 25(Uniforms)
@@ -112,15 +112,15 @@ spv.int16.amd.frag
29: 28(int) Constant 0
30: TypePointer Uniform 18(int)
33: TypePointer Function 20
- 35: TypePointer Function 17(int)
- 39: TypeArray 14(int) 19
- 40: 14(int) Constant 65535
+ 35: TypePointer Function 17(int16_t)
+ 39: TypeArray 14(int16_t) 19
+ 40: 14(int16_t) Constant 65535
41: 39 ConstantComposite 40 40 40
44: TypePointer Function 39
- 49: TypeVector 14(int) 3
- 50: TypePointer Function 49(ivec3)
- 53: 17(int) Constant 1
- 54: TypeVector 17(int) 3
+ 49: TypeVector 14(int16_t) 3
+ 50: TypePointer Function 49(i16vec3)
+ 53: 17(int16_t) Constant 1
+ 54: TypeVector 17(int16_t) 3
111: 18(int) Constant 1
117: 18(int) Constant 2
125: TypeBool
@@ -128,19 +128,19 @@ spv.int16.amd.frag
128: 18(int) Constant 0
147: TypePointer Function 18(int)
158: TypePointer Function 28(int)
- 187: TypeVector 17(int) 2
- 188: TypePointer Function 187(ivec2)
+ 187: TypeVector 17(int16_t) 2
+ 188: TypePointer Function 187(i16vec2)
190: TypeVector 125(bool) 2
191: TypePointer Function 190(bvec2)
- 194: 17(int) Constant 0
- 195: 187(ivec2) ConstantComposite 194 194
- 196: 187(ivec2) ConstantComposite 53 53
- 198: TypeVector 14(int) 2
- 199: TypePointer Function 198(ivec2)
- 202: 14(int) Constant 0
- 203: 14(int) Constant 1
- 204: 198(ivec2) ConstantComposite 202 202
- 205: 198(ivec2) ConstantComposite 203 203
+ 194: 17(int16_t) Constant 0
+ 195:187(i16vec2) ConstantComposite 194 194
+ 196:187(i16vec2) ConstantComposite 53 53
+ 198: TypeVector 14(int16_t) 2
+ 199: TypePointer Function 198(i16vec2)
+ 202: 14(int16_t) Constant 0
+ 203: 14(int16_t) Constant 1
+ 204:198(i16vec2) ConstantComposite 202 202
+ 205:198(i16vec2) ConstantComposite 203 203
211: TypeVector 28(int) 2
212: TypePointer Function 211(ivec2)
224: TypeVector 18(int) 2
@@ -149,80 +149,80 @@ spv.int16.amd.frag
238: TypeVector 237(float) 2
239: TypePointer Function 238(fvec2)
249: TypeFloat 64
- 250: TypeVector 249(float) 2
- 251: TypePointer Function 250(fvec2)
+ 250: TypeVector 249(float64_t) 2
+ 251: TypePointer Function 250(f64vec2)
261: TypeFloat 16
- 262: TypeVector 261(float) 2
- 263: TypePointer Function 262(fvec2)
+ 262: TypeVector 261(float16_t) 2
+ 263: TypePointer Function 262(f16vec2)
273: TypeInt 64 1
- 274: TypeVector 273(int) 2
- 275: TypePointer Function 274(ivec2)
+ 274: TypeVector 273(int64_t) 2
+ 275: TypePointer Function 274(i64vec2)
287: TypeInt 64 0
- 288: TypeVector 287(int) 2
- 289: TypePointer Function 288(ivec2)
- 316: 17(int) Constant 4294967295
- 317: 187(ivec2) ConstantComposite 316 316
- 326: 49(ivec3) ConstantComposite 202 202 202
+ 288: TypeVector 287(int64_t) 2
+ 289: TypePointer Function 288(i64vec2)
+ 316: 17(int16_t) Constant 4294967295
+ 317:187(i16vec2) ConstantComposite 316 316
+ 326: 49(i16vec3) ConstantComposite 202 202 202
368: 125(bool) ConstantTrue
375: 125(bool) ConstantFalse
376: 190(bvec2) ConstantComposite 375 375
388: TypeVector 125(bool) 3
389: 388(bvec3) ConstantComposite 375 375 375
- 391: TypeVector 261(float) 3
- 392: TypePointer Function 391(fvec3)
- 395: TypePointer Function 54(ivec3)
- 397(ResType): TypeStruct 391(fvec3) 54(ivec3)
- 407: TypePointer Function 261(float)
- 431: TypePointer Function 273(int)
- 434: TypeVector 17(int) 4
- 440: TypePointer Function 287(int)
- 443: TypeVector 14(int) 4
+ 391: TypeVector 261(float16_t) 3
+ 392: TypePointer Function 391(f16vec3)
+ 395: TypePointer Function 54(i16vec3)
+ 397(ResType): TypeStruct 391(f16vec3) 54(i16vec3)
+ 407: TypePointer Function 261(float16_t)
+ 431: TypePointer Function 273(int64_t)
+ 434: TypeVector 17(int16_t) 4
+ 440: TypePointer Function 287(int64_t)
+ 443: TypeVector 14(int16_t) 4
449: TypePointer Function 388(bvec3)
- 515(Block): TypeStruct 54(ivec3) 14(int)
+ 515(Block): TypeStruct 54(i16vec3) 14(int16_t)
516: TypePointer Uniform 515(Block)
517(block): 516(ptr) Variable Uniform
- 518: TypePointer Input 49(ivec3)
+ 518: TypePointer Input 49(i16vec3)
519(iu16v): 518(ptr) Variable Input
- 520: TypePointer Input 17(int)
+ 520: TypePointer Input 17(int16_t)
521(ii16): 520(ptr) Variable Input
- 522(si64): 273(int) SpecConstant 4294967286 4294967295
- 523(su64): 287(int) SpecConstant 20 0
+ 522(si64):273(int64_t) SpecConstant 4294967286 4294967295
+ 523(su64):287(int64_t) SpecConstant 20 0
524(si): 28(int) SpecConstant 4294967291
525(su): 18(int) SpecConstant 4
526(sb): 125(bool) SpecConstantTrue
- 527(si16): 17(int) SpecConstant 4294967291
- 528(su16): 14(int) SpecConstant 4
+ 527(si16): 17(int16_t) SpecConstant 4294967291
+ 528(su16): 14(int16_t) SpecConstant 4
529: 125(bool) SpecConstantOp 171 527(si16) 202
530: 125(bool) SpecConstantOp 171 528(su16) 202
- 531: 17(int) SpecConstantOp 169 526(sb) 53 194
- 532: 14(int) SpecConstantOp 169 526(sb) 203 202
+ 531: 17(int16_t) SpecConstantOp 169 526(sb) 53 194
+ 532: 14(int16_t) SpecConstantOp 169 526(sb) 203 202
533: 28(int) SpecConstantOp 114 527(si16)
534: 28(int) SpecConstantOp 113 528(su16)
535: 28(int) SpecConstantOp 128 534 128
- 536: 17(int) SpecConstantOp 114 524(si)
- 537: 17(int) SpecConstantOp 114 524(si)
- 538: 14(int) SpecConstantOp 128 537 202
+ 536: 17(int16_t) SpecConstantOp 114 524(si)
+ 537: 17(int16_t) SpecConstantOp 114 524(si)
+ 538: 14(int16_t) SpecConstantOp 128 537 202
539: 28(int) SpecConstantOp 114 527(si16)
540: 18(int) SpecConstantOp 128 539 128
541: 18(int) SpecConstantOp 113 528(su16)
- 542: 17(int) SpecConstantOp 113 525(su)
- 543: 17(int) SpecConstantOp 128 542 202
- 544: 14(int) SpecConstantOp 113 525(su)
- 545: 273(int) SpecConstantOp 114 527(si16)
- 546: 273(int) SpecConstantOp 113 528(su16)
- 547: 287(int) Constant 0 0
- 548: 273(int) SpecConstantOp 128 546 547
- 549: 17(int) SpecConstantOp 114 522(si64)
- 550: 17(int) SpecConstantOp 114 522(si64)
- 551: 14(int) SpecConstantOp 128 550 202
- 552: 273(int) SpecConstantOp 114 527(si16)
- 553: 287(int) SpecConstantOp 128 552 547
- 554: 287(int) SpecConstantOp 113 528(su16)
- 555: 17(int) SpecConstantOp 113 523(su64)
- 556: 17(int) SpecConstantOp 128 555 202
- 557: 14(int) SpecConstantOp 113 523(su64)
- 558: 14(int) SpecConstantOp 128 527(si16) 202
- 559: 17(int) SpecConstantOp 128 528(su16) 202
+ 542: 17(int16_t) SpecConstantOp 113 525(su)
+ 543: 17(int16_t) SpecConstantOp 128 542 202
+ 544: 14(int16_t) SpecConstantOp 113 525(su)
+ 545:273(int64_t) SpecConstantOp 114 527(si16)
+ 546:273(int64_t) SpecConstantOp 113 528(su16)
+ 547:287(int64_t) Constant 0 0
+ 548:273(int64_t) SpecConstantOp 128 546 547
+ 549: 17(int16_t) SpecConstantOp 114 522(si64)
+ 550: 17(int16_t) SpecConstantOp 114 522(si64)
+ 551: 14(int16_t) SpecConstantOp 128 550 202
+ 552:273(int64_t) SpecConstantOp 114 527(si16)
+ 553:287(int64_t) SpecConstantOp 128 552 547
+ 554:287(int64_t) SpecConstantOp 113 528(su16)
+ 555: 17(int16_t) SpecConstantOp 113 523(su64)
+ 556: 17(int16_t) SpecConstantOp 128 555 202
+ 557: 14(int16_t) SpecConstantOp 113 523(su64)
+ 558: 14(int16_t) SpecConstantOp 128 527(si16) 202
+ 559: 17(int16_t) SpecConstantOp 128 528(su16) 202
4(main): 2 Function None 3
5: Label
511: 2 FunctionCall 6(literal()
@@ -240,14 +240,14 @@ spv.int16.amd.frag
32: 18(int) Load 31
Store 34(indexable) 24
36: 35(ptr) AccessChain 34(indexable) 32
- 37: 17(int) Load 36
- 38: 14(int) Bitcast 37
+ 37: 17(int16_t) Load 36
+ 38: 14(int16_t) Bitcast 37
42: 30(ptr) AccessChain 27 29
43: 18(int) Load 42
Store 45(indexable) 41
46: 15(ptr) AccessChain 45(indexable) 43
- 47: 14(int) Load 46
- 48: 14(int) IAdd 38 47
+ 47: 14(int16_t) Load 46
+ 48: 14(int16_t) IAdd 38 47
Store 16(u16) 48
Return
FunctionEnd
@@ -259,159 +259,159 @@ spv.int16.amd.frag
127(b): 126(ptr) Variable Function
148(u): 147(ptr) Variable Function
159(i): 158(ptr) Variable Function
- 52: 49(ivec3) Load 51(u16v)
- 55: 54(ivec3) CompositeConstruct 53 53 53
- 56: 49(ivec3) IAdd 52 55
+ 52: 49(i16vec3) Load 51(u16v)
+ 55: 54(i16vec3) CompositeConstruct 53 53 53
+ 56: 49(i16vec3) IAdd 52 55
Store 51(u16v) 56
- 58: 17(int) Load 57(i16)
- 59: 17(int) ISub 58 53
+ 58: 17(int16_t) Load 57(i16)
+ 59: 17(int16_t) ISub 58 53
Store 57(i16) 59
- 60: 17(int) Load 57(i16)
- 61: 17(int) IAdd 60 53
+ 60: 17(int16_t) Load 57(i16)
+ 61: 17(int16_t) IAdd 60 53
Store 57(i16) 61
- 62: 49(ivec3) Load 51(u16v)
- 63: 54(ivec3) CompositeConstruct 53 53 53
- 64: 49(ivec3) ISub 62 63
+ 62: 49(i16vec3) Load 51(u16v)
+ 63: 54(i16vec3) CompositeConstruct 53 53 53
+ 64: 49(i16vec3) ISub 62 63
Store 51(u16v) 64
- 65: 49(ivec3) Load 51(u16v)
- 66: 49(ivec3) Not 65
+ 65: 49(i16vec3) Load 51(u16v)
+ 66: 49(i16vec3) Not 65
Store 51(u16v) 66
- 67: 17(int) Load 57(i16)
+ 67: 17(int16_t) Load 57(i16)
Store 57(i16) 67
- 68: 49(ivec3) Load 51(u16v)
- 69: 49(ivec3) SNegate 68
+ 68: 49(i16vec3) Load 51(u16v)
+ 69: 49(i16vec3) SNegate 68
Store 51(u16v) 69
- 71: 17(int) Load 57(i16)
- 72: 14(int) Bitcast 71
- 73: 14(int) Load 70(u16)
- 74: 14(int) IAdd 73 72
+ 71: 17(int16_t) Load 57(i16)
+ 72: 14(int16_t) Bitcast 71
+ 73: 14(int16_t) Load 70(u16)
+ 74: 14(int16_t) IAdd 73 72
Store 70(u16) 74
- 75: 49(ivec3) Load 51(u16v)
- 76: 49(ivec3) Load 51(u16v)
- 77: 49(ivec3) ISub 76 75
+ 75: 49(i16vec3) Load 51(u16v)
+ 76: 49(i16vec3) Load 51(u16v)
+ 77: 49(i16vec3) ISub 76 75
Store 51(u16v) 77
- 78: 17(int) Load 57(i16)
- 79: 17(int) Load 57(i16)
- 80: 17(int) IMul 79 78
+ 78: 17(int16_t) Load 57(i16)
+ 79: 17(int16_t) Load 57(i16)
+ 80: 17(int16_t) IMul 79 78
Store 57(i16) 80
- 81: 49(ivec3) Load 51(u16v)
- 82: 49(ivec3) Load 51(u16v)
- 83: 49(ivec3) UDiv 82 81
+ 81: 49(i16vec3) Load 51(u16v)
+ 82: 49(i16vec3) Load 51(u16v)
+ 83: 49(i16vec3) UDiv 82 81
Store 51(u16v) 83
- 84: 17(int) Load 57(i16)
- 85: 14(int) Bitcast 84
- 86: 49(ivec3) Load 51(u16v)
- 87: 49(ivec3) CompositeConstruct 85 85 85
- 88: 49(ivec3) UMod 86 87
+ 84: 17(int16_t) Load 57(i16)
+ 85: 14(int16_t) Bitcast 84
+ 86: 49(i16vec3) Load 51(u16v)
+ 87: 49(i16vec3) CompositeConstruct 85 85 85
+ 88: 49(i16vec3) UMod 86 87
Store 51(u16v) 88
- 89: 49(ivec3) Load 51(u16v)
- 90: 49(ivec3) Load 51(u16v)
- 91: 49(ivec3) IAdd 89 90
+ 89: 49(i16vec3) Load 51(u16v)
+ 90: 49(i16vec3) Load 51(u16v)
+ 91: 49(i16vec3) IAdd 89 90
Store 51(u16v) 91
- 92: 17(int) Load 57(i16)
- 93: 14(int) Bitcast 92
- 94: 14(int) Load 70(u16)
- 95: 14(int) ISub 93 94
+ 92: 17(int16_t) Load 57(i16)
+ 93: 14(int16_t) Bitcast 92
+ 94: 14(int16_t) Load 70(u16)
+ 95: 14(int16_t) ISub 93 94
Store 70(u16) 95
- 96: 49(ivec3) Load 51(u16v)
- 97: 17(int) Load 57(i16)
- 98: 14(int) Bitcast 97
- 99: 49(ivec3) CompositeConstruct 98 98 98
- 100: 49(ivec3) IMul 96 99
+ 96: 49(i16vec3) Load 51(u16v)
+ 97: 17(int16_t) Load 57(i16)
+ 98: 14(int16_t) Bitcast 97
+ 99: 49(i16vec3) CompositeConstruct 98 98 98
+ 100: 49(i16vec3) IMul 96 99
Store 51(u16v) 100
- 101: 17(int) Load 57(i16)
- 102: 17(int) Load 57(i16)
- 103: 17(int) IMul 101 102
+ 101: 17(int16_t) Load 57(i16)
+ 102: 17(int16_t) Load 57(i16)
+ 103: 17(int16_t) IMul 101 102
Store 57(i16) 103
- 104: 17(int) Load 57(i16)
- 105: 17(int) Load 57(i16)
- 106: 17(int) SMod 104 105
+ 104: 17(int16_t) Load 57(i16)
+ 105: 17(int16_t) Load 57(i16)
+ 106: 17(int16_t) SMod 104 105
Store 57(i16) 106
- 107: 17(int) Load 57(i16)
- 108: 49(ivec3) Load 51(u16v)
- 109: 54(ivec3) CompositeConstruct 107 107 107
- 110: 49(ivec3) ShiftLeftLogical 108 109
+ 107: 17(int16_t) Load 57(i16)
+ 108: 49(i16vec3) Load 51(u16v)
+ 109: 54(i16vec3) CompositeConstruct 107 107 107
+ 110: 49(i16vec3) ShiftLeftLogical 108 109
Store 51(u16v) 110
112: 15(ptr) AccessChain 51(u16v) 111
- 113: 14(int) Load 112
- 114: 17(int) Load 57(i16)
- 115: 17(int) ShiftRightArithmetic 114 113
+ 113: 14(int16_t) Load 112
+ 114: 17(int16_t) Load 57(i16)
+ 115: 17(int16_t) ShiftRightArithmetic 114 113
Store 57(i16) 115
- 116: 17(int) Load 57(i16)
+ 116: 17(int16_t) Load 57(i16)
118: 15(ptr) AccessChain 51(u16v) 117
- 119: 14(int) Load 118
- 120: 17(int) ShiftLeftLogical 116 119
+ 119: 14(int16_t) Load 118
+ 120: 17(int16_t) ShiftLeftLogical 116 119
Store 57(i16) 120
- 121: 49(ivec3) Load 51(u16v)
- 122: 17(int) Load 57(i16)
- 123: 54(ivec3) CompositeConstruct 122 122 122
- 124: 49(ivec3) ShiftLeftLogical 121 123
+ 121: 49(i16vec3) Load 51(u16v)
+ 122: 17(int16_t) Load 57(i16)
+ 123: 54(i16vec3) CompositeConstruct 122 122 122
+ 124: 49(i16vec3) ShiftLeftLogical 121 123
Store 51(u16v) 124
129: 15(ptr) AccessChain 51(u16v) 128
- 130: 14(int) Load 129
- 131: 17(int) Load 57(i16)
- 132: 14(int) Bitcast 131
+ 130: 14(int16_t) Load 129
+ 131: 17(int16_t) Load 57(i16)
+ 132: 14(int16_t) Bitcast 131
133: 125(bool) INotEqual 130 132
Store 127(b) 133
- 134: 17(int) Load 57(i16)
- 135: 14(int) Bitcast 134
+ 134: 17(int16_t) Load 57(i16)
+ 135: 14(int16_t) Bitcast 134
136: 15(ptr) AccessChain 51(u16v) 128
- 137: 14(int) Load 136
+ 137: 14(int16_t) Load 136
138: 125(bool) IEqual 135 137
Store 127(b) 138
139: 15(ptr) AccessChain 51(u16v) 128
- 140: 14(int) Load 139
+ 140: 14(int16_t) Load 139
141: 15(ptr) AccessChain 51(u16v) 111
- 142: 14(int) Load 141
+ 142: 14(int16_t) Load 141
143: 125(bool) UGreaterThan 140 142
Store 127(b) 143
- 144: 17(int) Load 57(i16)
+ 144: 17(int16_t) Load 57(i16)
145: 28(int) SConvert 144
146: 18(int) Bitcast 145
149: 18(int) Load 148(u)
150: 125(bool) ULessThan 146 149
Store 127(b) 150
151: 15(ptr) AccessChain 51(u16v) 111
- 152: 14(int) Load 151
+ 152: 14(int16_t) Load 151
153: 15(ptr) AccessChain 51(u16v) 128
- 154: 14(int) Load 153
+ 154: 14(int16_t) Load 153
155: 125(bool) UGreaterThanEqual 152 154
Store 127(b) 155
- 156: 17(int) Load 57(i16)
+ 156: 17(int16_t) Load 57(i16)
157: 28(int) SConvert 156
160: 28(int) Load 159(i)
161: 125(bool) SLessThanEqual 157 160
Store 127(b) 161
- 162: 17(int) Load 57(i16)
- 163: 14(int) Bitcast 162
- 164: 49(ivec3) Load 51(u16v)
- 165: 49(ivec3) CompositeConstruct 163 163 163
- 166: 49(ivec3) BitwiseOr 164 165
+ 162: 17(int16_t) Load 57(i16)
+ 163: 14(int16_t) Bitcast 162
+ 164: 49(i16vec3) Load 51(u16v)
+ 165: 49(i16vec3) CompositeConstruct 163 163 163
+ 166: 49(i16vec3) BitwiseOr 164 165
Store 51(u16v) 166
- 167: 17(int) Load 57(i16)
- 168: 14(int) Bitcast 167
- 169: 14(int) Load 70(u16)
- 170: 14(int) BitwiseOr 168 169
+ 167: 17(int16_t) Load 57(i16)
+ 168: 14(int16_t) Bitcast 167
+ 169: 14(int16_t) Load 70(u16)
+ 170: 14(int16_t) BitwiseOr 168 169
Store 70(u16) 170
- 171: 17(int) Load 57(i16)
- 172: 17(int) Load 57(i16)
- 173: 17(int) BitwiseAnd 172 171
+ 171: 17(int16_t) Load 57(i16)
+ 172: 17(int16_t) Load 57(i16)
+ 173: 17(int16_t) BitwiseAnd 172 171
Store 57(i16) 173
- 174: 49(ivec3) Load 51(u16v)
- 175: 49(ivec3) Load 51(u16v)
- 176: 49(ivec3) BitwiseAnd 174 175
+ 174: 49(i16vec3) Load 51(u16v)
+ 175: 49(i16vec3) Load 51(u16v)
+ 176: 49(i16vec3) BitwiseAnd 174 175
Store 51(u16v) 176
- 177: 17(int) Load 57(i16)
- 178: 14(int) Bitcast 177
- 179: 49(ivec3) Load 51(u16v)
- 180: 49(ivec3) CompositeConstruct 178 178 178
- 181: 49(ivec3) BitwiseXor 179 180
+ 177: 17(int16_t) Load 57(i16)
+ 178: 14(int16_t) Bitcast 177
+ 179: 49(i16vec3) Load 51(u16v)
+ 180: 49(i16vec3) CompositeConstruct 178 178 178
+ 181: 49(i16vec3) BitwiseXor 179 180
Store 51(u16v) 181
- 182: 49(ivec3) Load 51(u16v)
- 183: 17(int) Load 57(i16)
- 184: 14(int) Bitcast 183
- 185: 49(ivec3) CompositeConstruct 184 184 184
- 186: 49(ivec3) BitwiseXor 182 185
+ 182: 49(i16vec3) Load 51(u16v)
+ 183: 17(int16_t) Load 57(i16)
+ 184: 14(int16_t) Bitcast 183
+ 185: 49(i16vec3) CompositeConstruct 184 184 184
+ 186: 49(i16vec3) BitwiseXor 182 185
Store 51(u16v) 186
Return
FunctionEnd
@@ -428,114 +428,114 @@ spv.int16.amd.frag
276(i64v): 275(ptr) Variable Function
290(u64v): 289(ptr) Variable Function
193: 190(bvec2) Load 192(bv)
- 197: 187(ivec2) Select 193 196 195
+ 197:187(i16vec2) Select 193 196 195
Store 189(i16v) 197
201: 190(bvec2) Load 192(bv)
- 206: 198(ivec2) Select 201 205 204
+ 206:198(i16vec2) Select 201 205 204
Store 200(u16v) 206
- 207: 187(ivec2) Load 189(i16v)
+ 207:187(i16vec2) Load 189(i16v)
208: 190(bvec2) INotEqual 207 204
Store 192(bv) 208
- 209: 198(ivec2) Load 200(u16v)
+ 209:198(i16vec2) Load 200(u16v)
210: 190(bvec2) INotEqual 209 204
Store 192(bv) 210
214: 211(ivec2) Load 213(iv)
- 215: 187(ivec2) SConvert 214
+ 215:187(i16vec2) SConvert 214
Store 189(i16v) 215
216: 211(ivec2) Load 213(iv)
- 217: 187(ivec2) SConvert 216
- 218: 198(ivec2) Bitcast 217
+ 217:187(i16vec2) SConvert 216
+ 218:198(i16vec2) Bitcast 217
Store 200(u16v) 218
- 219: 187(ivec2) Load 189(i16v)
+ 219:187(i16vec2) Load 189(i16v)
220: 211(ivec2) SConvert 219
Store 213(iv) 220
- 221: 198(ivec2) Load 200(u16v)
+ 221:198(i16vec2) Load 200(u16v)
222: 211(ivec2) UConvert 221
223: 211(ivec2) Bitcast 222
Store 213(iv) 223
227: 224(ivec2) Load 226(uv)
- 228: 187(ivec2) UConvert 227
- 229: 187(ivec2) Bitcast 228
+ 228:187(i16vec2) UConvert 227
+ 229:187(i16vec2) Bitcast 228
Store 189(i16v) 229
230: 224(ivec2) Load 226(uv)
- 231: 198(ivec2) UConvert 230
+ 231:198(i16vec2) UConvert 230
Store 200(u16v) 231
- 232: 187(ivec2) Load 189(i16v)
+ 232:187(i16vec2) Load 189(i16v)
233: 211(ivec2) SConvert 232
234: 224(ivec2) Bitcast 233
Store 226(uv) 234
- 235: 198(ivec2) Load 200(u16v)
+ 235:198(i16vec2) Load 200(u16v)
236: 224(ivec2) UConvert 235
Store 226(uv) 236
241: 238(fvec2) Load 240(fv)
- 242: 187(ivec2) ConvertFToS 241
+ 242:187(i16vec2) ConvertFToS 241
Store 189(i16v) 242
243: 238(fvec2) Load 240(fv)
- 244: 198(ivec2) ConvertFToU 243
+ 244:198(i16vec2) ConvertFToU 243
Store 200(u16v) 244
- 245: 187(ivec2) Load 189(i16v)
+ 245:187(i16vec2) Load 189(i16v)
246: 238(fvec2) ConvertSToF 245
Store 240(fv) 246
- 247: 198(ivec2) Load 200(u16v)
+ 247:198(i16vec2) Load 200(u16v)
248: 238(fvec2) ConvertUToF 247
Store 240(fv) 248
- 253: 250(fvec2) Load 252(dv)
- 254: 187(ivec2) ConvertFToS 253
+ 253:250(f64vec2) Load 252(dv)
+ 254:187(i16vec2) ConvertFToS 253
Store 189(i16v) 254
- 255: 250(fvec2) Load 252(dv)
- 256: 198(ivec2) ConvertFToU 255
+ 255:250(f64vec2) Load 252(dv)
+ 256:198(i16vec2) ConvertFToU 255
Store 200(u16v) 256
- 257: 187(ivec2) Load 189(i16v)
- 258: 250(fvec2) ConvertSToF 257
+ 257:187(i16vec2) Load 189(i16v)
+ 258:250(f64vec2) ConvertSToF 257
Store 252(dv) 258
- 259: 198(ivec2) Load 200(u16v)
- 260: 250(fvec2) ConvertUToF 259
+ 259:198(i16vec2) Load 200(u16v)
+ 260:250(f64vec2) ConvertUToF 259
Store 252(dv) 260
- 265: 262(fvec2) Load 264(f16v)
- 266: 187(ivec2) ConvertFToS 265
+ 265:262(f16vec2) Load 264(f16v)
+ 266:187(i16vec2) ConvertFToS 265
Store 189(i16v) 266
- 267: 262(fvec2) Load 264(f16v)
- 268: 198(ivec2) ConvertFToU 267
+ 267:262(f16vec2) Load 264(f16v)
+ 268:198(i16vec2) ConvertFToU 267
Store 200(u16v) 268
- 269: 187(ivec2) Load 189(i16v)
- 270: 262(fvec2) ConvertSToF 269
+ 269:187(i16vec2) Load 189(i16v)
+ 270:262(f16vec2) ConvertSToF 269
Store 264(f16v) 270
- 271: 198(ivec2) Load 200(u16v)
- 272: 262(fvec2) ConvertUToF 271
+ 271:198(i16vec2) Load 200(u16v)
+ 272:262(f16vec2) ConvertUToF 271
Store 264(f16v) 272
- 277: 274(ivec2) Load 276(i64v)
- 278: 187(ivec2) SConvert 277
+ 277:274(i64vec2) Load 276(i64v)
+ 278:187(i16vec2) SConvert 277
Store 189(i16v) 278
- 279: 274(ivec2) Load 276(i64v)
- 280: 187(ivec2) SConvert 279
- 281: 198(ivec2) Bitcast 280
+ 279:274(i64vec2) Load 276(i64v)
+ 280:187(i16vec2) SConvert 279
+ 281:198(i16vec2) Bitcast 280
Store 200(u16v) 281
- 282: 187(ivec2) Load 189(i16v)
- 283: 274(ivec2) SConvert 282
+ 282:187(i16vec2) Load 189(i16v)
+ 283:274(i64vec2) SConvert 282
Store 276(i64v) 283
- 284: 198(ivec2) Load 200(u16v)
- 285: 274(ivec2) UConvert 284
- 286: 274(ivec2) Bitcast 285
+ 284:198(i16vec2) Load 200(u16v)
+ 285:274(i64vec2) UConvert 284
+ 286:274(i64vec2) Bitcast 285
Store 276(i64v) 286
- 291: 288(ivec2) Load 290(u64v)
- 292: 187(ivec2) UConvert 291
- 293: 187(ivec2) Bitcast 292
+ 291:288(i64vec2) Load 290(u64v)
+ 292:187(i16vec2) UConvert 291
+ 293:187(i16vec2) Bitcast 292
Store 189(i16v) 293
- 294: 288(ivec2) Load 290(u64v)
- 295: 198(ivec2) UConvert 294
+ 294:288(i64vec2) Load 290(u64v)
+ 295:198(i16vec2) UConvert 294
Store 200(u16v) 295
- 296: 187(ivec2) Load 189(i16v)
- 297: 274(ivec2) SConvert 296
- 298: 288(ivec2) Bitcast 297
+ 296:187(i16vec2) Load 189(i16v)
+ 297:274(i64vec2) SConvert 296
+ 298:288(i64vec2) Bitcast 297
Store 290(u64v) 298
- 299: 198(ivec2) Load 200(u16v)
- 300: 288(ivec2) UConvert 299
+ 299:198(i16vec2) Load 200(u16v)
+ 300:288(i64vec2) UConvert 299
Store 290(u64v) 300
- 301: 198(ivec2) Load 200(u16v)
- 302: 187(ivec2) Bitcast 301
+ 301:198(i16vec2) Load 200(u16v)
+ 302:187(i16vec2) Bitcast 301
Store 189(i16v) 302
- 303: 187(ivec2) Load 189(i16v)
- 304: 198(ivec2) Bitcast 303
+ 303:187(i16vec2) Load 189(i16v)
+ 304:198(i16vec2) Bitcast 303
Store 200(u16v) 304
Return
FunctionEnd
@@ -552,224 +552,224 @@ spv.int16.amd.frag
432(packi64): 431(ptr) Variable Function
441(packu64): 440(ptr) Variable Function
450(bv): 449(ptr) Variable Function
- 306: 187(ivec2) Load 305(i16v)
- 307: 187(ivec2) ExtInst 1(GLSL.std.450) 5(SAbs) 306
+ 306:187(i16vec2) Load 305(i16v)
+ 307:187(i16vec2) ExtInst 1(GLSL.std.450) 5(SAbs) 306
Store 305(i16v) 307
- 308: 187(ivec2) Load 305(i16v)
- 309: 187(ivec2) ExtInst 1(GLSL.std.450) 7(SSign) 308
+ 308:187(i16vec2) Load 305(i16v)
+ 309:187(i16vec2) ExtInst 1(GLSL.std.450) 7(SSign) 308
Store 305(i16v) 309
- 310: 187(ivec2) Load 305(i16v)
- 312: 17(int) Load 311(i16)
- 313: 187(ivec2) CompositeConstruct 312 312
- 314: 187(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 310 313
+ 310:187(i16vec2) Load 305(i16v)
+ 312: 17(int16_t) Load 311(i16)
+ 313:187(i16vec2) CompositeConstruct 312 312
+ 314:187(i16vec2) ExtInst 1(GLSL.std.450) 39(SMin) 310 313
Store 305(i16v) 314
- 315: 187(ivec2) Load 305(i16v)
- 318: 187(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 315 317
+ 315:187(i16vec2) Load 305(i16v)
+ 318:187(i16vec2) ExtInst 1(GLSL.std.450) 39(SMin) 315 317
Store 305(i16v) 318
- 320: 49(ivec3) Load 319(u16v)
- 322: 14(int) Load 321(u16)
- 323: 49(ivec3) CompositeConstruct 322 322 322
- 324: 49(ivec3) ExtInst 1(GLSL.std.450) 38(UMin) 320 323
+ 320: 49(i16vec3) Load 319(u16v)
+ 322: 14(int16_t) Load 321(u16)
+ 323: 49(i16vec3) CompositeConstruct 322 322 322
+ 324: 49(i16vec3) ExtInst 1(GLSL.std.450) 38(UMin) 320 323
Store 319(u16v) 324
- 325: 49(ivec3) Load 319(u16v)
- 327: 49(ivec3) ExtInst 1(GLSL.std.450) 38(UMin) 325 326
+ 325: 49(i16vec3) Load 319(u16v)
+ 327: 49(i16vec3) ExtInst 1(GLSL.std.450) 38(UMin) 325 326
Store 319(u16v) 327
- 328: 187(ivec2) Load 305(i16v)
- 329: 17(int) Load 311(i16)
- 330: 187(ivec2) CompositeConstruct 329 329
- 331: 187(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 328 330
+ 328:187(i16vec2) Load 305(i16v)
+ 329: 17(int16_t) Load 311(i16)
+ 330:187(i16vec2) CompositeConstruct 329 329
+ 331:187(i16vec2) ExtInst 1(GLSL.std.450) 42(SMax) 328 330
Store 305(i16v) 331
- 332: 187(ivec2) Load 305(i16v)
- 333: 187(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 332 317
+ 332:187(i16vec2) Load 305(i16v)
+ 333:187(i16vec2) ExtInst 1(GLSL.std.450) 42(SMax) 332 317
Store 305(i16v) 333
- 334: 49(ivec3) Load 319(u16v)
- 335: 14(int) Load 321(u16)
- 336: 49(ivec3) CompositeConstruct 335 335 335
- 337: 49(ivec3) ExtInst 1(GLSL.std.450) 41(UMax) 334 336
+ 334: 49(i16vec3) Load 319(u16v)
+ 335: 14(int16_t) Load 321(u16)
+ 336: 49(i16vec3) CompositeConstruct 335 335 335
+ 337: 49(i16vec3) ExtInst 1(GLSL.std.450) 41(UMax) 334 336
Store 319(u16v) 337
- 338: 49(ivec3) Load 319(u16v)
- 339: 49(ivec3) ExtInst 1(GLSL.std.450) 41(UMax) 338 326
+ 338: 49(i16vec3) Load 319(u16v)
+ 339: 49(i16vec3) ExtInst 1(GLSL.std.450) 41(UMax) 338 326
Store 319(u16v) 339
- 340: 187(ivec2) Load 305(i16v)
- 341: 17(int) Load 311(i16)
- 342: 17(int) SNegate 341
- 343: 17(int) Load 311(i16)
- 344: 187(ivec2) CompositeConstruct 342 342
- 345: 187(ivec2) CompositeConstruct 343 343
- 346: 187(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 340 344 345
+ 340:187(i16vec2) Load 305(i16v)
+ 341: 17(int16_t) Load 311(i16)
+ 342: 17(int16_t) SNegate 341
+ 343: 17(int16_t) Load 311(i16)
+ 344:187(i16vec2) CompositeConstruct 342 342
+ 345:187(i16vec2) CompositeConstruct 343 343
+ 346:187(i16vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 340 344 345
Store 305(i16v) 346
- 347: 187(ivec2) Load 305(i16v)
- 348: 187(ivec2) Load 305(i16v)
- 349: 187(ivec2) SNegate 348
- 350: 187(ivec2) Load 305(i16v)
- 351: 187(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 347 349 350
+ 347:187(i16vec2) Load 305(i16v)
+ 348:187(i16vec2) Load 305(i16v)
+ 349:187(i16vec2) SNegate 348
+ 350:187(i16vec2) Load 305(i16v)
+ 351:187(i16vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 347 349 350
Store 305(i16v) 351
- 352: 49(ivec3) Load 319(u16v)
- 353: 14(int) Load 321(u16)
- 354: 14(int) SNegate 353
- 355: 14(int) Load 321(u16)
- 356: 49(ivec3) CompositeConstruct 354 354 354
- 357: 49(ivec3) CompositeConstruct 355 355 355
- 358: 49(ivec3) ExtInst 1(GLSL.std.450) 44(UClamp) 352 356 357
+ 352: 49(i16vec3) Load 319(u16v)
+ 353: 14(int16_t) Load 321(u16)
+ 354: 14(int16_t) SNegate 353
+ 355: 14(int16_t) Load 321(u16)
+ 356: 49(i16vec3) CompositeConstruct 354 354 354
+ 357: 49(i16vec3) CompositeConstruct 355 355 355
+ 358: 49(i16vec3) ExtInst 1(GLSL.std.450) 44(UClamp) 352 356 357
Store 319(u16v) 358
- 359: 49(ivec3) Load 319(u16v)
- 360: 49(ivec3) Load 319(u16v)
- 361: 49(ivec3) SNegate 360
- 362: 49(ivec3) Load 319(u16v)
- 363: 49(ivec3) ExtInst 1(GLSL.std.450) 44(UClamp) 359 361 362
+ 359: 49(i16vec3) Load 319(u16v)
+ 360: 49(i16vec3) Load 319(u16v)
+ 361: 49(i16vec3) SNegate 360
+ 362: 49(i16vec3) Load 319(u16v)
+ 363: 49(i16vec3) ExtInst 1(GLSL.std.450) 44(UClamp) 359 361 362
Store 319(u16v) 363
364: 35(ptr) AccessChain 305(i16v) 128
- 365: 17(int) Load 364
+ 365: 17(int16_t) Load 364
366: 35(ptr) AccessChain 305(i16v) 111
- 367: 17(int) Load 366
- 369: 17(int) Select 368 367 365
+ 367: 17(int16_t) Load 366
+ 369: 17(int16_t) Select 368 367 365
Store 311(i16) 369
- 370: 17(int) Load 311(i16)
- 371: 187(ivec2) CompositeConstruct 370 370
- 372: 17(int) Load 311(i16)
- 373: 17(int) SNegate 372
- 374: 187(ivec2) CompositeConstruct 373 373
- 377: 187(ivec2) Select 376 374 371
+ 370: 17(int16_t) Load 311(i16)
+ 371:187(i16vec2) CompositeConstruct 370 370
+ 372: 17(int16_t) Load 311(i16)
+ 373: 17(int16_t) SNegate 372
+ 374:187(i16vec2) CompositeConstruct 373 373
+ 377:187(i16vec2) Select 376 374 371
Store 305(i16v) 377
378: 15(ptr) AccessChain 319(u16v) 128
- 379: 14(int) Load 378
+ 379: 14(int16_t) Load 378
380: 15(ptr) AccessChain 319(u16v) 111
- 381: 14(int) Load 380
- 382: 14(int) Select 368 381 379
+ 381: 14(int16_t) Load 380
+ 382: 14(int16_t) Select 368 381 379
Store 321(u16) 382
- 383: 14(int) Load 321(u16)
- 384: 49(ivec3) CompositeConstruct 383 383 383
- 385: 14(int) Load 321(u16)
- 386: 14(int) SNegate 385
- 387: 49(ivec3) CompositeConstruct 386 386 386
- 390: 49(ivec3) Select 389 387 384
+ 383: 14(int16_t) Load 321(u16)
+ 384: 49(i16vec3) CompositeConstruct 383 383 383
+ 385: 14(int16_t) Load 321(u16)
+ 386: 14(int16_t) SNegate 385
+ 387: 49(i16vec3) CompositeConstruct 386 386 386
+ 390: 49(i16vec3) Select 389 387 384
Store 319(u16v) 390
- 394: 391(fvec3) Load 393(f16v)
+ 394:391(f16vec3) Load 393(f16v)
398:397(ResType) ExtInst 1(GLSL.std.450) 52(FrexpStruct) 394
- 399: 54(ivec3) CompositeExtract 398 1
+ 399: 54(i16vec3) CompositeExtract 398 1
Store 396(exp) 399
- 400: 391(fvec3) CompositeExtract 398 0
+ 400:391(f16vec3) CompositeExtract 398 0
Store 393(f16v) 400
- 401: 391(fvec3) Load 393(f16v)
- 402: 54(ivec3) Load 396(exp)
- 403: 391(fvec3) ExtInst 1(GLSL.std.450) 53(Ldexp) 401 402
+ 401:391(f16vec3) Load 393(f16v)
+ 402: 54(i16vec3) Load 396(exp)
+ 403:391(f16vec3) ExtInst 1(GLSL.std.450) 53(Ldexp) 401 402
Store 393(f16v) 403
- 404: 391(fvec3) Load 393(f16v)
- 405: 262(fvec2) VectorShuffle 404 404 0 1
- 406: 187(ivec2) Bitcast 405
+ 404:391(f16vec3) Load 393(f16v)
+ 405:262(f16vec2) VectorShuffle 404 404 0 1
+ 406:187(i16vec2) Bitcast 405
Store 305(i16v) 406
408: 407(ptr) AccessChain 393(f16v) 117
- 409: 261(float) Load 408
- 410: 14(int) Bitcast 409
+ 409:261(float16_t) Load 408
+ 410: 14(int16_t) Bitcast 409
411: 15(ptr) AccessChain 319(u16v) 128
Store 411 410
- 412: 187(ivec2) Load 305(i16v)
- 413: 262(fvec2) Bitcast 412
- 414: 391(fvec3) Load 393(f16v)
- 415: 391(fvec3) VectorShuffle 414 413 3 4 2
+ 412:187(i16vec2) Load 305(i16v)
+ 413:262(f16vec2) Bitcast 412
+ 414:391(f16vec3) Load 393(f16v)
+ 415:391(f16vec3) VectorShuffle 414 413 3 4 2
Store 393(f16v) 415
- 416: 49(ivec3) Load 319(u16v)
- 417: 391(fvec3) Bitcast 416
+ 416: 49(i16vec3) Load 319(u16v)
+ 417:391(f16vec3) Bitcast 416
Store 393(f16v) 417
- 419: 187(ivec2) Load 305(i16v)
+ 419:187(i16vec2) Load 305(i16v)
420: 28(int) Bitcast 419
Store 418(packi) 420
421: 28(int) Load 418(packi)
- 422: 187(ivec2) Bitcast 421
+ 422:187(i16vec2) Bitcast 421
Store 305(i16v) 422
- 424: 49(ivec3) Load 319(u16v)
- 425: 198(ivec2) VectorShuffle 424 424 0 1
+ 424: 49(i16vec3) Load 319(u16v)
+ 425:198(i16vec2) VectorShuffle 424 424 0 1
426: 18(int) Bitcast 425
Store 423(packu) 426
427: 18(int) Load 423(packu)
- 428: 198(ivec2) Bitcast 427
- 429: 49(ivec3) Load 319(u16v)
- 430: 49(ivec3) VectorShuffle 429 428 3 4 2
+ 428:198(i16vec2) Bitcast 427
+ 429: 49(i16vec3) Load 319(u16v)
+ 430: 49(i16vec3) VectorShuffle 429 428 3 4 2
Store 319(u16v) 430
- 433: 17(int) Load 311(i16)
- 435: 434(ivec4) CompositeConstruct 433 433 433 433
- 436: 273(int) Bitcast 435
+ 433: 17(int16_t) Load 311(i16)
+ 435:434(i16vec4) CompositeConstruct 433 433 433 433
+ 436:273(int64_t) Bitcast 435
Store 432(packi64) 436
- 437: 273(int) Load 432(packi64)
- 438: 434(ivec4) Bitcast 437
- 439: 187(ivec2) VectorShuffle 438 438 0 1
+ 437:273(int64_t) Load 432(packi64)
+ 438:434(i16vec4) Bitcast 437
+ 439:187(i16vec2) VectorShuffle 438 438 0 1
Store 305(i16v) 439
- 442: 14(int) Load 321(u16)
- 444: 443(ivec4) CompositeConstruct 442 442 442 442
- 445: 287(int) Bitcast 444
+ 442: 14(int16_t) Load 321(u16)
+ 444:443(i16vec4) CompositeConstruct 442 442 442 442
+ 445:287(int64_t) Bitcast 444
Store 441(packu64) 445
- 446: 287(int) Load 441(packu64)
- 447: 443(ivec4) Bitcast 446
- 448: 49(ivec3) VectorShuffle 447 447 0 1 2
+ 446:287(int64_t) Load 441(packu64)
+ 447:443(i16vec4) Bitcast 446
+ 448: 49(i16vec3) VectorShuffle 447 447 0 1 2
Store 319(u16v) 448
- 451: 49(ivec3) Load 319(u16v)
- 452: 14(int) Load 321(u16)
- 453: 49(ivec3) CompositeConstruct 452 452 452
+ 451: 49(i16vec3) Load 319(u16v)
+ 452: 14(int16_t) Load 321(u16)
+ 453: 49(i16vec3) CompositeConstruct 452 452 452
454: 388(bvec3) ULessThan 451 453
Store 450(bv) 454
- 455: 187(ivec2) Load 305(i16v)
- 456: 17(int) Load 311(i16)
- 457: 187(ivec2) CompositeConstruct 456 456
+ 455:187(i16vec2) Load 305(i16v)
+ 456: 17(int16_t) Load 311(i16)
+ 457:187(i16vec2) CompositeConstruct 456 456
458: 190(bvec2) SLessThan 455 457
459: 388(bvec3) Load 450(bv)
460: 388(bvec3) VectorShuffle 459 458 3 4 2
Store 450(bv) 460
- 461: 49(ivec3) Load 319(u16v)
- 462: 14(int) Load 321(u16)
- 463: 49(ivec3) CompositeConstruct 462 462 462
+ 461: 49(i16vec3) Load 319(u16v)
+ 462: 14(int16_t) Load 321(u16)
+ 463: 49(i16vec3) CompositeConstruct 462 462 462
464: 388(bvec3) ULessThanEqual 461 463
Store 450(bv) 464
- 465: 187(ivec2) Load 305(i16v)
- 466: 17(int) Load 311(i16)
- 467: 187(ivec2) CompositeConstruct 466 466
+ 465:187(i16vec2) Load 305(i16v)
+ 466: 17(int16_t) Load 311(i16)
+ 467:187(i16vec2) CompositeConstruct 466 466
468: 190(bvec2) SLessThanEqual 465 467
469: 388(bvec3) Load 450(bv)
470: 388(bvec3) VectorShuffle 469 468 3 4 2
Store 450(bv) 470
- 471: 49(ivec3) Load 319(u16v)
- 472: 14(int) Load 321(u16)
- 473: 49(ivec3) CompositeConstruct 472 472 472
+ 471: 49(i16vec3) Load 319(u16v)
+ 472: 14(int16_t) Load 321(u16)
+ 473: 49(i16vec3) CompositeConstruct 472 472 472
474: 388(bvec3) UGreaterThan 471 473
Store 450(bv) 474
- 475: 187(ivec2) Load 305(i16v)
- 476: 17(int) Load 311(i16)
- 477: 187(ivec2) CompositeConstruct 476 476
+ 475:187(i16vec2) Load 305(i16v)
+ 476: 17(int16_t) Load 311(i16)
+ 477:187(i16vec2) CompositeConstruct 476 476
478: 190(bvec2) SGreaterThan 475 477
479: 388(bvec3) Load 450(bv)
480: 388(bvec3) VectorShuffle 479 478 3 4 2
Store 450(bv) 480
- 481: 49(ivec3) Load 319(u16v)
- 482: 14(int) Load 321(u16)
- 483: 49(ivec3) CompositeConstruct 482 482 482
+ 481: 49(i16vec3) Load 319(u16v)
+ 482: 14(int16_t) Load 321(u16)
+ 483: 49(i16vec3) CompositeConstruct 482 482 482
484: 388(bvec3) UGreaterThanEqual 481 483
Store 450(bv) 484
- 485: 187(ivec2) Load 305(i16v)
- 486: 17(int) Load 311(i16)
- 487: 187(ivec2) CompositeConstruct 486 486
+ 485:187(i16vec2) Load 305(i16v)
+ 486: 17(int16_t) Load 311(i16)
+ 487:187(i16vec2) CompositeConstruct 486 486
488: 190(bvec2) SGreaterThanEqual 485 487
489: 388(bvec3) Load 450(bv)
490: 388(bvec3) VectorShuffle 489 488 3 4 2
Store 450(bv) 490
- 491: 49(ivec3) Load 319(u16v)
- 492: 14(int) Load 321(u16)
- 493: 49(ivec3) CompositeConstruct 492 492 492
+ 491: 49(i16vec3) Load 319(u16v)
+ 492: 14(int16_t) Load 321(u16)
+ 493: 49(i16vec3) CompositeConstruct 492 492 492
494: 388(bvec3) IEqual 491 493
Store 450(bv) 494
- 495: 187(ivec2) Load 305(i16v)
- 496: 17(int) Load 311(i16)
- 497: 187(ivec2) CompositeConstruct 496 496
+ 495:187(i16vec2) Load 305(i16v)
+ 496: 17(int16_t) Load 311(i16)
+ 497:187(i16vec2) CompositeConstruct 496 496
498: 190(bvec2) IEqual 495 497
499: 388(bvec3) Load 450(bv)
500: 388(bvec3) VectorShuffle 499 498 3 4 2
Store 450(bv) 500
- 501: 49(ivec3) Load 319(u16v)
- 502: 14(int) Load 321(u16)
- 503: 49(ivec3) CompositeConstruct 502 502 502
+ 501: 49(i16vec3) Load 319(u16v)
+ 502: 14(int16_t) Load 321(u16)
+ 503: 49(i16vec3) CompositeConstruct 502 502 502
504: 388(bvec3) INotEqual 501 503
Store 450(bv) 504
- 505: 187(ivec2) Load 305(i16v)
- 506: 17(int) Load 311(i16)
- 507: 187(ivec2) CompositeConstruct 506 506
+ 505:187(i16vec2) Load 305(i16v)
+ 506: 17(int16_t) Load 311(i16)
+ 507:187(i16vec2) CompositeConstruct 506 506
508: 190(bvec2) INotEqual 505 507
509: 388(bvec3) Load 450(bv)
510: 388(bvec3) VectorShuffle 509 508 3 4 2
diff --git a/Test/baseResults/spv.int16.frag.out b/Test/baseResults/spv.int16.frag.out
index 83555691..39160918 100644
--- a/Test/baseResults/spv.int16.frag.out
+++ b/Test/baseResults/spv.int16.frag.out
@@ -100,13 +100,13 @@ spv.int16.frag
2: TypeVoid
3: TypeFunction 2
14: TypeInt 16 1
- 15: TypePointer Function 14(int)
+ 15: TypePointer Function 14(int16_t)
17: TypeInt 32 0
18: 17(int) Constant 3
- 19: TypeArray 14(int) 18
- 20: 14(int) Constant 4294962927
- 21: 14(int) Constant 4294967295
- 22: 14(int) Constant 16384
+ 19: TypeArray 14(int16_t) 18
+ 20: 14(int16_t) Constant 4294962927
+ 21: 14(int16_t) Constant 4294967295
+ 22: 14(int16_t) Constant 16384
23: 19 ConstantComposite 20 21 22
24(Uniforms): TypeStruct 17(int)
25: TypePointer Uniform 24(Uniforms)
@@ -116,83 +116,83 @@ spv.int16.frag
29: TypePointer Uniform 17(int)
32: TypePointer Function 19
36: TypeInt 16 0
- 37: TypePointer Function 36(int)
- 39: TypeArray 36(int) 18
- 40: 36(int) Constant 65535
- 41: 36(int) Constant 32767
+ 37: TypePointer Function 36(int16_t)
+ 39: TypeArray 36(int16_t) 18
+ 40: 36(int16_t) Constant 65535
+ 41: 36(int16_t) Constant 32767
42: 39 ConstantComposite 40 40 41
45: TypePointer Function 39
49: TypeVector 27(int) 2
50: TypePointer Function 49(ivec2)
- 52: TypeVector 14(int) 2
- 53: TypePointer Function 52(ivec2)
- 57: TypeVector 36(int) 2
- 58: TypePointer Function 57(ivec2)
+ 52: TypeVector 14(int16_t) 2
+ 53: TypePointer Function 52(i16vec2)
+ 57: TypeVector 36(int16_t) 2
+ 58: TypePointer Function 57(i16vec2)
65: TypeVector 17(int) 2
66: TypePointer Function 65(ivec2)
71: TypeInt 64 1
- 72: TypeVector 71(int) 2
- 73: TypePointer Function 72(ivec2)
+ 72: TypeVector 71(int64_t) 2
+ 73: TypePointer Function 72(i64vec2)
77: TypeInt 64 0
- 78: TypeVector 77(int) 2
- 79: TypePointer Function 78(ivec2)
+ 78: TypeVector 77(int64_t) 2
+ 79: TypePointer Function 78(i64vec2)
91: TypeFloat 16
- 92: TypeVector 91(float) 2
- 93: TypePointer Function 92(fvec2)
+ 92: TypeVector 91(float16_t) 2
+ 93: TypePointer Function 92(f16vec2)
97: TypeFloat 32
98: TypeVector 97(float) 2
99: TypePointer Function 98(fvec2)
103: TypeFloat 64
- 104: TypeVector 103(float) 2
- 105: TypePointer Function 104(fvec2)
+ 104: TypeVector 103(float64_t) 2
+ 105: TypePointer Function 104(f64vec2)
151: TypeInt 8 1
- 152: TypeVector 151(int) 2
- 153: TypePointer Function 152(ivec2)
+ 152: TypeVector 151(int8_t) 2
+ 153: TypePointer Function 152(i8vec2)
160: TypeInt 8 0
- 161: TypeVector 160(int) 2
- 162: TypePointer Function 161(ivec2)
+ 161: TypeVector 160(int8_t) 2
+ 162: TypePointer Function 161(i8vec2)
173: TypeBool
174: TypeVector 173(bool) 2
175: TypePointer Function 174(bvec2)
- 178: 14(int) Constant 0
- 179: 14(int) Constant 1
- 180: 52(ivec2) ConstantComposite 178 178
- 181: 52(ivec2) ConstantComposite 179 179
- 184: 36(int) Constant 0
- 185: 36(int) Constant 1
- 186: 57(ivec2) ConstantComposite 184 184
- 187: 57(ivec2) ConstantComposite 185 185
- 193: TypeVector 36(int) 3
- 194: TypePointer Function 193(ivec3)
- 197: TypeVector 14(int) 3
+ 178: 14(int16_t) Constant 0
+ 179: 14(int16_t) Constant 1
+ 180: 52(i16vec2) ConstantComposite 178 178
+ 181: 52(i16vec2) ConstantComposite 179 179
+ 184: 36(int16_t) Constant 0
+ 185: 36(int16_t) Constant 1
+ 186: 57(i16vec2) ConstantComposite 184 184
+ 187: 57(i16vec2) ConstantComposite 185 185
+ 193: TypeVector 36(int16_t) 3
+ 194: TypePointer Function 193(i16vec3)
+ 197: TypeVector 14(int16_t) 3
219: TypePointer Function 27(int)
225: TypeVector 17(int) 3
226: TypePointer Function 225(ivec3)
- 242: TypePointer Function 71(int)
+ 242: TypePointer Function 71(int64_t)
264: 17(int) Constant 1
270: 17(int) Constant 2
276: TypeVector 27(int) 3
280: TypePointer Function 173(bool)
282: 17(int) Constant 0
296: TypePointer Function 17(int)
- 354: 52(ivec2) ConstantComposite 21 21
- 363: 193(ivec3) ConstantComposite 184 184 184
+ 354: 52(i16vec2) ConstantComposite 21 21
+ 363:193(i16vec3) ConstantComposite 184 184 184
405: 173(bool) ConstantTrue
412: 173(bool) ConstantFalse
413: 174(bvec2) ConstantComposite 412 412
425: TypeVector 173(bool) 3
426: 425(bvec3) ConstantComposite 412 412 412
- 432: TypeVector 14(int) 4
- 433: TypePointer Function 432(ivec4)
- 441: TypePointer Function 77(int)
- 443: TypeVector 36(int) 4
- 444: TypePointer Function 443(ivec4)
+ 432: TypeVector 14(int16_t) 4
+ 433: TypePointer Function 432(i16vec4)
+ 441: TypePointer Function 77(int64_t)
+ 443: TypeVector 36(int16_t) 4
+ 444: TypePointer Function 443(i16vec4)
456: TypePointer Function 425(bvec3)
- 518(Block): TypeStruct 14(int) 52(ivec2) 197(ivec3) 432(ivec4) 36(int) 57(ivec2) 193(ivec3) 443(ivec4)
+ 518(Block): TypeStruct 14(int16_t) 52(i16vec2) 197(i16vec3) 432(i16vec4) 36(int16_t) 57(i16vec2) 193(i16vec3) 443(i16vec4)
519: TypePointer Uniform 518(Block)
520(block): 519(ptr) Variable Uniform
- 521(si16): 14(int) SpecConstant 4294967286
- 522(su16): 36(int) SpecConstant 20
+ 521(si16): 14(int16_t) SpecConstant 4294967286
+ 522(su16): 36(int16_t) SpecConstant 20
4(main): 2 Function None 3
5: Label
Return
@@ -207,13 +207,13 @@ spv.int16.frag
31: 17(int) Load 30
Store 33(indexable) 23
34: 15(ptr) AccessChain 33(indexable) 31
- 35: 14(int) Load 34
+ 35: 14(int16_t) Load 34
Store 16(i16) 35
43: 29(ptr) AccessChain 26 28
44: 17(int) Load 43
Store 46(indexable) 42
47: 37(ptr) AccessChain 46(indexable) 44
- 48: 36(int) Load 47
+ 48: 36(int16_t) Load 47
Store 38(u16) 48
Return
FunctionEnd
@@ -231,135 +231,135 @@ spv.int16.frag
154(i8v): 153(ptr) Variable Function
163(u8v): 162(ptr) Variable Function
176(bv): 175(ptr) Variable Function
- 55: 52(ivec2) Load 54(i16v)
+ 55: 52(i16vec2) Load 54(i16v)
56: 49(ivec2) SConvert 55
Store 51(i32v) 56
- 60: 57(ivec2) Load 59(u16v)
+ 60: 57(i16vec2) Load 59(u16v)
61: 49(ivec2) UConvert 60
62: 49(ivec2) Bitcast 61
Store 51(i32v) 62
- 63: 52(ivec2) Load 54(i16v)
- 64: 57(ivec2) Bitcast 63
+ 63: 52(i16vec2) Load 54(i16v)
+ 64: 57(i16vec2) Bitcast 63
Store 59(u16v) 64
- 68: 52(ivec2) Load 54(i16v)
+ 68: 52(i16vec2) Load 54(i16v)
69: 49(ivec2) SConvert 68
70: 65(ivec2) Bitcast 69
Store 67(u32v) 70
- 75: 52(ivec2) Load 54(i16v)
- 76: 72(ivec2) SConvert 75
+ 75: 52(i16vec2) Load 54(i16v)
+ 76: 72(i64vec2) SConvert 75
Store 74(i64v) 76
- 81: 52(ivec2) Load 54(i16v)
- 82: 72(ivec2) SConvert 81
- 83: 78(ivec2) Bitcast 82
+ 81: 52(i16vec2) Load 54(i16v)
+ 82: 72(i64vec2) SConvert 81
+ 83: 78(i64vec2) Bitcast 82
Store 80(u64v) 83
- 84: 57(ivec2) Load 59(u16v)
+ 84: 57(i16vec2) Load 59(u16v)
85: 65(ivec2) UConvert 84
Store 67(u32v) 85
- 86: 57(ivec2) Load 59(u16v)
- 87: 72(ivec2) UConvert 86
- 88: 72(ivec2) Bitcast 87
+ 86: 57(i16vec2) Load 59(u16v)
+ 87: 72(i64vec2) UConvert 86
+ 88: 72(i64vec2) Bitcast 87
Store 74(i64v) 88
- 89: 57(ivec2) Load 59(u16v)
- 90: 78(ivec2) UConvert 89
+ 89: 57(i16vec2) Load 59(u16v)
+ 90: 78(i64vec2) UConvert 89
Store 80(u64v) 90
- 95: 52(ivec2) Load 54(i16v)
- 96: 92(fvec2) ConvertSToF 95
+ 95: 52(i16vec2) Load 54(i16v)
+ 96: 92(f16vec2) ConvertSToF 95
Store 94(f16v) 96
- 101: 52(ivec2) Load 54(i16v)
+ 101: 52(i16vec2) Load 54(i16v)
102: 98(fvec2) ConvertSToF 101
Store 100(f32v) 102
- 107: 52(ivec2) Load 54(i16v)
- 108: 104(fvec2) ConvertSToF 107
+ 107: 52(i16vec2) Load 54(i16v)
+ 108:104(f64vec2) ConvertSToF 107
Store 106(f64v) 108
- 109: 57(ivec2) Load 59(u16v)
- 110: 92(fvec2) ConvertUToF 109
+ 109: 57(i16vec2) Load 59(u16v)
+ 110: 92(f16vec2) ConvertUToF 109
Store 94(f16v) 110
- 111: 57(ivec2) Load 59(u16v)
+ 111: 57(i16vec2) Load 59(u16v)
112: 98(fvec2) ConvertUToF 111
Store 100(f32v) 112
- 113: 57(ivec2) Load 59(u16v)
- 114: 104(fvec2) ConvertUToF 113
+ 113: 57(i16vec2) Load 59(u16v)
+ 114:104(f64vec2) ConvertUToF 113
Store 106(f64v) 114
- 115: 52(ivec2) Load 54(i16v)
+ 115: 52(i16vec2) Load 54(i16v)
116: 49(ivec2) SConvert 115
Store 51(i32v) 116
- 117: 57(ivec2) Load 59(u16v)
+ 117: 57(i16vec2) Load 59(u16v)
118: 49(ivec2) UConvert 117
119: 49(ivec2) Bitcast 118
Store 51(i32v) 119
- 120: 52(ivec2) Load 54(i16v)
- 121: 57(ivec2) Bitcast 120
+ 120: 52(i16vec2) Load 54(i16v)
+ 121: 57(i16vec2) Bitcast 120
Store 59(u16v) 121
- 122: 52(ivec2) Load 54(i16v)
+ 122: 52(i16vec2) Load 54(i16v)
123: 49(ivec2) SConvert 122
124: 65(ivec2) Bitcast 123
Store 67(u32v) 124
- 125: 52(ivec2) Load 54(i16v)
- 126: 72(ivec2) SConvert 125
+ 125: 52(i16vec2) Load 54(i16v)
+ 126: 72(i64vec2) SConvert 125
Store 74(i64v) 126
- 127: 52(ivec2) Load 54(i16v)
- 128: 72(ivec2) SConvert 127
- 129: 78(ivec2) Bitcast 128
+ 127: 52(i16vec2) Load 54(i16v)
+ 128: 72(i64vec2) SConvert 127
+ 129: 78(i64vec2) Bitcast 128
Store 80(u64v) 129
- 130: 57(ivec2) Load 59(u16v)
+ 130: 57(i16vec2) Load 59(u16v)
131: 65(ivec2) UConvert 130
Store 67(u32v) 131
- 132: 57(ivec2) Load 59(u16v)
- 133: 72(ivec2) UConvert 132
- 134: 72(ivec2) Bitcast 133
+ 132: 57(i16vec2) Load 59(u16v)
+ 133: 72(i64vec2) UConvert 132
+ 134: 72(i64vec2) Bitcast 133
Store 74(i64v) 134
- 135: 57(ivec2) Load 59(u16v)
- 136: 72(ivec2) UConvert 135
- 137: 72(ivec2) Bitcast 136
- 138: 78(ivec2) Bitcast 137
+ 135: 57(i16vec2) Load 59(u16v)
+ 136: 72(i64vec2) UConvert 135
+ 137: 72(i64vec2) Bitcast 136
+ 138: 78(i64vec2) Bitcast 137
Store 80(u64v) 138
- 139: 52(ivec2) Load 54(i16v)
- 140: 92(fvec2) ConvertSToF 139
+ 139: 52(i16vec2) Load 54(i16v)
+ 140: 92(f16vec2) ConvertSToF 139
Store 94(f16v) 140
- 141: 52(ivec2) Load 54(i16v)
+ 141: 52(i16vec2) Load 54(i16v)
142: 98(fvec2) ConvertSToF 141
Store 100(f32v) 142
- 143: 52(ivec2) Load 54(i16v)
- 144: 104(fvec2) ConvertSToF 143
+ 143: 52(i16vec2) Load 54(i16v)
+ 144:104(f64vec2) ConvertSToF 143
Store 106(f64v) 144
- 145: 57(ivec2) Load 59(u16v)
- 146: 92(fvec2) ConvertUToF 145
+ 145: 57(i16vec2) Load 59(u16v)
+ 146: 92(f16vec2) ConvertUToF 145
Store 94(f16v) 146
- 147: 57(ivec2) Load 59(u16v)
+ 147: 57(i16vec2) Load 59(u16v)
148: 98(fvec2) ConvertUToF 147
Store 100(f32v) 148
- 149: 57(ivec2) Load 59(u16v)
- 150: 104(fvec2) ConvertUToF 149
+ 149: 57(i16vec2) Load 59(u16v)
+ 150:104(f64vec2) ConvertUToF 149
Store 106(f64v) 150
- 155: 52(ivec2) Load 54(i16v)
- 156: 152(ivec2) SConvert 155
+ 155: 52(i16vec2) Load 54(i16v)
+ 156: 152(i8vec2) SConvert 155
Store 154(i8v) 156
- 157: 57(ivec2) Load 59(u16v)
- 158: 152(ivec2) UConvert 157
- 159: 152(ivec2) Bitcast 158
+ 157: 57(i16vec2) Load 59(u16v)
+ 158: 152(i8vec2) UConvert 157
+ 159: 152(i8vec2) Bitcast 158
Store 154(i8v) 159
- 164: 52(ivec2) Load 54(i16v)
- 165: 152(ivec2) SConvert 164
- 166: 161(ivec2) Bitcast 165
+ 164: 52(i16vec2) Load 54(i16v)
+ 165: 152(i8vec2) SConvert 164
+ 166: 161(i8vec2) Bitcast 165
Store 163(u8v) 166
- 167: 57(ivec2) Load 59(u16v)
- 168: 161(ivec2) UConvert 167
+ 167: 57(i16vec2) Load 59(u16v)
+ 168: 161(i8vec2) UConvert 167
Store 163(u8v) 168
- 169: 57(ivec2) Load 59(u16v)
- 170: 161(ivec2) UConvert 169
- 171: 52(ivec2) UConvert 170
- 172: 52(ivec2) Bitcast 171
+ 169: 57(i16vec2) Load 59(u16v)
+ 170: 161(i8vec2) UConvert 169
+ 171: 52(i16vec2) UConvert 170
+ 172: 52(i16vec2) Bitcast 171
Store 54(i16v) 172
177: 174(bvec2) Load 176(bv)
- 182: 52(ivec2) Select 177 181 180
+ 182: 52(i16vec2) Select 177 181 180
Store 54(i16v) 182
183: 174(bvec2) Load 176(bv)
- 188: 57(ivec2) Select 183 187 186
+ 188: 57(i16vec2) Select 183 187 186
Store 59(u16v) 188
- 189: 52(ivec2) Load 54(i16v)
+ 189: 52(i16vec2) Load 54(i16v)
190: 174(bvec2) INotEqual 189 186
Store 176(bv) 190
- 191: 57(ivec2) Load 59(u16v)
+ 191: 57(i16vec2) Load 59(u16v)
192: 174(bvec2) INotEqual 191 186
Store 176(bv) 192
Return
@@ -372,169 +372,169 @@ spv.int16.frag
227(uv): 226(ptr) Variable Function
243(i64): 242(ptr) Variable Function
281(b): 280(ptr) Variable Function
- 196: 193(ivec3) Load 195(u16v)
- 198: 197(ivec3) CompositeConstruct 179 179 179
- 199: 193(ivec3) IAdd 196 198
+ 196:193(i16vec3) Load 195(u16v)
+ 198:197(i16vec3) CompositeConstruct 179 179 179
+ 199:193(i16vec3) IAdd 196 198
Store 195(u16v) 199
- 201: 14(int) Load 200(i16)
- 202: 14(int) ISub 201 179
+ 201: 14(int16_t) Load 200(i16)
+ 202: 14(int16_t) ISub 201 179
Store 200(i16) 202
- 203: 14(int) Load 200(i16)
- 204: 14(int) IAdd 203 179
+ 203: 14(int16_t) Load 200(i16)
+ 204: 14(int16_t) IAdd 203 179
Store 200(i16) 204
- 205: 193(ivec3) Load 195(u16v)
- 206: 197(ivec3) CompositeConstruct 179 179 179
- 207: 193(ivec3) ISub 205 206
+ 205:193(i16vec3) Load 195(u16v)
+ 206:197(i16vec3) CompositeConstruct 179 179 179
+ 207:193(i16vec3) ISub 205 206
Store 195(u16v) 207
- 208: 193(ivec3) Load 195(u16v)
- 209: 193(ivec3) Not 208
+ 208:193(i16vec3) Load 195(u16v)
+ 209:193(i16vec3) Not 208
Store 195(u16v) 209
- 210: 14(int) Load 200(i16)
+ 210: 14(int16_t) Load 200(i16)
Store 200(i16) 210
- 211: 193(ivec3) Load 195(u16v)
- 212: 193(ivec3) SNegate 211
+ 211:193(i16vec3) Load 195(u16v)
+ 212:193(i16vec3) SNegate 211
Store 195(u16v) 212
- 213: 14(int) Load 200(i16)
- 214: 14(int) Load 200(i16)
- 215: 14(int) IAdd 214 213
+ 213: 14(int16_t) Load 200(i16)
+ 214: 14(int16_t) Load 200(i16)
+ 215: 14(int16_t) IAdd 214 213
Store 200(i16) 215
- 216: 193(ivec3) Load 195(u16v)
- 217: 193(ivec3) Load 195(u16v)
- 218: 193(ivec3) ISub 217 216
+ 216:193(i16vec3) Load 195(u16v)
+ 217:193(i16vec3) Load 195(u16v)
+ 218:193(i16vec3) ISub 217 216
Store 195(u16v) 218
- 221: 14(int) Load 200(i16)
+ 221: 14(int16_t) Load 200(i16)
222: 27(int) SConvert 221
223: 27(int) Load 220(i)
224: 27(int) IMul 223 222
Store 220(i) 224
- 228: 193(ivec3) Load 195(u16v)
+ 228:193(i16vec3) Load 195(u16v)
229: 225(ivec3) UConvert 228
230: 225(ivec3) Load 227(uv)
231: 225(ivec3) UDiv 230 229
Store 227(uv) 231
- 232: 14(int) Load 200(i16)
+ 232: 14(int16_t) Load 200(i16)
233: 27(int) SConvert 232
234: 17(int) Bitcast 233
235: 225(ivec3) Load 227(uv)
236: 225(ivec3) CompositeConstruct 234 234 234
237: 225(ivec3) UMod 235 236
Store 227(uv) 237
- 238: 193(ivec3) Load 195(u16v)
+ 238:193(i16vec3) Load 195(u16v)
239: 225(ivec3) UConvert 238
240: 225(ivec3) Load 227(uv)
241: 225(ivec3) IAdd 239 240
Store 227(uv) 241
- 244: 14(int) Load 200(i16)
- 245: 71(int) SConvert 244
- 246: 71(int) Load 243(i64)
- 247: 71(int) ISub 245 246
+ 244: 14(int16_t) Load 200(i16)
+ 245: 71(int64_t) SConvert 244
+ 246: 71(int64_t) Load 243(i64)
+ 247: 71(int64_t) ISub 245 246
Store 243(i64) 247
- 248: 193(ivec3) Load 195(u16v)
+ 248:193(i16vec3) Load 195(u16v)
249: 225(ivec3) UConvert 248
250: 225(ivec3) Load 227(uv)
251: 225(ivec3) IMul 249 250
Store 227(uv) 251
- 252: 14(int) Load 200(i16)
- 253: 71(int) SConvert 252
- 254: 71(int) Load 243(i64)
- 255: 71(int) IMul 253 254
+ 252: 14(int16_t) Load 200(i16)
+ 253: 71(int64_t) SConvert 252
+ 254: 71(int64_t) Load 243(i64)
+ 255: 71(int64_t) IMul 253 254
Store 243(i64) 255
- 256: 14(int) Load 200(i16)
+ 256: 14(int16_t) Load 200(i16)
257: 27(int) SConvert 256
258: 27(int) Load 220(i)
259: 27(int) SMod 257 258
Store 220(i) 259
- 260: 14(int) Load 200(i16)
- 261: 193(ivec3) Load 195(u16v)
- 262: 197(ivec3) CompositeConstruct 260 260 260
- 263: 193(ivec3) ShiftLeftLogical 261 262
+ 260: 14(int16_t) Load 200(i16)
+ 261:193(i16vec3) Load 195(u16v)
+ 262:197(i16vec3) CompositeConstruct 260 260 260
+ 263:193(i16vec3) ShiftLeftLogical 261 262
Store 195(u16v) 263
265: 37(ptr) AccessChain 195(u16v) 264
- 266: 36(int) Load 265
- 267: 14(int) Load 200(i16)
- 268: 14(int) ShiftRightArithmetic 267 266
+ 266: 36(int16_t) Load 265
+ 267: 14(int16_t) Load 200(i16)
+ 268: 14(int16_t) ShiftRightArithmetic 267 266
Store 200(i16) 268
- 269: 14(int) Load 200(i16)
+ 269: 14(int16_t) Load 200(i16)
271: 37(ptr) AccessChain 195(u16v) 270
- 272: 36(int) Load 271
- 273: 14(int) ShiftLeftLogical 269 272
+ 272: 36(int16_t) Load 271
+ 273: 14(int16_t) ShiftLeftLogical 269 272
Store 200(i16) 273
- 274: 193(ivec3) Load 195(u16v)
+ 274:193(i16vec3) Load 195(u16v)
275: 27(int) Load 220(i)
277: 276(ivec3) CompositeConstruct 275 275 275
- 278: 193(ivec3) ShiftLeftLogical 274 277
+ 278:193(i16vec3) ShiftLeftLogical 274 277
279: 225(ivec3) UConvert 278
Store 227(uv) 279
283: 37(ptr) AccessChain 195(u16v) 282
- 284: 36(int) Load 283
- 285: 14(int) Load 200(i16)
- 286: 36(int) Bitcast 285
+ 284: 36(int16_t) Load 283
+ 285: 14(int16_t) Load 200(i16)
+ 286: 36(int16_t) Bitcast 285
287: 173(bool) INotEqual 284 286
Store 281(b) 287
- 288: 14(int) Load 200(i16)
- 289: 36(int) Bitcast 288
+ 288: 14(int16_t) Load 200(i16)
+ 289: 36(int16_t) Bitcast 288
290: 37(ptr) AccessChain 195(u16v) 282
- 291: 36(int) Load 290
+ 291: 36(int16_t) Load 290
292: 173(bool) IEqual 289 291
Store 281(b) 292
293: 37(ptr) AccessChain 195(u16v) 282
- 294: 36(int) Load 293
+ 294: 36(int16_t) Load 293
295: 17(int) UConvert 294
297: 296(ptr) AccessChain 227(uv) 264
298: 17(int) Load 297
299: 173(bool) UGreaterThan 295 298
Store 281(b) 299
- 300: 14(int) Load 200(i16)
+ 300: 14(int16_t) Load 200(i16)
301: 27(int) SConvert 300
302: 27(int) Load 220(i)
303: 173(bool) SLessThan 301 302
Store 281(b) 303
304: 37(ptr) AccessChain 195(u16v) 264
- 305: 36(int) Load 304
+ 305: 36(int16_t) Load 304
306: 17(int) UConvert 305
307: 296(ptr) AccessChain 227(uv) 282
308: 17(int) Load 307
309: 173(bool) UGreaterThanEqual 306 308
Store 281(b) 309
- 310: 14(int) Load 200(i16)
+ 310: 14(int16_t) Load 200(i16)
311: 27(int) SConvert 310
312: 27(int) Load 220(i)
313: 173(bool) SLessThanEqual 311 312
Store 281(b) 313
- 314: 14(int) Load 200(i16)
+ 314: 14(int16_t) Load 200(i16)
315: 27(int) SConvert 314
316: 17(int) Bitcast 315
317: 225(ivec3) Load 227(uv)
318: 225(ivec3) CompositeConstruct 316 316 316
319: 225(ivec3) BitwiseOr 317 318
Store 227(uv) 319
- 320: 14(int) Load 200(i16)
+ 320: 14(int16_t) Load 200(i16)
321: 27(int) SConvert 320
322: 27(int) Load 220(i)
323: 27(int) BitwiseOr 321 322
Store 220(i) 323
- 324: 14(int) Load 200(i16)
- 325: 71(int) SConvert 324
- 326: 71(int) Load 243(i64)
- 327: 71(int) BitwiseAnd 326 325
+ 324: 14(int16_t) Load 200(i16)
+ 325: 71(int64_t) SConvert 324
+ 326: 71(int64_t) Load 243(i64)
+ 327: 71(int64_t) BitwiseAnd 326 325
Store 243(i64) 327
- 328: 193(ivec3) Load 195(u16v)
+ 328:193(i16vec3) Load 195(u16v)
329: 225(ivec3) UConvert 328
330: 225(ivec3) Load 227(uv)
331: 225(ivec3) BitwiseAnd 329 330
Store 227(uv) 331
- 332: 14(int) Load 200(i16)
+ 332: 14(int16_t) Load 200(i16)
333: 27(int) SConvert 332
334: 17(int) Bitcast 333
335: 225(ivec3) Load 227(uv)
336: 225(ivec3) CompositeConstruct 334 334 334
337: 225(ivec3) BitwiseXor 335 336
Store 227(uv) 337
- 338: 193(ivec3) Load 195(u16v)
- 339: 14(int) Load 200(i16)
- 340: 36(int) Bitcast 339
- 341: 193(ivec3) CompositeConstruct 340 340 340
- 342: 193(ivec3) BitwiseXor 338 341
+ 338:193(i16vec3) Load 195(u16v)
+ 339: 14(int16_t) Load 200(i16)
+ 340: 36(int16_t) Bitcast 339
+ 341:193(i16vec3) CompositeConstruct 340 340 340
+ 342:193(i16vec3) BitwiseXor 338 341
Store 195(u16v) 342
Return
FunctionEnd
@@ -552,190 +552,190 @@ spv.int16.frag
442(u64): 441(ptr) Variable Function
445(u16v4): 444(ptr) Variable Function
457(bv): 456(ptr) Variable Function
- 344: 52(ivec2) Load 343(i16v)
- 345: 52(ivec2) ExtInst 1(GLSL.std.450) 5(SAbs) 344
+ 344: 52(i16vec2) Load 343(i16v)
+ 345: 52(i16vec2) ExtInst 1(GLSL.std.450) 5(SAbs) 344
Store 343(i16v) 345
- 347: 14(int) Load 346(i16)
- 348: 14(int) ExtInst 1(GLSL.std.450) 7(SSign) 347
+ 347: 14(int16_t) Load 346(i16)
+ 348: 14(int16_t) ExtInst 1(GLSL.std.450) 7(SSign) 347
Store 346(i16) 348
- 349: 52(ivec2) Load 343(i16v)
- 350: 14(int) Load 346(i16)
- 351: 52(ivec2) CompositeConstruct 350 350
- 352: 52(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 349 351
+ 349: 52(i16vec2) Load 343(i16v)
+ 350: 14(int16_t) Load 346(i16)
+ 351: 52(i16vec2) CompositeConstruct 350 350
+ 352: 52(i16vec2) ExtInst 1(GLSL.std.450) 39(SMin) 349 351
Store 343(i16v) 352
- 353: 52(ivec2) Load 343(i16v)
- 355: 52(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 353 354
+ 353: 52(i16vec2) Load 343(i16v)
+ 355: 52(i16vec2) ExtInst 1(GLSL.std.450) 39(SMin) 353 354
Store 343(i16v) 355
- 357: 193(ivec3) Load 356(u16v)
- 359: 36(int) Load 358(u16)
- 360: 193(ivec3) CompositeConstruct 359 359 359
- 361: 193(ivec3) ExtInst 1(GLSL.std.450) 38(UMin) 357 360
+ 357:193(i16vec3) Load 356(u16v)
+ 359: 36(int16_t) Load 358(u16)
+ 360:193(i16vec3) CompositeConstruct 359 359 359
+ 361:193(i16vec3) ExtInst 1(GLSL.std.450) 38(UMin) 357 360
Store 356(u16v) 361
- 362: 193(ivec3) Load 356(u16v)
- 364: 193(ivec3) ExtInst 1(GLSL.std.450) 38(UMin) 362 363
+ 362:193(i16vec3) Load 356(u16v)
+ 364:193(i16vec3) ExtInst 1(GLSL.std.450) 38(UMin) 362 363
Store 356(u16v) 364
- 365: 52(ivec2) Load 343(i16v)
- 366: 14(int) Load 346(i16)
- 367: 52(ivec2) CompositeConstruct 366 366
- 368: 52(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 365 367
+ 365: 52(i16vec2) Load 343(i16v)
+ 366: 14(int16_t) Load 346(i16)
+ 367: 52(i16vec2) CompositeConstruct 366 366
+ 368: 52(i16vec2) ExtInst 1(GLSL.std.450) 42(SMax) 365 367
Store 343(i16v) 368
- 369: 52(ivec2) Load 343(i16v)
- 370: 52(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 369 354
+ 369: 52(i16vec2) Load 343(i16v)
+ 370: 52(i16vec2) ExtInst 1(GLSL.std.450) 42(SMax) 369 354
Store 343(i16v) 370
- 371: 193(ivec3) Load 356(u16v)
- 372: 36(int) Load 358(u16)
- 373: 193(ivec3) CompositeConstruct 372 372 372
- 374: 193(ivec3) ExtInst 1(GLSL.std.450) 41(UMax) 371 373
+ 371:193(i16vec3) Load 356(u16v)
+ 372: 36(int16_t) Load 358(u16)
+ 373:193(i16vec3) CompositeConstruct 372 372 372
+ 374:193(i16vec3) ExtInst 1(GLSL.std.450) 41(UMax) 371 373
Store 356(u16v) 374
- 375: 193(ivec3) Load 356(u16v)
- 376: 193(ivec3) ExtInst 1(GLSL.std.450) 41(UMax) 375 363
+ 375:193(i16vec3) Load 356(u16v)
+ 376:193(i16vec3) ExtInst 1(GLSL.std.450) 41(UMax) 375 363
Store 356(u16v) 376
- 377: 52(ivec2) Load 343(i16v)
- 378: 14(int) Load 346(i16)
- 379: 14(int) SNegate 378
- 380: 14(int) Load 346(i16)
- 381: 52(ivec2) CompositeConstruct 379 379
- 382: 52(ivec2) CompositeConstruct 380 380
- 383: 52(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 377 381 382
+ 377: 52(i16vec2) Load 343(i16v)
+ 378: 14(int16_t) Load 346(i16)
+ 379: 14(int16_t) SNegate 378
+ 380: 14(int16_t) Load 346(i16)
+ 381: 52(i16vec2) CompositeConstruct 379 379
+ 382: 52(i16vec2) CompositeConstruct 380 380
+ 383: 52(i16vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 377 381 382
Store 343(i16v) 383
- 384: 52(ivec2) Load 343(i16v)
- 385: 52(ivec2) Load 343(i16v)
- 386: 52(ivec2) SNegate 385
- 387: 52(ivec2) Load 343(i16v)
- 388: 52(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 384 386 387
+ 384: 52(i16vec2) Load 343(i16v)
+ 385: 52(i16vec2) Load 343(i16v)
+ 386: 52(i16vec2) SNegate 385
+ 387: 52(i16vec2) Load 343(i16v)
+ 388: 52(i16vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 384 386 387
Store 343(i16v) 388
- 389: 193(ivec3) Load 356(u16v)
- 390: 36(int) Load 358(u16)
- 391: 36(int) SNegate 390
- 392: 36(int) Load 358(u16)
- 393: 193(ivec3) CompositeConstruct 391 391 391
- 394: 193(ivec3) CompositeConstruct 392 392 392
- 395: 193(ivec3) ExtInst 1(GLSL.std.450) 44(UClamp) 389 393 394
+ 389:193(i16vec3) Load 356(u16v)
+ 390: 36(int16_t) Load 358(u16)
+ 391: 36(int16_t) SNegate 390
+ 392: 36(int16_t) Load 358(u16)
+ 393:193(i16vec3) CompositeConstruct 391 391 391
+ 394:193(i16vec3) CompositeConstruct 392 392 392
+ 395:193(i16vec3) ExtInst 1(GLSL.std.450) 44(UClamp) 389 393 394
Store 356(u16v) 395
- 396: 193(ivec3) Load 356(u16v)
- 397: 193(ivec3) Load 356(u16v)
- 398: 193(ivec3) SNegate 397
- 399: 193(ivec3) Load 356(u16v)
- 400: 193(ivec3) ExtInst 1(GLSL.std.450) 44(UClamp) 396 398 399
+ 396:193(i16vec3) Load 356(u16v)
+ 397:193(i16vec3) Load 356(u16v)
+ 398:193(i16vec3) SNegate 397
+ 399:193(i16vec3) Load 356(u16v)
+ 400:193(i16vec3) ExtInst 1(GLSL.std.450) 44(UClamp) 396 398 399
Store 356(u16v) 400
401: 15(ptr) AccessChain 343(i16v) 282
- 402: 14(int) Load 401
+ 402: 14(int16_t) Load 401
403: 15(ptr) AccessChain 343(i16v) 264
- 404: 14(int) Load 403
- 406: 14(int) Select 405 404 402
+ 404: 14(int16_t) Load 403
+ 406: 14(int16_t) Select 405 404 402
Store 346(i16) 406
- 407: 14(int) Load 346(i16)
- 408: 52(ivec2) CompositeConstruct 407 407
- 409: 14(int) Load 346(i16)
- 410: 14(int) SNegate 409
- 411: 52(ivec2) CompositeConstruct 410 410
- 414: 52(ivec2) Select 413 411 408
+ 407: 14(int16_t) Load 346(i16)
+ 408: 52(i16vec2) CompositeConstruct 407 407
+ 409: 14(int16_t) Load 346(i16)
+ 410: 14(int16_t) SNegate 409
+ 411: 52(i16vec2) CompositeConstruct 410 410
+ 414: 52(i16vec2) Select 413 411 408
Store 343(i16v) 414
415: 37(ptr) AccessChain 356(u16v) 282
- 416: 36(int) Load 415
+ 416: 36(int16_t) Load 415
417: 37(ptr) AccessChain 356(u16v) 264
- 418: 36(int) Load 417
- 419: 36(int) Select 405 418 416
+ 418: 36(int16_t) Load 417
+ 419: 36(int16_t) Select 405 418 416
Store 358(u16) 419
- 420: 36(int) Load 358(u16)
- 421: 193(ivec3) CompositeConstruct 420 420 420
- 422: 36(int) Load 358(u16)
- 423: 36(int) SNegate 422
- 424: 193(ivec3) CompositeConstruct 423 423 423
- 427: 193(ivec3) Select 426 424 421
+ 420: 36(int16_t) Load 358(u16)
+ 421:193(i16vec3) CompositeConstruct 420 420 420
+ 422: 36(int16_t) Load 358(u16)
+ 423: 36(int16_t) SNegate 422
+ 424:193(i16vec3) CompositeConstruct 423 423 423
+ 427:193(i16vec3) Select 426 424 421
Store 356(u16v) 427
- 429: 52(ivec2) Load 343(i16v)
+ 429: 52(i16vec2) Load 343(i16v)
430: 27(int) Bitcast 429
Store 428(i32) 430
- 435: 432(ivec4) Load 434(i16v4)
- 436: 71(int) Bitcast 435
+ 435:432(i16vec4) Load 434(i16v4)
+ 436: 71(int64_t) Bitcast 435
Store 431(i64) 436
- 439: 57(ivec2) Load 438(u16v2)
+ 439: 57(i16vec2) Load 438(u16v2)
440: 17(int) Bitcast 439
Store 437(u32) 440
- 446: 443(ivec4) Load 445(u16v4)
- 447: 77(int) Bitcast 446
+ 446:443(i16vec4) Load 445(u16v4)
+ 447: 77(int64_t) Bitcast 446
Store 442(u64) 447
448: 27(int) Load 428(i32)
- 449: 52(ivec2) Bitcast 448
+ 449: 52(i16vec2) Bitcast 448
Store 343(i16v) 449
- 450: 71(int) Load 431(i64)
- 451: 432(ivec4) Bitcast 450
+ 450: 71(int64_t) Load 431(i64)
+ 451:432(i16vec4) Bitcast 450
Store 434(i16v4) 451
452: 17(int) Load 437(u32)
- 453: 57(ivec2) Bitcast 452
+ 453: 57(i16vec2) Bitcast 452
Store 438(u16v2) 453
- 454: 77(int) Load 442(u64)
- 455: 443(ivec4) Bitcast 454
+ 454: 77(int64_t) Load 442(u64)
+ 455:443(i16vec4) Bitcast 454
Store 445(u16v4) 455
- 458: 193(ivec3) Load 356(u16v)
- 459: 36(int) Load 358(u16)
- 460: 193(ivec3) CompositeConstruct 459 459 459
+ 458:193(i16vec3) Load 356(u16v)
+ 459: 36(int16_t) Load 358(u16)
+ 460:193(i16vec3) CompositeConstruct 459 459 459
461: 425(bvec3) ULessThan 458 460
Store 457(bv) 461
- 462: 52(ivec2) Load 343(i16v)
- 463: 14(int) Load 346(i16)
- 464: 52(ivec2) CompositeConstruct 463 463
+ 462: 52(i16vec2) Load 343(i16v)
+ 463: 14(int16_t) Load 346(i16)
+ 464: 52(i16vec2) CompositeConstruct 463 463
465: 174(bvec2) SLessThan 462 464
466: 425(bvec3) Load 457(bv)
467: 425(bvec3) VectorShuffle 466 465 3 4 2
Store 457(bv) 467
- 468: 193(ivec3) Load 356(u16v)
- 469: 36(int) Load 358(u16)
- 470: 193(ivec3) CompositeConstruct 469 469 469
+ 468:193(i16vec3) Load 356(u16v)
+ 469: 36(int16_t) Load 358(u16)
+ 470:193(i16vec3) CompositeConstruct 469 469 469
471: 425(bvec3) ULessThanEqual 468 470
Store 457(bv) 471
- 472: 52(ivec2) Load 343(i16v)
- 473: 14(int) Load 346(i16)
- 474: 52(ivec2) CompositeConstruct 473 473
+ 472: 52(i16vec2) Load 343(i16v)
+ 473: 14(int16_t) Load 346(i16)
+ 474: 52(i16vec2) CompositeConstruct 473 473
475: 174(bvec2) SLessThanEqual 472 474
476: 425(bvec3) Load 457(bv)
477: 425(bvec3) VectorShuffle 476 475 3 4 2
Store 457(bv) 477
- 478: 193(ivec3) Load 356(u16v)
- 479: 36(int) Load 358(u16)
- 480: 193(ivec3) CompositeConstruct 479 479 479
+ 478:193(i16vec3) Load 356(u16v)
+ 479: 36(int16_t) Load 358(u16)
+ 480:193(i16vec3) CompositeConstruct 479 479 479
481: 425(bvec3) UGreaterThan 478 480
Store 457(bv) 481
- 482: 52(ivec2) Load 343(i16v)
- 483: 14(int) Load 346(i16)
- 484: 52(ivec2) CompositeConstruct 483 483
+ 482: 52(i16vec2) Load 343(i16v)
+ 483: 14(int16_t) Load 346(i16)
+ 484: 52(i16vec2) CompositeConstruct 483 483
485: 174(bvec2) SGreaterThan 482 484
486: 425(bvec3) Load 457(bv)
487: 425(bvec3) VectorShuffle 486 485 3 4 2
Store 457(bv) 487
- 488: 193(ivec3) Load 356(u16v)
- 489: 36(int) Load 358(u16)
- 490: 193(ivec3) CompositeConstruct 489 489 489
+ 488:193(i16vec3) Load 356(u16v)
+ 489: 36(int16_t) Load 358(u16)
+ 490:193(i16vec3) CompositeConstruct 489 489 489
491: 425(bvec3) UGreaterThanEqual 488 490
Store 457(bv) 491
- 492: 52(ivec2) Load 343(i16v)
- 493: 14(int) Load 346(i16)
- 494: 52(ivec2) CompositeConstruct 493 493
+ 492: 52(i16vec2) Load 343(i16v)
+ 493: 14(int16_t) Load 346(i16)
+ 494: 52(i16vec2) CompositeConstruct 493 493
495: 174(bvec2) SGreaterThanEqual 492 494
496: 425(bvec3) Load 457(bv)
497: 425(bvec3) VectorShuffle 496 495 3 4 2
Store 457(bv) 497
- 498: 193(ivec3) Load 356(u16v)
- 499: 36(int) Load 358(u16)
- 500: 193(ivec3) CompositeConstruct 499 499 499
+ 498:193(i16vec3) Load 356(u16v)
+ 499: 36(int16_t) Load 358(u16)
+ 500:193(i16vec3) CompositeConstruct 499 499 499
501: 425(bvec3) IEqual 498 500
Store 457(bv) 501
- 502: 52(ivec2) Load 343(i16v)
- 503: 14(int) Load 346(i16)
- 504: 52(ivec2) CompositeConstruct 503 503
+ 502: 52(i16vec2) Load 343(i16v)
+ 503: 14(int16_t) Load 346(i16)
+ 504: 52(i16vec2) CompositeConstruct 503 503
505: 174(bvec2) IEqual 502 504
506: 425(bvec3) Load 457(bv)
507: 425(bvec3) VectorShuffle 506 505 3 4 2
Store 457(bv) 507
- 508: 193(ivec3) Load 356(u16v)
- 509: 36(int) Load 358(u16)
- 510: 193(ivec3) CompositeConstruct 509 509 509
+ 508:193(i16vec3) Load 356(u16v)
+ 509: 36(int16_t) Load 358(u16)
+ 510:193(i16vec3) CompositeConstruct 509 509 509
511: 425(bvec3) INotEqual 508 510
Store 457(bv) 511
- 512: 52(ivec2) Load 343(i16v)
- 513: 14(int) Load 346(i16)
- 514: 52(ivec2) CompositeConstruct 513 513
+ 512: 52(i16vec2) Load 343(i16v)
+ 513: 14(int16_t) Load 346(i16)
+ 514: 52(i16vec2) CompositeConstruct 513 513
515: 174(bvec2) INotEqual 512 514
516: 425(bvec3) Load 457(bv)
517: 425(bvec3) VectorShuffle 516 515 3 4 2
diff --git a/Test/baseResults/spv.int32.frag.out b/Test/baseResults/spv.int32.frag.out
index c615672f..c91d8a59 100644
--- a/Test/baseResults/spv.int32.frag.out
+++ b/Test/baseResults/spv.int32.frag.out
@@ -130,32 +130,32 @@ spv.int32.frag
52: TypeVector 18(int) 2
53: TypePointer Function 52(ivec2)
57: TypeInt 64 1
- 58: TypeVector 57(int) 2
- 59: TypePointer Function 58(ivec2)
+ 58: TypeVector 57(int64_t) 2
+ 59: TypePointer Function 58(i64vec2)
63: TypeInt 64 0
- 64: TypeVector 63(int) 2
- 65: TypePointer Function 64(ivec2)
+ 64: TypeVector 63(int64_t) 2
+ 65: TypePointer Function 64(i64vec2)
75: TypeFloat 32
76: TypeVector 75(float) 2
77: TypePointer Function 76(fvec2)
81: TypeFloat 64
- 82: TypeVector 81(float) 2
- 83: TypePointer Function 82(fvec2)
+ 82: TypeVector 81(float64_t) 2
+ 83: TypePointer Function 82(f64vec2)
91: TypeInt 8 1
- 92: TypeVector 91(int) 2
- 93: TypePointer Function 92(ivec2)
+ 92: TypeVector 91(int8_t) 2
+ 93: TypePointer Function 92(i8vec2)
100: TypeInt 16 1
- 101: TypeVector 100(int) 2
- 102: TypePointer Function 101(ivec2)
+ 101: TypeVector 100(int16_t) 2
+ 102: TypePointer Function 101(i16vec2)
120: TypeInt 8 0
- 121: TypeVector 120(int) 2
- 122: TypePointer Function 121(ivec2)
+ 121: TypeVector 120(int8_t) 2
+ 122: TypePointer Function 121(i8vec2)
129: TypeInt 16 0
- 130: TypeVector 129(int) 2
- 131: TypePointer Function 130(ivec2)
+ 130: TypeVector 129(int16_t) 2
+ 131: TypePointer Function 130(i16vec2)
149: TypeFloat 16
- 150: TypeVector 149(float) 2
- 151: TypePointer Function 150(fvec2)
+ 150: TypeVector 149(float16_t) 2
+ 151: TypePointer Function 150(f16vec2)
165: TypeBool
166: TypeVector 165(bool) 2
167: TypePointer Function 166(bvec2)
@@ -169,7 +169,7 @@ spv.int32.frag
184: TypeVector 14(int) 3
185: TypePointer Function 184(ivec3)
188: TypeVector 18(int) 3
- 226: TypePointer Function 57(int)
+ 226: TypePointer Function 57(int64_t)
251: 14(int) Constant 2
259: TypePointer Function 165(bool)
323: 52(ivec2) ConstantComposite 24 24
@@ -179,11 +179,11 @@ spv.int32.frag
382: 166(bvec2) ConstantComposite 381 381
394: TypeVector 165(bool) 3
395: 394(bvec3) ConstantComposite 381 381 381
- 397: TypeVector 91(int) 4
- 398: TypePointer Function 397(ivec4)
- 405: TypeVector 120(int) 4
- 406: TypePointer Function 405(ivec4)
- 417: TypePointer Function 63(int)
+ 397: TypeVector 91(int8_t) 4
+ 398: TypePointer Function 397(i8vec4)
+ 405: TypeVector 120(int8_t) 4
+ 406: TypePointer Function 405(i8vec4)
+ 417: TypePointer Function 63(int64_t)
421: TypePointer Function 394(bvec3)
483: TypeVector 18(int) 4
484: TypeVector 14(int) 4
@@ -238,44 +238,44 @@ spv.int32.frag
56: 49(ivec2) Bitcast 55
Store 51(u32v) 56
61: 52(ivec2) Load 54(i32v)
- 62: 58(ivec2) SConvert 61
+ 62: 58(i64vec2) SConvert 61
Store 60(i64v) 62
67: 52(ivec2) Load 54(i32v)
- 68: 58(ivec2) SConvert 67
- 69: 64(ivec2) Bitcast 68
+ 68: 58(i64vec2) SConvert 67
+ 69: 64(i64vec2) Bitcast 68
Store 66(u64v) 69
70: 49(ivec2) Load 51(u32v)
- 71: 58(ivec2) UConvert 70
- 72: 58(ivec2) Bitcast 71
+ 71: 58(i64vec2) UConvert 70
+ 72: 58(i64vec2) Bitcast 71
Store 60(i64v) 72
73: 49(ivec2) Load 51(u32v)
- 74: 64(ivec2) UConvert 73
+ 74: 64(i64vec2) UConvert 73
Store 66(u64v) 74
79: 52(ivec2) Load 54(i32v)
80: 76(fvec2) ConvertSToF 79
Store 78(f32v) 80
85: 52(ivec2) Load 54(i32v)
- 86: 82(fvec2) ConvertSToF 85
+ 86: 82(f64vec2) ConvertSToF 85
Store 84(f64v) 86
87: 49(ivec2) Load 51(u32v)
88: 76(fvec2) ConvertUToF 87
Store 78(f32v) 88
89: 49(ivec2) Load 51(u32v)
- 90: 82(fvec2) ConvertUToF 89
+ 90: 82(f64vec2) ConvertUToF 89
Store 84(f64v) 90
95: 52(ivec2) Load 54(i32v)
- 96: 92(ivec2) SConvert 95
+ 96: 92(i8vec2) SConvert 95
Store 94(i8v) 96
97: 49(ivec2) Load 51(u32v)
- 98: 92(ivec2) UConvert 97
- 99: 92(ivec2) Bitcast 98
+ 98: 92(i8vec2) UConvert 97
+ 99: 92(i8vec2) Bitcast 98
Store 94(i8v) 99
104: 52(ivec2) Load 54(i32v)
- 105: 101(ivec2) SConvert 104
+ 105:101(i16vec2) SConvert 104
Store 103(i16v) 105
106: 49(ivec2) Load 51(u32v)
- 107: 101(ivec2) UConvert 106
- 108: 101(ivec2) Bitcast 107
+ 107:101(i16vec2) UConvert 106
+ 108:101(i16vec2) Bitcast 107
Store 103(i16v) 108
109: 52(ivec2) Load 54(i32v)
110: 18(int) CompositeExtract 109 0
@@ -286,25 +286,25 @@ spv.int32.frag
114: 52(ivec2) Bitcast 113
Store 54(i32v) 114
115: 52(ivec2) Load 54(i32v)
- 116: 58(ivec2) SConvert 115
+ 116: 58(i64vec2) SConvert 115
Store 60(i64v) 116
117: 49(ivec2) Load 51(u32v)
- 118: 58(ivec2) UConvert 117
- 119: 58(ivec2) Bitcast 118
+ 118: 58(i64vec2) UConvert 117
+ 119: 58(i64vec2) Bitcast 118
Store 60(i64v) 119
124: 52(ivec2) Load 54(i32v)
- 125: 92(ivec2) SConvert 124
- 126: 121(ivec2) Bitcast 125
+ 125: 92(i8vec2) SConvert 124
+ 126: 121(i8vec2) Bitcast 125
Store 123(u8v) 126
127: 49(ivec2) Load 51(u32v)
- 128: 121(ivec2) UConvert 127
+ 128: 121(i8vec2) UConvert 127
Store 123(u8v) 128
133: 52(ivec2) Load 54(i32v)
- 134: 101(ivec2) SConvert 133
- 135: 130(ivec2) Bitcast 134
+ 134:101(i16vec2) SConvert 133
+ 135:130(i16vec2) Bitcast 134
Store 132(u16v) 135
136: 49(ivec2) Load 51(u32v)
- 137: 130(ivec2) UConvert 136
+ 137:130(i16vec2) UConvert 136
Store 132(u16v) 137
138: 52(ivec2) Load 54(i32v)
139: 49(ivec2) Bitcast 138
@@ -315,29 +315,29 @@ spv.int32.frag
143: 49(ivec2) CompositeConstruct 141 142
Store 51(u32v) 143
144: 52(ivec2) Load 54(i32v)
- 145: 58(ivec2) SConvert 144
- 146: 64(ivec2) Bitcast 145
+ 145: 58(i64vec2) SConvert 144
+ 146: 64(i64vec2) Bitcast 145
Store 66(u64v) 146
147: 49(ivec2) Load 51(u32v)
- 148: 64(ivec2) UConvert 147
+ 148: 64(i64vec2) UConvert 147
Store 66(u64v) 148
153: 52(ivec2) Load 54(i32v)
- 154: 150(fvec2) ConvertSToF 153
+ 154:150(f16vec2) ConvertSToF 153
Store 152(f16v) 154
155: 52(ivec2) Load 54(i32v)
156: 76(fvec2) ConvertSToF 155
Store 78(f32v) 156
157: 52(ivec2) Load 54(i32v)
- 158: 82(fvec2) ConvertSToF 157
+ 158: 82(f64vec2) ConvertSToF 157
Store 84(f64v) 158
159: 49(ivec2) Load 51(u32v)
- 160: 150(fvec2) ConvertUToF 159
+ 160:150(f16vec2) ConvertUToF 159
Store 152(f16v) 160
161: 49(ivec2) Load 51(u32v)
162: 76(fvec2) ConvertUToF 161
Store 78(f32v) 162
163: 49(ivec2) Load 51(u32v)
- 164: 82(fvec2) ConvertUToF 163
+ 164: 82(f64vec2) ConvertUToF 163
Store 84(f64v) 164
169: 166(bvec2) Load 168(bv)
173: 52(ivec2) Select 169 172 171
@@ -410,18 +410,18 @@ spv.int32.frag
225: 184(ivec3) IAdd 223 224
Store 214(uv) 225
228: 18(int) Load 191(i32)
- 229: 57(int) SConvert 228
- 230: 57(int) Load 227(i64)
- 231: 57(int) ISub 229 230
+ 229: 57(int64_t) SConvert 228
+ 230: 57(int64_t) Load 227(i64)
+ 231: 57(int64_t) ISub 229 230
Store 227(i64) 231
232: 184(ivec3) Load 186(u32v)
233: 184(ivec3) Load 214(uv)
234: 184(ivec3) IMul 232 233
Store 214(uv) 234
235: 18(int) Load 191(i32)
- 236: 57(int) SConvert 235
- 237: 57(int) Load 227(i64)
- 238: 57(int) IMul 236 237
+ 236: 57(int64_t) SConvert 235
+ 237: 57(int64_t) Load 227(i64)
+ 238: 57(int64_t) IMul 236 237
Store 227(i64) 238
239: 18(int) Load 191(i32)
240: 18(int) Load 210(i)
@@ -437,10 +437,10 @@ spv.int32.frag
248: 18(int) Load 191(i32)
249: 18(int) ShiftRightArithmetic 248 247
Store 191(i32) 249
- 250: 57(int) Load 227(i64)
+ 250: 57(int64_t) Load 227(i64)
252: 38(ptr) AccessChain 186(u32v) 251
253: 14(int) Load 252
- 254: 57(int) ShiftLeftLogical 250 253
+ 254: 57(int64_t) ShiftLeftLogical 250 253
Store 227(i64) 254
255: 184(ivec3) Load 186(u32v)
256: 18(int) Load 210(i)
@@ -490,9 +490,9 @@ spv.int32.frag
294: 18(int) BitwiseOr 292 293
Store 210(i) 294
295: 18(int) Load 191(i32)
- 296: 57(int) SConvert 295
- 297: 57(int) Load 227(i64)
- 298: 57(int) BitwiseAnd 297 296
+ 296: 57(int64_t) SConvert 295
+ 297: 57(int64_t) Load 227(i64)
+ 298: 57(int64_t) BitwiseAnd 297 296
Store 227(i64) 298
299: 184(ivec3) Load 186(u32v)
300: 184(ivec3) Load 214(uv)
@@ -618,22 +618,22 @@ spv.int32.frag
393: 184(ivec3) CompositeConstruct 392 392 392
396: 184(ivec3) Select 395 393 390
Store 325(u32v) 396
- 400: 397(ivec4) Load 399(i8v4)
+ 400: 397(i8vec4) Load 399(i8v4)
401: 18(int) Bitcast 400
Store 315(i32) 401
- 403: 101(ivec2) Load 402(i16v2)
+ 403:101(i16vec2) Load 402(i16v2)
404: 18(int) Bitcast 403
Store 315(i32) 404
- 408: 405(ivec4) Load 407(u8v4)
+ 408: 405(i8vec4) Load 407(u8v4)
409: 14(int) Bitcast 408
Store 327(u32) 409
- 411: 130(ivec2) Load 410(u16v2)
+ 411:130(i16vec2) Load 410(u16v2)
412: 14(int) Bitcast 411
Store 327(u32) 412
- 414: 57(int) Load 413(i64)
+ 414: 57(int64_t) Load 413(i64)
415: 52(ivec2) Bitcast 414
Store 312(i32v) 415
- 419: 63(int) Load 418(u64)
+ 419: 63(int64_t) Load 418(u64)
420: 49(ivec2) Bitcast 419
Store 416(u32v2) 420
423: 184(ivec3) Load 325(u32v)
diff --git a/Test/baseResults/spv.int64.frag.out b/Test/baseResults/spv.int64.frag.out
index 598fc94f..54aa0d61 100644
--- a/Test/baseResults/spv.int64.frag.out
+++ b/Test/baseResults/spv.int64.frag.out
@@ -72,17 +72,17 @@ spv.int64.frag
2: TypeVoid
3: TypeFunction 2
14: TypeInt 64 0
- 15: TypePointer Private 14(int)
+ 15: TypePointer Private 14(int64_t)
16(u64Max): 15(ptr) Variable Private
- 17: 14(int) Constant 4294967295 4294967295
+ 17: 14(int64_t) Constant 4294967295 4294967295
18: TypeInt 64 1
- 19: TypePointer Function 18(int)
+ 19: TypePointer Function 18(int64_t)
21: TypeInt 32 0
22: 21(int) Constant 3
- 23: TypeArray 18(int) 22
- 24: 18(int) Constant 4008636143 4008636142
- 25: 18(int) Constant 4294967295 4294967295
- 26: 18(int) Constant 0 1
+ 23: TypeArray 18(int64_t) 22
+ 24: 18(int64_t) Constant 4008636143 4008636142
+ 25: 18(int64_t) Constant 4294967295 4294967295
+ 26: 18(int64_t) Constant 0 1
27: 23 ConstantComposite 24 25 26
28(Uniforms): TypeStruct 21(int)
29: TypePointer Uniform 28(Uniforms)
@@ -91,27 +91,27 @@ spv.int64.frag
32: 31(int) Constant 0
33: TypePointer Uniform 21(int)
36: TypePointer Function 23
- 40: TypePointer Function 14(int)
- 42: TypeArray 14(int) 22
- 43: 14(int) Constant 0 1
- 44: 14(int) Constant 4294967295 1
+ 40: TypePointer Function 14(int64_t)
+ 42: TypeArray 14(int64_t) 22
+ 43: 14(int64_t) Constant 0 1
+ 44: 14(int64_t) Constant 4294967295 1
45: 42 ConstantComposite 17 43 44
48: TypePointer Function 42
- 52: TypeVector 18(int) 2
- 53: TypePointer Function 52(ivec2)
+ 52: TypeVector 18(int64_t) 2
+ 53: TypePointer Function 52(i64vec2)
55: TypeBool
56: TypeVector 55(bool) 2
57: TypePointer Function 56(bvec2)
- 60: 18(int) Constant 0 0
- 61: 18(int) Constant 1 0
- 62: 52(ivec2) ConstantComposite 60 60
- 63: 52(ivec2) ConstantComposite 61 61
- 65: TypeVector 14(int) 2
- 66: TypePointer Function 65(ivec2)
- 69: 14(int) Constant 0 0
- 70: 14(int) Constant 1 0
- 71: 65(ivec2) ConstantComposite 69 69
- 72: 65(ivec2) ConstantComposite 70 70
+ 60: 18(int64_t) Constant 0 0
+ 61: 18(int64_t) Constant 1 0
+ 62: 52(i64vec2) ConstantComposite 60 60
+ 63: 52(i64vec2) ConstantComposite 61 61
+ 65: TypeVector 14(int64_t) 2
+ 66: TypePointer Function 65(i64vec2)
+ 69: 14(int64_t) Constant 0 0
+ 70: 14(int64_t) Constant 1 0
+ 71: 65(i64vec2) ConstantComposite 69 69
+ 72: 65(i64vec2) ConstantComposite 70 70
74: TypeVector 31(int) 2
75: TypePointer Function 74(ivec2)
81: TypeVector 21(int) 2
@@ -120,11 +120,11 @@ spv.int64.frag
89: TypeVector 88(float) 2
90: TypePointer Function 89(fvec2)
94: TypeFloat 64
- 95: TypeVector 94(float) 2
- 96: TypePointer Function 95(fvec2)
- 132: TypeVector 14(int) 3
- 133: TypePointer Function 132(ivec3)
- 136: TypeVector 18(int) 3
+ 95: TypeVector 94(float64_t) 2
+ 96: TypePointer Function 95(f64vec2)
+ 132: TypeVector 14(int64_t) 3
+ 133: TypePointer Function 132(i64vec3)
+ 136: TypeVector 18(int64_t) 3
158: TypePointer Function 31(int)
164: TypeVector 21(int) 3
165: TypePointer Function 164(ivec3)
@@ -134,47 +134,47 @@ spv.int64.frag
217: 21(int) Constant 2
225: TypePointer Function 55(bool)
227: 21(int) Constant 0
- 297: 52(ivec2) ConstantComposite 25 25
- 306: 132(ivec3) ConstantComposite 69 69 69
+ 297: 52(i64vec2) ConstantComposite 25 25
+ 306:132(i64vec3) ConstantComposite 69 69 69
348: 55(bool) ConstantTrue
355: 55(bool) ConstantFalse
356: 56(bvec2) ConstantComposite 355 355
368: TypeVector 55(bool) 3
369: 368(bvec3) ConstantComposite 355 355 355
- 371: TypeVector 94(float) 3
- 372: TypePointer Function 371(fvec3)
- 377: TypePointer Function 94(float)
+ 371: TypeVector 94(float64_t) 3
+ 372: TypePointer Function 371(f64vec3)
+ 377: TypePointer Function 94(float64_t)
388: 31(int) Constant 1
389: 31(int) Constant 2
390: 74(ivec2) ConstantComposite 388 389
395: 81(ivec2) ConstantComposite 217 22
400: TypePointer Function 368(bvec3)
- 462(Block): TypeStruct 136(ivec3) 14(int)
+ 462(Block): TypeStruct 136(i64vec3) 14(int64_t)
463: TypePointer Uniform 462(Block)
464(block): 463(ptr) Variable Uniform
- 465(si64): 18(int) SpecConstant 4294967286 4294967295
- 466(su64): 14(int) SpecConstant 20 0
+ 465(si64): 18(int64_t) SpecConstant 4294967286 4294967295
+ 466(su64): 14(int64_t) SpecConstant 20 0
467(si): 31(int) SpecConstant 4294967291
468(su): 21(int) SpecConstant 4
469(sb): 55(bool) SpecConstantTrue
470: 55(bool) SpecConstantOp 171 465(si64) 69
471: 55(bool) SpecConstantOp 171 466(su64) 69
- 472: 18(int) SpecConstantOp 169 469(sb) 61 60
- 473: 14(int) SpecConstantOp 169 469(sb) 70 69
+ 472: 18(int64_t) SpecConstantOp 169 469(sb) 61 60
+ 473: 14(int64_t) SpecConstantOp 169 469(sb) 70 69
474: 31(int) SpecConstantOp 114 465(si64)
- 475: 18(int) SpecConstantOp 114 467(si)
+ 475: 18(int64_t) SpecConstantOp 114 467(si)
476: 21(int) SpecConstantOp 113 466(su64)
- 477: 14(int) SpecConstantOp 113 468(su)
- 478: 18(int) SpecConstantOp 128 466(su64) 69
- 479: 14(int) SpecConstantOp 128 465(si64) 69
+ 477: 14(int64_t) SpecConstantOp 113 468(su)
+ 478: 18(int64_t) SpecConstantOp 128 466(su64) 69
+ 479: 14(int64_t) SpecConstantOp 128 465(si64) 69
480: 31(int) SpecConstantOp 113 466(su64)
481: 31(int) SpecConstantOp 128 480 227
- 482: 18(int) SpecConstantOp 114 467(si)
- 483: 14(int) SpecConstantOp 128 482 69
+ 482: 18(int64_t) SpecConstantOp 114 467(si)
+ 483: 14(int64_t) SpecConstantOp 128 482 69
484: 31(int) SpecConstantOp 114 465(si64)
485: 21(int) SpecConstantOp 128 484 227
- 486: 18(int) SpecConstantOp 113 468(su)
- 487: 18(int) SpecConstantOp 128 486 69
+ 486: 18(int64_t) SpecConstantOp 113 468(su)
+ 487: 18(int64_t) SpecConstantOp 128 486 69
4(main): 2 Function None 3
5: Label
Store 16(u64Max) 17
@@ -190,13 +190,13 @@ spv.int64.frag
35: 21(int) Load 34
Store 37(indexable) 27
38: 19(ptr) AccessChain 37(indexable) 35
- 39: 18(int) Load 38
+ 39: 18(int64_t) Load 38
Store 20(i64) 39
46: 33(ptr) AccessChain 30 32
47: 21(int) Load 46
Store 49(indexable) 45
50: 40(ptr) AccessChain 49(indexable) 47
- 51: 14(int) Load 50
+ 51: 14(int64_t) Load 50
Store 41(u64) 51
Return
FunctionEnd
@@ -210,74 +210,74 @@ spv.int64.frag
91(fv): 90(ptr) Variable Function
97(dv): 96(ptr) Variable Function
59: 56(bvec2) Load 58(bv)
- 64: 52(ivec2) Select 59 63 62
+ 64: 52(i64vec2) Select 59 63 62
Store 54(i64v) 64
68: 56(bvec2) Load 58(bv)
- 73: 65(ivec2) Select 68 72 71
+ 73: 65(i64vec2) Select 68 72 71
Store 67(u64v) 73
77: 74(ivec2) Load 76(iv)
- 78: 52(ivec2) SConvert 77
+ 78: 52(i64vec2) SConvert 77
Store 54(i64v) 78
- 79: 52(ivec2) Load 54(i64v)
+ 79: 52(i64vec2) Load 54(i64v)
80: 74(ivec2) SConvert 79
Store 76(iv) 80
84: 81(ivec2) Load 83(uv)
- 85: 65(ivec2) UConvert 84
+ 85: 65(i64vec2) UConvert 84
Store 67(u64v) 85
- 86: 65(ivec2) Load 67(u64v)
+ 86: 65(i64vec2) Load 67(u64v)
87: 81(ivec2) UConvert 86
Store 83(uv) 87
- 92: 52(ivec2) Load 54(i64v)
+ 92: 52(i64vec2) Load 54(i64v)
93: 89(fvec2) ConvertSToF 92
Store 91(fv) 93
- 98: 52(ivec2) Load 54(i64v)
- 99: 95(fvec2) ConvertSToF 98
+ 98: 52(i64vec2) Load 54(i64v)
+ 99: 95(f64vec2) ConvertSToF 98
Store 97(dv) 99
- 100: 65(ivec2) Load 67(u64v)
+ 100: 65(i64vec2) Load 67(u64v)
101: 89(fvec2) ConvertUToF 100
Store 91(fv) 101
- 102: 65(ivec2) Load 67(u64v)
- 103: 95(fvec2) ConvertUToF 102
+ 102: 65(i64vec2) Load 67(u64v)
+ 103: 95(f64vec2) ConvertUToF 102
Store 97(dv) 103
104: 89(fvec2) Load 91(fv)
- 105: 52(ivec2) ConvertFToS 104
+ 105: 52(i64vec2) ConvertFToS 104
Store 54(i64v) 105
- 106: 95(fvec2) Load 97(dv)
- 107: 52(ivec2) ConvertFToS 106
+ 106: 95(f64vec2) Load 97(dv)
+ 107: 52(i64vec2) ConvertFToS 106
Store 54(i64v) 107
108: 89(fvec2) Load 91(fv)
- 109: 65(ivec2) ConvertFToU 108
+ 109: 65(i64vec2) ConvertFToU 108
Store 67(u64v) 109
- 110: 95(fvec2) Load 97(dv)
- 111: 65(ivec2) ConvertFToU 110
+ 110: 95(f64vec2) Load 97(dv)
+ 111: 65(i64vec2) ConvertFToU 110
Store 67(u64v) 111
- 112: 52(ivec2) Load 54(i64v)
+ 112: 52(i64vec2) Load 54(i64v)
113: 56(bvec2) INotEqual 112 71
Store 58(bv) 113
- 114: 65(ivec2) Load 67(u64v)
+ 114: 65(i64vec2) Load 67(u64v)
115: 56(bvec2) INotEqual 114 71
Store 58(bv) 115
- 116: 52(ivec2) Load 54(i64v)
- 117: 65(ivec2) Bitcast 116
+ 116: 52(i64vec2) Load 54(i64v)
+ 117: 65(i64vec2) Bitcast 116
Store 67(u64v) 117
- 118: 65(ivec2) Load 67(u64v)
- 119: 52(ivec2) Bitcast 118
+ 118: 65(i64vec2) Load 67(u64v)
+ 119: 52(i64vec2) Bitcast 118
Store 54(i64v) 119
- 120: 52(ivec2) Load 54(i64v)
+ 120: 52(i64vec2) Load 54(i64v)
121: 74(ivec2) SConvert 120
122: 81(ivec2) Bitcast 121
Store 83(uv) 122
123: 81(ivec2) Load 83(uv)
- 124: 52(ivec2) UConvert 123
- 125: 52(ivec2) Bitcast 124
+ 124: 52(i64vec2) UConvert 123
+ 125: 52(i64vec2) Bitcast 124
Store 54(i64v) 125
- 126: 65(ivec2) Load 67(u64v)
+ 126: 65(i64vec2) Load 67(u64v)
127: 74(ivec2) UConvert 126
128: 74(ivec2) Bitcast 127
Store 76(iv) 128
129: 74(ivec2) Load 76(iv)
- 130: 52(ivec2) SConvert 129
- 131: 65(ivec2) Bitcast 130
+ 130: 52(i64vec2) SConvert 129
+ 131: 65(i64vec2) Bitcast 130
Store 67(u64v) 131
Return
FunctionEnd
@@ -288,177 +288,177 @@ spv.int64.frag
159(i): 158(ptr) Variable Function
166(uv): 165(ptr) Variable Function
226(b): 225(ptr) Variable Function
- 135: 132(ivec3) Load 134(u64v)
- 137: 136(ivec3) CompositeConstruct 61 61 61
- 138: 132(ivec3) IAdd 135 137
+ 135:132(i64vec3) Load 134(u64v)
+ 137:136(i64vec3) CompositeConstruct 61 61 61
+ 138:132(i64vec3) IAdd 135 137
Store 134(u64v) 138
- 140: 18(int) Load 139(i64)
- 141: 18(int) ISub 140 61
+ 140: 18(int64_t) Load 139(i64)
+ 141: 18(int64_t) ISub 140 61
Store 139(i64) 141
- 142: 18(int) Load 139(i64)
- 143: 18(int) IAdd 142 61
+ 142: 18(int64_t) Load 139(i64)
+ 143: 18(int64_t) IAdd 142 61
Store 139(i64) 143
- 144: 132(ivec3) Load 134(u64v)
- 145: 136(ivec3) CompositeConstruct 61 61 61
- 146: 132(ivec3) ISub 144 145
+ 144:132(i64vec3) Load 134(u64v)
+ 145:136(i64vec3) CompositeConstruct 61 61 61
+ 146:132(i64vec3) ISub 144 145
Store 134(u64v) 146
- 147: 132(ivec3) Load 134(u64v)
- 148: 132(ivec3) Not 147
+ 147:132(i64vec3) Load 134(u64v)
+ 148:132(i64vec3) Not 147
Store 134(u64v) 148
- 149: 18(int) Load 139(i64)
+ 149: 18(int64_t) Load 139(i64)
Store 139(i64) 149
- 150: 132(ivec3) Load 134(u64v)
- 151: 132(ivec3) SNegate 150
+ 150:132(i64vec3) Load 134(u64v)
+ 151:132(i64vec3) SNegate 150
Store 134(u64v) 151
- 152: 18(int) Load 139(i64)
- 153: 18(int) Load 139(i64)
- 154: 18(int) IAdd 153 152
+ 152: 18(int64_t) Load 139(i64)
+ 153: 18(int64_t) Load 139(i64)
+ 154: 18(int64_t) IAdd 153 152
Store 139(i64) 154
- 155: 132(ivec3) Load 134(u64v)
- 156: 132(ivec3) Load 134(u64v)
- 157: 132(ivec3) ISub 156 155
+ 155:132(i64vec3) Load 134(u64v)
+ 156:132(i64vec3) Load 134(u64v)
+ 157:132(i64vec3) ISub 156 155
Store 134(u64v) 157
160: 31(int) Load 159(i)
- 161: 18(int) SConvert 160
- 162: 18(int) Load 139(i64)
- 163: 18(int) IMul 162 161
+ 161: 18(int64_t) SConvert 160
+ 162: 18(int64_t) Load 139(i64)
+ 163: 18(int64_t) IMul 162 161
Store 139(i64) 163
167: 164(ivec3) Load 166(uv)
- 168: 132(ivec3) UConvert 167
- 169: 132(ivec3) Load 134(u64v)
- 170: 132(ivec3) UDiv 169 168
+ 168:132(i64vec3) UConvert 167
+ 169:132(i64vec3) Load 134(u64v)
+ 170:132(i64vec3) UDiv 169 168
Store 134(u64v) 170
171: 31(int) Load 159(i)
- 172: 18(int) SConvert 171
- 173: 14(int) Bitcast 172
- 174: 132(ivec3) Load 134(u64v)
- 175: 132(ivec3) CompositeConstruct 173 173 173
- 176: 132(ivec3) UMod 174 175
+ 172: 18(int64_t) SConvert 171
+ 173: 14(int64_t) Bitcast 172
+ 174:132(i64vec3) Load 134(u64v)
+ 175:132(i64vec3) CompositeConstruct 173 173 173
+ 176:132(i64vec3) UMod 174 175
Store 134(u64v) 176
- 177: 132(ivec3) Load 134(u64v)
+ 177:132(i64vec3) Load 134(u64v)
178: 164(ivec3) Load 166(uv)
- 179: 132(ivec3) UConvert 178
- 180: 132(ivec3) IAdd 177 179
+ 179:132(i64vec3) UConvert 178
+ 180:132(i64vec3) IAdd 177 179
Store 134(u64v) 180
- 181: 18(int) Load 139(i64)
+ 181: 18(int64_t) Load 139(i64)
182: 31(int) Load 159(i)
- 183: 18(int) SConvert 182
- 184: 18(int) ISub 181 183
+ 183: 18(int64_t) SConvert 182
+ 184: 18(int64_t) ISub 181 183
Store 139(i64) 184
- 185: 132(ivec3) Load 134(u64v)
+ 185:132(i64vec3) Load 134(u64v)
186: 164(ivec3) Load 166(uv)
- 187: 132(ivec3) UConvert 186
- 188: 132(ivec3) IMul 185 187
+ 187:132(i64vec3) UConvert 186
+ 188:132(i64vec3) IMul 185 187
Store 134(u64v) 188
- 189: 18(int) Load 139(i64)
+ 189: 18(int64_t) Load 139(i64)
190: 31(int) Load 159(i)
- 191: 18(int) SConvert 190
- 192: 18(int) IMul 189 191
+ 191: 18(int64_t) SConvert 190
+ 192: 18(int64_t) IMul 189 191
Store 139(i64) 192
- 193: 18(int) Load 139(i64)
+ 193: 18(int64_t) Load 139(i64)
194: 31(int) Load 159(i)
- 195: 18(int) SConvert 194
- 196: 18(int) SMod 193 195
+ 195: 18(int64_t) SConvert 194
+ 196: 18(int64_t) SMod 193 195
Store 139(i64) 196
- 197: 132(ivec3) Load 134(u64v)
+ 197:132(i64vec3) Load 134(u64v)
198: 31(int) Load 159(i)
200: 199(ivec3) CompositeConstruct 198 198 198
- 201: 132(ivec3) ShiftLeftLogical 197 200
+ 201:132(i64vec3) ShiftLeftLogical 197 200
Store 134(u64v) 201
- 202: 18(int) Load 139(i64)
+ 202: 18(int64_t) Load 139(i64)
205: 204(ptr) AccessChain 166(uv) 203
206: 21(int) Load 205
- 207: 18(int) ShiftRightArithmetic 202 206
+ 207: 18(int64_t) ShiftRightArithmetic 202 206
Store 139(i64) 207
208: 31(int) Load 159(i)
- 209: 132(ivec3) Load 134(u64v)
+ 209:132(i64vec3) Load 134(u64v)
210: 199(ivec3) CompositeConstruct 208 208 208
- 211: 132(ivec3) ShiftLeftLogical 209 210
+ 211:132(i64vec3) ShiftLeftLogical 209 210
Store 134(u64v) 211
212: 204(ptr) AccessChain 166(uv) 203
213: 21(int) Load 212
- 214: 18(int) Load 139(i64)
- 215: 18(int) ShiftRightArithmetic 214 213
+ 214: 18(int64_t) Load 139(i64)
+ 215: 18(int64_t) ShiftRightArithmetic 214 213
Store 139(i64) 215
- 216: 18(int) Load 139(i64)
+ 216: 18(int64_t) Load 139(i64)
218: 40(ptr) AccessChain 134(u64v) 217
- 219: 14(int) Load 218
- 220: 18(int) ShiftLeftLogical 216 219
+ 219: 14(int64_t) Load 218
+ 220: 18(int64_t) ShiftLeftLogical 216 219
Store 139(i64) 220
- 221: 132(ivec3) Load 134(u64v)
- 222: 18(int) Load 139(i64)
- 223: 136(ivec3) CompositeConstruct 222 222 222
- 224: 132(ivec3) ShiftLeftLogical 221 223
+ 221:132(i64vec3) Load 134(u64v)
+ 222: 18(int64_t) Load 139(i64)
+ 223:136(i64vec3) CompositeConstruct 222 222 222
+ 224:132(i64vec3) ShiftLeftLogical 221 223
Store 134(u64v) 224
228: 40(ptr) AccessChain 134(u64v) 227
- 229: 14(int) Load 228
- 230: 18(int) Load 139(i64)
- 231: 14(int) Bitcast 230
+ 229: 14(int64_t) Load 228
+ 230: 18(int64_t) Load 139(i64)
+ 231: 14(int64_t) Bitcast 230
232: 55(bool) INotEqual 229 231
Store 226(b) 232
- 233: 18(int) Load 139(i64)
- 234: 14(int) Bitcast 233
+ 233: 18(int64_t) Load 139(i64)
+ 234: 14(int64_t) Bitcast 233
235: 40(ptr) AccessChain 134(u64v) 227
- 236: 14(int) Load 235
+ 236: 14(int64_t) Load 235
237: 55(bool) IEqual 234 236
Store 226(b) 237
238: 40(ptr) AccessChain 134(u64v) 227
- 239: 14(int) Load 238
+ 239: 14(int64_t) Load 238
240: 204(ptr) AccessChain 166(uv) 203
241: 21(int) Load 240
- 242: 14(int) UConvert 241
+ 242: 14(int64_t) UConvert 241
243: 55(bool) UGreaterThan 239 242
Store 226(b) 243
- 244: 18(int) Load 139(i64)
+ 244: 18(int64_t) Load 139(i64)
245: 31(int) Load 159(i)
- 246: 18(int) SConvert 245
+ 246: 18(int64_t) SConvert 245
247: 55(bool) SLessThan 244 246
Store 226(b) 247
248: 40(ptr) AccessChain 134(u64v) 203
- 249: 14(int) Load 248
+ 249: 14(int64_t) Load 248
250: 204(ptr) AccessChain 166(uv) 227
251: 21(int) Load 250
- 252: 14(int) UConvert 251
+ 252: 14(int64_t) UConvert 251
253: 55(bool) UGreaterThanEqual 249 252
Store 226(b) 253
- 254: 18(int) Load 139(i64)
+ 254: 18(int64_t) Load 139(i64)
255: 31(int) Load 159(i)
- 256: 18(int) SConvert 255
+ 256: 18(int64_t) SConvert 255
257: 55(bool) SLessThanEqual 254 256
Store 226(b) 257
258: 31(int) Load 159(i)
- 259: 18(int) SConvert 258
- 260: 14(int) Bitcast 259
- 261: 132(ivec3) Load 134(u64v)
- 262: 132(ivec3) CompositeConstruct 260 260 260
- 263: 132(ivec3) BitwiseOr 261 262
+ 259: 18(int64_t) SConvert 258
+ 260: 14(int64_t) Bitcast 259
+ 261:132(i64vec3) Load 134(u64v)
+ 262:132(i64vec3) CompositeConstruct 260 260 260
+ 263:132(i64vec3) BitwiseOr 261 262
Store 134(u64v) 263
- 264: 18(int) Load 139(i64)
+ 264: 18(int64_t) Load 139(i64)
265: 31(int) Load 159(i)
- 266: 18(int) SConvert 265
- 267: 18(int) BitwiseOr 264 266
+ 266: 18(int64_t) SConvert 265
+ 267: 18(int64_t) BitwiseOr 264 266
Store 139(i64) 267
268: 31(int) Load 159(i)
- 269: 18(int) SConvert 268
- 270: 18(int) Load 139(i64)
- 271: 18(int) BitwiseAnd 270 269
+ 269: 18(int64_t) SConvert 268
+ 270: 18(int64_t) Load 139(i64)
+ 271: 18(int64_t) BitwiseAnd 270 269
Store 139(i64) 271
- 272: 132(ivec3) Load 134(u64v)
+ 272:132(i64vec3) Load 134(u64v)
273: 164(ivec3) Load 166(uv)
- 274: 132(ivec3) UConvert 273
- 275: 132(ivec3) BitwiseAnd 272 274
+ 274:132(i64vec3) UConvert 273
+ 275:132(i64vec3) BitwiseAnd 272 274
Store 134(u64v) 275
- 276: 18(int) Load 139(i64)
- 277: 14(int) Bitcast 276
- 278: 132(ivec3) Load 134(u64v)
- 279: 132(ivec3) CompositeConstruct 277 277 277
- 280: 132(ivec3) BitwiseXor 278 279
+ 276: 18(int64_t) Load 139(i64)
+ 277: 14(int64_t) Bitcast 276
+ 278:132(i64vec3) Load 134(u64v)
+ 279:132(i64vec3) CompositeConstruct 277 277 277
+ 280:132(i64vec3) BitwiseXor 278 279
Store 134(u64v) 280
- 281: 132(ivec3) Load 134(u64v)
- 282: 18(int) Load 139(i64)
- 283: 14(int) Bitcast 282
- 284: 132(ivec3) CompositeConstruct 283 283 283
- 285: 132(ivec3) BitwiseXor 281 284
+ 281:132(i64vec3) Load 134(u64v)
+ 282: 18(int64_t) Load 139(i64)
+ 283: 14(int64_t) Bitcast 282
+ 284:132(i64vec3) CompositeConstruct 283 283 283
+ 285:132(i64vec3) BitwiseXor 281 284
Store 134(u64v) 285
Return
FunctionEnd
@@ -472,193 +472,193 @@ spv.int64.frag
392(iv): 75(ptr) Variable Function
397(uv): 82(ptr) Variable Function
401(bv): 400(ptr) Variable Function
- 287: 52(ivec2) Load 286(i64v)
- 288: 52(ivec2) ExtInst 1(GLSL.std.450) 5(SAbs) 287
+ 287: 52(i64vec2) Load 286(i64v)
+ 288: 52(i64vec2) ExtInst 1(GLSL.std.450) 5(SAbs) 287
Store 286(i64v) 288
- 290: 18(int) Load 289(i64)
- 291: 18(int) ExtInst 1(GLSL.std.450) 7(SSign) 290
+ 290: 18(int64_t) Load 289(i64)
+ 291: 18(int64_t) ExtInst 1(GLSL.std.450) 7(SSign) 290
Store 289(i64) 291
- 292: 52(ivec2) Load 286(i64v)
- 293: 18(int) Load 289(i64)
- 294: 52(ivec2) CompositeConstruct 293 293
- 295: 52(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 292 294
+ 292: 52(i64vec2) Load 286(i64v)
+ 293: 18(int64_t) Load 289(i64)
+ 294: 52(i64vec2) CompositeConstruct 293 293
+ 295: 52(i64vec2) ExtInst 1(GLSL.std.450) 39(SMin) 292 294
Store 286(i64v) 295
- 296: 52(ivec2) Load 286(i64v)
- 298: 52(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 296 297
+ 296: 52(i64vec2) Load 286(i64v)
+ 298: 52(i64vec2) ExtInst 1(GLSL.std.450) 39(SMin) 296 297
Store 286(i64v) 298
- 300: 132(ivec3) Load 299(u64v)
- 302: 14(int) Load 301(u64)
- 303: 132(ivec3) CompositeConstruct 302 302 302
- 304: 132(ivec3) ExtInst 1(GLSL.std.450) 38(UMin) 300 303
+ 300:132(i64vec3) Load 299(u64v)
+ 302: 14(int64_t) Load 301(u64)
+ 303:132(i64vec3) CompositeConstruct 302 302 302
+ 304:132(i64vec3) ExtInst 1(GLSL.std.450) 38(UMin) 300 303
Store 299(u64v) 304
- 305: 132(ivec3) Load 299(u64v)
- 307: 132(ivec3) ExtInst 1(GLSL.std.450) 38(UMin) 305 306
+ 305:132(i64vec3) Load 299(u64v)
+ 307:132(i64vec3) ExtInst 1(GLSL.std.450) 38(UMin) 305 306
Store 299(u64v) 307
- 308: 52(ivec2) Load 286(i64v)
- 309: 18(int) Load 289(i64)
- 310: 52(ivec2) CompositeConstruct 309 309
- 311: 52(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 308 310
+ 308: 52(i64vec2) Load 286(i64v)
+ 309: 18(int64_t) Load 289(i64)
+ 310: 52(i64vec2) CompositeConstruct 309 309
+ 311: 52(i64vec2) ExtInst 1(GLSL.std.450) 42(SMax) 308 310
Store 286(i64v) 311
- 312: 52(ivec2) Load 286(i64v)
- 313: 52(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 312 297
+ 312: 52(i64vec2) Load 286(i64v)
+ 313: 52(i64vec2) ExtInst 1(GLSL.std.450) 42(SMax) 312 297
Store 286(i64v) 313
- 314: 132(ivec3) Load 299(u64v)
- 315: 14(int) Load 301(u64)
- 316: 132(ivec3) CompositeConstruct 315 315 315
- 317: 132(ivec3) ExtInst 1(GLSL.std.450) 41(UMax) 314 316
+ 314:132(i64vec3) Load 299(u64v)
+ 315: 14(int64_t) Load 301(u64)
+ 316:132(i64vec3) CompositeConstruct 315 315 315
+ 317:132(i64vec3) ExtInst 1(GLSL.std.450) 41(UMax) 314 316
Store 299(u64v) 317
- 318: 132(ivec3) Load 299(u64v)
- 319: 132(ivec3) ExtInst 1(GLSL.std.450) 41(UMax) 318 306
+ 318:132(i64vec3) Load 299(u64v)
+ 319:132(i64vec3) ExtInst 1(GLSL.std.450) 41(UMax) 318 306
Store 299(u64v) 319
- 320: 52(ivec2) Load 286(i64v)
- 321: 18(int) Load 289(i64)
- 322: 18(int) SNegate 321
- 323: 18(int) Load 289(i64)
- 324: 52(ivec2) CompositeConstruct 322 322
- 325: 52(ivec2) CompositeConstruct 323 323
- 326: 52(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 320 324 325
+ 320: 52(i64vec2) Load 286(i64v)
+ 321: 18(int64_t) Load 289(i64)
+ 322: 18(int64_t) SNegate 321
+ 323: 18(int64_t) Load 289(i64)
+ 324: 52(i64vec2) CompositeConstruct 322 322
+ 325: 52(i64vec2) CompositeConstruct 323 323
+ 326: 52(i64vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 320 324 325
Store 286(i64v) 326
- 327: 52(ivec2) Load 286(i64v)
- 328: 52(ivec2) Load 286(i64v)
- 329: 52(ivec2) SNegate 328
- 330: 52(ivec2) Load 286(i64v)
- 331: 52(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 327 329 330
+ 327: 52(i64vec2) Load 286(i64v)
+ 328: 52(i64vec2) Load 286(i64v)
+ 329: 52(i64vec2) SNegate 328
+ 330: 52(i64vec2) Load 286(i64v)
+ 331: 52(i64vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 327 329 330
Store 286(i64v) 331
- 332: 132(ivec3) Load 299(u64v)
- 333: 14(int) Load 301(u64)
- 334: 14(int) SNegate 333
- 335: 14(int) Load 301(u64)
- 336: 132(ivec3) CompositeConstruct 334 334 334
- 337: 132(ivec3) CompositeConstruct 335 335 335
- 338: 132(ivec3) ExtInst 1(GLSL.std.450) 44(UClamp) 332 336 337
+ 332:132(i64vec3) Load 299(u64v)
+ 333: 14(int64_t) Load 301(u64)
+ 334: 14(int64_t) SNegate 333
+ 335: 14(int64_t) Load 301(u64)
+ 336:132(i64vec3) CompositeConstruct 334 334 334
+ 337:132(i64vec3) CompositeConstruct 335 335 335
+ 338:132(i64vec3) ExtInst 1(GLSL.std.450) 44(UClamp) 332 336 337
Store 299(u64v) 338
- 339: 132(ivec3) Load 299(u64v)
- 340: 132(ivec3) Load 299(u64v)
- 341: 132(ivec3) SNegate 340
- 342: 132(ivec3) Load 299(u64v)
- 343: 132(ivec3) ExtInst 1(GLSL.std.450) 44(UClamp) 339 341 342
+ 339:132(i64vec3) Load 299(u64v)
+ 340:132(i64vec3) Load 299(u64v)
+ 341:132(i64vec3) SNegate 340
+ 342:132(i64vec3) Load 299(u64v)
+ 343:132(i64vec3) ExtInst 1(GLSL.std.450) 44(UClamp) 339 341 342
Store 299(u64v) 343
344: 19(ptr) AccessChain 286(i64v) 227
- 345: 18(int) Load 344
+ 345: 18(int64_t) Load 344
346: 19(ptr) AccessChain 286(i64v) 203
- 347: 18(int) Load 346
- 349: 18(int) Select 348 347 345
+ 347: 18(int64_t) Load 346
+ 349: 18(int64_t) Select 348 347 345
Store 289(i64) 349
- 350: 18(int) Load 289(i64)
- 351: 52(ivec2) CompositeConstruct 350 350
- 352: 18(int) Load 289(i64)
- 353: 18(int) SNegate 352
- 354: 52(ivec2) CompositeConstruct 353 353
- 357: 52(ivec2) Select 356 354 351
+ 350: 18(int64_t) Load 289(i64)
+ 351: 52(i64vec2) CompositeConstruct 350 350
+ 352: 18(int64_t) Load 289(i64)
+ 353: 18(int64_t) SNegate 352
+ 354: 52(i64vec2) CompositeConstruct 353 353
+ 357: 52(i64vec2) Select 356 354 351
Store 286(i64v) 357
358: 40(ptr) AccessChain 299(u64v) 227
- 359: 14(int) Load 358
+ 359: 14(int64_t) Load 358
360: 40(ptr) AccessChain 299(u64v) 203
- 361: 14(int) Load 360
- 362: 14(int) Select 348 361 359
+ 361: 14(int64_t) Load 360
+ 362: 14(int64_t) Select 348 361 359
Store 301(u64) 362
- 363: 14(int) Load 301(u64)
- 364: 132(ivec3) CompositeConstruct 363 363 363
- 365: 14(int) Load 301(u64)
- 366: 14(int) SNegate 365
- 367: 132(ivec3) CompositeConstruct 366 366 366
- 370: 132(ivec3) Select 369 367 364
+ 363: 14(int64_t) Load 301(u64)
+ 364:132(i64vec3) CompositeConstruct 363 363 363
+ 365: 14(int64_t) Load 301(u64)
+ 366: 14(int64_t) SNegate 365
+ 367:132(i64vec3) CompositeConstruct 366 366 366
+ 370:132(i64vec3) Select 369 367 364
Store 299(u64v) 370
- 374: 371(fvec3) Load 373(dv)
- 375: 95(fvec2) VectorShuffle 374 374 0 1
- 376: 52(ivec2) Bitcast 375
+ 374:371(f64vec3) Load 373(dv)
+ 375: 95(f64vec2) VectorShuffle 374 374 0 1
+ 376: 52(i64vec2) Bitcast 375
Store 286(i64v) 376
378: 377(ptr) AccessChain 373(dv) 217
- 379: 94(float) Load 378
- 380: 14(int) Bitcast 379
+ 379:94(float64_t) Load 378
+ 380: 14(int64_t) Bitcast 379
381: 40(ptr) AccessChain 299(u64v) 227
Store 381 380
- 382: 52(ivec2) Load 286(i64v)
- 383: 95(fvec2) Bitcast 382
- 384: 371(fvec3) Load 373(dv)
- 385: 371(fvec3) VectorShuffle 384 383 3 4 2
+ 382: 52(i64vec2) Load 286(i64v)
+ 383: 95(f64vec2) Bitcast 382
+ 384:371(f64vec3) Load 373(dv)
+ 385:371(f64vec3) VectorShuffle 384 383 3 4 2
Store 373(dv) 385
- 386: 132(ivec3) Load 299(u64v)
- 387: 371(fvec3) Bitcast 386
+ 386:132(i64vec3) Load 299(u64v)
+ 387:371(f64vec3) Bitcast 386
Store 373(dv) 387
- 391: 18(int) Bitcast 390
+ 391: 18(int64_t) Bitcast 390
Store 289(i64) 391
- 393: 18(int) Load 289(i64)
+ 393: 18(int64_t) Load 289(i64)
394: 74(ivec2) Bitcast 393
Store 392(iv) 394
- 396: 14(int) Bitcast 395
+ 396: 14(int64_t) Bitcast 395
Store 301(u64) 396
- 398: 14(int) Load 301(u64)
+ 398: 14(int64_t) Load 301(u64)
399: 81(ivec2) Bitcast 398
Store 397(uv) 399
- 402: 132(ivec3) Load 299(u64v)
- 403: 14(int) Load 301(u64)
- 404: 132(ivec3) CompositeConstruct 403 403 403
+ 402:132(i64vec3) Load 299(u64v)
+ 403: 14(int64_t) Load 301(u64)
+ 404:132(i64vec3) CompositeConstruct 403 403 403
405: 368(bvec3) ULessThan 402 404
Store 401(bv) 405
- 406: 52(ivec2) Load 286(i64v)
- 407: 18(int) Load 289(i64)
- 408: 52(ivec2) CompositeConstruct 407 407
+ 406: 52(i64vec2) Load 286(i64v)
+ 407: 18(int64_t) Load 289(i64)
+ 408: 52(i64vec2) CompositeConstruct 407 407
409: 56(bvec2) SLessThan 406 408
410: 368(bvec3) Load 401(bv)
411: 368(bvec3) VectorShuffle 410 409 3 4 2
Store 401(bv) 411
- 412: 132(ivec3) Load 299(u64v)
- 413: 14(int) Load 301(u64)
- 414: 132(ivec3) CompositeConstruct 413 413 413
+ 412:132(i64vec3) Load 299(u64v)
+ 413: 14(int64_t) Load 301(u64)
+ 414:132(i64vec3) CompositeConstruct 413 413 413
415: 368(bvec3) ULessThanEqual 412 414
Store 401(bv) 415
- 416: 52(ivec2) Load 286(i64v)
- 417: 18(int) Load 289(i64)
- 418: 52(ivec2) CompositeConstruct 417 417
+ 416: 52(i64vec2) Load 286(i64v)
+ 417: 18(int64_t) Load 289(i64)
+ 418: 52(i64vec2) CompositeConstruct 417 417
419: 56(bvec2) SLessThanEqual 416 418
420: 368(bvec3) Load 401(bv)
421: 368(bvec3) VectorShuffle 420 419 3 4 2
Store 401(bv) 421
- 422: 132(ivec3) Load 299(u64v)
- 423: 14(int) Load 301(u64)
- 424: 132(ivec3) CompositeConstruct 423 423 423
+ 422:132(i64vec3) Load 299(u64v)
+ 423: 14(int64_t) Load 301(u64)
+ 424:132(i64vec3) CompositeConstruct 423 423 423
425: 368(bvec3) UGreaterThan 422 424
Store 401(bv) 425
- 426: 52(ivec2) Load 286(i64v)
- 427: 18(int) Load 289(i64)
- 428: 52(ivec2) CompositeConstruct 427 427
+ 426: 52(i64vec2) Load 286(i64v)
+ 427: 18(int64_t) Load 289(i64)
+ 428: 52(i64vec2) CompositeConstruct 427 427
429: 56(bvec2) SGreaterThan 426 428
430: 368(bvec3) Load 401(bv)
431: 368(bvec3) VectorShuffle 430 429 3 4 2
Store 401(bv) 431
- 432: 132(ivec3) Load 299(u64v)
- 433: 14(int) Load 301(u64)
- 434: 132(ivec3) CompositeConstruct 433 433 433
+ 432:132(i64vec3) Load 299(u64v)
+ 433: 14(int64_t) Load 301(u64)
+ 434:132(i64vec3) CompositeConstruct 433 433 433
435: 368(bvec3) UGreaterThanEqual 432 434
Store 401(bv) 435
- 436: 52(ivec2) Load 286(i64v)
- 437: 18(int) Load 289(i64)
- 438: 52(ivec2) CompositeConstruct 437 437
+ 436: 52(i64vec2) Load 286(i64v)
+ 437: 18(int64_t) Load 289(i64)
+ 438: 52(i64vec2) CompositeConstruct 437 437
439: 56(bvec2) SGreaterThanEqual 436 438
440: 368(bvec3) Load 401(bv)
441: 368(bvec3) VectorShuffle 440 439 3 4 2
Store 401(bv) 441
- 442: 132(ivec3) Load 299(u64v)
- 443: 14(int) Load 301(u64)
- 444: 132(ivec3) CompositeConstruct 443 443 443
+ 442:132(i64vec3) Load 299(u64v)
+ 443: 14(int64_t) Load 301(u64)
+ 444:132(i64vec3) CompositeConstruct 443 443 443
445: 368(bvec3) IEqual 442 444
Store 401(bv) 445
- 446: 52(ivec2) Load 286(i64v)
- 447: 18(int) Load 289(i64)
- 448: 52(ivec2) CompositeConstruct 447 447
+ 446: 52(i64vec2) Load 286(i64v)
+ 447: 18(int64_t) Load 289(i64)
+ 448: 52(i64vec2) CompositeConstruct 447 447
449: 56(bvec2) IEqual 446 448
450: 368(bvec3) Load 401(bv)
451: 368(bvec3) VectorShuffle 450 449 3 4 2
Store 401(bv) 451
- 452: 132(ivec3) Load 299(u64v)
- 453: 14(int) Load 301(u64)
- 454: 132(ivec3) CompositeConstruct 453 453 453
+ 452:132(i64vec3) Load 299(u64v)
+ 453: 14(int64_t) Load 301(u64)
+ 454:132(i64vec3) CompositeConstruct 453 453 453
455: 368(bvec3) INotEqual 452 454
Store 401(bv) 455
- 456: 52(ivec2) Load 286(i64v)
- 457: 18(int) Load 289(i64)
- 458: 52(ivec2) CompositeConstruct 457 457
+ 456: 52(i64vec2) Load 286(i64v)
+ 457: 18(int64_t) Load 289(i64)
+ 458: 52(i64vec2) CompositeConstruct 457 457
459: 56(bvec2) INotEqual 456 458
460: 368(bvec3) Load 401(bv)
461: 368(bvec3) VectorShuffle 460 459 3 4 2
diff --git a/Test/baseResults/spv.int8.frag.out b/Test/baseResults/spv.int8.frag.out
index 1daa1a31..3502a04a 100644
--- a/Test/baseResults/spv.int8.frag.out
+++ b/Test/baseResults/spv.int8.frag.out
@@ -96,13 +96,13 @@ spv.int8.frag
2: TypeVoid
3: TypeFunction 2
14: TypeInt 8 1
- 15: TypePointer Function 14(int)
+ 15: TypePointer Function 14(int8_t)
17: TypeInt 32 0
18: 17(int) Constant 3
- 19: TypeArray 14(int) 18
- 20: 14(int) Constant 4294967279
- 21: 14(int) Constant 4294967295
- 22: 14(int) Constant 0
+ 19: TypeArray 14(int8_t) 18
+ 20: 14(int8_t) Constant 4294967279
+ 21: 14(int8_t) Constant 4294967295
+ 22: 14(int8_t) Constant 0
23: 19 ConstantComposite 20 21 22
24(Uniforms): TypeStruct 17(int)
25: TypePointer Uniform 24(Uniforms)
@@ -112,82 +112,82 @@ spv.int8.frag
29: TypePointer Uniform 17(int)
32: TypePointer Function 19
36: TypeInt 8 0
- 37: TypePointer Function 36(int)
- 39: TypeArray 36(int) 18
- 40: 36(int) Constant 255
- 41: 36(int) Constant 127
+ 37: TypePointer Function 36(int8_t)
+ 39: TypeArray 36(int8_t) 18
+ 40: 36(int8_t) Constant 255
+ 41: 36(int8_t) Constant 127
42: 39 ConstantComposite 40 40 41
45: TypePointer Function 39
- 49: TypeVector 36(int) 2
- 50: TypePointer Function 49(ivec2)
- 52: TypeVector 14(int) 2
- 53: TypePointer Function 52(ivec2)
+ 49: TypeVector 36(int8_t) 2
+ 50: TypePointer Function 49(i8vec2)
+ 52: TypeVector 14(int8_t) 2
+ 53: TypePointer Function 52(i8vec2)
57: TypeInt 16 1
- 58: TypeVector 57(int) 2
- 59: TypePointer Function 58(ivec2)
+ 58: TypeVector 57(int16_t) 2
+ 59: TypePointer Function 58(i16vec2)
66: TypeVector 27(int) 2
67: TypePointer Function 66(ivec2)
74: TypeVector 17(int) 2
75: TypePointer Function 74(ivec2)
80: TypeInt 64 1
- 81: TypeVector 80(int) 2
- 82: TypePointer Function 81(ivec2)
+ 81: TypeVector 80(int64_t) 2
+ 82: TypePointer Function 81(i64vec2)
86: TypeInt 64 0
- 87: TypeVector 86(int) 2
- 88: TypePointer Function 87(ivec2)
+ 87: TypeVector 86(int64_t) 2
+ 88: TypePointer Function 87(i64vec2)
100: TypeFloat 16
- 101: TypeVector 100(float) 2
- 102: TypePointer Function 101(fvec2)
+ 101: TypeVector 100(float16_t) 2
+ 102: TypePointer Function 101(f16vec2)
106: TypeFloat 32
107: TypeVector 106(float) 2
108: TypePointer Function 107(fvec2)
112: TypeFloat 64
- 113: TypeVector 112(float) 2
- 114: TypePointer Function 113(fvec2)
+ 113: TypeVector 112(float64_t) 2
+ 114: TypePointer Function 113(f64vec2)
141: TypeInt 16 0
- 142: TypeVector 141(int) 2
- 143: TypePointer Function 142(ivec2)
+ 142: TypeVector 141(int16_t) 2
+ 143: TypePointer Function 142(i16vec2)
171: TypeBool
172: TypeVector 171(bool) 2
173: TypePointer Function 172(bvec2)
- 176: 14(int) Constant 1
- 177: 52(ivec2) ConstantComposite 22 22
- 178: 52(ivec2) ConstantComposite 176 176
- 181: 36(int) Constant 0
- 182: 36(int) Constant 1
- 183: 49(ivec2) ConstantComposite 181 181
- 184: 49(ivec2) ConstantComposite 182 182
- 190: TypeVector 14(int) 3
- 191: TypePointer Function 190(ivec3)
+ 176: 14(int8_t) Constant 1
+ 177: 52(i8vec2) ConstantComposite 22 22
+ 178: 52(i8vec2) ConstantComposite 176 176
+ 181: 36(int8_t) Constant 0
+ 182: 36(int8_t) Constant 1
+ 183: 49(i8vec2) ConstantComposite 181 181
+ 184: 49(i8vec2) ConstantComposite 182 182
+ 190: TypeVector 14(int8_t) 3
+ 191: TypePointer Function 190(i8vec3)
215: TypePointer Function 27(int)
221: TypeVector 17(int) 3
222: TypePointer Function 221(ivec3)
225: TypeVector 27(int) 3
- 241: TypePointer Function 57(int)
+ 241: TypePointer Function 57(int16_t)
264: 17(int) Constant 1
270: 17(int) Constant 2
278: TypePointer Function 171(bool)
280: 17(int) Constant 0
293: TypePointer Function 17(int)
- 352: 52(ivec2) ConstantComposite 21 21
- 358: TypeVector 36(int) 3
- 362: 190(ivec3) ConstantComposite 22 22 22
+ 352: 52(i8vec2) ConstantComposite 21 21
+ 358: TypeVector 36(int8_t) 3
+ 362: 190(i8vec3) ConstantComposite 22 22 22
404: 171(bool) ConstantTrue
411: 171(bool) ConstantFalse
412: 172(bvec2) ConstantComposite 411 411
427: TypeVector 171(bool) 3
428: 427(bvec3) ConstantComposite 411 411 411
- 434: TypeVector 14(int) 4
- 435: TypePointer Function 434(ivec4)
- 439: TypePointer Function 141(int)
- 445: TypeVector 36(int) 4
- 446: TypePointer Function 445(ivec4)
+ 434: TypeVector 14(int8_t) 4
+ 435: TypePointer Function 434(i8vec4)
+ 439: TypePointer Function 141(int16_t)
+ 445: TypeVector 36(int8_t) 4
+ 446: TypePointer Function 445(i8vec4)
458: TypePointer Function 427(bvec3)
- 526(Block): TypeStruct 14(int) 52(ivec2) 190(ivec3) 434(ivec4) 36(int) 49(ivec2) 190(ivec3) 445(ivec4)
+ 526(Block): TypeStruct 14(int8_t) 52(i8vec2) 190(i8vec3) 434(i8vec4) 36(int8_t) 49(i8vec2) 190(i8vec3) 445(i8vec4)
527: TypePointer Uniform 526(Block)
528(block): 527(ptr) Variable Uniform
- 529(si8): 14(int) SpecConstant 4294967286
- 530(su8): 36(int) SpecConstant 20
+ 529(si8): 14(int8_t) SpecConstant 4294967286
+ 530(su8): 36(int8_t) SpecConstant 20
4(main): 2 Function None 3
5: Label
Return
@@ -202,13 +202,13 @@ spv.int8.frag
31: 17(int) Load 30
Store 33(indexable) 23
34: 15(ptr) AccessChain 33(indexable) 31
- 35: 14(int) Load 34
+ 35: 14(int8_t) Load 34
Store 16(i8) 35
43: 29(ptr) AccessChain 26 28
44: 17(int) Load 43
Store 46(indexable) 42
47: 37(ptr) AccessChain 46(indexable) 44
- 48: 36(int) Load 47
+ 48: 36(int8_t) Load 47
Store 38(u8) 48
Return
FunctionEnd
@@ -226,133 +226,133 @@ spv.int8.frag
115(f64v): 114(ptr) Variable Function
144(u16v): 143(ptr) Variable Function
174(bv): 173(ptr) Variable Function
- 55: 52(ivec2) Load 54(i8v)
- 56: 49(ivec2) Bitcast 55
+ 55: 52(i8vec2) Load 54(i8v)
+ 56: 49(i8vec2) Bitcast 55
Store 51(u8v) 56
- 61: 52(ivec2) Load 54(i8v)
- 62: 58(ivec2) SConvert 61
+ 61: 52(i8vec2) Load 54(i8v)
+ 62: 58(i16vec2) SConvert 61
Store 60(i16v) 62
- 63: 49(ivec2) Load 51(u8v)
- 64: 58(ivec2) UConvert 63
- 65: 58(ivec2) Bitcast 64
+ 63: 49(i8vec2) Load 51(u8v)
+ 64: 58(i16vec2) UConvert 63
+ 65: 58(i16vec2) Bitcast 64
Store 60(i16v) 65
- 69: 52(ivec2) Load 54(i8v)
+ 69: 52(i8vec2) Load 54(i8v)
70: 66(ivec2) SConvert 69
Store 68(i32v) 70
- 71: 49(ivec2) Load 51(u8v)
+ 71: 49(i8vec2) Load 51(u8v)
72: 66(ivec2) UConvert 71
73: 66(ivec2) Bitcast 72
Store 68(i32v) 73
- 77: 52(ivec2) Load 54(i8v)
+ 77: 52(i8vec2) Load 54(i8v)
78: 66(ivec2) SConvert 77
79: 74(ivec2) Bitcast 78
Store 76(u32v) 79
- 84: 52(ivec2) Load 54(i8v)
- 85: 81(ivec2) SConvert 84
+ 84: 52(i8vec2) Load 54(i8v)
+ 85: 81(i64vec2) SConvert 84
Store 83(i64v) 85
- 90: 52(ivec2) Load 54(i8v)
- 91: 81(ivec2) SConvert 90
- 92: 87(ivec2) Bitcast 91
+ 90: 52(i8vec2) Load 54(i8v)
+ 91: 81(i64vec2) SConvert 90
+ 92: 87(i64vec2) Bitcast 91
Store 89(u64v) 92
- 93: 49(ivec2) Load 51(u8v)
+ 93: 49(i8vec2) Load 51(u8v)
94: 74(ivec2) UConvert 93
Store 76(u32v) 94
- 95: 49(ivec2) Load 51(u8v)
- 96: 81(ivec2) UConvert 95
- 97: 81(ivec2) Bitcast 96
+ 95: 49(i8vec2) Load 51(u8v)
+ 96: 81(i64vec2) UConvert 95
+ 97: 81(i64vec2) Bitcast 96
Store 83(i64v) 97
- 98: 49(ivec2) Load 51(u8v)
- 99: 87(ivec2) UConvert 98
+ 98: 49(i8vec2) Load 51(u8v)
+ 99: 87(i64vec2) UConvert 98
Store 89(u64v) 99
- 104: 52(ivec2) Load 54(i8v)
- 105: 101(fvec2) ConvertSToF 104
+ 104: 52(i8vec2) Load 54(i8v)
+ 105:101(f16vec2) ConvertSToF 104
Store 103(f16v) 105
- 110: 52(ivec2) Load 54(i8v)
+ 110: 52(i8vec2) Load 54(i8v)
111: 107(fvec2) ConvertSToF 110
Store 109(f32v) 111
- 116: 52(ivec2) Load 54(i8v)
- 117: 113(fvec2) ConvertSToF 116
+ 116: 52(i8vec2) Load 54(i8v)
+ 117:113(f64vec2) ConvertSToF 116
Store 115(f64v) 117
- 118: 49(ivec2) Load 51(u8v)
- 119: 101(fvec2) ConvertUToF 118
+ 118: 49(i8vec2) Load 51(u8v)
+ 119:101(f16vec2) ConvertUToF 118
Store 103(f16v) 119
- 120: 49(ivec2) Load 51(u8v)
+ 120: 49(i8vec2) Load 51(u8v)
121: 107(fvec2) ConvertUToF 120
Store 109(f32v) 121
- 122: 49(ivec2) Load 51(u8v)
- 123: 113(fvec2) ConvertUToF 122
+ 122: 49(i8vec2) Load 51(u8v)
+ 123:113(f64vec2) ConvertUToF 122
Store 115(f64v) 123
- 124: 49(ivec2) Load 51(u8v)
- 125: 52(ivec2) Bitcast 124
+ 124: 49(i8vec2) Load 51(u8v)
+ 125: 52(i8vec2) Bitcast 124
Store 54(i8v) 125
- 126: 52(ivec2) Load 54(i8v)
- 127: 58(ivec2) SConvert 126
+ 126: 52(i8vec2) Load 54(i8v)
+ 127: 58(i16vec2) SConvert 126
Store 60(i16v) 127
- 128: 49(ivec2) Load 51(u8v)
- 129: 58(ivec2) UConvert 128
- 130: 58(ivec2) Bitcast 129
+ 128: 49(i8vec2) Load 51(u8v)
+ 129: 58(i16vec2) UConvert 128
+ 130: 58(i16vec2) Bitcast 129
Store 60(i16v) 130
- 131: 52(ivec2) Load 54(i8v)
+ 131: 52(i8vec2) Load 54(i8v)
132: 66(ivec2) SConvert 131
Store 68(i32v) 132
- 133: 49(ivec2) Load 51(u8v)
+ 133: 49(i8vec2) Load 51(u8v)
134: 66(ivec2) UConvert 133
135: 66(ivec2) Bitcast 134
Store 68(i32v) 135
- 136: 52(ivec2) Load 54(i8v)
- 137: 81(ivec2) SConvert 136
+ 136: 52(i8vec2) Load 54(i8v)
+ 137: 81(i64vec2) SConvert 136
Store 83(i64v) 137
- 138: 52(ivec2) Load 54(i8v)
- 139: 81(ivec2) SConvert 138
- 140: 87(ivec2) Bitcast 139
+ 138: 52(i8vec2) Load 54(i8v)
+ 139: 81(i64vec2) SConvert 138
+ 140: 87(i64vec2) Bitcast 139
Store 89(u64v) 140
- 145: 52(ivec2) Load 54(i8v)
- 146: 58(ivec2) SConvert 145
- 147: 142(ivec2) Bitcast 146
+ 145: 52(i8vec2) Load 54(i8v)
+ 146: 58(i16vec2) SConvert 145
+ 147:142(i16vec2) Bitcast 146
Store 144(u16v) 147
- 148: 49(ivec2) Load 51(u8v)
- 149: 142(ivec2) UConvert 148
+ 148: 49(i8vec2) Load 51(u8v)
+ 149:142(i16vec2) UConvert 148
Store 144(u16v) 149
- 150: 49(ivec2) Load 51(u8v)
+ 150: 49(i8vec2) Load 51(u8v)
151: 74(ivec2) UConvert 150
Store 76(u32v) 151
- 152: 49(ivec2) Load 51(u8v)
- 153: 81(ivec2) UConvert 152
- 154: 81(ivec2) Bitcast 153
+ 152: 49(i8vec2) Load 51(u8v)
+ 153: 81(i64vec2) UConvert 152
+ 154: 81(i64vec2) Bitcast 153
Store 83(i64v) 154
- 155: 49(ivec2) Load 51(u8v)
- 156: 81(ivec2) UConvert 155
- 157: 81(ivec2) Bitcast 156
- 158: 87(ivec2) Bitcast 157
+ 155: 49(i8vec2) Load 51(u8v)
+ 156: 81(i64vec2) UConvert 155
+ 157: 81(i64vec2) Bitcast 156
+ 158: 87(i64vec2) Bitcast 157
Store 89(u64v) 158
- 159: 52(ivec2) Load 54(i8v)
- 160: 101(fvec2) ConvertSToF 159
+ 159: 52(i8vec2) Load 54(i8v)
+ 160:101(f16vec2) ConvertSToF 159
Store 103(f16v) 160
- 161: 52(ivec2) Load 54(i8v)
+ 161: 52(i8vec2) Load 54(i8v)
162: 107(fvec2) ConvertSToF 161
Store 109(f32v) 162
- 163: 52(ivec2) Load 54(i8v)
- 164: 113(fvec2) ConvertSToF 163
+ 163: 52(i8vec2) Load 54(i8v)
+ 164:113(f64vec2) ConvertSToF 163
Store 115(f64v) 164
- 165: 49(ivec2) Load 51(u8v)
- 166: 101(fvec2) ConvertUToF 165
+ 165: 49(i8vec2) Load 51(u8v)
+ 166:101(f16vec2) ConvertUToF 165
Store 103(f16v) 166
- 167: 49(ivec2) Load 51(u8v)
+ 167: 49(i8vec2) Load 51(u8v)
168: 107(fvec2) ConvertUToF 167
Store 109(f32v) 168
- 169: 49(ivec2) Load 51(u8v)
- 170: 113(fvec2) ConvertUToF 169
+ 169: 49(i8vec2) Load 51(u8v)
+ 170:113(f64vec2) ConvertUToF 169
Store 115(f64v) 170
175: 172(bvec2) Load 174(bv)
- 179: 52(ivec2) Select 175 178 177
+ 179: 52(i8vec2) Select 175 178 177
Store 54(i8v) 179
180: 172(bvec2) Load 174(bv)
- 185: 49(ivec2) Select 180 184 183
+ 185: 49(i8vec2) Select 180 184 183
Store 51(u8v) 185
- 186: 52(ivec2) Load 54(i8v)
+ 186: 52(i8vec2) Load 54(i8v)
187: 172(bvec2) INotEqual 186 183
Store 174(bv) 187
- 188: 49(ivec2) Load 51(u8v)
+ 188: 49(i8vec2) Load 51(u8v)
189: 172(bvec2) INotEqual 188 183
Store 174(bv) 189
Return
@@ -365,171 +365,171 @@ spv.int8.frag
223(uv): 222(ptr) Variable Function
242(i16): 241(ptr) Variable Function
279(b): 278(ptr) Variable Function
- 193: 190(ivec3) Load 192(u8v)
- 194: 190(ivec3) CompositeConstruct 176 176 176
- 195: 190(ivec3) IAdd 193 194
+ 193: 190(i8vec3) Load 192(u8v)
+ 194: 190(i8vec3) CompositeConstruct 176 176 176
+ 195: 190(i8vec3) IAdd 193 194
Store 192(u8v) 195
- 197: 14(int) Load 196(i8)
- 198: 14(int) ISub 197 176
+ 197: 14(int8_t) Load 196(i8)
+ 198: 14(int8_t) ISub 197 176
Store 196(i8) 198
- 199: 14(int) Load 196(i8)
- 200: 14(int) IAdd 199 176
+ 199: 14(int8_t) Load 196(i8)
+ 200: 14(int8_t) IAdd 199 176
Store 196(i8) 200
- 201: 190(ivec3) Load 192(u8v)
- 202: 190(ivec3) CompositeConstruct 176 176 176
- 203: 190(ivec3) ISub 201 202
+ 201: 190(i8vec3) Load 192(u8v)
+ 202: 190(i8vec3) CompositeConstruct 176 176 176
+ 203: 190(i8vec3) ISub 201 202
Store 192(u8v) 203
- 204: 190(ivec3) Load 192(u8v)
- 205: 190(ivec3) Not 204
+ 204: 190(i8vec3) Load 192(u8v)
+ 205: 190(i8vec3) Not 204
Store 192(u8v) 205
- 206: 14(int) Load 196(i8)
+ 206: 14(int8_t) Load 196(i8)
Store 196(i8) 206
- 207: 190(ivec3) Load 192(u8v)
- 208: 190(ivec3) SNegate 207
+ 207: 190(i8vec3) Load 192(u8v)
+ 208: 190(i8vec3) SNegate 207
Store 192(u8v) 208
- 209: 14(int) Load 196(i8)
- 210: 14(int) Load 196(i8)
- 211: 14(int) IAdd 210 209
+ 209: 14(int8_t) Load 196(i8)
+ 210: 14(int8_t) Load 196(i8)
+ 211: 14(int8_t) IAdd 210 209
Store 196(i8) 211
- 212: 190(ivec3) Load 192(u8v)
- 213: 190(ivec3) Load 192(u8v)
- 214: 190(ivec3) ISub 213 212
+ 212: 190(i8vec3) Load 192(u8v)
+ 213: 190(i8vec3) Load 192(u8v)
+ 214: 190(i8vec3) ISub 213 212
Store 192(u8v) 214
- 217: 14(int) Load 196(i8)
+ 217: 14(int8_t) Load 196(i8)
218: 27(int) SConvert 217
219: 27(int) Load 216(i)
220: 27(int) IMul 219 218
Store 216(i) 220
- 224: 190(ivec3) Load 192(u8v)
+ 224: 190(i8vec3) Load 192(u8v)
226: 225(ivec3) SConvert 224
227: 221(ivec3) Bitcast 226
228: 221(ivec3) Load 223(uv)
229: 221(ivec3) UDiv 228 227
Store 223(uv) 229
- 230: 14(int) Load 196(i8)
+ 230: 14(int8_t) Load 196(i8)
231: 27(int) SConvert 230
232: 17(int) Bitcast 231
233: 221(ivec3) Load 223(uv)
234: 221(ivec3) CompositeConstruct 232 232 232
235: 221(ivec3) UMod 233 234
Store 223(uv) 235
- 236: 190(ivec3) Load 192(u8v)
+ 236: 190(i8vec3) Load 192(u8v)
237: 225(ivec3) SConvert 236
238: 221(ivec3) Bitcast 237
239: 221(ivec3) Load 223(uv)
240: 221(ivec3) IAdd 238 239
Store 223(uv) 240
- 243: 14(int) Load 196(i8)
- 244: 57(int) SConvert 243
- 245: 57(int) Load 242(i16)
- 246: 57(int) ISub 244 245
+ 243: 14(int8_t) Load 196(i8)
+ 244: 57(int16_t) SConvert 243
+ 245: 57(int16_t) Load 242(i16)
+ 246: 57(int16_t) ISub 244 245
Store 242(i16) 246
- 247: 190(ivec3) Load 192(u8v)
+ 247: 190(i8vec3) Load 192(u8v)
248: 225(ivec3) SConvert 247
249: 221(ivec3) Bitcast 248
250: 221(ivec3) Load 223(uv)
251: 221(ivec3) IMul 249 250
Store 223(uv) 251
- 252: 14(int) Load 196(i8)
- 253: 57(int) SConvert 252
- 254: 57(int) Load 242(i16)
- 255: 57(int) IMul 253 254
+ 252: 14(int8_t) Load 196(i8)
+ 253: 57(int16_t) SConvert 252
+ 254: 57(int16_t) Load 242(i16)
+ 255: 57(int16_t) IMul 253 254
Store 242(i16) 255
- 256: 14(int) Load 196(i8)
+ 256: 14(int8_t) Load 196(i8)
257: 27(int) SConvert 256
258: 27(int) Load 216(i)
259: 27(int) SMod 257 258
Store 216(i) 259
- 260: 14(int) Load 196(i8)
- 261: 190(ivec3) Load 192(u8v)
- 262: 190(ivec3) CompositeConstruct 260 260 260
- 263: 190(ivec3) ShiftLeftLogical 261 262
+ 260: 14(int8_t) Load 196(i8)
+ 261: 190(i8vec3) Load 192(u8v)
+ 262: 190(i8vec3) CompositeConstruct 260 260 260
+ 263: 190(i8vec3) ShiftLeftLogical 261 262
Store 192(u8v) 263
265: 15(ptr) AccessChain 192(u8v) 264
- 266: 14(int) Load 265
- 267: 14(int) Load 196(i8)
- 268: 14(int) ShiftRightArithmetic 267 266
+ 266: 14(int8_t) Load 265
+ 267: 14(int8_t) Load 196(i8)
+ 268: 14(int8_t) ShiftRightArithmetic 267 266
Store 196(i8) 268
- 269: 14(int) Load 196(i8)
+ 269: 14(int8_t) Load 196(i8)
271: 15(ptr) AccessChain 192(u8v) 270
- 272: 14(int) Load 271
- 273: 14(int) ShiftLeftLogical 269 272
+ 272: 14(int8_t) Load 271
+ 273: 14(int8_t) ShiftLeftLogical 269 272
Store 196(i8) 273
- 274: 190(ivec3) Load 192(u8v)
- 275: 14(int) Load 196(i8)
- 276: 190(ivec3) CompositeConstruct 275 275 275
- 277: 190(ivec3) ShiftLeftLogical 274 276
+ 274: 190(i8vec3) Load 192(u8v)
+ 275: 14(int8_t) Load 196(i8)
+ 276: 190(i8vec3) CompositeConstruct 275 275 275
+ 277: 190(i8vec3) ShiftLeftLogical 274 276
Store 192(u8v) 277
281: 15(ptr) AccessChain 192(u8v) 280
- 282: 14(int) Load 281
- 283: 14(int) Load 196(i8)
+ 282: 14(int8_t) Load 281
+ 283: 14(int8_t) Load 196(i8)
284: 171(bool) INotEqual 282 283
Store 279(b) 284
- 285: 14(int) Load 196(i8)
+ 285: 14(int8_t) Load 196(i8)
286: 15(ptr) AccessChain 192(u8v) 280
- 287: 14(int) Load 286
+ 287: 14(int8_t) Load 286
288: 171(bool) IEqual 285 287
Store 279(b) 288
289: 15(ptr) AccessChain 192(u8v) 280
- 290: 14(int) Load 289
+ 290: 14(int8_t) Load 289
291: 27(int) SConvert 290
292: 17(int) Bitcast 291
294: 293(ptr) AccessChain 223(uv) 264
295: 17(int) Load 294
296: 171(bool) UGreaterThan 292 295
Store 279(b) 296
- 297: 14(int) Load 196(i8)
+ 297: 14(int8_t) Load 196(i8)
298: 27(int) SConvert 297
299: 27(int) Load 216(i)
300: 171(bool) SLessThan 298 299
Store 279(b) 300
301: 15(ptr) AccessChain 192(u8v) 264
- 302: 14(int) Load 301
+ 302: 14(int8_t) Load 301
303: 27(int) SConvert 302
304: 17(int) Bitcast 303
305: 293(ptr) AccessChain 223(uv) 280
306: 17(int) Load 305
307: 171(bool) UGreaterThanEqual 304 306
Store 279(b) 307
- 308: 14(int) Load 196(i8)
+ 308: 14(int8_t) Load 196(i8)
309: 27(int) SConvert 308
310: 27(int) Load 216(i)
311: 171(bool) SLessThanEqual 309 310
Store 279(b) 311
- 312: 14(int) Load 196(i8)
+ 312: 14(int8_t) Load 196(i8)
313: 27(int) SConvert 312
314: 17(int) Bitcast 313
315: 221(ivec3) Load 223(uv)
316: 221(ivec3) CompositeConstruct 314 314 314
317: 221(ivec3) BitwiseOr 315 316
Store 223(uv) 317
- 318: 14(int) Load 196(i8)
+ 318: 14(int8_t) Load 196(i8)
319: 27(int) SConvert 318
320: 27(int) Load 216(i)
321: 27(int) BitwiseOr 319 320
Store 216(i) 321
- 322: 14(int) Load 196(i8)
- 323: 57(int) SConvert 322
- 324: 57(int) Load 242(i16)
- 325: 57(int) BitwiseAnd 324 323
+ 322: 14(int8_t) Load 196(i8)
+ 323: 57(int16_t) SConvert 322
+ 324: 57(int16_t) Load 242(i16)
+ 325: 57(int16_t) BitwiseAnd 324 323
Store 242(i16) 325
- 326: 190(ivec3) Load 192(u8v)
+ 326: 190(i8vec3) Load 192(u8v)
327: 225(ivec3) SConvert 326
328: 221(ivec3) Bitcast 327
329: 221(ivec3) Load 223(uv)
330: 221(ivec3) BitwiseAnd 328 329
Store 223(uv) 330
- 331: 14(int) Load 196(i8)
+ 331: 14(int8_t) Load 196(i8)
332: 27(int) SConvert 331
333: 17(int) Bitcast 332
334: 221(ivec3) Load 223(uv)
335: 221(ivec3) CompositeConstruct 333 333 333
336: 221(ivec3) BitwiseXor 334 335
Store 223(uv) 336
- 337: 190(ivec3) Load 192(u8v)
- 338: 14(int) Load 196(i8)
- 339: 190(ivec3) CompositeConstruct 338 338 338
- 340: 190(ivec3) BitwiseXor 337 339
+ 337: 190(i8vec3) Load 192(u8v)
+ 338: 14(int8_t) Load 196(i8)
+ 339: 190(i8vec3) CompositeConstruct 338 338 338
+ 340: 190(i8vec3) BitwiseXor 337 339
Store 192(u8v) 340
Return
FunctionEnd
@@ -547,199 +547,199 @@ spv.int8.frag
444(u32): 293(ptr) Variable Function
447(u8v4): 446(ptr) Variable Function
459(bv): 458(ptr) Variable Function
- 342: 52(ivec2) Load 341(i8v)
- 343: 52(ivec2) ExtInst 1(GLSL.std.450) 5(SAbs) 342
+ 342: 52(i8vec2) Load 341(i8v)
+ 343: 52(i8vec2) ExtInst 1(GLSL.std.450) 5(SAbs) 342
Store 341(i8v) 343
- 345: 14(int) Load 344(i8)
- 346: 14(int) ExtInst 1(GLSL.std.450) 7(SSign) 345
+ 345: 14(int8_t) Load 344(i8)
+ 346: 14(int8_t) ExtInst 1(GLSL.std.450) 7(SSign) 345
Store 344(i8) 346
- 347: 52(ivec2) Load 341(i8v)
- 348: 14(int) Load 344(i8)
- 349: 52(ivec2) CompositeConstruct 348 348
- 350: 52(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 347 349
+ 347: 52(i8vec2) Load 341(i8v)
+ 348: 14(int8_t) Load 344(i8)
+ 349: 52(i8vec2) CompositeConstruct 348 348
+ 350: 52(i8vec2) ExtInst 1(GLSL.std.450) 39(SMin) 347 349
Store 341(i8v) 350
- 351: 52(ivec2) Load 341(i8v)
- 353: 52(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 351 352
+ 351: 52(i8vec2) Load 341(i8v)
+ 353: 52(i8vec2) ExtInst 1(GLSL.std.450) 39(SMin) 351 352
Store 341(i8v) 353
- 355: 190(ivec3) Load 354(u8v)
- 357: 36(int) Load 356(u8)
- 359: 358(ivec3) CompositeConstruct 357 357 357
- 360: 190(ivec3) ExtInst 1(GLSL.std.450) 39(SMin) 355 359
+ 355: 190(i8vec3) Load 354(u8v)
+ 357: 36(int8_t) Load 356(u8)
+ 359: 358(i8vec3) CompositeConstruct 357 357 357
+ 360: 190(i8vec3) ExtInst 1(GLSL.std.450) 39(SMin) 355 359
Store 354(u8v) 360
- 361: 190(ivec3) Load 354(u8v)
- 363: 190(ivec3) ExtInst 1(GLSL.std.450) 39(SMin) 361 362
+ 361: 190(i8vec3) Load 354(u8v)
+ 363: 190(i8vec3) ExtInst 1(GLSL.std.450) 39(SMin) 361 362
Store 354(u8v) 363
- 364: 52(ivec2) Load 341(i8v)
- 365: 14(int) Load 344(i8)
- 366: 52(ivec2) CompositeConstruct 365 365
- 367: 52(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 364 366
+ 364: 52(i8vec2) Load 341(i8v)
+ 365: 14(int8_t) Load 344(i8)
+ 366: 52(i8vec2) CompositeConstruct 365 365
+ 367: 52(i8vec2) ExtInst 1(GLSL.std.450) 42(SMax) 364 366
Store 341(i8v) 367
- 368: 52(ivec2) Load 341(i8v)
- 369: 52(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 368 352
+ 368: 52(i8vec2) Load 341(i8v)
+ 369: 52(i8vec2) ExtInst 1(GLSL.std.450) 42(SMax) 368 352
Store 341(i8v) 369
- 370: 190(ivec3) Load 354(u8v)
- 371: 36(int) Load 356(u8)
- 372: 358(ivec3) CompositeConstruct 371 371 371
- 373: 190(ivec3) ExtInst 1(GLSL.std.450) 42(SMax) 370 372
+ 370: 190(i8vec3) Load 354(u8v)
+ 371: 36(int8_t) Load 356(u8)
+ 372: 358(i8vec3) CompositeConstruct 371 371 371
+ 373: 190(i8vec3) ExtInst 1(GLSL.std.450) 42(SMax) 370 372
Store 354(u8v) 373
- 374: 190(ivec3) Load 354(u8v)
- 375: 190(ivec3) ExtInst 1(GLSL.std.450) 42(SMax) 374 362
+ 374: 190(i8vec3) Load 354(u8v)
+ 375: 190(i8vec3) ExtInst 1(GLSL.std.450) 42(SMax) 374 362
Store 354(u8v) 375
- 376: 52(ivec2) Load 341(i8v)
- 377: 14(int) Load 344(i8)
- 378: 14(int) SNegate 377
- 379: 14(int) Load 344(i8)
- 380: 52(ivec2) CompositeConstruct 378 378
- 381: 52(ivec2) CompositeConstruct 379 379
- 382: 52(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 376 380 381
+ 376: 52(i8vec2) Load 341(i8v)
+ 377: 14(int8_t) Load 344(i8)
+ 378: 14(int8_t) SNegate 377
+ 379: 14(int8_t) Load 344(i8)
+ 380: 52(i8vec2) CompositeConstruct 378 378
+ 381: 52(i8vec2) CompositeConstruct 379 379
+ 382: 52(i8vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 376 380 381
Store 341(i8v) 382
- 383: 52(ivec2) Load 341(i8v)
- 384: 52(ivec2) Load 341(i8v)
- 385: 52(ivec2) SNegate 384
- 386: 52(ivec2) Load 341(i8v)
- 387: 52(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 383 385 386
+ 383: 52(i8vec2) Load 341(i8v)
+ 384: 52(i8vec2) Load 341(i8v)
+ 385: 52(i8vec2) SNegate 384
+ 386: 52(i8vec2) Load 341(i8v)
+ 387: 52(i8vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 383 385 386
Store 341(i8v) 387
- 388: 190(ivec3) Load 354(u8v)
- 389: 36(int) Load 356(u8)
- 390: 36(int) SNegate 389
- 391: 36(int) Load 356(u8)
- 392: 358(ivec3) CompositeConstruct 390 390 390
- 393: 358(ivec3) CompositeConstruct 391 391 391
- 394: 190(ivec3) ExtInst 1(GLSL.std.450) 45(SClamp) 388 392 393
+ 388: 190(i8vec3) Load 354(u8v)
+ 389: 36(int8_t) Load 356(u8)
+ 390: 36(int8_t) SNegate 389
+ 391: 36(int8_t) Load 356(u8)
+ 392: 358(i8vec3) CompositeConstruct 390 390 390
+ 393: 358(i8vec3) CompositeConstruct 391 391 391
+ 394: 190(i8vec3) ExtInst 1(GLSL.std.450) 45(SClamp) 388 392 393
Store 354(u8v) 394
- 395: 190(ivec3) Load 354(u8v)
- 396: 190(ivec3) Load 354(u8v)
- 397: 190(ivec3) SNegate 396
- 398: 190(ivec3) Load 354(u8v)
- 399: 190(ivec3) ExtInst 1(GLSL.std.450) 45(SClamp) 395 397 398
+ 395: 190(i8vec3) Load 354(u8v)
+ 396: 190(i8vec3) Load 354(u8v)
+ 397: 190(i8vec3) SNegate 396
+ 398: 190(i8vec3) Load 354(u8v)
+ 399: 190(i8vec3) ExtInst 1(GLSL.std.450) 45(SClamp) 395 397 398
Store 354(u8v) 399
400: 15(ptr) AccessChain 341(i8v) 280
- 401: 14(int) Load 400
+ 401: 14(int8_t) Load 400
402: 15(ptr) AccessChain 341(i8v) 264
- 403: 14(int) Load 402
- 405: 14(int) Select 404 403 401
+ 403: 14(int8_t) Load 402
+ 405: 14(int8_t) Select 404 403 401
Store 344(i8) 405
- 406: 14(int) Load 344(i8)
- 407: 52(ivec2) CompositeConstruct 406 406
- 408: 14(int) Load 344(i8)
- 409: 14(int) SNegate 408
- 410: 52(ivec2) CompositeConstruct 409 409
- 413: 52(ivec2) Select 412 410 407
+ 406: 14(int8_t) Load 344(i8)
+ 407: 52(i8vec2) CompositeConstruct 406 406
+ 408: 14(int8_t) Load 344(i8)
+ 409: 14(int8_t) SNegate 408
+ 410: 52(i8vec2) CompositeConstruct 409 409
+ 413: 52(i8vec2) Select 412 410 407
Store 341(i8v) 413
414: 15(ptr) AccessChain 354(u8v) 280
- 415: 14(int) Load 414
+ 415: 14(int8_t) Load 414
416: 15(ptr) AccessChain 354(u8v) 264
- 417: 14(int) Load 416
- 418: 14(int) Select 404 417 415
- 419: 36(int) Bitcast 418
+ 417: 14(int8_t) Load 416
+ 418: 14(int8_t) Select 404 417 415
+ 419: 36(int8_t) Bitcast 418
Store 356(u8) 419
- 420: 36(int) Load 356(u8)
- 421: 14(int) Bitcast 420
- 422: 190(ivec3) CompositeConstruct 421 421 421
- 423: 36(int) Load 356(u8)
- 424: 36(int) SNegate 423
- 425: 14(int) Bitcast 424
- 426: 190(ivec3) CompositeConstruct 425 425 425
- 429: 190(ivec3) Select 428 426 422
+ 420: 36(int8_t) Load 356(u8)
+ 421: 14(int8_t) Bitcast 420
+ 422: 190(i8vec3) CompositeConstruct 421 421 421
+ 423: 36(int8_t) Load 356(u8)
+ 424: 36(int8_t) SNegate 423
+ 425: 14(int8_t) Bitcast 424
+ 426: 190(i8vec3) CompositeConstruct 425 425 425
+ 429: 190(i8vec3) Select 428 426 422
Store 354(u8v) 429
- 431: 52(ivec2) Load 341(i8v)
- 432: 57(int) Bitcast 431
+ 431: 52(i8vec2) Load 341(i8v)
+ 432: 57(int16_t) Bitcast 431
Store 430(i16) 432
- 437: 434(ivec4) Load 436(i8v4)
+ 437: 434(i8vec4) Load 436(i8v4)
438: 27(int) Bitcast 437
Store 433(i32) 438
- 442: 49(ivec2) Load 441(u8v2)
- 443: 141(int) Bitcast 442
+ 442: 49(i8vec2) Load 441(u8v2)
+ 443:141(int16_t) Bitcast 442
Store 440(u16) 443
- 448: 445(ivec4) Load 447(u8v4)
+ 448: 445(i8vec4) Load 447(u8v4)
449: 17(int) Bitcast 448
Store 444(u32) 449
- 450: 57(int) Load 430(i16)
- 451: 52(ivec2) Bitcast 450
+ 450: 57(int16_t) Load 430(i16)
+ 451: 52(i8vec2) Bitcast 450
Store 341(i8v) 451
452: 27(int) Load 433(i32)
- 453: 434(ivec4) Bitcast 452
+ 453: 434(i8vec4) Bitcast 452
Store 436(i8v4) 453
- 454: 141(int) Load 440(u16)
- 455: 49(ivec2) Bitcast 454
+ 454:141(int16_t) Load 440(u16)
+ 455: 49(i8vec2) Bitcast 454
Store 441(u8v2) 455
456: 17(int) Load 444(u32)
- 457: 445(ivec4) Bitcast 456
+ 457: 445(i8vec4) Bitcast 456
Store 447(u8v4) 457
- 460: 190(ivec3) Load 354(u8v)
- 461: 36(int) Load 356(u8)
- 462: 14(int) Bitcast 461
- 463: 190(ivec3) CompositeConstruct 462 462 462
+ 460: 190(i8vec3) Load 354(u8v)
+ 461: 36(int8_t) Load 356(u8)
+ 462: 14(int8_t) Bitcast 461
+ 463: 190(i8vec3) CompositeConstruct 462 462 462
464: 427(bvec3) SLessThan 460 463
Store 459(bv) 464
- 465: 52(ivec2) Load 341(i8v)
- 466: 14(int) Load 344(i8)
- 467: 52(ivec2) CompositeConstruct 466 466
+ 465: 52(i8vec2) Load 341(i8v)
+ 466: 14(int8_t) Load 344(i8)
+ 467: 52(i8vec2) CompositeConstruct 466 466
468: 172(bvec2) SLessThan 465 467
469: 427(bvec3) Load 459(bv)
470: 427(bvec3) VectorShuffle 469 468 3 4 2
Store 459(bv) 470
- 471: 190(ivec3) Load 354(u8v)
- 472: 36(int) Load 356(u8)
- 473: 14(int) Bitcast 472
- 474: 190(ivec3) CompositeConstruct 473 473 473
+ 471: 190(i8vec3) Load 354(u8v)
+ 472: 36(int8_t) Load 356(u8)
+ 473: 14(int8_t) Bitcast 472
+ 474: 190(i8vec3) CompositeConstruct 473 473 473
475: 427(bvec3) SLessThanEqual 471 474
Store 459(bv) 475
- 476: 52(ivec2) Load 341(i8v)
- 477: 14(int) Load 344(i8)
- 478: 52(ivec2) CompositeConstruct 477 477
+ 476: 52(i8vec2) Load 341(i8v)
+ 477: 14(int8_t) Load 344(i8)
+ 478: 52(i8vec2) CompositeConstruct 477 477
479: 172(bvec2) SLessThanEqual 476 478
480: 427(bvec3) Load 459(bv)
481: 427(bvec3) VectorShuffle 480 479 3 4 2
Store 459(bv) 481
- 482: 190(ivec3) Load 354(u8v)
- 483: 36(int) Load 356(u8)
- 484: 14(int) Bitcast 483
- 485: 190(ivec3) CompositeConstruct 484 484 484
+ 482: 190(i8vec3) Load 354(u8v)
+ 483: 36(int8_t) Load 356(u8)
+ 484: 14(int8_t) Bitcast 483
+ 485: 190(i8vec3) CompositeConstruct 484 484 484
486: 427(bvec3) SGreaterThan 482 485
Store 459(bv) 486
- 487: 52(ivec2) Load 341(i8v)
- 488: 14(int) Load 344(i8)
- 489: 52(ivec2) CompositeConstruct 488 488
+ 487: 52(i8vec2) Load 341(i8v)
+ 488: 14(int8_t) Load 344(i8)
+ 489: 52(i8vec2) CompositeConstruct 488 488
490: 172(bvec2) SGreaterThan 487 489
491: 427(bvec3) Load 459(bv)
492: 427(bvec3) VectorShuffle 491 490 3 4 2
Store 459(bv) 492
- 493: 190(ivec3) Load 354(u8v)
- 494: 36(int) Load 356(u8)
- 495: 14(int) Bitcast 494
- 496: 190(ivec3) CompositeConstruct 495 495 495
+ 493: 190(i8vec3) Load 354(u8v)
+ 494: 36(int8_t) Load 356(u8)
+ 495: 14(int8_t) Bitcast 494
+ 496: 190(i8vec3) CompositeConstruct 495 495 495
497: 427(bvec3) SGreaterThanEqual 493 496
Store 459(bv) 497
- 498: 52(ivec2) Load 341(i8v)
- 499: 14(int) Load 344(i8)
- 500: 52(ivec2) CompositeConstruct 499 499
+ 498: 52(i8vec2) Load 341(i8v)
+ 499: 14(int8_t) Load 344(i8)
+ 500: 52(i8vec2) CompositeConstruct 499 499
501: 172(bvec2) SGreaterThanEqual 498 500
502: 427(bvec3) Load 459(bv)
503: 427(bvec3) VectorShuffle 502 501 3 4 2
Store 459(bv) 503
- 504: 190(ivec3) Load 354(u8v)
- 505: 36(int) Load 356(u8)
- 506: 14(int) Bitcast 505
- 507: 190(ivec3) CompositeConstruct 506 506 506
+ 504: 190(i8vec3) Load 354(u8v)
+ 505: 36(int8_t) Load 356(u8)
+ 506: 14(int8_t) Bitcast 505
+ 507: 190(i8vec3) CompositeConstruct 506 506 506
508: 427(bvec3) IEqual 504 507
Store 459(bv) 508
- 509: 52(ivec2) Load 341(i8v)
- 510: 14(int) Load 344(i8)
- 511: 52(ivec2) CompositeConstruct 510 510
+ 509: 52(i8vec2) Load 341(i8v)
+ 510: 14(int8_t) Load 344(i8)
+ 511: 52(i8vec2) CompositeConstruct 510 510
512: 172(bvec2) IEqual 509 511
513: 427(bvec3) Load 459(bv)
514: 427(bvec3) VectorShuffle 513 512 3 4 2
Store 459(bv) 514
- 515: 190(ivec3) Load 354(u8v)
- 516: 36(int) Load 356(u8)
- 517: 14(int) Bitcast 516
- 518: 190(ivec3) CompositeConstruct 517 517 517
+ 515: 190(i8vec3) Load 354(u8v)
+ 516: 36(int8_t) Load 356(u8)
+ 517: 14(int8_t) Bitcast 516
+ 518: 190(i8vec3) CompositeConstruct 517 517 517
519: 427(bvec3) INotEqual 515 518
Store 459(bv) 519
- 520: 52(ivec2) Load 341(i8v)
- 521: 14(int) Load 344(i8)
- 522: 52(ivec2) CompositeConstruct 521 521
+ 520: 52(i8vec2) Load 341(i8v)
+ 521: 14(int8_t) Load 344(i8)
+ 522: 52(i8vec2) CompositeConstruct 521 521
523: 172(bvec2) INotEqual 520 522
524: 427(bvec3) Load 459(bv)
525: 427(bvec3) VectorShuffle 524 523 3 4 2
diff --git a/Test/baseResults/spv.matrix.frag.out b/Test/baseResults/spv.matrix.frag.out
index ec21c543..46d51a77 100644
--- a/Test/baseResults/spv.matrix.frag.out
+++ b/Test/baseResults/spv.matrix.frag.out
@@ -36,8 +36,8 @@ spv.matrix.frag
28(f): 27(ptr) Variable Input
81: 6(float) Constant 1065353216
136: TypeFloat 64
- 137: TypeVector 136(float) 4
- 138: TypeMatrix 137(fvec4) 3
+ 137: TypeVector 136(float64_t) 4
+ 138: TypeMatrix 137(f64vec4) 3
139: TypePointer Function 138
157: TypeVector 6(float) 3
158: TypePointer Function 157(fvec3)
@@ -193,19 +193,19 @@ spv.matrix.frag
Store 10(sum34) 135
141: 8 Load 10(sum34)
142: 7(fvec4) CompositeExtract 141 0
- 143: 137(fvec4) FConvert 142
+ 143:137(f64vec4) FConvert 142
144: 7(fvec4) CompositeExtract 141 1
- 145: 137(fvec4) FConvert 144
+ 145:137(f64vec4) FConvert 144
146: 7(fvec4) CompositeExtract 141 2
- 147: 137(fvec4) FConvert 146
+ 147:137(f64vec4) FConvert 146
148: 138 CompositeConstruct 143 145 147
Store 140(dm) 148
149: 138 Load 140(dm)
- 150: 137(fvec4) CompositeExtract 149 0
+ 150:137(f64vec4) CompositeExtract 149 0
151: 7(fvec4) FConvert 150
- 152: 137(fvec4) CompositeExtract 149 1
+ 152:137(f64vec4) CompositeExtract 149 1
153: 7(fvec4) FConvert 152
- 154: 137(fvec4) CompositeExtract 149 2
+ 154:137(f64vec4) CompositeExtract 149 2
155: 7(fvec4) FConvert 154
156: 8 CompositeConstruct 151 153 155
Store 10(sum34) 156
diff --git a/Test/baseResults/spv.rankShift.comp.out b/Test/baseResults/spv.rankShift.comp.out
index 4cdb6d5d..0b503ca3 100755
--- a/Test/baseResults/spv.rankShift.comp.out
+++ b/Test/baseResults/spv.rankShift.comp.out
@@ -21,9 +21,9 @@ spv.rankShift.comp
2: TypeVoid
3: TypeFunction 2
6: TypeInt 64 0
- 7: TypePointer Function 6(int)
+ 7: TypePointer Function 6(int64_t)
9: TypeInt 64 1
- 10: TypePointer UniformConstant 9(int)
+ 10: TypePointer UniformConstant 9(int64_t)
11(arg0): 10(ptr) Variable UniformConstant
13: TypeInt 32 0
14: TypePointer UniformConstant 13(int)
@@ -35,23 +35,23 @@ spv.rankShift.comp
4(main): 2 Function None 3
5: Label
8(result): 7(ptr) Variable Function
- 12: 9(int) Load 11(arg0)
+ 12: 9(int64_t) Load 11(arg0)
16: 13(int) Load 15(arg1)
- 17: 9(int) ShiftLeftLogical 12 16
- 18: 6(int) Bitcast 17
+ 17: 9(int64_t) ShiftLeftLogical 12 16
+ 18: 6(int64_t) Bitcast 17
Store 8(result) 18
- 19: 9(int) Load 11(arg0)
+ 19: 9(int64_t) Load 11(arg0)
20: 13(int) Load 15(arg1)
- 21: 9(int) ShiftRightArithmetic 19 20
- 22: 6(int) Bitcast 21
+ 21: 9(int64_t) ShiftRightArithmetic 19 20
+ 22: 6(int64_t) Bitcast 21
Store 8(result) 22
23: 13(int) Load 15(arg1)
- 24: 6(int) Load 8(result)
- 25: 6(int) ShiftLeftLogical 24 23
+ 24: 6(int64_t) Load 8(result)
+ 25: 6(int64_t) ShiftLeftLogical 24 23
Store 8(result) 25
26: 13(int) Load 15(arg1)
- 27: 6(int) Load 8(result)
- 28: 6(int) ShiftRightLogical 27 26
+ 27: 6(int64_t) Load 8(result)
+ 28: 6(int64_t) ShiftRightLogical 27 26
Store 8(result) 28
Return
FunctionEnd
diff --git a/Test/baseResults/spv.shaderBallot.comp.out b/Test/baseResults/spv.shaderBallot.comp.out
index 96d14ae2..77b69430 100644
--- a/Test/baseResults/spv.shaderBallot.comp.out
+++ b/Test/baseResults/spv.shaderBallot.comp.out
@@ -52,8 +52,8 @@ spv.shaderBallot.comp
12(gl_SubGroupSizeARB): 9(ptr) Variable Input
15: 6(int) Constant 4
17: TypeInt 64 0
- 18: TypePointer Function 17(int)
- 20: TypePointer Input 17(int)
+ 18: TypePointer Function 17(int64_t)
+ 20: TypePointer Input 17(int64_t)
21(gl_SubGroupEqMaskARB): 20(ptr) Variable Input
23(gl_SubGroupGeMaskARB): 20(ptr) Variable Input
26(gl_SubGroupGtMaskARB): 20(ptr) Variable Input
@@ -99,22 +99,22 @@ spv.shaderBallot.comp
14: 6(int) IAdd 11 13
16: 6(int) UMod 14 15
Store 8(invocation) 16
- 22: 17(int) Load 21(gl_SubGroupEqMaskARB)
- 24: 17(int) Load 23(gl_SubGroupGeMaskARB)
- 25: 17(int) IAdd 22 24
- 27: 17(int) Load 26(gl_SubGroupGtMaskARB)
- 28: 17(int) IAdd 25 27
- 30: 17(int) Load 29(gl_SubGroupLeMaskARB)
- 31: 17(int) IAdd 28 30
- 33: 17(int) Load 32(gl_SubGroupLtMaskARB)
- 34: 17(int) IAdd 31 33
+ 22: 17(int64_t) Load 21(gl_SubGroupEqMaskARB)
+ 24: 17(int64_t) Load 23(gl_SubGroupGeMaskARB)
+ 25: 17(int64_t) IAdd 22 24
+ 27: 17(int64_t) Load 26(gl_SubGroupGtMaskARB)
+ 28: 17(int64_t) IAdd 25 27
+ 30: 17(int64_t) Load 29(gl_SubGroupLeMaskARB)
+ 31: 17(int64_t) IAdd 28 30
+ 33: 17(int64_t) Load 32(gl_SubGroupLtMaskARB)
+ 34: 17(int64_t) IAdd 31 33
Store 19(relMask) 34
- 35: 17(int) Load 19(relMask)
+ 35: 17(int64_t) Load 19(relMask)
39: 38(ivec4) SubgroupBallotKHR 37
40: 6(int) CompositeExtract 39 0
41: 6(int) CompositeExtract 39 1
43: 42(ivec2) CompositeConstruct 40 41
- 44: 17(int) Bitcast 43
+ 44: 17(int64_t) Bitcast 43
45: 36(bool) IEqual 35 44
SelectionMerge 47 None
BranchConditional 45 46 216
diff --git a/Test/baseResults/spv.shaderBallotAMD.comp.out b/Test/baseResults/spv.shaderBallotAMD.comp.out
index 0d8c0f42..f2ffc19f 100644
--- a/Test/baseResults/spv.shaderBallotAMD.comp.out
+++ b/Test/baseResults/spv.shaderBallotAMD.comp.out
@@ -56,16 +56,16 @@ spv.shaderBallotAMD.comp
9: TypeFloat 32
10: TypeVector 9(float) 3
11: TypeFloat 64
- 12: TypeVector 11(float) 4
+ 12: TypeVector 11(float64_t) 4
13: TypeInt 64 1
14: TypeInt 64 0
- 15: TypeVector 14(int) 2
+ 15: TypeVector 14(int64_t) 2
16: TypeFloat 16
- 17: TypeVector 16(float) 3
+ 17: TypeVector 16(float16_t) 3
18: TypeInt 16 1
- 19: TypeVector 18(int) 4
+ 19: TypeVector 18(int16_t) 4
20: TypeInt 16 0
- 21(Buffers): TypeStruct 6(int) 8(ivec2) 10(fvec3) 12(fvec4) 13(int) 15(ivec2) 17(fvec3) 19(ivec4) 20(int)
+ 21(Buffers): TypeStruct 6(int) 8(ivec2) 10(fvec3) 12(f64vec4) 13(int64_t) 15(i64vec2) 17(f16vec3) 19(i16vec4) 20(int16_t)
22: TypePointer Uniform 21(Buffers)
23: 22(ptr) Variable Uniform
24: 6(int) Constant 0
@@ -76,17 +76,17 @@ spv.shaderBallotAMD.comp
41: 6(int) Constant 2
42: TypePointer Uniform 10(fvec3)
53: 6(int) Constant 3
- 54: TypePointer Uniform 12(fvec4)
+ 54: TypePointer Uniform 12(f64vec4)
67: 6(int) Constant 4
- 68: TypePointer Uniform 13(int)
+ 68: TypePointer Uniform 13(int64_t)
73: 6(int) Constant 5
- 74: TypePointer Uniform 15(ivec2)
+ 74: TypePointer Uniform 15(i64vec2)
83: 6(int) Constant 6
- 84: TypePointer Uniform 17(fvec3)
+ 84: TypePointer Uniform 17(f16vec3)
95: 6(int) Constant 7
- 96: TypePointer Uniform 19(ivec4)
+ 96: TypePointer Uniform 19(i16vec4)
109: 6(int) Constant 8
- 110: TypePointer Uniform 20(int)
+ 110: TypePointer Uniform 20(int16_t)
1339: TypeVector 7(int) 3
1340: 7(int) Constant 8
1341: 7(int) Constant 1
@@ -119,59 +119,59 @@ spv.shaderBallotAMD.comp
52: 42(ptr) AccessChain 23 41
Store 52 51
55: 54(ptr) AccessChain 23 53
- 56: 12(fvec4) Load 55
- 57: 11(float) CompositeExtract 56 0
- 58: 11(float) GroupFMin 28 Reduce 57
- 59: 11(float) CompositeExtract 56 1
- 60: 11(float) GroupFMin 28 Reduce 59
- 61: 11(float) CompositeExtract 56 2
- 62: 11(float) GroupFMin 28 Reduce 61
- 63: 11(float) CompositeExtract 56 3
- 64: 11(float) GroupFMin 28 Reduce 63
- 65: 12(fvec4) CompositeConstruct 58 60 62 64
+ 56: 12(f64vec4) Load 55
+ 57:11(float64_t) CompositeExtract 56 0
+ 58:11(float64_t) GroupFMin 28 Reduce 57
+ 59:11(float64_t) CompositeExtract 56 1
+ 60:11(float64_t) GroupFMin 28 Reduce 59
+ 61:11(float64_t) CompositeExtract 56 2
+ 62:11(float64_t) GroupFMin 28 Reduce 61
+ 63:11(float64_t) CompositeExtract 56 3
+ 64:11(float64_t) GroupFMin 28 Reduce 63
+ 65: 12(f64vec4) CompositeConstruct 58 60 62 64
66: 54(ptr) AccessChain 23 53
Store 66 65
69: 68(ptr) AccessChain 23 67
- 70: 13(int) Load 69
- 71: 13(int) GroupSMin 28 Reduce 70
+ 70: 13(int64_t) Load 69
+ 71: 13(int64_t) GroupSMin 28 Reduce 70
72: 68(ptr) AccessChain 23 67
Store 72 71
75: 74(ptr) AccessChain 23 73
- 76: 15(ivec2) Load 75
- 77: 14(int) CompositeExtract 76 0
- 78: 14(int) GroupUMin 28 Reduce 77
- 79: 14(int) CompositeExtract 76 1
- 80: 14(int) GroupUMin 28 Reduce 79
- 81: 15(ivec2) CompositeConstruct 78 80
+ 76: 15(i64vec2) Load 75
+ 77: 14(int64_t) CompositeExtract 76 0
+ 78: 14(int64_t) GroupUMin 28 Reduce 77
+ 79: 14(int64_t) CompositeExtract 76 1
+ 80: 14(int64_t) GroupUMin 28 Reduce 79
+ 81: 15(i64vec2) CompositeConstruct 78 80
82: 74(ptr) AccessChain 23 73
Store 82 81
85: 84(ptr) AccessChain 23 83
- 86: 17(fvec3) Load 85
- 87: 16(float) CompositeExtract 86 0
- 88: 16(float) GroupFMin 28 Reduce 87
- 89: 16(float) CompositeExtract 86 1
- 90: 16(float) GroupFMin 28 Reduce 89
- 91: 16(float) CompositeExtract 86 2
- 92: 16(float) GroupFMin 28 Reduce 91
- 93: 17(fvec3) CompositeConstruct 88 90 92
+ 86: 17(f16vec3) Load 85
+ 87:16(float16_t) CompositeExtract 86 0
+ 88:16(float16_t) GroupFMin 28 Reduce 87
+ 89:16(float16_t) CompositeExtract 86 1
+ 90:16(float16_t) GroupFMin 28 Reduce 89
+ 91:16(float16_t) CompositeExtract 86 2
+ 92:16(float16_t) GroupFMin 28 Reduce 91
+ 93: 17(f16vec3) CompositeConstruct 88 90 92
94: 84(ptr) AccessChain 23 83
Store 94 93
97: 96(ptr) AccessChain 23 95
- 98: 19(ivec4) Load 97
- 99: 18(int) CompositeExtract 98 0
- 100: 18(int) GroupSMin 28 Reduce 99
- 101: 18(int) CompositeExtract 98 1
- 102: 18(int) GroupSMin 28 Reduce 101
- 103: 18(int) CompositeExtract 98 2
- 104: 18(int) GroupSMin 28 Reduce 103
- 105: 18(int) CompositeExtract 98 3
- 106: 18(int) GroupSMin 28 Reduce 105
- 107: 19(ivec4) CompositeConstruct 100 102 104 106
+ 98: 19(i16vec4) Load 97
+ 99: 18(int16_t) CompositeExtract 98 0
+ 100: 18(int16_t) GroupSMin 28 Reduce 99
+ 101: 18(int16_t) CompositeExtract 98 1
+ 102: 18(int16_t) GroupSMin 28 Reduce 101
+ 103: 18(int16_t) CompositeExtract 98 2
+ 104: 18(int16_t) GroupSMin 28 Reduce 103
+ 105: 18(int16_t) CompositeExtract 98 3
+ 106: 18(int16_t) GroupSMin 28 Reduce 105
+ 107: 19(i16vec4) CompositeConstruct 100 102 104 106
108: 96(ptr) AccessChain 23 95
Store 108 107
111: 110(ptr) AccessChain 23 109
- 112: 20(int) Load 111
- 113: 20(int) GroupUMin 28 Reduce 112
+ 112: 20(int16_t) Load 111
+ 113: 20(int16_t) GroupUMin 28 Reduce 112
114: 110(ptr) AccessChain 23 109
Store 114 113
115: 25(ptr) AccessChain 23 24
@@ -200,59 +200,59 @@ spv.shaderBallotAMD.comp
136: 42(ptr) AccessChain 23 41
Store 136 135
137: 54(ptr) AccessChain 23 53
- 138: 12(fvec4) Load 137
- 139: 11(float) CompositeExtract 138 0
- 140: 11(float) GroupFMax 28 Reduce 139
- 141: 11(float) CompositeExtract 138 1
- 142: 11(float) GroupFMax 28 Reduce 141
- 143: 11(float) CompositeExtract 138 2
- 144: 11(float) GroupFMax 28 Reduce 143
- 145: 11(float) CompositeExtract 138 3
- 146: 11(float) GroupFMax 28 Reduce 145
- 147: 12(fvec4) CompositeConstruct 140 142 144 146
+ 138: 12(f64vec4) Load 137
+ 139:11(float64_t) CompositeExtract 138 0
+ 140:11(float64_t) GroupFMax 28 Reduce 139
+ 141:11(float64_t) CompositeExtract 138 1
+ 142:11(float64_t) GroupFMax 28 Reduce 141
+ 143:11(float64_t) CompositeExtract 138 2
+ 144:11(float64_t) GroupFMax 28 Reduce 143
+ 145:11(float64_t) CompositeExtract 138 3
+ 146:11(float64_t) GroupFMax 28 Reduce 145
+ 147: 12(f64vec4) CompositeConstruct 140 142 144 146
148: 54(ptr) AccessChain 23 53
Store 148 147
149: 68(ptr) AccessChain 23 67
- 150: 13(int) Load 149
- 151: 13(int) GroupSMax 28 Reduce 150
+ 150: 13(int64_t) Load 149
+ 151: 13(int64_t) GroupSMax 28 Reduce 150
152: 68(ptr) AccessChain 23 67
Store 152 151
153: 74(ptr) AccessChain 23 73
- 154: 15(ivec2) Load 153
- 155: 14(int) CompositeExtract 154 0
- 156: 14(int) GroupUMax 28 Reduce 155
- 157: 14(int) CompositeExtract 154 1
- 158: 14(int) GroupUMax 28 Reduce 157
- 159: 15(ivec2) CompositeConstruct 156 158
+ 154: 15(i64vec2) Load 153
+ 155: 14(int64_t) CompositeExtract 154 0
+ 156: 14(int64_t) GroupUMax 28 Reduce 155
+ 157: 14(int64_t) CompositeExtract 154 1
+ 158: 14(int64_t) GroupUMax 28 Reduce 157
+ 159: 15(i64vec2) CompositeConstruct 156 158
160: 74(ptr) AccessChain 23 73
Store 160 159
161: 84(ptr) AccessChain 23 83
- 162: 17(fvec3) Load 161
- 163: 16(float) CompositeExtract 162 0
- 164: 16(float) GroupFMax 28 Reduce 163
- 165: 16(float) CompositeExtract 162 1
- 166: 16(float) GroupFMax 28 Reduce 165
- 167: 16(float) CompositeExtract 162 2
- 168: 16(float) GroupFMax 28 Reduce 167
- 169: 17(fvec3) CompositeConstruct 164 166 168
+ 162: 17(f16vec3) Load 161
+ 163:16(float16_t) CompositeExtract 162 0
+ 164:16(float16_t) GroupFMax 28 Reduce 163
+ 165:16(float16_t) CompositeExtract 162 1
+ 166:16(float16_t) GroupFMax 28 Reduce 165
+ 167:16(float16_t) CompositeExtract 162 2
+ 168:16(float16_t) GroupFMax 28 Reduce 167
+ 169: 17(f16vec3) CompositeConstruct 164 166 168
170: 84(ptr) AccessChain 23 83
Store 170 169
171: 96(ptr) AccessChain 23 95
- 172: 19(ivec4) Load 171
- 173: 18(int) CompositeExtract 172 0
- 174: 18(int) GroupSMax 28 Reduce 173
- 175: 18(int) CompositeExtract 172 1
- 176: 18(int) GroupSMax 28 Reduce 175
- 177: 18(int) CompositeExtract 172 2
- 178: 18(int) GroupSMax 28 Reduce 177
- 179: 18(int) CompositeExtract 172 3
- 180: 18(int) GroupSMax 28 Reduce 179
- 181: 19(ivec4) CompositeConstruct 174 176 178 180
+ 172: 19(i16vec4) Load 171
+ 173: 18(int16_t) CompositeExtract 172 0
+ 174: 18(int16_t) GroupSMax 28 Reduce 173
+ 175: 18(int16_t) CompositeExtract 172 1
+ 176: 18(int16_t) GroupSMax 28 Reduce 175
+ 177: 18(int16_t) CompositeExtract 172 2
+ 178: 18(int16_t) GroupSMax 28 Reduce 177
+ 179: 18(int16_t) CompositeExtract 172 3
+ 180: 18(int16_t) GroupSMax 28 Reduce 179
+ 181: 19(i16vec4) CompositeConstruct 174 176 178 180
182: 96(ptr) AccessChain 23 95
Store 182 181
183: 110(ptr) AccessChain 23 109
- 184: 20(int) Load 183
- 185: 20(int) GroupUMax 28 Reduce 184
+ 184: 20(int16_t) Load 183
+ 185: 20(int16_t) GroupUMax 28 Reduce 184
186: 110(ptr) AccessChain 23 109
Store 186 185
187: 25(ptr) AccessChain 23 24
@@ -281,59 +281,59 @@ spv.shaderBallotAMD.comp
208: 42(ptr) AccessChain 23 41
Store 208 207
209: 54(ptr) AccessChain 23 53
- 210: 12(fvec4) Load 209
- 211: 11(float) CompositeExtract 210 0
- 212: 11(float) GroupFAdd 28 Reduce 211
- 213: 11(float) CompositeExtract 210 1
- 214: 11(float) GroupFAdd 28 Reduce 213
- 215: 11(float) CompositeExtract 210 2
- 216: 11(float) GroupFAdd 28 Reduce 215
- 217: 11(float) CompositeExtract 210 3
- 218: 11(float) GroupFAdd 28 Reduce 217
- 219: 12(fvec4) CompositeConstruct 212 214 216 218
+ 210: 12(f64vec4) Load 209
+ 211:11(float64_t) CompositeExtract 210 0
+ 212:11(float64_t) GroupFAdd 28 Reduce 211
+ 213:11(float64_t) CompositeExtract 210 1
+ 214:11(float64_t) GroupFAdd 28 Reduce 213
+ 215:11(float64_t) CompositeExtract 210 2
+ 216:11(float64_t) GroupFAdd 28 Reduce 215
+ 217:11(float64_t) CompositeExtract 210 3
+ 218:11(float64_t) GroupFAdd 28 Reduce 217
+ 219: 12(f64vec4) CompositeConstruct 212 214 216 218
220: 54(ptr) AccessChain 23 53
Store 220 219
221: 68(ptr) AccessChain 23 67
- 222: 13(int) Load 221
- 223: 13(int) GroupIAdd 28 Reduce 222
+ 222: 13(int64_t) Load 221
+ 223: 13(int64_t) GroupIAdd 28 Reduce 222
224: 68(ptr) AccessChain 23 67
Store 224 223
225: 74(ptr) AccessChain 23 73
- 226: 15(ivec2) Load 225
- 227: 14(int) CompositeExtract 226 0
- 228: 14(int) GroupIAdd 28 Reduce 227
- 229: 14(int) CompositeExtract 226 1
- 230: 14(int) GroupIAdd 28 Reduce 229
- 231: 15(ivec2) CompositeConstruct 228 230
+ 226: 15(i64vec2) Load 225
+ 227: 14(int64_t) CompositeExtract 226 0
+ 228: 14(int64_t) GroupIAdd 28 Reduce 227
+ 229: 14(int64_t) CompositeExtract 226 1
+ 230: 14(int64_t) GroupIAdd 28 Reduce 229
+ 231: 15(i64vec2) CompositeConstruct 228 230
232: 74(ptr) AccessChain 23 73
Store 232 231
233: 84(ptr) AccessChain 23 83
- 234: 17(fvec3) Load 233
- 235: 16(float) CompositeExtract 234 0
- 236: 16(float) GroupFAdd 28 Reduce 235
- 237: 16(float) CompositeExtract 234 1
- 238: 16(float) GroupFAdd 28 Reduce 237
- 239: 16(float) CompositeExtract 234 2
- 240: 16(float) GroupFAdd 28 Reduce 239
- 241: 17(fvec3) CompositeConstruct 236 238 240
+ 234: 17(f16vec3) Load 233
+ 235:16(float16_t) CompositeExtract 234 0
+ 236:16(float16_t) GroupFAdd 28 Reduce 235
+ 237:16(float16_t) CompositeExtract 234 1
+ 238:16(float16_t) GroupFAdd 28 Reduce 237
+ 239:16(float16_t) CompositeExtract 234 2
+ 240:16(float16_t) GroupFAdd 28 Reduce 239
+ 241: 17(f16vec3) CompositeConstruct 236 238 240
242: 84(ptr) AccessChain 23 83
Store 242 241
243: 96(ptr) AccessChain 23 95
- 244: 19(ivec4) Load 243
- 245: 18(int) CompositeExtract 244 0
- 246: 18(int) GroupIAdd 28 Reduce 245
- 247: 18(int) CompositeExtract 244 1
- 248: 18(int) GroupIAdd 28 Reduce 247
- 249: 18(int) CompositeExtract 244 2
- 250: 18(int) GroupIAdd 28 Reduce 249
- 251: 18(int) CompositeExtract 244 3
- 252: 18(int) GroupIAdd 28 Reduce 251
- 253: 19(ivec4) CompositeConstruct 246 248 250 252
+ 244: 19(i16vec4) Load 243
+ 245: 18(int16_t) CompositeExtract 244 0
+ 246: 18(int16_t) GroupIAdd 28 Reduce 245
+ 247: 18(int16_t) CompositeExtract 244 1
+ 248: 18(int16_t) GroupIAdd 28 Reduce 247
+ 249: 18(int16_t) CompositeExtract 244 2
+ 250: 18(int16_t) GroupIAdd 28 Reduce 249
+ 251: 18(int16_t) CompositeExtract 244 3
+ 252: 18(int16_t) GroupIAdd 28 Reduce 251
+ 253: 19(i16vec4) CompositeConstruct 246 248 250 252
254: 96(ptr) AccessChain 23 95
Store 254 253
255: 110(ptr) AccessChain 23 109
- 256: 20(int) Load 255
- 257: 20(int) GroupIAdd 28 Reduce 256
+ 256: 20(int16_t) Load 255
+ 257: 20(int16_t) GroupIAdd 28 Reduce 256
258: 110(ptr) AccessChain 23 109
Store 258 257
259: 25(ptr) AccessChain 23 24
@@ -362,59 +362,59 @@ spv.shaderBallotAMD.comp
280: 42(ptr) AccessChain 23 41
Store 280 279
281: 54(ptr) AccessChain 23 53
- 282: 12(fvec4) Load 281
- 283: 11(float) CompositeExtract 282 0
- 284: 11(float) GroupFMinNonUniformAMD 28 Reduce 283
- 285: 11(float) CompositeExtract 282 1
- 286: 11(float) GroupFMinNonUniformAMD 28 Reduce 285
- 287: 11(float) CompositeExtract 282 2
- 288: 11(float) GroupFMinNonUniformAMD 28 Reduce 287
- 289: 11(float) CompositeExtract 282 3
- 290: 11(float) GroupFMinNonUniformAMD 28 Reduce 289
- 291: 12(fvec4) CompositeConstruct 284 286 288 290
+ 282: 12(f64vec4) Load 281
+ 283:11(float64_t) CompositeExtract 282 0
+ 284:11(float64_t) GroupFMinNonUniformAMD 28 Reduce 283
+ 285:11(float64_t) CompositeExtract 282 1
+ 286:11(float64_t) GroupFMinNonUniformAMD 28 Reduce 285
+ 287:11(float64_t) CompositeExtract 282 2
+ 288:11(float64_t) GroupFMinNonUniformAMD 28 Reduce 287
+ 289:11(float64_t) CompositeExtract 282 3
+ 290:11(float64_t) GroupFMinNonUniformAMD 28 Reduce 289
+ 291: 12(f64vec4) CompositeConstruct 284 286 288 290
292: 54(ptr) AccessChain 23 53
Store 292 291
293: 68(ptr) AccessChain 23 67
- 294: 13(int) Load 293
- 295: 13(int) GroupSMinNonUniformAMD 28 Reduce 294
+ 294: 13(int64_t) Load 293
+ 295: 13(int64_t) GroupSMinNonUniformAMD 28 Reduce 294
296: 68(ptr) AccessChain 23 67
Store 296 295
297: 74(ptr) AccessChain 23 73
- 298: 15(ivec2) Load 297
- 299: 14(int) CompositeExtract 298 0
- 300: 14(int) GroupUMinNonUniformAMD 28 Reduce 299
- 301: 14(int) CompositeExtract 298 1
- 302: 14(int) GroupUMinNonUniformAMD 28 Reduce 301
- 303: 15(ivec2) CompositeConstruct 300 302
+ 298: 15(i64vec2) Load 297
+ 299: 14(int64_t) CompositeExtract 298 0
+ 300: 14(int64_t) GroupUMinNonUniformAMD 28 Reduce 299
+ 301: 14(int64_t) CompositeExtract 298 1
+ 302: 14(int64_t) GroupUMinNonUniformAMD 28 Reduce 301
+ 303: 15(i64vec2) CompositeConstruct 300 302
304: 74(ptr) AccessChain 23 73
Store 304 303
305: 84(ptr) AccessChain 23 83
- 306: 17(fvec3) Load 305
- 307: 16(float) CompositeExtract 306 0
- 308: 16(float) GroupFMinNonUniformAMD 28 Reduce 307
- 309: 16(float) CompositeExtract 306 1
- 310: 16(float) GroupFMinNonUniformAMD 28 Reduce 309
- 311: 16(float) CompositeExtract 306 2
- 312: 16(float) GroupFMinNonUniformAMD 28 Reduce 311
- 313: 17(fvec3) CompositeConstruct 308 310 312
+ 306: 17(f16vec3) Load 305
+ 307:16(float16_t) CompositeExtract 306 0
+ 308:16(float16_t) GroupFMinNonUniformAMD 28 Reduce 307
+ 309:16(float16_t) CompositeExtract 306 1
+ 310:16(float16_t) GroupFMinNonUniformAMD 28 Reduce 309
+ 311:16(float16_t) CompositeExtract 306 2
+ 312:16(float16_t) GroupFMinNonUniformAMD 28 Reduce 311
+ 313: 17(f16vec3) CompositeConstruct 308 310 312
314: 84(ptr) AccessChain 23 83
Store 314 313
315: 96(ptr) AccessChain 23 95
- 316: 19(ivec4) Load 315
- 317: 18(int) CompositeExtract 316 0
- 318: 18(int) GroupSMinNonUniformAMD 28 Reduce 317
- 319: 18(int) CompositeExtract 316 1
- 320: 18(int) GroupSMinNonUniformAMD 28 Reduce 319
- 321: 18(int) CompositeExtract 316 2
- 322: 18(int) GroupSMinNonUniformAMD 28 Reduce 321
- 323: 18(int) CompositeExtract 316 3
- 324: 18(int) GroupSMinNonUniformAMD 28 Reduce 323
- 325: 19(ivec4) CompositeConstruct 318 320 322 324
+ 316: 19(i16vec4) Load 315
+ 317: 18(int16_t) CompositeExtract 316 0
+ 318: 18(int16_t) GroupSMinNonUniformAMD 28 Reduce 317
+ 319: 18(int16_t) CompositeExtract 316 1
+ 320: 18(int16_t) GroupSMinNonUniformAMD 28 Reduce 319
+ 321: 18(int16_t) CompositeExtract 316 2
+ 322: 18(int16_t) GroupSMinNonUniformAMD 28 Reduce 321
+ 323: 18(int16_t) CompositeExtract 316 3
+ 324: 18(int16_t) GroupSMinNonUniformAMD 28 Reduce 323
+ 325: 19(i16vec4) CompositeConstruct 318 320 322 324
326: 96(ptr) AccessChain 23 95
Store 326 325
327: 110(ptr) AccessChain 23 109
- 328: 20(int) Load 327
- 329: 20(int) GroupUMinNonUniformAMD 28 Reduce 328
+ 328: 20(int16_t) Load 327
+ 329: 20(int16_t) GroupUMinNonUniformAMD 28 Reduce 328
330: 110(ptr) AccessChain 23 109
Store 330 329
331: 25(ptr) AccessChain 23 24
@@ -443,59 +443,59 @@ spv.shaderBallotAMD.comp
352: 42(ptr) AccessChain 23 41
Store 352 351
353: 54(ptr) AccessChain 23 53
- 354: 12(fvec4) Load 353
- 355: 11(float) CompositeExtract 354 0
- 356: 11(float) GroupFMaxNonUniformAMD 28 Reduce 355
- 357: 11(float) CompositeExtract 354 1
- 358: 11(float) GroupFMaxNonUniformAMD 28 Reduce 357
- 359: 11(float) CompositeExtract 354 2
- 360: 11(float) GroupFMaxNonUniformAMD 28 Reduce 359
- 361: 11(float) CompositeExtract 354 3
- 362: 11(float) GroupFMaxNonUniformAMD 28 Reduce 361
- 363: 12(fvec4) CompositeConstruct 356 358 360 362
+ 354: 12(f64vec4) Load 353
+ 355:11(float64_t) CompositeExtract 354 0
+ 356:11(float64_t) GroupFMaxNonUniformAMD 28 Reduce 355
+ 357:11(float64_t) CompositeExtract 354 1
+ 358:11(float64_t) GroupFMaxNonUniformAMD 28 Reduce 357
+ 359:11(float64_t) CompositeExtract 354 2
+ 360:11(float64_t) GroupFMaxNonUniformAMD 28 Reduce 359
+ 361:11(float64_t) CompositeExtract 354 3
+ 362:11(float64_t) GroupFMaxNonUniformAMD 28 Reduce 361
+ 363: 12(f64vec4) CompositeConstruct 356 358 360 362
364: 54(ptr) AccessChain 23 53
Store 364 363
365: 68(ptr) AccessChain 23 67
- 366: 13(int) Load 365
- 367: 13(int) GroupSMaxNonUniformAMD 28 Reduce 366
+ 366: 13(int64_t) Load 365
+ 367: 13(int64_t) GroupSMaxNonUniformAMD 28 Reduce 366
368: 68(ptr) AccessChain 23 67
Store 368 367
369: 74(ptr) AccessChain 23 73
- 370: 15(ivec2) Load 369
- 371: 14(int) CompositeExtract 370 0
- 372: 14(int) GroupUMaxNonUniformAMD 28 Reduce 371
- 373: 14(int) CompositeExtract 370 1
- 374: 14(int) GroupUMaxNonUniformAMD 28 Reduce 373
- 375: 15(ivec2) CompositeConstruct 372 374
+ 370: 15(i64vec2) Load 369
+ 371: 14(int64_t) CompositeExtract 370 0
+ 372: 14(int64_t) GroupUMaxNonUniformAMD 28 Reduce 371
+ 373: 14(int64_t) CompositeExtract 370 1
+ 374: 14(int64_t) GroupUMaxNonUniformAMD 28 Reduce 373
+ 375: 15(i64vec2) CompositeConstruct 372 374
376: 74(ptr) AccessChain 23 73
Store 376 375
377: 84(ptr) AccessChain 23 83
- 378: 17(fvec3) Load 377
- 379: 16(float) CompositeExtract 378 0
- 380: 16(float) GroupFMaxNonUniformAMD 28 Reduce 379
- 381: 16(float) CompositeExtract 378 1
- 382: 16(float) GroupFMaxNonUniformAMD 28 Reduce 381
- 383: 16(float) CompositeExtract 378 2
- 384: 16(float) GroupFMaxNonUniformAMD 28 Reduce 383
- 385: 17(fvec3) CompositeConstruct 380 382 384
+ 378: 17(f16vec3) Load 377
+ 379:16(float16_t) CompositeExtract 378 0
+ 380:16(float16_t) GroupFMaxNonUniformAMD 28 Reduce 379
+ 381:16(float16_t) CompositeExtract 378 1
+ 382:16(float16_t) GroupFMaxNonUniformAMD 28 Reduce 381
+ 383:16(float16_t) CompositeExtract 378 2
+ 384:16(float16_t) GroupFMaxNonUniformAMD 28 Reduce 383
+ 385: 17(f16vec3) CompositeConstruct 380 382 384
386: 84(ptr) AccessChain 23 83
Store 386 385
387: 96(ptr) AccessChain 23 95
- 388: 19(ivec4) Load 387
- 389: 18(int) CompositeExtract 388 0
- 390: 18(int) GroupSMaxNonUniformAMD 28 Reduce 389
- 391: 18(int) CompositeExtract 388 1
- 392: 18(int) GroupSMaxNonUniformAMD 28 Reduce 391
- 393: 18(int) CompositeExtract 388 2
- 394: 18(int) GroupSMaxNonUniformAMD 28 Reduce 393
- 395: 18(int) CompositeExtract 388 3
- 396: 18(int) GroupSMaxNonUniformAMD 28 Reduce 395
- 397: 19(ivec4) CompositeConstruct 390 392 394 396
+ 388: 19(i16vec4) Load 387
+ 389: 18(int16_t) CompositeExtract 388 0
+ 390: 18(int16_t) GroupSMaxNonUniformAMD 28 Reduce 389
+ 391: 18(int16_t) CompositeExtract 388 1
+ 392: 18(int16_t) GroupSMaxNonUniformAMD 28 Reduce 391
+ 393: 18(int16_t) CompositeExtract 388 2
+ 394: 18(int16_t) GroupSMaxNonUniformAMD 28 Reduce 393
+ 395: 18(int16_t) CompositeExtract 388 3
+ 396: 18(int16_t) GroupSMaxNonUniformAMD 28 Reduce 395
+ 397: 19(i16vec4) CompositeConstruct 390 392 394 396
398: 96(ptr) AccessChain 23 95
Store 398 397
399: 110(ptr) AccessChain 23 109
- 400: 20(int) Load 399
- 401: 20(int) GroupUMaxNonUniformAMD 28 Reduce 400
+ 400: 20(int16_t) Load 399
+ 401: 20(int16_t) GroupUMaxNonUniformAMD 28 Reduce 400
402: 110(ptr) AccessChain 23 109
Store 402 401
403: 25(ptr) AccessChain 23 24
@@ -524,59 +524,59 @@ spv.shaderBallotAMD.comp
424: 42(ptr) AccessChain 23 41
Store 424 423
425: 54(ptr) AccessChain 23 53
- 426: 12(fvec4) Load 425
- 427: 11(float) CompositeExtract 426 0
- 428: 11(float) GroupFAddNonUniformAMD 28 Reduce 427
- 429: 11(float) CompositeExtract 426 1
- 430: 11(float) GroupFAddNonUniformAMD 28 Reduce 429
- 431: 11(float) CompositeExtract 426 2
- 432: 11(float) GroupFAddNonUniformAMD 28 Reduce 431
- 433: 11(float) CompositeExtract 426 3
- 434: 11(float) GroupFAddNonUniformAMD 28 Reduce 433
- 435: 12(fvec4) CompositeConstruct 428 430 432 434
+ 426: 12(f64vec4) Load 425
+ 427:11(float64_t) CompositeExtract 426 0
+ 428:11(float64_t) GroupFAddNonUniformAMD 28 Reduce 427
+ 429:11(float64_t) CompositeExtract 426 1
+ 430:11(float64_t) GroupFAddNonUniformAMD 28 Reduce 429
+ 431:11(float64_t) CompositeExtract 426 2
+ 432:11(float64_t) GroupFAddNonUniformAMD 28 Reduce 431
+ 433:11(float64_t) CompositeExtract 426 3
+ 434:11(float64_t) GroupFAddNonUniformAMD 28 Reduce 433
+ 435: 12(f64vec4) CompositeConstruct 428 430 432 434
436: 54(ptr) AccessChain 23 53
Store 436 435
437: 68(ptr) AccessChain 23 67
- 438: 13(int) Load 437
- 439: 13(int) GroupIAddNonUniformAMD 28 Reduce 438
+ 438: 13(int64_t) Load 437
+ 439: 13(int64_t) GroupIAddNonUniformAMD 28 Reduce 438
440: 68(ptr) AccessChain 23 67
Store 440 439
441: 74(ptr) AccessChain 23 73
- 442: 15(ivec2) Load 441
- 443: 14(int) CompositeExtract 442 0
- 444: 14(int) GroupIAddNonUniformAMD 28 Reduce 443
- 445: 14(int) CompositeExtract 442 1
- 446: 14(int) GroupIAddNonUniformAMD 28 Reduce 445
- 447: 15(ivec2) CompositeConstruct 444 446
+ 442: 15(i64vec2) Load 441
+ 443: 14(int64_t) CompositeExtract 442 0
+ 444: 14(int64_t) GroupIAddNonUniformAMD 28 Reduce 443
+ 445: 14(int64_t) CompositeExtract 442 1
+ 446: 14(int64_t) GroupIAddNonUniformAMD 28 Reduce 445
+ 447: 15(i64vec2) CompositeConstruct 444 446
448: 74(ptr) AccessChain 23 73
Store 448 447
449: 84(ptr) AccessChain 23 83
- 450: 17(fvec3) Load 449
- 451: 16(float) CompositeExtract 450 0
- 452: 16(float) GroupFAddNonUniformAMD 28 Reduce 451
- 453: 16(float) CompositeExtract 450 1
- 454: 16(float) GroupFAddNonUniformAMD 28 Reduce 453
- 455: 16(float) CompositeExtract 450 2
- 456: 16(float) GroupFAddNonUniformAMD 28 Reduce 455
- 457: 17(fvec3) CompositeConstruct 452 454 456
+ 450: 17(f16vec3) Load 449
+ 451:16(float16_t) CompositeExtract 450 0
+ 452:16(float16_t) GroupFAddNonUniformAMD 28 Reduce 451
+ 453:16(float16_t) CompositeExtract 450 1
+ 454:16(float16_t) GroupFAddNonUniformAMD 28 Reduce 453
+ 455:16(float16_t) CompositeExtract 450 2
+ 456:16(float16_t) GroupFAddNonUniformAMD 28 Reduce 455
+ 457: 17(f16vec3) CompositeConstruct 452 454 456
458: 84(ptr) AccessChain 23 83
Store 458 457
459: 96(ptr) AccessChain 23 95
- 460: 19(ivec4) Load 459
- 461: 18(int) CompositeExtract 460 0
- 462: 18(int) GroupIAddNonUniformAMD 28 Reduce 461
- 463: 18(int) CompositeExtract 460 1
- 464: 18(int) GroupIAddNonUniformAMD 28 Reduce 463
- 465: 18(int) CompositeExtract 460 2
- 466: 18(int) GroupIAddNonUniformAMD 28 Reduce 465
- 467: 18(int) CompositeExtract 460 3
- 468: 18(int) GroupIAddNonUniformAMD 28 Reduce 467
- 469: 19(ivec4) CompositeConstruct 462 464 466 468
+ 460: 19(i16vec4) Load 459
+ 461: 18(int16_t) CompositeExtract 460 0
+ 462: 18(int16_t) GroupIAddNonUniformAMD 28 Reduce 461
+ 463: 18(int16_t) CompositeExtract 460 1
+ 464: 18(int16_t) GroupIAddNonUniformAMD 28 Reduce 463
+ 465: 18(int16_t) CompositeExtract 460 2
+ 466: 18(int16_t) GroupIAddNonUniformAMD 28 Reduce 465
+ 467: 18(int16_t) CompositeExtract 460 3
+ 468: 18(int16_t) GroupIAddNonUniformAMD 28 Reduce 467
+ 469: 19(i16vec4) CompositeConstruct 462 464 466 468
470: 96(ptr) AccessChain 23 95
Store 470 469
471: 110(ptr) AccessChain 23 109
- 472: 20(int) Load 471
- 473: 20(int) GroupIAddNonUniformAMD 28 Reduce 472
+ 472: 20(int16_t) Load 471
+ 473: 20(int16_t) GroupIAddNonUniformAMD 28 Reduce 472
474: 110(ptr) AccessChain 23 109
Store 474 473
475: 25(ptr) AccessChain 23 24
@@ -605,59 +605,59 @@ spv.shaderBallotAMD.comp
496: 42(ptr) AccessChain 23 41
Store 496 495
497: 54(ptr) AccessChain 23 53
- 498: 12(fvec4) Load 497
- 499: 11(float) CompositeExtract 498 0
- 500: 11(float) GroupFMin 28 InclusiveScan 499
- 501: 11(float) CompositeExtract 498 1
- 502: 11(float) GroupFMin 28 InclusiveScan 501
- 503: 11(float) CompositeExtract 498 2
- 504: 11(float) GroupFMin 28 InclusiveScan 503
- 505: 11(float) CompositeExtract 498 3
- 506: 11(float) GroupFMin 28 InclusiveScan 505
- 507: 12(fvec4) CompositeConstruct 500 502 504 506
+ 498: 12(f64vec4) Load 497
+ 499:11(float64_t) CompositeExtract 498 0
+ 500:11(float64_t) GroupFMin 28 InclusiveScan 499
+ 501:11(float64_t) CompositeExtract 498 1
+ 502:11(float64_t) GroupFMin 28 InclusiveScan 501
+ 503:11(float64_t) CompositeExtract 498 2
+ 504:11(float64_t) GroupFMin 28 InclusiveScan 503
+ 505:11(float64_t) CompositeExtract 498 3
+ 506:11(float64_t) GroupFMin 28 InclusiveScan 505
+ 507: 12(f64vec4) CompositeConstruct 500 502 504 506
508: 54(ptr) AccessChain 23 53
Store 508 507
509: 68(ptr) AccessChain 23 67
- 510: 13(int) Load 509
- 511: 13(int) GroupSMin 28 InclusiveScan 510
+ 510: 13(int64_t) Load 509
+ 511: 13(int64_t) GroupSMin 28 InclusiveScan 510
512: 68(ptr) AccessChain 23 67
Store 512 511
513: 74(ptr) AccessChain 23 73
- 514: 15(ivec2) Load 513
- 515: 14(int) CompositeExtract 514 0
- 516: 14(int) GroupUMin 28 InclusiveScan 515
- 517: 14(int) CompositeExtract 514 1
- 518: 14(int) GroupUMin 28 InclusiveScan 517
- 519: 15(ivec2) CompositeConstruct 516 518
+ 514: 15(i64vec2) Load 513
+ 515: 14(int64_t) CompositeExtract 514 0
+ 516: 14(int64_t) GroupUMin 28 InclusiveScan 515
+ 517: 14(int64_t) CompositeExtract 514 1
+ 518: 14(int64_t) GroupUMin 28 InclusiveScan 517
+ 519: 15(i64vec2) CompositeConstruct 516 518
520: 74(ptr) AccessChain 23 73
Store 520 519
521: 84(ptr) AccessChain 23 83
- 522: 17(fvec3) Load 521
- 523: 16(float) CompositeExtract 522 0
- 524: 16(float) GroupFMin 28 InclusiveScan 523
- 525: 16(float) CompositeExtract 522 1
- 526: 16(float) GroupFMin 28 InclusiveScan 525
- 527: 16(float) CompositeExtract 522 2
- 528: 16(float) GroupFMin 28 InclusiveScan 527
- 529: 17(fvec3) CompositeConstruct 524 526 528
+ 522: 17(f16vec3) Load 521
+ 523:16(float16_t) CompositeExtract 522 0
+ 524:16(float16_t) GroupFMin 28 InclusiveScan 523
+ 525:16(float16_t) CompositeExtract 522 1
+ 526:16(float16_t) GroupFMin 28 InclusiveScan 525
+ 527:16(float16_t) CompositeExtract 522 2
+ 528:16(float16_t) GroupFMin 28 InclusiveScan 527
+ 529: 17(f16vec3) CompositeConstruct 524 526 528
530: 84(ptr) AccessChain 23 83
Store 530 529
531: 96(ptr) AccessChain 23 95
- 532: 19(ivec4) Load 531
- 533: 18(int) CompositeExtract 532 0
- 534: 18(int) GroupSMin 28 InclusiveScan 533
- 535: 18(int) CompositeExtract 532 1
- 536: 18(int) GroupSMin 28 InclusiveScan 535
- 537: 18(int) CompositeExtract 532 2
- 538: 18(int) GroupSMin 28 InclusiveScan 537
- 539: 18(int) CompositeExtract 532 3
- 540: 18(int) GroupSMin 28 InclusiveScan 539
- 541: 19(ivec4) CompositeConstruct 534 536 538 540
+ 532: 19(i16vec4) Load 531
+ 533: 18(int16_t) CompositeExtract 532 0
+ 534: 18(int16_t) GroupSMin 28 InclusiveScan 533
+ 535: 18(int16_t) CompositeExtract 532 1
+ 536: 18(int16_t) GroupSMin 28 InclusiveScan 535
+ 537: 18(int16_t) CompositeExtract 532 2
+ 538: 18(int16_t) GroupSMin 28 InclusiveScan 537
+ 539: 18(int16_t) CompositeExtract 532 3
+ 540: 18(int16_t) GroupSMin 28 InclusiveScan 539
+ 541: 19(i16vec4) CompositeConstruct 534 536 538 540
542: 96(ptr) AccessChain 23 95
Store 542 541
543: 110(ptr) AccessChain 23 109
- 544: 20(int) Load 543
- 545: 20(int) GroupUMin 28 InclusiveScan 544
+ 544: 20(int16_t) Load 543
+ 545: 20(int16_t) GroupUMin 28 InclusiveScan 544
546: 110(ptr) AccessChain 23 109
Store 546 545
547: 25(ptr) AccessChain 23 24
@@ -686,59 +686,59 @@ spv.shaderBallotAMD.comp
568: 42(ptr) AccessChain 23 41
Store 568 567
569: 54(ptr) AccessChain 23 53
- 570: 12(fvec4) Load 569
- 571: 11(float) CompositeExtract 570 0
- 572: 11(float) GroupFMax 28 InclusiveScan 571
- 573: 11(float) CompositeExtract 570 1
- 574: 11(float) GroupFMax 28 InclusiveScan 573
- 575: 11(float) CompositeExtract 570 2
- 576: 11(float) GroupFMax 28 InclusiveScan 575
- 577: 11(float) CompositeExtract 570 3
- 578: 11(float) GroupFMax 28 InclusiveScan 577
- 579: 12(fvec4) CompositeConstruct 572 574 576 578
+ 570: 12(f64vec4) Load 569
+ 571:11(float64_t) CompositeExtract 570 0
+ 572:11(float64_t) GroupFMax 28 InclusiveScan 571
+ 573:11(float64_t) CompositeExtract 570 1
+ 574:11(float64_t) GroupFMax 28 InclusiveScan 573
+ 575:11(float64_t) CompositeExtract 570 2
+ 576:11(float64_t) GroupFMax 28 InclusiveScan 575
+ 577:11(float64_t) CompositeExtract 570 3
+ 578:11(float64_t) GroupFMax 28 InclusiveScan 577
+ 579: 12(f64vec4) CompositeConstruct 572 574 576 578
580: 54(ptr) AccessChain 23 53
Store 580 579
581: 68(ptr) AccessChain 23 67
- 582: 13(int) Load 581
- 583: 13(int) GroupSMax 28 InclusiveScan 582
+ 582: 13(int64_t) Load 581
+ 583: 13(int64_t) GroupSMax 28 InclusiveScan 582
584: 68(ptr) AccessChain 23 67
Store 584 583
585: 74(ptr) AccessChain 23 73
- 586: 15(ivec2) Load 585
- 587: 14(int) CompositeExtract 586 0
- 588: 14(int) GroupUMax 28 InclusiveScan 587
- 589: 14(int) CompositeExtract 586 1
- 590: 14(int) GroupUMax 28 InclusiveScan 589
- 591: 15(ivec2) CompositeConstruct 588 590
+ 586: 15(i64vec2) Load 585
+ 587: 14(int64_t) CompositeExtract 586 0
+ 588: 14(int64_t) GroupUMax 28 InclusiveScan 587
+ 589: 14(int64_t) CompositeExtract 586 1
+ 590: 14(int64_t) GroupUMax 28 InclusiveScan 589
+ 591: 15(i64vec2) CompositeConstruct 588 590
592: 74(ptr) AccessChain 23 73
Store 592 591
593: 84(ptr) AccessChain 23 83
- 594: 17(fvec3) Load 593
- 595: 16(float) CompositeExtract 594 0
- 596: 16(float) GroupFMax 28 InclusiveScan 595
- 597: 16(float) CompositeExtract 594 1
- 598: 16(float) GroupFMax 28 InclusiveScan 597
- 599: 16(float) CompositeExtract 594 2
- 600: 16(float) GroupFMax 28 InclusiveScan 599
- 601: 17(fvec3) CompositeConstruct 596 598 600
+ 594: 17(f16vec3) Load 593
+ 595:16(float16_t) CompositeExtract 594 0
+ 596:16(float16_t) GroupFMax 28 InclusiveScan 595
+ 597:16(float16_t) CompositeExtract 594 1
+ 598:16(float16_t) GroupFMax 28 InclusiveScan 597
+ 599:16(float16_t) CompositeExtract 594 2
+ 600:16(float16_t) GroupFMax 28 InclusiveScan 599
+ 601: 17(f16vec3) CompositeConstruct 596 598 600
602: 84(ptr) AccessChain 23 83
Store 602 601
603: 96(ptr) AccessChain 23 95
- 604: 19(ivec4) Load 603
- 605: 18(int) CompositeExtract 604 0
- 606: 18(int) GroupSMax 28 InclusiveScan 605
- 607: 18(int) CompositeExtract 604 1
- 608: 18(int) GroupSMax 28 InclusiveScan 607
- 609: 18(int) CompositeExtract 604 2
- 610: 18(int) GroupSMax 28 InclusiveScan 609
- 611: 18(int) CompositeExtract 604 3
- 612: 18(int) GroupSMax 28 InclusiveScan 611
- 613: 19(ivec4) CompositeConstruct 606 608 610 612
+ 604: 19(i16vec4) Load 603
+ 605: 18(int16_t) CompositeExtract 604 0
+ 606: 18(int16_t) GroupSMax 28 InclusiveScan 605
+ 607: 18(int16_t) CompositeExtract 604 1
+ 608: 18(int16_t) GroupSMax 28 InclusiveScan 607
+ 609: 18(int16_t) CompositeExtract 604 2
+ 610: 18(int16_t) GroupSMax 28 InclusiveScan 609
+ 611: 18(int16_t) CompositeExtract 604 3
+ 612: 18(int16_t) GroupSMax 28 InclusiveScan 611
+ 613: 19(i16vec4) CompositeConstruct 606 608 610 612
614: 96(ptr) AccessChain 23 95
Store 614 613
615: 110(ptr) AccessChain 23 109
- 616: 20(int) Load 615
- 617: 20(int) GroupUMax 28 InclusiveScan 616
+ 616: 20(int16_t) Load 615
+ 617: 20(int16_t) GroupUMax 28 InclusiveScan 616
618: 110(ptr) AccessChain 23 109
Store 618 617
619: 25(ptr) AccessChain 23 24
@@ -767,59 +767,59 @@ spv.shaderBallotAMD.comp
640: 42(ptr) AccessChain 23 41
Store 640 639
641: 54(ptr) AccessChain 23 53
- 642: 12(fvec4) Load 641
- 643: 11(float) CompositeExtract 642 0
- 644: 11(float) GroupFAdd 28 InclusiveScan 643
- 645: 11(float) CompositeExtract 642 1
- 646: 11(float) GroupFAdd 28 InclusiveScan 645
- 647: 11(float) CompositeExtract 642 2
- 648: 11(float) GroupFAdd 28 InclusiveScan 647
- 649: 11(float) CompositeExtract 642 3
- 650: 11(float) GroupFAdd 28 InclusiveScan 649
- 651: 12(fvec4) CompositeConstruct 644 646 648 650
+ 642: 12(f64vec4) Load 641
+ 643:11(float64_t) CompositeExtract 642 0
+ 644:11(float64_t) GroupFAdd 28 InclusiveScan 643
+ 645:11(float64_t) CompositeExtract 642 1
+ 646:11(float64_t) GroupFAdd 28 InclusiveScan 645
+ 647:11(float64_t) CompositeExtract 642 2
+ 648:11(float64_t) GroupFAdd 28 InclusiveScan 647
+ 649:11(float64_t) CompositeExtract 642 3
+ 650:11(float64_t) GroupFAdd 28 InclusiveScan 649
+ 651: 12(f64vec4) CompositeConstruct 644 646 648 650
652: 54(ptr) AccessChain 23 53
Store 652 651
653: 68(ptr) AccessChain 23 67
- 654: 13(int) Load 653
- 655: 13(int) GroupIAdd 28 InclusiveScan 654
+ 654: 13(int64_t) Load 653
+ 655: 13(int64_t) GroupIAdd 28 InclusiveScan 654
656: 68(ptr) AccessChain 23 67
Store 656 655
657: 74(ptr) AccessChain 23 73
- 658: 15(ivec2) Load 657
- 659: 14(int) CompositeExtract 658 0
- 660: 14(int) GroupIAdd 28 InclusiveScan 659
- 661: 14(int) CompositeExtract 658 1
- 662: 14(int) GroupIAdd 28 InclusiveScan 661
- 663: 15(ivec2) CompositeConstruct 660 662
+ 658: 15(i64vec2) Load 657
+ 659: 14(int64_t) CompositeExtract 658 0
+ 660: 14(int64_t) GroupIAdd 28 InclusiveScan 659
+ 661: 14(int64_t) CompositeExtract 658 1
+ 662: 14(int64_t) GroupIAdd 28 InclusiveScan 661
+ 663: 15(i64vec2) CompositeConstruct 660 662
664: 74(ptr) AccessChain 23 73
Store 664 663
665: 84(ptr) AccessChain 23 83
- 666: 17(fvec3) Load 665
- 667: 16(float) CompositeExtract 666 0
- 668: 16(float) GroupFAdd 28 InclusiveScan 667
- 669: 16(float) CompositeExtract 666 1
- 670: 16(float) GroupFAdd 28 InclusiveScan 669
- 671: 16(float) CompositeExtract 666 2
- 672: 16(float) GroupFAdd 28 InclusiveScan 671
- 673: 17(fvec3) CompositeConstruct 668 670 672
+ 666: 17(f16vec3) Load 665
+ 667:16(float16_t) CompositeExtract 666 0
+ 668:16(float16_t) GroupFAdd 28 InclusiveScan 667
+ 669:16(float16_t) CompositeExtract 666 1
+ 670:16(float16_t) GroupFAdd 28 InclusiveScan 669
+ 671:16(float16_t) CompositeExtract 666 2
+ 672:16(float16_t) GroupFAdd 28 InclusiveScan 671
+ 673: 17(f16vec3) CompositeConstruct 668 670 672
674: 84(ptr) AccessChain 23 83
Store 674 673
675: 96(ptr) AccessChain 23 95
- 676: 19(ivec4) Load 675
- 677: 18(int) CompositeExtract 676 0
- 678: 18(int) GroupIAdd 28 InclusiveScan 677
- 679: 18(int) CompositeExtract 676 1
- 680: 18(int) GroupIAdd 28 InclusiveScan 679
- 681: 18(int) CompositeExtract 676 2
- 682: 18(int) GroupIAdd 28 InclusiveScan 681
- 683: 18(int) CompositeExtract 676 3
- 684: 18(int) GroupIAdd 28 InclusiveScan 683
- 685: 19(ivec4) CompositeConstruct 678 680 682 684
+ 676: 19(i16vec4) Load 675
+ 677: 18(int16_t) CompositeExtract 676 0
+ 678: 18(int16_t) GroupIAdd 28 InclusiveScan 677
+ 679: 18(int16_t) CompositeExtract 676 1
+ 680: 18(int16_t) GroupIAdd 28 InclusiveScan 679
+ 681: 18(int16_t) CompositeExtract 676 2
+ 682: 18(int16_t) GroupIAdd 28 InclusiveScan 681
+ 683: 18(int16_t) CompositeExtract 676 3
+ 684: 18(int16_t) GroupIAdd 28 InclusiveScan 683
+ 685: 19(i16vec4) CompositeConstruct 678 680 682 684
686: 96(ptr) AccessChain 23 95
Store 686 685
687: 110(ptr) AccessChain 23 109
- 688: 20(int) Load 687
- 689: 20(int) GroupIAdd 28 InclusiveScan 688
+ 688: 20(int16_t) Load 687
+ 689: 20(int16_t) GroupIAdd 28 InclusiveScan 688
690: 110(ptr) AccessChain 23 109
Store 690 689
691: 25(ptr) AccessChain 23 24
@@ -848,59 +848,59 @@ spv.shaderBallotAMD.comp
712: 42(ptr) AccessChain 23 41
Store 712 711
713: 54(ptr) AccessChain 23 53
- 714: 12(fvec4) Load 713
- 715: 11(float) CompositeExtract 714 0
- 716: 11(float) GroupFMin 28 ExclusiveScan 715
- 717: 11(float) CompositeExtract 714 1
- 718: 11(float) GroupFMin 28 ExclusiveScan 717
- 719: 11(float) CompositeExtract 714 2
- 720: 11(float) GroupFMin 28 ExclusiveScan 719
- 721: 11(float) CompositeExtract 714 3
- 722: 11(float) GroupFMin 28 ExclusiveScan 721
- 723: 12(fvec4) CompositeConstruct 716 718 720 722
+ 714: 12(f64vec4) Load 713
+ 715:11(float64_t) CompositeExtract 714 0
+ 716:11(float64_t) GroupFMin 28 ExclusiveScan 715
+ 717:11(float64_t) CompositeExtract 714 1
+ 718:11(float64_t) GroupFMin 28 ExclusiveScan 717
+ 719:11(float64_t) CompositeExtract 714 2
+ 720:11(float64_t) GroupFMin 28 ExclusiveScan 719
+ 721:11(float64_t) CompositeExtract 714 3
+ 722:11(float64_t) GroupFMin 28 ExclusiveScan 721
+ 723: 12(f64vec4) CompositeConstruct 716 718 720 722
724: 54(ptr) AccessChain 23 53
Store 724 723
725: 68(ptr) AccessChain 23 67
- 726: 13(int) Load 725
- 727: 13(int) GroupSMin 28 ExclusiveScan 726
+ 726: 13(int64_t) Load 725
+ 727: 13(int64_t) GroupSMin 28 ExclusiveScan 726
728: 68(ptr) AccessChain 23 67
Store 728 727
729: 74(ptr) AccessChain 23 73
- 730: 15(ivec2) Load 729
- 731: 14(int) CompositeExtract 730 0
- 732: 14(int) GroupUMin 28 ExclusiveScan 731
- 733: 14(int) CompositeExtract 730 1
- 734: 14(int) GroupUMin 28 ExclusiveScan 733
- 735: 15(ivec2) CompositeConstruct 732 734
+ 730: 15(i64vec2) Load 729
+ 731: 14(int64_t) CompositeExtract 730 0
+ 732: 14(int64_t) GroupUMin 28 ExclusiveScan 731
+ 733: 14(int64_t) CompositeExtract 730 1
+ 734: 14(int64_t) GroupUMin 28 ExclusiveScan 733
+ 735: 15(i64vec2) CompositeConstruct 732 734
736: 74(ptr) AccessChain 23 73
Store 736 735
737: 84(ptr) AccessChain 23 83
- 738: 17(fvec3) Load 737
- 739: 16(float) CompositeExtract 738 0
- 740: 16(float) GroupFMin 28 ExclusiveScan 739
- 741: 16(float) CompositeExtract 738 1
- 742: 16(float) GroupFMin 28 ExclusiveScan 741
- 743: 16(float) CompositeExtract 738 2
- 744: 16(float) GroupFMin 28 ExclusiveScan 743
- 745: 17(fvec3) CompositeConstruct 740 742 744
+ 738: 17(f16vec3) Load 737
+ 739:16(float16_t) CompositeExtract 738 0
+ 740:16(float16_t) GroupFMin 28 ExclusiveScan 739
+ 741:16(float16_t) CompositeExtract 738 1
+ 742:16(float16_t) GroupFMin 28 ExclusiveScan 741
+ 743:16(float16_t) CompositeExtract 738 2
+ 744:16(float16_t) GroupFMin 28 ExclusiveScan 743
+ 745: 17(f16vec3) CompositeConstruct 740 742 744
746: 84(ptr) AccessChain 23 83
Store 746 745
747: 96(ptr) AccessChain 23 95
- 748: 19(ivec4) Load 747
- 749: 18(int) CompositeExtract 748 0
- 750: 18(int) GroupSMin 28 ExclusiveScan 749
- 751: 18(int) CompositeExtract 748 1
- 752: 18(int) GroupSMin 28 ExclusiveScan 751
- 753: 18(int) CompositeExtract 748 2
- 754: 18(int) GroupSMin 28 ExclusiveScan 753
- 755: 18(int) CompositeExtract 748 3
- 756: 18(int) GroupSMin 28 ExclusiveScan 755
- 757: 19(ivec4) CompositeConstruct 750 752 754 756
+ 748: 19(i16vec4) Load 747
+ 749: 18(int16_t) CompositeExtract 748 0
+ 750: 18(int16_t) GroupSMin 28 ExclusiveScan 749
+ 751: 18(int16_t) CompositeExtract 748 1
+ 752: 18(int16_t) GroupSMin 28 ExclusiveScan 751
+ 753: 18(int16_t) CompositeExtract 748 2
+ 754: 18(int16_t) GroupSMin 28 ExclusiveScan 753
+ 755: 18(int16_t) CompositeExtract 748 3
+ 756: 18(int16_t) GroupSMin 28 ExclusiveScan 755
+ 757: 19(i16vec4) CompositeConstruct 750 752 754 756
758: 96(ptr) AccessChain 23 95
Store 758 757
759: 110(ptr) AccessChain 23 109
- 760: 20(int) Load 759
- 761: 20(int) GroupUMin 28 ExclusiveScan 760
+ 760: 20(int16_t) Load 759
+ 761: 20(int16_t) GroupUMin 28 ExclusiveScan 760
762: 110(ptr) AccessChain 23 109
Store 762 761
763: 25(ptr) AccessChain 23 24
@@ -929,59 +929,59 @@ spv.shaderBallotAMD.comp
784: 42(ptr) AccessChain 23 41
Store 784 783
785: 54(ptr) AccessChain 23 53
- 786: 12(fvec4) Load 785
- 787: 11(float) CompositeExtract 786 0
- 788: 11(float) GroupFMax 28 ExclusiveScan 787
- 789: 11(float) CompositeExtract 786 1
- 790: 11(float) GroupFMax 28 ExclusiveScan 789
- 791: 11(float) CompositeExtract 786 2
- 792: 11(float) GroupFMax 28 ExclusiveScan 791
- 793: 11(float) CompositeExtract 786 3
- 794: 11(float) GroupFMax 28 ExclusiveScan 793
- 795: 12(fvec4) CompositeConstruct 788 790 792 794
+ 786: 12(f64vec4) Load 785
+ 787:11(float64_t) CompositeExtract 786 0
+ 788:11(float64_t) GroupFMax 28 ExclusiveScan 787
+ 789:11(float64_t) CompositeExtract 786 1
+ 790:11(float64_t) GroupFMax 28 ExclusiveScan 789
+ 791:11(float64_t) CompositeExtract 786 2
+ 792:11(float64_t) GroupFMax 28 ExclusiveScan 791
+ 793:11(float64_t) CompositeExtract 786 3
+ 794:11(float64_t) GroupFMax 28 ExclusiveScan 793
+ 795: 12(f64vec4) CompositeConstruct 788 790 792 794
796: 54(ptr) AccessChain 23 53
Store 796 795
797: 68(ptr) AccessChain 23 67
- 798: 13(int) Load 797
- 799: 13(int) GroupSMax 28 ExclusiveScan 798
+ 798: 13(int64_t) Load 797
+ 799: 13(int64_t) GroupSMax 28 ExclusiveScan 798
800: 68(ptr) AccessChain 23 67
Store 800 799
801: 74(ptr) AccessChain 23 73
- 802: 15(ivec2) Load 801
- 803: 14(int) CompositeExtract 802 0
- 804: 14(int) GroupUMax 28 ExclusiveScan 803
- 805: 14(int) CompositeExtract 802 1
- 806: 14(int) GroupUMax 28 ExclusiveScan 805
- 807: 15(ivec2) CompositeConstruct 804 806
+ 802: 15(i64vec2) Load 801
+ 803: 14(int64_t) CompositeExtract 802 0
+ 804: 14(int64_t) GroupUMax 28 ExclusiveScan 803
+ 805: 14(int64_t) CompositeExtract 802 1
+ 806: 14(int64_t) GroupUMax 28 ExclusiveScan 805
+ 807: 15(i64vec2) CompositeConstruct 804 806
808: 74(ptr) AccessChain 23 73
Store 808 807
809: 84(ptr) AccessChain 23 83
- 810: 17(fvec3) Load 809
- 811: 16(float) CompositeExtract 810 0
- 812: 16(float) GroupFMax 28 ExclusiveScan 811
- 813: 16(float) CompositeExtract 810 1
- 814: 16(float) GroupFMax 28 ExclusiveScan 813
- 815: 16(float) CompositeExtract 810 2
- 816: 16(float) GroupFMax 28 ExclusiveScan 815
- 817: 17(fvec3) CompositeConstruct 812 814 816
+ 810: 17(f16vec3) Load 809
+ 811:16(float16_t) CompositeExtract 810 0
+ 812:16(float16_t) GroupFMax 28 ExclusiveScan 811
+ 813:16(float16_t) CompositeExtract 810 1
+ 814:16(float16_t) GroupFMax 28 ExclusiveScan 813
+ 815:16(float16_t) CompositeExtract 810 2
+ 816:16(float16_t) GroupFMax 28 ExclusiveScan 815
+ 817: 17(f16vec3) CompositeConstruct 812 814 816
818: 84(ptr) AccessChain 23 83
Store 818 817
819: 96(ptr) AccessChain 23 95
- 820: 19(ivec4) Load 819
- 821: 18(int) CompositeExtract 820 0
- 822: 18(int) GroupSMax 28 ExclusiveScan 821
- 823: 18(int) CompositeExtract 820 1
- 824: 18(int) GroupSMax 28 ExclusiveScan 823
- 825: 18(int) CompositeExtract 820 2
- 826: 18(int) GroupSMax 28 ExclusiveScan 825
- 827: 18(int) CompositeExtract 820 3
- 828: 18(int) GroupSMax 28 ExclusiveScan 827
- 829: 19(ivec4) CompositeConstruct 822 824 826 828
+ 820: 19(i16vec4) Load 819
+ 821: 18(int16_t) CompositeExtract 820 0
+ 822: 18(int16_t) GroupSMax 28 ExclusiveScan 821
+ 823: 18(int16_t) CompositeExtract 820 1
+ 824: 18(int16_t) GroupSMax 28 ExclusiveScan 823
+ 825: 18(int16_t) CompositeExtract 820 2
+ 826: 18(int16_t) GroupSMax 28 ExclusiveScan 825
+ 827: 18(int16_t) CompositeExtract 820 3
+ 828: 18(int16_t) GroupSMax 28 ExclusiveScan 827
+ 829: 19(i16vec4) CompositeConstruct 822 824 826 828
830: 96(ptr) AccessChain 23 95
Store 830 829
831: 110(ptr) AccessChain 23 109
- 832: 20(int) Load 831
- 833: 20(int) GroupUMax 28 ExclusiveScan 832
+ 832: 20(int16_t) Load 831
+ 833: 20(int16_t) GroupUMax 28 ExclusiveScan 832
834: 110(ptr) AccessChain 23 109
Store 834 833
835: 25(ptr) AccessChain 23 24
@@ -1010,59 +1010,59 @@ spv.shaderBallotAMD.comp
856: 42(ptr) AccessChain 23 41
Store 856 855
857: 54(ptr) AccessChain 23 53
- 858: 12(fvec4) Load 857
- 859: 11(float) CompositeExtract 858 0
- 860: 11(float) GroupFAdd 28 ExclusiveScan 859
- 861: 11(float) CompositeExtract 858 1
- 862: 11(float) GroupFAdd 28 ExclusiveScan 861
- 863: 11(float) CompositeExtract 858 2
- 864: 11(float) GroupFAdd 28 ExclusiveScan 863
- 865: 11(float) CompositeExtract 858 3
- 866: 11(float) GroupFAdd 28 ExclusiveScan 865
- 867: 12(fvec4) CompositeConstruct 860 862 864 866
+ 858: 12(f64vec4) Load 857
+ 859:11(float64_t) CompositeExtract 858 0
+ 860:11(float64_t) GroupFAdd 28 ExclusiveScan 859
+ 861:11(float64_t) CompositeExtract 858 1
+ 862:11(float64_t) GroupFAdd 28 ExclusiveScan 861
+ 863:11(float64_t) CompositeExtract 858 2
+ 864:11(float64_t) GroupFAdd 28 ExclusiveScan 863
+ 865:11(float64_t) CompositeExtract 858 3
+ 866:11(float64_t) GroupFAdd 28 ExclusiveScan 865
+ 867: 12(f64vec4) CompositeConstruct 860 862 864 866
868: 54(ptr) AccessChain 23 53
Store 868 867
869: 68(ptr) AccessChain 23 67
- 870: 13(int) Load 869
- 871: 13(int) GroupIAdd 28 ExclusiveScan 870
+ 870: 13(int64_t) Load 869
+ 871: 13(int64_t) GroupIAdd 28 ExclusiveScan 870
872: 68(ptr) AccessChain 23 67
Store 872 871
873: 74(ptr) AccessChain 23 73
- 874: 15(ivec2) Load 873
- 875: 14(int) CompositeExtract 874 0
- 876: 14(int) GroupIAdd 28 ExclusiveScan 875
- 877: 14(int) CompositeExtract 874 1
- 878: 14(int) GroupIAdd 28 ExclusiveScan 877
- 879: 15(ivec2) CompositeConstruct 876 878
+ 874: 15(i64vec2) Load 873
+ 875: 14(int64_t) CompositeExtract 874 0
+ 876: 14(int64_t) GroupIAdd 28 ExclusiveScan 875
+ 877: 14(int64_t) CompositeExtract 874 1
+ 878: 14(int64_t) GroupIAdd 28 ExclusiveScan 877
+ 879: 15(i64vec2) CompositeConstruct 876 878
880: 74(ptr) AccessChain 23 73
Store 880 879
881: 84(ptr) AccessChain 23 83
- 882: 17(fvec3) Load 881
- 883: 16(float) CompositeExtract 882 0
- 884: 16(float) GroupFAdd 28 ExclusiveScan 883
- 885: 16(float) CompositeExtract 882 1
- 886: 16(float) GroupFAdd 28 ExclusiveScan 885
- 887: 16(float) CompositeExtract 882 2
- 888: 16(float) GroupFAdd 28 ExclusiveScan 887
- 889: 17(fvec3) CompositeConstruct 884 886 888
+ 882: 17(f16vec3) Load 881
+ 883:16(float16_t) CompositeExtract 882 0
+ 884:16(float16_t) GroupFAdd 28 ExclusiveScan 883
+ 885:16(float16_t) CompositeExtract 882 1
+ 886:16(float16_t) GroupFAdd 28 ExclusiveScan 885
+ 887:16(float16_t) CompositeExtract 882 2
+ 888:16(float16_t) GroupFAdd 28 ExclusiveScan 887
+ 889: 17(f16vec3) CompositeConstruct 884 886 888
890: 84(ptr) AccessChain 23 83
Store 890 889
891: 96(ptr) AccessChain 23 95
- 892: 19(ivec4) Load 891
- 893: 18(int) CompositeExtract 892 0
- 894: 18(int) GroupIAdd 28 ExclusiveScan 893
- 895: 18(int) CompositeExtract 892 1
- 896: 18(int) GroupIAdd 28 ExclusiveScan 895
- 897: 18(int) CompositeExtract 892 2
- 898: 18(int) GroupIAdd 28 ExclusiveScan 897
- 899: 18(int) CompositeExtract 892 3
- 900: 18(int) GroupIAdd 28 ExclusiveScan 899
- 901: 19(ivec4) CompositeConstruct 894 896 898 900
+ 892: 19(i16vec4) Load 891
+ 893: 18(int16_t) CompositeExtract 892 0
+ 894: 18(int16_t) GroupIAdd 28 ExclusiveScan 893
+ 895: 18(int16_t) CompositeExtract 892 1
+ 896: 18(int16_t) GroupIAdd 28 ExclusiveScan 895
+ 897: 18(int16_t) CompositeExtract 892 2
+ 898: 18(int16_t) GroupIAdd 28 ExclusiveScan 897
+ 899: 18(int16_t) CompositeExtract 892 3
+ 900: 18(int16_t) GroupIAdd 28 ExclusiveScan 899
+ 901: 19(i16vec4) CompositeConstruct 894 896 898 900
902: 96(ptr) AccessChain 23 95
Store 902 901
903: 110(ptr) AccessChain 23 109
- 904: 20(int) Load 903
- 905: 20(int) GroupIAdd 28 ExclusiveScan 904
+ 904: 20(int16_t) Load 903
+ 905: 20(int16_t) GroupIAdd 28 ExclusiveScan 904
906: 110(ptr) AccessChain 23 109
Store 906 905
907: 25(ptr) AccessChain 23 24
@@ -1091,59 +1091,59 @@ spv.shaderBallotAMD.comp
928: 42(ptr) AccessChain 23 41
Store 928 927
929: 54(ptr) AccessChain 23 53
- 930: 12(fvec4) Load 929
- 931: 11(float) CompositeExtract 930 0
- 932: 11(float) GroupFMinNonUniformAMD 28 InclusiveScan 931
- 933: 11(float) CompositeExtract 930 1
- 934: 11(float) GroupFMinNonUniformAMD 28 InclusiveScan 933
- 935: 11(float) CompositeExtract 930 2
- 936: 11(float) GroupFMinNonUniformAMD 28 InclusiveScan 935
- 937: 11(float) CompositeExtract 930 3
- 938: 11(float) GroupFMinNonUniformAMD 28 InclusiveScan 937
- 939: 12(fvec4) CompositeConstruct 932 934 936 938
+ 930: 12(f64vec4) Load 929
+ 931:11(float64_t) CompositeExtract 930 0
+ 932:11(float64_t) GroupFMinNonUniformAMD 28 InclusiveScan 931
+ 933:11(float64_t) CompositeExtract 930 1
+ 934:11(float64_t) GroupFMinNonUniformAMD 28 InclusiveScan 933
+ 935:11(float64_t) CompositeExtract 930 2
+ 936:11(float64_t) GroupFMinNonUniformAMD 28 InclusiveScan 935
+ 937:11(float64_t) CompositeExtract 930 3
+ 938:11(float64_t) GroupFMinNonUniformAMD 28 InclusiveScan 937
+ 939: 12(f64vec4) CompositeConstruct 932 934 936 938
940: 54(ptr) AccessChain 23 53
Store 940 939
941: 68(ptr) AccessChain 23 67
- 942: 13(int) Load 941
- 943: 13(int) GroupSMinNonUniformAMD 28 InclusiveScan 942
+ 942: 13(int64_t) Load 941
+ 943: 13(int64_t) GroupSMinNonUniformAMD 28 InclusiveScan 942
944: 68(ptr) AccessChain 23 67
Store 944 943
945: 74(ptr) AccessChain 23 73
- 946: 15(ivec2) Load 945
- 947: 14(int) CompositeExtract 946 0
- 948: 14(int) GroupUMinNonUniformAMD 28 InclusiveScan 947
- 949: 14(int) CompositeExtract 946 1
- 950: 14(int) GroupUMinNonUniformAMD 28 InclusiveScan 949
- 951: 15(ivec2) CompositeConstruct 948 950
+ 946: 15(i64vec2) Load 945
+ 947: 14(int64_t) CompositeExtract 946 0
+ 948: 14(int64_t) GroupUMinNonUniformAMD 28 InclusiveScan 947
+ 949: 14(int64_t) CompositeExtract 946 1
+ 950: 14(int64_t) GroupUMinNonUniformAMD 28 InclusiveScan 949
+ 951: 15(i64vec2) CompositeConstruct 948 950
952: 74(ptr) AccessChain 23 73
Store 952 951
953: 84(ptr) AccessChain 23 83
- 954: 17(fvec3) Load 953
- 955: 16(float) CompositeExtract 954 0
- 956: 16(float) GroupFMinNonUniformAMD 28 InclusiveScan 955
- 957: 16(float) CompositeExtract 954 1
- 958: 16(float) GroupFMinNonUniformAMD 28 InclusiveScan 957
- 959: 16(float) CompositeExtract 954 2
- 960: 16(float) GroupFMinNonUniformAMD 28 InclusiveScan 959
- 961: 17(fvec3) CompositeConstruct 956 958 960
+ 954: 17(f16vec3) Load 953
+ 955:16(float16_t) CompositeExtract 954 0
+ 956:16(float16_t) GroupFMinNonUniformAMD 28 InclusiveScan 955
+ 957:16(float16_t) CompositeExtract 954 1
+ 958:16(float16_t) GroupFMinNonUniformAMD 28 InclusiveScan 957
+ 959:16(float16_t) CompositeExtract 954 2
+ 960:16(float16_t) GroupFMinNonUniformAMD 28 InclusiveScan 959
+ 961: 17(f16vec3) CompositeConstruct 956 958 960
962: 84(ptr) AccessChain 23 83
Store 962 961
963: 96(ptr) AccessChain 23 95
- 964: 19(ivec4) Load 963
- 965: 18(int) CompositeExtract 964 0
- 966: 18(int) GroupSMinNonUniformAMD 28 InclusiveScan 965
- 967: 18(int) CompositeExtract 964 1
- 968: 18(int) GroupSMinNonUniformAMD 28 InclusiveScan 967
- 969: 18(int) CompositeExtract 964 2
- 970: 18(int) GroupSMinNonUniformAMD 28 InclusiveScan 969
- 971: 18(int) CompositeExtract 964 3
- 972: 18(int) GroupSMinNonUniformAMD 28 InclusiveScan 971
- 973: 19(ivec4) CompositeConstruct 966 968 970 972
+ 964: 19(i16vec4) Load 963
+ 965: 18(int16_t) CompositeExtract 964 0
+ 966: 18(int16_t) GroupSMinNonUniformAMD 28 InclusiveScan 965
+ 967: 18(int16_t) CompositeExtract 964 1
+ 968: 18(int16_t) GroupSMinNonUniformAMD 28 InclusiveScan 967
+ 969: 18(int16_t) CompositeExtract 964 2
+ 970: 18(int16_t) GroupSMinNonUniformAMD 28 InclusiveScan 969
+ 971: 18(int16_t) CompositeExtract 964 3
+ 972: 18(int16_t) GroupSMinNonUniformAMD 28 InclusiveScan 971
+ 973: 19(i16vec4) CompositeConstruct 966 968 970 972
974: 96(ptr) AccessChain 23 95
Store 974 973
975: 110(ptr) AccessChain 23 109
- 976: 20(int) Load 975
- 977: 20(int) GroupUMinNonUniformAMD 28 InclusiveScan 976
+ 976: 20(int16_t) Load 975
+ 977: 20(int16_t) GroupUMinNonUniformAMD 28 InclusiveScan 976
978: 110(ptr) AccessChain 23 109
Store 978 977
979: 25(ptr) AccessChain 23 24
@@ -1172,59 +1172,59 @@ spv.shaderBallotAMD.comp
1000: 42(ptr) AccessChain 23 41
Store 1000 999
1001: 54(ptr) AccessChain 23 53
- 1002: 12(fvec4) Load 1001
- 1003: 11(float) CompositeExtract 1002 0
- 1004: 11(float) GroupFMaxNonUniformAMD 28 InclusiveScan 1003
- 1005: 11(float) CompositeExtract 1002 1
- 1006: 11(float) GroupFMaxNonUniformAMD 28 InclusiveScan 1005
- 1007: 11(float) CompositeExtract 1002 2
- 1008: 11(float) GroupFMaxNonUniformAMD 28 InclusiveScan 1007
- 1009: 11(float) CompositeExtract 1002 3
- 1010: 11(float) GroupFMaxNonUniformAMD 28 InclusiveScan 1009
- 1011: 12(fvec4) CompositeConstruct 1004 1006 1008 1010
+ 1002: 12(f64vec4) Load 1001
+ 1003:11(float64_t) CompositeExtract 1002 0
+ 1004:11(float64_t) GroupFMaxNonUniformAMD 28 InclusiveScan 1003
+ 1005:11(float64_t) CompositeExtract 1002 1
+ 1006:11(float64_t) GroupFMaxNonUniformAMD 28 InclusiveScan 1005
+ 1007:11(float64_t) CompositeExtract 1002 2
+ 1008:11(float64_t) GroupFMaxNonUniformAMD 28 InclusiveScan 1007
+ 1009:11(float64_t) CompositeExtract 1002 3
+ 1010:11(float64_t) GroupFMaxNonUniformAMD 28 InclusiveScan 1009
+ 1011: 12(f64vec4) CompositeConstruct 1004 1006 1008 1010
1012: 54(ptr) AccessChain 23 53
Store 1012 1011
1013: 68(ptr) AccessChain 23 67
- 1014: 13(int) Load 1013
- 1015: 13(int) GroupSMaxNonUniformAMD 28 InclusiveScan 1014
+ 1014: 13(int64_t) Load 1013
+ 1015: 13(int64_t) GroupSMaxNonUniformAMD 28 InclusiveScan 1014
1016: 68(ptr) AccessChain 23 67
Store 1016 1015
1017: 74(ptr) AccessChain 23 73
- 1018: 15(ivec2) Load 1017
- 1019: 14(int) CompositeExtract 1018 0
- 1020: 14(int) GroupUMaxNonUniformAMD 28 InclusiveScan 1019
- 1021: 14(int) CompositeExtract 1018 1
- 1022: 14(int) GroupUMaxNonUniformAMD 28 InclusiveScan 1021
- 1023: 15(ivec2) CompositeConstruct 1020 1022
+ 1018: 15(i64vec2) Load 1017
+ 1019: 14(int64_t) CompositeExtract 1018 0
+ 1020: 14(int64_t) GroupUMaxNonUniformAMD 28 InclusiveScan 1019
+ 1021: 14(int64_t) CompositeExtract 1018 1
+ 1022: 14(int64_t) GroupUMaxNonUniformAMD 28 InclusiveScan 1021
+ 1023: 15(i64vec2) CompositeConstruct 1020 1022
1024: 74(ptr) AccessChain 23 73
Store 1024 1023
1025: 84(ptr) AccessChain 23 83
- 1026: 17(fvec3) Load 1025
- 1027: 16(float) CompositeExtract 1026 0
- 1028: 16(float) GroupFMaxNonUniformAMD 28 InclusiveScan 1027
- 1029: 16(float) CompositeExtract 1026 1
- 1030: 16(float) GroupFMaxNonUniformAMD 28 InclusiveScan 1029
- 1031: 16(float) CompositeExtract 1026 2
- 1032: 16(float) GroupFMaxNonUniformAMD 28 InclusiveScan 1031
- 1033: 17(fvec3) CompositeConstruct 1028 1030 1032
+ 1026: 17(f16vec3) Load 1025
+ 1027:16(float16_t) CompositeExtract 1026 0
+ 1028:16(float16_t) GroupFMaxNonUniformAMD 28 InclusiveScan 1027
+ 1029:16(float16_t) CompositeExtract 1026 1
+ 1030:16(float16_t) GroupFMaxNonUniformAMD 28 InclusiveScan 1029
+ 1031:16(float16_t) CompositeExtract 1026 2
+ 1032:16(float16_t) GroupFMaxNonUniformAMD 28 InclusiveScan 1031
+ 1033: 17(f16vec3) CompositeConstruct 1028 1030 1032
1034: 84(ptr) AccessChain 23 83
Store 1034 1033
1035: 96(ptr) AccessChain 23 95
- 1036: 19(ivec4) Load 1035
- 1037: 18(int) CompositeExtract 1036 0
- 1038: 18(int) GroupSMaxNonUniformAMD 28 InclusiveScan 1037
- 1039: 18(int) CompositeExtract 1036 1
- 1040: 18(int) GroupSMaxNonUniformAMD 28 InclusiveScan 1039
- 1041: 18(int) CompositeExtract 1036 2
- 1042: 18(int) GroupSMaxNonUniformAMD 28 InclusiveScan 1041
- 1043: 18(int) CompositeExtract 1036 3
- 1044: 18(int) GroupSMaxNonUniformAMD 28 InclusiveScan 1043
- 1045: 19(ivec4) CompositeConstruct 1038 1040 1042 1044
+ 1036: 19(i16vec4) Load 1035
+ 1037: 18(int16_t) CompositeExtract 1036 0
+ 1038: 18(int16_t) GroupSMaxNonUniformAMD 28 InclusiveScan 1037
+ 1039: 18(int16_t) CompositeExtract 1036 1
+ 1040: 18(int16_t) GroupSMaxNonUniformAMD 28 InclusiveScan 1039
+ 1041: 18(int16_t) CompositeExtract 1036 2
+ 1042: 18(int16_t) GroupSMaxNonUniformAMD 28 InclusiveScan 1041
+ 1043: 18(int16_t) CompositeExtract 1036 3
+ 1044: 18(int16_t) GroupSMaxNonUniformAMD 28 InclusiveScan 1043
+ 1045: 19(i16vec4) CompositeConstruct 1038 1040 1042 1044
1046: 96(ptr) AccessChain 23 95
Store 1046 1045
1047: 110(ptr) AccessChain 23 109
- 1048: 20(int) Load 1047
- 1049: 20(int) GroupUMaxNonUniformAMD 28 InclusiveScan 1048
+ 1048: 20(int16_t) Load 1047
+ 1049: 20(int16_t) GroupUMaxNonUniformAMD 28 InclusiveScan 1048
1050: 110(ptr) AccessChain 23 109
Store 1050 1049
1051: 25(ptr) AccessChain 23 24
@@ -1253,59 +1253,59 @@ spv.shaderBallotAMD.comp
1072: 42(ptr) AccessChain 23 41
Store 1072 1071
1073: 54(ptr) AccessChain 23 53
- 1074: 12(fvec4) Load 1073
- 1075: 11(float) CompositeExtract 1074 0
- 1076: 11(float) GroupFAddNonUniformAMD 28 InclusiveScan 1075
- 1077: 11(float) CompositeExtract 1074 1
- 1078: 11(float) GroupFAddNonUniformAMD 28 InclusiveScan 1077
- 1079: 11(float) CompositeExtract 1074 2
- 1080: 11(float) GroupFAddNonUniformAMD 28 InclusiveScan 1079
- 1081: 11(float) CompositeExtract 1074 3
- 1082: 11(float) GroupFAddNonUniformAMD 28 InclusiveScan 1081
- 1083: 12(fvec4) CompositeConstruct 1076 1078 1080 1082
+ 1074: 12(f64vec4) Load 1073
+ 1075:11(float64_t) CompositeExtract 1074 0
+ 1076:11(float64_t) GroupFAddNonUniformAMD 28 InclusiveScan 1075
+ 1077:11(float64_t) CompositeExtract 1074 1
+ 1078:11(float64_t) GroupFAddNonUniformAMD 28 InclusiveScan 1077
+ 1079:11(float64_t) CompositeExtract 1074 2
+ 1080:11(float64_t) GroupFAddNonUniformAMD 28 InclusiveScan 1079
+ 1081:11(float64_t) CompositeExtract 1074 3
+ 1082:11(float64_t) GroupFAddNonUniformAMD 28 InclusiveScan 1081
+ 1083: 12(f64vec4) CompositeConstruct 1076 1078 1080 1082
1084: 54(ptr) AccessChain 23 53
Store 1084 1083
1085: 68(ptr) AccessChain 23 67
- 1086: 13(int) Load 1085
- 1087: 13(int) GroupIAddNonUniformAMD 28 InclusiveScan 1086
+ 1086: 13(int64_t) Load 1085
+ 1087: 13(int64_t) GroupIAddNonUniformAMD 28 InclusiveScan 1086
1088: 68(ptr) AccessChain 23 67
Store 1088 1087
1089: 74(ptr) AccessChain 23 73
- 1090: 15(ivec2) Load 1089
- 1091: 14(int) CompositeExtract 1090 0
- 1092: 14(int) GroupIAddNonUniformAMD 28 InclusiveScan 1091
- 1093: 14(int) CompositeExtract 1090 1
- 1094: 14(int) GroupIAddNonUniformAMD 28 InclusiveScan 1093
- 1095: 15(ivec2) CompositeConstruct 1092 1094
+ 1090: 15(i64vec2) Load 1089
+ 1091: 14(int64_t) CompositeExtract 1090 0
+ 1092: 14(int64_t) GroupIAddNonUniformAMD 28 InclusiveScan 1091
+ 1093: 14(int64_t) CompositeExtract 1090 1
+ 1094: 14(int64_t) GroupIAddNonUniformAMD 28 InclusiveScan 1093
+ 1095: 15(i64vec2) CompositeConstruct 1092 1094
1096: 74(ptr) AccessChain 23 73
Store 1096 1095
1097: 84(ptr) AccessChain 23 83
- 1098: 17(fvec3) Load 1097
- 1099: 16(float) CompositeExtract 1098 0
- 1100: 16(float) GroupFAddNonUniformAMD 28 InclusiveScan 1099
- 1101: 16(float) CompositeExtract 1098 1
- 1102: 16(float) GroupFAddNonUniformAMD 28 InclusiveScan 1101
- 1103: 16(float) CompositeExtract 1098 2
- 1104: 16(float) GroupFAddNonUniformAMD 28 InclusiveScan 1103
- 1105: 17(fvec3) CompositeConstruct 1100 1102 1104
+ 1098: 17(f16vec3) Load 1097
+ 1099:16(float16_t) CompositeExtract 1098 0
+ 1100:16(float16_t) GroupFAddNonUniformAMD 28 InclusiveScan 1099
+ 1101:16(float16_t) CompositeExtract 1098 1
+ 1102:16(float16_t) GroupFAddNonUniformAMD 28 InclusiveScan 1101
+ 1103:16(float16_t) CompositeExtract 1098 2
+ 1104:16(float16_t) GroupFAddNonUniformAMD 28 InclusiveScan 1103
+ 1105: 17(f16vec3) CompositeConstruct 1100 1102 1104
1106: 84(ptr) AccessChain 23 83
Store 1106 1105
1107: 96(ptr) AccessChain 23 95
- 1108: 19(ivec4) Load 1107
- 1109: 18(int) CompositeExtract 1108 0
- 1110: 18(int) GroupIAddNonUniformAMD 28 InclusiveScan 1109
- 1111: 18(int) CompositeExtract 1108 1
- 1112: 18(int) GroupIAddNonUniformAMD 28 InclusiveScan 1111
- 1113: 18(int) CompositeExtract 1108 2
- 1114: 18(int) GroupIAddNonUniformAMD 28 InclusiveScan 1113
- 1115: 18(int) CompositeExtract 1108 3
- 1116: 18(int) GroupIAddNonUniformAMD 28 InclusiveScan 1115
- 1117: 19(ivec4) CompositeConstruct 1110 1112 1114 1116
+ 1108: 19(i16vec4) Load 1107
+ 1109: 18(int16_t) CompositeExtract 1108 0
+ 1110: 18(int16_t) GroupIAddNonUniformAMD 28 InclusiveScan 1109
+ 1111: 18(int16_t) CompositeExtract 1108 1
+ 1112: 18(int16_t) GroupIAddNonUniformAMD 28 InclusiveScan 1111
+ 1113: 18(int16_t) CompositeExtract 1108 2
+ 1114: 18(int16_t) GroupIAddNonUniformAMD 28 InclusiveScan 1113
+ 1115: 18(int16_t) CompositeExtract 1108 3
+ 1116: 18(int16_t) GroupIAddNonUniformAMD 28 InclusiveScan 1115
+ 1117: 19(i16vec4) CompositeConstruct 1110 1112 1114 1116
1118: 96(ptr) AccessChain 23 95
Store 1118 1117
1119: 110(ptr) AccessChain 23 109
- 1120: 20(int) Load 1119
- 1121: 20(int) GroupIAddNonUniformAMD 28 InclusiveScan 1120
+ 1120: 20(int16_t) Load 1119
+ 1121: 20(int16_t) GroupIAddNonUniformAMD 28 InclusiveScan 1120
1122: 110(ptr) AccessChain 23 109
Store 1122 1121
1123: 25(ptr) AccessChain 23 24
@@ -1334,59 +1334,59 @@ spv.shaderBallotAMD.comp
1144: 42(ptr) AccessChain 23 41
Store 1144 1143
1145: 54(ptr) AccessChain 23 53
- 1146: 12(fvec4) Load 1145
- 1147: 11(float) CompositeExtract 1146 0
- 1148: 11(float) GroupFMinNonUniformAMD 28 ExclusiveScan 1147
- 1149: 11(float) CompositeExtract 1146 1
- 1150: 11(float) GroupFMinNonUniformAMD 28 ExclusiveScan 1149
- 1151: 11(float) CompositeExtract 1146 2
- 1152: 11(float) GroupFMinNonUniformAMD 28 ExclusiveScan 1151
- 1153: 11(float) CompositeExtract 1146 3
- 1154: 11(float) GroupFMinNonUniformAMD 28 ExclusiveScan 1153
- 1155: 12(fvec4) CompositeConstruct 1148 1150 1152 1154
+ 1146: 12(f64vec4) Load 1145
+ 1147:11(float64_t) CompositeExtract 1146 0
+ 1148:11(float64_t) GroupFMinNonUniformAMD 28 ExclusiveScan 1147
+ 1149:11(float64_t) CompositeExtract 1146 1
+ 1150:11(float64_t) GroupFMinNonUniformAMD 28 ExclusiveScan 1149
+ 1151:11(float64_t) CompositeExtract 1146 2
+ 1152:11(float64_t) GroupFMinNonUniformAMD 28 ExclusiveScan 1151
+ 1153:11(float64_t) CompositeExtract 1146 3
+ 1154:11(float64_t) GroupFMinNonUniformAMD 28 ExclusiveScan 1153
+ 1155: 12(f64vec4) CompositeConstruct 1148 1150 1152 1154
1156: 54(ptr) AccessChain 23 53
Store 1156 1155
1157: 68(ptr) AccessChain 23 67
- 1158: 13(int) Load 1157
- 1159: 13(int) GroupSMinNonUniformAMD 28 ExclusiveScan 1158
+ 1158: 13(int64_t) Load 1157
+ 1159: 13(int64_t) GroupSMinNonUniformAMD 28 ExclusiveScan 1158
1160: 68(ptr) AccessChain 23 67
Store 1160 1159
1161: 74(ptr) AccessChain 23 73
- 1162: 15(ivec2) Load 1161
- 1163: 14(int) CompositeExtract 1162 0
- 1164: 14(int) GroupUMinNonUniformAMD 28 ExclusiveScan 1163
- 1165: 14(int) CompositeExtract 1162 1
- 1166: 14(int) GroupUMinNonUniformAMD 28 ExclusiveScan 1165
- 1167: 15(ivec2) CompositeConstruct 1164 1166
+ 1162: 15(i64vec2) Load 1161
+ 1163: 14(int64_t) CompositeExtract 1162 0
+ 1164: 14(int64_t) GroupUMinNonUniformAMD 28 ExclusiveScan 1163
+ 1165: 14(int64_t) CompositeExtract 1162 1
+ 1166: 14(int64_t) GroupUMinNonUniformAMD 28 ExclusiveScan 1165
+ 1167: 15(i64vec2) CompositeConstruct 1164 1166
1168: 74(ptr) AccessChain 23 73
Store 1168 1167
1169: 84(ptr) AccessChain 23 83
- 1170: 17(fvec3) Load 1169
- 1171: 16(float) CompositeExtract 1170 0
- 1172: 16(float) GroupFMinNonUniformAMD 28 ExclusiveScan 1171
- 1173: 16(float) CompositeExtract 1170 1
- 1174: 16(float) GroupFMinNonUniformAMD 28 ExclusiveScan 1173
- 1175: 16(float) CompositeExtract 1170 2
- 1176: 16(float) GroupFMinNonUniformAMD 28 ExclusiveScan 1175
- 1177: 17(fvec3) CompositeConstruct 1172 1174 1176
+ 1170: 17(f16vec3) Load 1169
+ 1171:16(float16_t) CompositeExtract 1170 0
+ 1172:16(float16_t) GroupFMinNonUniformAMD 28 ExclusiveScan 1171
+ 1173:16(float16_t) CompositeExtract 1170 1
+ 1174:16(float16_t) GroupFMinNonUniformAMD 28 ExclusiveScan 1173
+ 1175:16(float16_t) CompositeExtract 1170 2
+ 1176:16(float16_t) GroupFMinNonUniformAMD 28 ExclusiveScan 1175
+ 1177: 17(f16vec3) CompositeConstruct 1172 1174 1176
1178: 84(ptr) AccessChain 23 83
Store 1178 1177
1179: 96(ptr) AccessChain 23 95
- 1180: 19(ivec4) Load 1179
- 1181: 18(int) CompositeExtract 1180 0
- 1182: 18(int) GroupSMinNonUniformAMD 28 ExclusiveScan 1181
- 1183: 18(int) CompositeExtract 1180 1
- 1184: 18(int) GroupSMinNonUniformAMD 28 ExclusiveScan 1183
- 1185: 18(int) CompositeExtract 1180 2
- 1186: 18(int) GroupSMinNonUniformAMD 28 ExclusiveScan 1185
- 1187: 18(int) CompositeExtract 1180 3
- 1188: 18(int) GroupSMinNonUniformAMD 28 ExclusiveScan 1187
- 1189: 19(ivec4) CompositeConstruct 1182 1184 1186 1188
+ 1180: 19(i16vec4) Load 1179
+ 1181: 18(int16_t) CompositeExtract 1180 0
+ 1182: 18(int16_t) GroupSMinNonUniformAMD 28 ExclusiveScan 1181
+ 1183: 18(int16_t) CompositeExtract 1180 1
+ 1184: 18(int16_t) GroupSMinNonUniformAMD 28 ExclusiveScan 1183
+ 1185: 18(int16_t) CompositeExtract 1180 2
+ 1186: 18(int16_t) GroupSMinNonUniformAMD 28 ExclusiveScan 1185
+ 1187: 18(int16_t) CompositeExtract 1180 3
+ 1188: 18(int16_t) GroupSMinNonUniformAMD 28 ExclusiveScan 1187
+ 1189: 19(i16vec4) CompositeConstruct 1182 1184 1186 1188
1190: 96(ptr) AccessChain 23 95
Store 1190 1189
1191: 110(ptr) AccessChain 23 109
- 1192: 20(int) Load 1191
- 1193: 20(int) GroupUMinNonUniformAMD 28 ExclusiveScan 1192
+ 1192: 20(int16_t) Load 1191
+ 1193: 20(int16_t) GroupUMinNonUniformAMD 28 ExclusiveScan 1192
1194: 110(ptr) AccessChain 23 109
Store 1194 1193
1195: 25(ptr) AccessChain 23 24
@@ -1415,59 +1415,59 @@ spv.shaderBallotAMD.comp
1216: 42(ptr) AccessChain 23 41
Store 1216 1215
1217: 54(ptr) AccessChain 23 53
- 1218: 12(fvec4) Load 1217
- 1219: 11(float) CompositeExtract 1218 0
- 1220: 11(float) GroupFMaxNonUniformAMD 28 ExclusiveScan 1219
- 1221: 11(float) CompositeExtract 1218 1
- 1222: 11(float) GroupFMaxNonUniformAMD 28 ExclusiveScan 1221
- 1223: 11(float) CompositeExtract 1218 2
- 1224: 11(float) GroupFMaxNonUniformAMD 28 ExclusiveScan 1223
- 1225: 11(float) CompositeExtract 1218 3
- 1226: 11(float) GroupFMaxNonUniformAMD 28 ExclusiveScan 1225
- 1227: 12(fvec4) CompositeConstruct 1220 1222 1224 1226
+ 1218: 12(f64vec4) Load 1217
+ 1219:11(float64_t) CompositeExtract 1218 0
+ 1220:11(float64_t) GroupFMaxNonUniformAMD 28 ExclusiveScan 1219
+ 1221:11(float64_t) CompositeExtract 1218 1
+ 1222:11(float64_t) GroupFMaxNonUniformAMD 28 ExclusiveScan 1221
+ 1223:11(float64_t) CompositeExtract 1218 2
+ 1224:11(float64_t) GroupFMaxNonUniformAMD 28 ExclusiveScan 1223
+ 1225:11(float64_t) CompositeExtract 1218 3
+ 1226:11(float64_t) GroupFMaxNonUniformAMD 28 ExclusiveScan 1225
+ 1227: 12(f64vec4) CompositeConstruct 1220 1222 1224 1226
1228: 54(ptr) AccessChain 23 53
Store 1228 1227
1229: 68(ptr) AccessChain 23 67
- 1230: 13(int) Load 1229
- 1231: 13(int) GroupSMaxNonUniformAMD 28 ExclusiveScan 1230
+ 1230: 13(int64_t) Load 1229
+ 1231: 13(int64_t) GroupSMaxNonUniformAMD 28 ExclusiveScan 1230
1232: 68(ptr) AccessChain 23 67
Store 1232 1231
1233: 74(ptr) AccessChain 23 73
- 1234: 15(ivec2) Load 1233
- 1235: 14(int) CompositeExtract 1234 0
- 1236: 14(int) GroupUMaxNonUniformAMD 28 ExclusiveScan 1235
- 1237: 14(int) CompositeExtract 1234 1
- 1238: 14(int) GroupUMaxNonUniformAMD 28 ExclusiveScan 1237
- 1239: 15(ivec2) CompositeConstruct 1236 1238
+ 1234: 15(i64vec2) Load 1233
+ 1235: 14(int64_t) CompositeExtract 1234 0
+ 1236: 14(int64_t) GroupUMaxNonUniformAMD 28 ExclusiveScan 1235
+ 1237: 14(int64_t) CompositeExtract 1234 1
+ 1238: 14(int64_t) GroupUMaxNonUniformAMD 28 ExclusiveScan 1237
+ 1239: 15(i64vec2) CompositeConstruct 1236 1238
1240: 74(ptr) AccessChain 23 73
Store 1240 1239
1241: 84(ptr) AccessChain 23 83
- 1242: 17(fvec3) Load 1241
- 1243: 16(float) CompositeExtract 1242 0
- 1244: 16(float) GroupFMaxNonUniformAMD 28 ExclusiveScan 1243
- 1245: 16(float) CompositeExtract 1242 1
- 1246: 16(float) GroupFMaxNonUniformAMD 28 ExclusiveScan 1245
- 1247: 16(float) CompositeExtract 1242 2
- 1248: 16(float) GroupFMaxNonUniformAMD 28 ExclusiveScan 1247
- 1249: 17(fvec3) CompositeConstruct 1244 1246 1248
+ 1242: 17(f16vec3) Load 1241
+ 1243:16(float16_t) CompositeExtract 1242 0
+ 1244:16(float16_t) GroupFMaxNonUniformAMD 28 ExclusiveScan 1243
+ 1245:16(float16_t) CompositeExtract 1242 1
+ 1246:16(float16_t) GroupFMaxNonUniformAMD 28 ExclusiveScan 1245
+ 1247:16(float16_t) CompositeExtract 1242 2
+ 1248:16(float16_t) GroupFMaxNonUniformAMD 28 ExclusiveScan 1247
+ 1249: 17(f16vec3) CompositeConstruct 1244 1246 1248
1250: 84(ptr) AccessChain 23 83
Store 1250 1249
1251: 96(ptr) AccessChain 23 95
- 1252: 19(ivec4) Load 1251
- 1253: 18(int) CompositeExtract 1252 0
- 1254: 18(int) GroupSMaxNonUniformAMD 28 ExclusiveScan 1253
- 1255: 18(int) CompositeExtract 1252 1
- 1256: 18(int) GroupSMaxNonUniformAMD 28 ExclusiveScan 1255
- 1257: 18(int) CompositeExtract 1252 2
- 1258: 18(int) GroupSMaxNonUniformAMD 28 ExclusiveScan 1257
- 1259: 18(int) CompositeExtract 1252 3
- 1260: 18(int) GroupSMaxNonUniformAMD 28 ExclusiveScan 1259
- 1261: 19(ivec4) CompositeConstruct 1254 1256 1258 1260
+ 1252: 19(i16vec4) Load 1251
+ 1253: 18(int16_t) CompositeExtract 1252 0
+ 1254: 18(int16_t) GroupSMaxNonUniformAMD 28 ExclusiveScan 1253
+ 1255: 18(int16_t) CompositeExtract 1252 1
+ 1256: 18(int16_t) GroupSMaxNonUniformAMD 28 ExclusiveScan 1255
+ 1257: 18(int16_t) CompositeExtract 1252 2
+ 1258: 18(int16_t) GroupSMaxNonUniformAMD 28 ExclusiveScan 1257
+ 1259: 18(int16_t) CompositeExtract 1252 3
+ 1260: 18(int16_t) GroupSMaxNonUniformAMD 28 ExclusiveScan 1259
+ 1261: 19(i16vec4) CompositeConstruct 1254 1256 1258 1260
1262: 96(ptr) AccessChain 23 95
Store 1262 1261
1263: 110(ptr) AccessChain 23 109
- 1264: 20(int) Load 1263
- 1265: 20(int) GroupUMaxNonUniformAMD 28 ExclusiveScan 1264
+ 1264: 20(int16_t) Load 1263
+ 1265: 20(int16_t) GroupUMaxNonUniformAMD 28 ExclusiveScan 1264
1266: 110(ptr) AccessChain 23 109
Store 1266 1265
1267: 25(ptr) AccessChain 23 24
@@ -1496,59 +1496,59 @@ spv.shaderBallotAMD.comp
1288: 42(ptr) AccessChain 23 41
Store 1288 1287
1289: 54(ptr) AccessChain 23 53
- 1290: 12(fvec4) Load 1289
- 1291: 11(float) CompositeExtract 1290 0
- 1292: 11(float) GroupFAddNonUniformAMD 28 ExclusiveScan 1291
- 1293: 11(float) CompositeExtract 1290 1
- 1294: 11(float) GroupFAddNonUniformAMD 28 ExclusiveScan 1293
- 1295: 11(float) CompositeExtract 1290 2
- 1296: 11(float) GroupFAddNonUniformAMD 28 ExclusiveScan 1295
- 1297: 11(float) CompositeExtract 1290 3
- 1298: 11(float) GroupFAddNonUniformAMD 28 ExclusiveScan 1297
- 1299: 12(fvec4) CompositeConstruct 1292 1294 1296 1298
+ 1290: 12(f64vec4) Load 1289
+ 1291:11(float64_t) CompositeExtract 1290 0
+ 1292:11(float64_t) GroupFAddNonUniformAMD 28 ExclusiveScan 1291
+ 1293:11(float64_t) CompositeExtract 1290 1
+ 1294:11(float64_t) GroupFAddNonUniformAMD 28 ExclusiveScan 1293
+ 1295:11(float64_t) CompositeExtract 1290 2
+ 1296:11(float64_t) GroupFAddNonUniformAMD 28 ExclusiveScan 1295
+ 1297:11(float64_t) CompositeExtract 1290 3
+ 1298:11(float64_t) GroupFAddNonUniformAMD 28 ExclusiveScan 1297
+ 1299: 12(f64vec4) CompositeConstruct 1292 1294 1296 1298
1300: 54(ptr) AccessChain 23 53
Store 1300 1299
1301: 68(ptr) AccessChain 23 67
- 1302: 13(int) Load 1301
- 1303: 13(int) GroupIAddNonUniformAMD 28 ExclusiveScan 1302
+ 1302: 13(int64_t) Load 1301
+ 1303: 13(int64_t) GroupIAddNonUniformAMD 28 ExclusiveScan 1302
1304: 68(ptr) AccessChain 23 67
Store 1304 1303
1305: 74(ptr) AccessChain 23 73
- 1306: 15(ivec2) Load 1305
- 1307: 14(int) CompositeExtract 1306 0
- 1308: 14(int) GroupIAddNonUniformAMD 28 ExclusiveScan 1307
- 1309: 14(int) CompositeExtract 1306 1
- 1310: 14(int) GroupIAddNonUniformAMD 28 ExclusiveScan 1309
- 1311: 15(ivec2) CompositeConstruct 1308 1310
+ 1306: 15(i64vec2) Load 1305
+ 1307: 14(int64_t) CompositeExtract 1306 0
+ 1308: 14(int64_t) GroupIAddNonUniformAMD 28 ExclusiveScan 1307
+ 1309: 14(int64_t) CompositeExtract 1306 1
+ 1310: 14(int64_t) GroupIAddNonUniformAMD 28 ExclusiveScan 1309
+ 1311: 15(i64vec2) CompositeConstruct 1308 1310
1312: 74(ptr) AccessChain 23 73
Store 1312 1311
1313: 84(ptr) AccessChain 23 83
- 1314: 17(fvec3) Load 1313
- 1315: 16(float) CompositeExtract 1314 0
- 1316: 16(float) GroupFAddNonUniformAMD 28 ExclusiveScan 1315
- 1317: 16(float) CompositeExtract 1314 1
- 1318: 16(float) GroupFAddNonUniformAMD 28 ExclusiveScan 1317
- 1319: 16(float) CompositeExtract 1314 2
- 1320: 16(float) GroupFAddNonUniformAMD 28 ExclusiveScan 1319
- 1321: 17(fvec3) CompositeConstruct 1316 1318 1320
+ 1314: 17(f16vec3) Load 1313
+ 1315:16(float16_t) CompositeExtract 1314 0
+ 1316:16(float16_t) GroupFAddNonUniformAMD 28 ExclusiveScan 1315
+ 1317:16(float16_t) CompositeExtract 1314 1
+ 1318:16(float16_t) GroupFAddNonUniformAMD 28 ExclusiveScan 1317
+ 1319:16(float16_t) CompositeExtract 1314 2
+ 1320:16(float16_t) GroupFAddNonUniformAMD 28 ExclusiveScan 1319
+ 1321: 17(f16vec3) CompositeConstruct 1316 1318 1320
1322: 84(ptr) AccessChain 23 83
Store 1322 1321
1323: 96(ptr) AccessChain 23 95
- 1324: 19(ivec4) Load 1323
- 1325: 18(int) CompositeExtract 1324 0
- 1326: 18(int) GroupIAddNonUniformAMD 28 ExclusiveScan 1325
- 1327: 18(int) CompositeExtract 1324 1
- 1328: 18(int) GroupIAddNonUniformAMD 28 ExclusiveScan 1327
- 1329: 18(int) CompositeExtract 1324 2
- 1330: 18(int) GroupIAddNonUniformAMD 28 ExclusiveScan 1329
- 1331: 18(int) CompositeExtract 1324 3
- 1332: 18(int) GroupIAddNonUniformAMD 28 ExclusiveScan 1331
- 1333: 19(ivec4) CompositeConstruct 1326 1328 1330 1332
+ 1324: 19(i16vec4) Load 1323
+ 1325: 18(int16_t) CompositeExtract 1324 0
+ 1326: 18(int16_t) GroupIAddNonUniformAMD 28 ExclusiveScan 1325
+ 1327: 18(int16_t) CompositeExtract 1324 1
+ 1328: 18(int16_t) GroupIAddNonUniformAMD 28 ExclusiveScan 1327
+ 1329: 18(int16_t) CompositeExtract 1324 2
+ 1330: 18(int16_t) GroupIAddNonUniformAMD 28 ExclusiveScan 1329
+ 1331: 18(int16_t) CompositeExtract 1324 3
+ 1332: 18(int16_t) GroupIAddNonUniformAMD 28 ExclusiveScan 1331
+ 1333: 19(i16vec4) CompositeConstruct 1326 1328 1330 1332
1334: 96(ptr) AccessChain 23 95
Store 1334 1333
1335: 110(ptr) AccessChain 23 109
- 1336: 20(int) Load 1335
- 1337: 20(int) GroupIAddNonUniformAMD 28 ExclusiveScan 1336
+ 1336: 20(int16_t) Load 1335
+ 1337: 20(int16_t) GroupIAddNonUniformAMD 28 ExclusiveScan 1336
1338: 110(ptr) AccessChain 23 109
Store 1338 1337
Return
diff --git a/Test/baseResults/spv.specConstant.vert.out b/Test/baseResults/spv.specConstant.vert.out
index 82800510..1c10cb9c 100644
--- a/Test/baseResults/spv.specConstant.vert.out
+++ b/Test/baseResults/spv.specConstant.vert.out
@@ -64,18 +64,18 @@ spv.specConstant.vert
33: TypeInt 32 0
34(scale): 33(int) SpecConstant 2
38: TypeFloat 64
- 39(spDouble): 38(float) SpecConstant 1413754136 1074340347
+ 39(spDouble):38(float64_t) SpecConstant 1413754136 1074340347
40(spFloat): 6(float) SpecConstant 1078523331
- 41: 38(float) SpecConstantOp 115 40(spFloat)
+ 41:38(float64_t) SpecConstantOp 115 40(spFloat)
50(dupArraySize): 8(int) SpecConstant 12
51: TypeArray 7(fvec4) 50(dupArraySize)
52: TypePointer Input 51
53(dupUcol): 52(ptr) Variable Input
60(spDupBool): 29(bool) SpecConstantTrue
63(dupScale): 33(int) SpecConstant 2
- 67(spDupDouble): 38(float) SpecConstant 1413754136 1074340347
+ 67(spDupDouble):38(float64_t) SpecConstant 1413754136 1074340347
68(spDupFloat): 6(float) SpecConstant 1078523331
- 69: 38(float) SpecConstantOp 115 68(spDupFloat)
+ 69:38(float64_t) SpecConstantOp 115 68(spDupFloat)
75: TypePointer Function 8(int)
77(gl_MaxImageUnits): 8(int) SpecConstant 8
4(main): 2 Function None 3
@@ -94,7 +94,7 @@ spv.specConstant.vert
Store 20(color) 37
Branch 32
32: Label
- 42: 38(float) FDiv 39(spDouble) 41
+ 42:38(float64_t) FDiv 39(spDouble) 41
43: 6(float) FConvert 42
44: 7(fvec4) Load 20(color)
45: 7(fvec4) CompositeConstruct 43 43 43 43
@@ -125,7 +125,7 @@ spv.specConstant.vert
Store 20(color) 66
Branch 62
62: Label
- 70: 38(float) FDiv 67(spDupDouble) 69
+ 70:38(float64_t) FDiv 67(spDupDouble) 69
71: 6(float) FConvert 70
72: 7(fvec4) Load 20(color)
73: 7(fvec4) CompositeConstruct 71 71 71 71
diff --git a/Test/baseResults/spv.specConstantComposite.vert.out b/Test/baseResults/spv.specConstantComposite.vert.out
index 31b93f78..701862d8 100644
--- a/Test/baseResults/spv.specConstantComposite.vert.out
+++ b/Test/baseResults/spv.specConstantComposite.vert.out
@@ -41,7 +41,7 @@ spv.specConstantComposite.vert
32: TypePointer Function 14(int)
37(spec_float): 24(float) SpecConstant 1078523331
38: TypeFloat 64
- 39(spec_double): 38(float) SpecConstant 1413754136 1074340347
+ 39(spec_double):38(float64_t) SpecConstant 1413754136 1074340347
40: TypeArray 25(fvec4) 28(spec_int)
41: TypePointer Input 40
42(global_vec4_array_with_spec_length): 41(ptr) Variable Input
diff --git a/Test/baseResults/spv.specConstantOperations.vert.out b/Test/baseResults/spv.specConstantOperations.vert.out
index 216028e1..d970ff4f 100644
--- a/Test/baseResults/spv.specConstantOperations.vert.out
+++ b/Test/baseResults/spv.specConstantOperations.vert.out
@@ -52,9 +52,9 @@ spv.specConstantOperations.vert
42(sp_uint): 41(int) SpecConstant 100
43(sp_sint): 6(int) SpecConstant 4294967286
44: TypeFloat 64
- 45(sp_double): 44(float) SpecConstant 2333366019 1074118410
+ 45(sp_double):44(float64_t) SpecConstant 2333366019 1074118410
46: 39(float) SpecConstantOp 115 45(sp_double)
- 47: 44(float) SpecConstantOp 115 40(sp_float)
+ 47:44(float64_t) SpecConstantOp 115 40(sp_float)
48: 41(int) Constant 0
49: 22(bool) SpecConstantOp 171 19(sp_int) 48
50: 22(bool) SpecConstantOp 171 42(sp_uint) 48
diff --git a/Test/baseResults/spv.subgroupArithmetic.comp.out b/Test/baseResults/spv.subgroupArithmetic.comp.out
index 07bcb815..e2f7b495 100644
--- a/Test/baseResults/spv.subgroupArithmetic.comp.out
+++ b/Test/baseResults/spv.subgroupArithmetic.comp.out
@@ -54,8 +54,8 @@ spv.subgroupArithmetic.comp
20: TypeVector 19(int) 4
21: TypeVector 6(int) 4
22: TypeFloat 64
- 23: TypeVector 22(float) 4
- 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(fvec4)
+ 23: TypeVector 22(float64_t) 4
+ 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(f64vec4)
25: TypeArray 24(Buffers) 15
26: TypePointer Uniform 25
27(data): 26(ptr) Variable Uniform
@@ -77,10 +77,10 @@ spv.subgroupArithmetic.comp
101: TypeVector 6(int) 2
102: TypePointer Uniform 21(ivec4)
111: TypeVector 6(int) 3
- 125: TypePointer Uniform 22(float)
- 131: TypeVector 22(float) 2
- 132: TypePointer Uniform 23(fvec4)
- 141: TypeVector 22(float) 3
+ 125: TypePointer Uniform 22(float64_t)
+ 131: TypeVector 22(float64_t) 2
+ 132: TypePointer Uniform 23(f64vec4)
+ 141: TypeVector 22(float64_t) 3
521: TypeBool
530: 71(ivec2) ConstantComposite 29 29
531: TypeVector 521(bool) 2
@@ -194,32 +194,32 @@ spv.subgroupArithmetic.comp
Store 123 122
124: 6(int) Load 8(invocation)
126: 125(ptr) AccessChain 27(data) 29 59 30
- 127: 22(float) Load 126
- 128: 22(float) GroupNonUniformFAdd 34 Reduce 127
+ 127:22(float64_t) Load 126
+ 128:22(float64_t) GroupNonUniformFAdd 34 Reduce 127
129: 125(ptr) AccessChain 27(data) 124 59 30
Store 129 128
130: 6(int) Load 8(invocation)
133: 132(ptr) AccessChain 27(data) 38 59
- 134: 23(fvec4) Load 133
- 135: 131(fvec2) VectorShuffle 134 134 0 1
- 136: 131(fvec2) GroupNonUniformFAdd 34 Reduce 135
+ 134: 23(f64vec4) Load 133
+ 135:131(f64vec2) VectorShuffle 134 134 0 1
+ 136:131(f64vec2) GroupNonUniformFAdd 34 Reduce 135
137: 132(ptr) AccessChain 27(data) 130 59
- 138: 23(fvec4) Load 137
- 139: 23(fvec4) VectorShuffle 138 136 4 5 2 3
+ 138: 23(f64vec4) Load 137
+ 139: 23(f64vec4) VectorShuffle 138 136 4 5 2 3
Store 137 139
140: 6(int) Load 8(invocation)
142: 132(ptr) AccessChain 27(data) 49 59
- 143: 23(fvec4) Load 142
- 144: 141(fvec3) VectorShuffle 143 143 0 1 2
- 145: 141(fvec3) GroupNonUniformFAdd 34 Reduce 144
+ 143: 23(f64vec4) Load 142
+ 144:141(f64vec3) VectorShuffle 143 143 0 1 2
+ 145:141(f64vec3) GroupNonUniformFAdd 34 Reduce 144
146: 132(ptr) AccessChain 27(data) 140 59
- 147: 23(fvec4) Load 146
- 148: 23(fvec4) VectorShuffle 147 145 4 5 6 3
+ 147: 23(f64vec4) Load 146
+ 148: 23(f64vec4) VectorShuffle 147 145 4 5 6 3
Store 146 148
149: 6(int) Load 8(invocation)
150: 132(ptr) AccessChain 27(data) 59 59
- 151: 23(fvec4) Load 150
- 152: 23(fvec4) GroupNonUniformFAdd 34 Reduce 151
+ 151: 23(f64vec4) Load 150
+ 152: 23(f64vec4) GroupNonUniformFAdd 34 Reduce 151
153: 132(ptr) AccessChain 27(data) 149 59
Store 153 152
154: 6(int) Load 8(invocation)
@@ -314,32 +314,32 @@ spv.subgroupArithmetic.comp
Store 231 230
232: 6(int) Load 8(invocation)
233: 125(ptr) AccessChain 27(data) 29 59 30
- 234: 22(float) Load 233
- 235: 22(float) GroupNonUniformFMul 34 Reduce 234
+ 234:22(float64_t) Load 233
+ 235:22(float64_t) GroupNonUniformFMul 34 Reduce 234
236: 125(ptr) AccessChain 27(data) 232 59 30
Store 236 235
237: 6(int) Load 8(invocation)
238: 132(ptr) AccessChain 27(data) 38 59
- 239: 23(fvec4) Load 238
- 240: 131(fvec2) VectorShuffle 239 239 0 1
- 241: 131(fvec2) GroupNonUniformFMul 34 Reduce 240
+ 239: 23(f64vec4) Load 238
+ 240:131(f64vec2) VectorShuffle 239 239 0 1
+ 241:131(f64vec2) GroupNonUniformFMul 34 Reduce 240
242: 132(ptr) AccessChain 27(data) 237 59
- 243: 23(fvec4) Load 242
- 244: 23(fvec4) VectorShuffle 243 241 4 5 2 3
+ 243: 23(f64vec4) Load 242
+ 244: 23(f64vec4) VectorShuffle 243 241 4 5 2 3
Store 242 244
245: 6(int) Load 8(invocation)
246: 132(ptr) AccessChain 27(data) 49 59
- 247: 23(fvec4) Load 246
- 248: 141(fvec3) VectorShuffle 247 247 0 1 2
- 249: 141(fvec3) GroupNonUniformFMul 34 Reduce 248
+ 247: 23(f64vec4) Load 246
+ 248:141(f64vec3) VectorShuffle 247 247 0 1 2
+ 249:141(f64vec3) GroupNonUniformFMul 34 Reduce 248
250: 132(ptr) AccessChain 27(data) 245 59
- 251: 23(fvec4) Load 250
- 252: 23(fvec4) VectorShuffle 251 249 4 5 6 3
+ 251: 23(f64vec4) Load 250
+ 252: 23(f64vec4) VectorShuffle 251 249 4 5 6 3
Store 250 252
253: 6(int) Load 8(invocation)
254: 132(ptr) AccessChain 27(data) 59 59
- 255: 23(fvec4) Load 254
- 256: 23(fvec4) GroupNonUniformFMul 34 Reduce 255
+ 255: 23(f64vec4) Load 254
+ 256: 23(f64vec4) GroupNonUniformFMul 34 Reduce 255
257: 132(ptr) AccessChain 27(data) 253 59
Store 257 256
258: 6(int) Load 8(invocation)
@@ -434,32 +434,32 @@ spv.subgroupArithmetic.comp
Store 335 334
336: 6(int) Load 8(invocation)
337: 125(ptr) AccessChain 27(data) 29 59 30
- 338: 22(float) Load 337
- 339: 22(float) GroupNonUniformFMin 34 Reduce 338
+ 338:22(float64_t) Load 337
+ 339:22(float64_t) GroupNonUniformFMin 34 Reduce 338
340: 125(ptr) AccessChain 27(data) 336 59 30
Store 340 339
341: 6(int) Load 8(invocation)
342: 132(ptr) AccessChain 27(data) 38 59
- 343: 23(fvec4) Load 342
- 344: 131(fvec2) VectorShuffle 343 343 0 1
- 345: 131(fvec2) GroupNonUniformFMin 34 Reduce 344
+ 343: 23(f64vec4) Load 342
+ 344:131(f64vec2) VectorShuffle 343 343 0 1
+ 345:131(f64vec2) GroupNonUniformFMin 34 Reduce 344
346: 132(ptr) AccessChain 27(data) 341 59
- 347: 23(fvec4) Load 346
- 348: 23(fvec4) VectorShuffle 347 345 4 5 2 3
+ 347: 23(f64vec4) Load 346
+ 348: 23(f64vec4) VectorShuffle 347 345 4 5 2 3
Store 346 348
349: 6(int) Load 8(invocation)
350: 132(ptr) AccessChain 27(data) 49 59
- 351: 23(fvec4) Load 350
- 352: 141(fvec3) VectorShuffle 351 351 0 1 2
- 353: 141(fvec3) GroupNonUniformFMin 34 Reduce 352
+ 351: 23(f64vec4) Load 350
+ 352:141(f64vec3) VectorShuffle 351 351 0 1 2
+ 353:141(f64vec3) GroupNonUniformFMin 34 Reduce 352
354: 132(ptr) AccessChain 27(data) 349 59
- 355: 23(fvec4) Load 354
- 356: 23(fvec4) VectorShuffle 355 353 4 5 6 3
+ 355: 23(f64vec4) Load 354
+ 356: 23(f64vec4) VectorShuffle 355 353 4 5 6 3
Store 354 356
357: 6(int) Load 8(invocation)
358: 132(ptr) AccessChain 27(data) 59 59
- 359: 23(fvec4) Load 358
- 360: 23(fvec4) GroupNonUniformFMin 34 Reduce 359
+ 359: 23(f64vec4) Load 358
+ 360: 23(f64vec4) GroupNonUniformFMin 34 Reduce 359
361: 132(ptr) AccessChain 27(data) 357 59
Store 361 360
362: 6(int) Load 8(invocation)
@@ -554,32 +554,32 @@ spv.subgroupArithmetic.comp
Store 439 438
440: 6(int) Load 8(invocation)
441: 125(ptr) AccessChain 27(data) 29 59 30
- 442: 22(float) Load 441
- 443: 22(float) GroupNonUniformFMax 34 Reduce 442
+ 442:22(float64_t) Load 441
+ 443:22(float64_t) GroupNonUniformFMax 34 Reduce 442
444: 125(ptr) AccessChain 27(data) 440 59 30
Store 444 443
445: 6(int) Load 8(invocation)
446: 132(ptr) AccessChain 27(data) 38 59
- 447: 23(fvec4) Load 446
- 448: 131(fvec2) VectorShuffle 447 447 0 1
- 449: 131(fvec2) GroupNonUniformFMax 34 Reduce 448
+ 447: 23(f64vec4) Load 446
+ 448:131(f64vec2) VectorShuffle 447 447 0 1
+ 449:131(f64vec2) GroupNonUniformFMax 34 Reduce 448
450: 132(ptr) AccessChain 27(data) 445 59
- 451: 23(fvec4) Load 450
- 452: 23(fvec4) VectorShuffle 451 449 4 5 2 3
+ 451: 23(f64vec4) Load 450
+ 452: 23(f64vec4) VectorShuffle 451 449 4 5 2 3
Store 450 452
453: 6(int) Load 8(invocation)
454: 132(ptr) AccessChain 27(data) 49 59
- 455: 23(fvec4) Load 454
- 456: 141(fvec3) VectorShuffle 455 455 0 1 2
- 457: 141(fvec3) GroupNonUniformFMax 34 Reduce 456
+ 455: 23(f64vec4) Load 454
+ 456:141(f64vec3) VectorShuffle 455 455 0 1 2
+ 457:141(f64vec3) GroupNonUniformFMax 34 Reduce 456
458: 132(ptr) AccessChain 27(data) 453 59
- 459: 23(fvec4) Load 458
- 460: 23(fvec4) VectorShuffle 459 457 4 5 6 3
+ 459: 23(f64vec4) Load 458
+ 460: 23(f64vec4) VectorShuffle 459 457 4 5 6 3
Store 458 460
461: 6(int) Load 8(invocation)
462: 132(ptr) AccessChain 27(data) 59 59
- 463: 23(fvec4) Load 462
- 464: 23(fvec4) GroupNonUniformFMax 34 Reduce 463
+ 463: 23(f64vec4) Load 462
+ 464: 23(f64vec4) GroupNonUniformFMax 34 Reduce 463
465: 132(ptr) AccessChain 27(data) 461 59
Store 465 464
466: 6(int) Load 8(invocation)
@@ -968,32 +968,32 @@ spv.subgroupArithmetic.comp
Store 811 810
812: 6(int) Load 8(invocation)
813: 125(ptr) AccessChain 27(data) 29 59 30
- 814: 22(float) Load 813
- 815: 22(float) GroupNonUniformFAdd 34 InclusiveScan 814
+ 814:22(float64_t) Load 813
+ 815:22(float64_t) GroupNonUniformFAdd 34 InclusiveScan 814
816: 125(ptr) AccessChain 27(data) 812 59 30
Store 816 815
817: 6(int) Load 8(invocation)
818: 132(ptr) AccessChain 27(data) 38 59
- 819: 23(fvec4) Load 818
- 820: 131(fvec2) VectorShuffle 819 819 0 1
- 821: 131(fvec2) GroupNonUniformFAdd 34 InclusiveScan 820
+ 819: 23(f64vec4) Load 818
+ 820:131(f64vec2) VectorShuffle 819 819 0 1
+ 821:131(f64vec2) GroupNonUniformFAdd 34 InclusiveScan 820
822: 132(ptr) AccessChain 27(data) 817 59
- 823: 23(fvec4) Load 822
- 824: 23(fvec4) VectorShuffle 823 821 4 5 2 3
+ 823: 23(f64vec4) Load 822
+ 824: 23(f64vec4) VectorShuffle 823 821 4 5 2 3
Store 822 824
825: 6(int) Load 8(invocation)
826: 132(ptr) AccessChain 27(data) 49 59
- 827: 23(fvec4) Load 826
- 828: 141(fvec3) VectorShuffle 827 827 0 1 2
- 829: 141(fvec3) GroupNonUniformFAdd 34 InclusiveScan 828
+ 827: 23(f64vec4) Load 826
+ 828:141(f64vec3) VectorShuffle 827 827 0 1 2
+ 829:141(f64vec3) GroupNonUniformFAdd 34 InclusiveScan 828
830: 132(ptr) AccessChain 27(data) 825 59
- 831: 23(fvec4) Load 830
- 832: 23(fvec4) VectorShuffle 831 829 4 5 6 3
+ 831: 23(f64vec4) Load 830
+ 832: 23(f64vec4) VectorShuffle 831 829 4 5 6 3
Store 830 832
833: 6(int) Load 8(invocation)
834: 132(ptr) AccessChain 27(data) 59 59
- 835: 23(fvec4) Load 834
- 836: 23(fvec4) GroupNonUniformFAdd 34 InclusiveScan 835
+ 835: 23(f64vec4) Load 834
+ 836: 23(f64vec4) GroupNonUniformFAdd 34 InclusiveScan 835
837: 132(ptr) AccessChain 27(data) 833 59
Store 837 836
838: 6(int) Load 8(invocation)
@@ -1088,32 +1088,32 @@ spv.subgroupArithmetic.comp
Store 915 914
916: 6(int) Load 8(invocation)
917: 125(ptr) AccessChain 27(data) 29 59 30
- 918: 22(float) Load 917
- 919: 22(float) GroupNonUniformFMul 34 InclusiveScan 918
+ 918:22(float64_t) Load 917
+ 919:22(float64_t) GroupNonUniformFMul 34 InclusiveScan 918
920: 125(ptr) AccessChain 27(data) 916 59 30
Store 920 919
921: 6(int) Load 8(invocation)
922: 132(ptr) AccessChain 27(data) 38 59
- 923: 23(fvec4) Load 922
- 924: 131(fvec2) VectorShuffle 923 923 0 1
- 925: 131(fvec2) GroupNonUniformFMul 34 InclusiveScan 924
+ 923: 23(f64vec4) Load 922
+ 924:131(f64vec2) VectorShuffle 923 923 0 1
+ 925:131(f64vec2) GroupNonUniformFMul 34 InclusiveScan 924
926: 132(ptr) AccessChain 27(data) 921 59
- 927: 23(fvec4) Load 926
- 928: 23(fvec4) VectorShuffle 927 925 4 5 2 3
+ 927: 23(f64vec4) Load 926
+ 928: 23(f64vec4) VectorShuffle 927 925 4 5 2 3
Store 926 928
929: 6(int) Load 8(invocation)
930: 132(ptr) AccessChain 27(data) 49 59
- 931: 23(fvec4) Load 930
- 932: 141(fvec3) VectorShuffle 931 931 0 1 2
- 933: 141(fvec3) GroupNonUniformFMul 34 InclusiveScan 932
+ 931: 23(f64vec4) Load 930
+ 932:141(f64vec3) VectorShuffle 931 931 0 1 2
+ 933:141(f64vec3) GroupNonUniformFMul 34 InclusiveScan 932
934: 132(ptr) AccessChain 27(data) 929 59
- 935: 23(fvec4) Load 934
- 936: 23(fvec4) VectorShuffle 935 933 4 5 6 3
+ 935: 23(f64vec4) Load 934
+ 936: 23(f64vec4) VectorShuffle 935 933 4 5 6 3
Store 934 936
937: 6(int) Load 8(invocation)
938: 132(ptr) AccessChain 27(data) 59 59
- 939: 23(fvec4) Load 938
- 940: 23(fvec4) GroupNonUniformFMul 34 InclusiveScan 939
+ 939: 23(f64vec4) Load 938
+ 940: 23(f64vec4) GroupNonUniformFMul 34 InclusiveScan 939
941: 132(ptr) AccessChain 27(data) 937 59
Store 941 940
942: 6(int) Load 8(invocation)
@@ -1208,32 +1208,32 @@ spv.subgroupArithmetic.comp
Store 1019 1018
1020: 6(int) Load 8(invocation)
1021: 125(ptr) AccessChain 27(data) 29 59 30
- 1022: 22(float) Load 1021
- 1023: 22(float) GroupNonUniformFMin 34 InclusiveScan 1022
+ 1022:22(float64_t) Load 1021
+ 1023:22(float64_t) GroupNonUniformFMin 34 InclusiveScan 1022
1024: 125(ptr) AccessChain 27(data) 1020 59 30
Store 1024 1023
1025: 6(int) Load 8(invocation)
1026: 132(ptr) AccessChain 27(data) 38 59
- 1027: 23(fvec4) Load 1026
- 1028: 131(fvec2) VectorShuffle 1027 1027 0 1
- 1029: 131(fvec2) GroupNonUniformFMin 34 InclusiveScan 1028
+ 1027: 23(f64vec4) Load 1026
+ 1028:131(f64vec2) VectorShuffle 1027 1027 0 1
+ 1029:131(f64vec2) GroupNonUniformFMin 34 InclusiveScan 1028
1030: 132(ptr) AccessChain 27(data) 1025 59
- 1031: 23(fvec4) Load 1030
- 1032: 23(fvec4) VectorShuffle 1031 1029 4 5 2 3
+ 1031: 23(f64vec4) Load 1030
+ 1032: 23(f64vec4) VectorShuffle 1031 1029 4 5 2 3
Store 1030 1032
1033: 6(int) Load 8(invocation)
1034: 132(ptr) AccessChain 27(data) 49 59
- 1035: 23(fvec4) Load 1034
- 1036: 141(fvec3) VectorShuffle 1035 1035 0 1 2
- 1037: 141(fvec3) GroupNonUniformFMin 34 InclusiveScan 1036
+ 1035: 23(f64vec4) Load 1034
+ 1036:141(f64vec3) VectorShuffle 1035 1035 0 1 2
+ 1037:141(f64vec3) GroupNonUniformFMin 34 InclusiveScan 1036
1038: 132(ptr) AccessChain 27(data) 1033 59
- 1039: 23(fvec4) Load 1038
- 1040: 23(fvec4) VectorShuffle 1039 1037 4 5 6 3
+ 1039: 23(f64vec4) Load 1038
+ 1040: 23(f64vec4) VectorShuffle 1039 1037 4 5 6 3
Store 1038 1040
1041: 6(int) Load 8(invocation)
1042: 132(ptr) AccessChain 27(data) 59 59
- 1043: 23(fvec4) Load 1042
- 1044: 23(fvec4) GroupNonUniformFMin 34 InclusiveScan 1043
+ 1043: 23(f64vec4) Load 1042
+ 1044: 23(f64vec4) GroupNonUniformFMin 34 InclusiveScan 1043
1045: 132(ptr) AccessChain 27(data) 1041 59
Store 1045 1044
1046: 6(int) Load 8(invocation)
@@ -1328,32 +1328,32 @@ spv.subgroupArithmetic.comp
Store 1123 1122
1124: 6(int) Load 8(invocation)
1125: 125(ptr) AccessChain 27(data) 29 59 30
- 1126: 22(float) Load 1125
- 1127: 22(float) GroupNonUniformFMax 34 InclusiveScan 1126
+ 1126:22(float64_t) Load 1125
+ 1127:22(float64_t) GroupNonUniformFMax 34 InclusiveScan 1126
1128: 125(ptr) AccessChain 27(data) 1124 59 30
Store 1128 1127
1129: 6(int) Load 8(invocation)
1130: 132(ptr) AccessChain 27(data) 38 59
- 1131: 23(fvec4) Load 1130
- 1132: 131(fvec2) VectorShuffle 1131 1131 0 1
- 1133: 131(fvec2) GroupNonUniformFMax 34 InclusiveScan 1132
+ 1131: 23(f64vec4) Load 1130
+ 1132:131(f64vec2) VectorShuffle 1131 1131 0 1
+ 1133:131(f64vec2) GroupNonUniformFMax 34 InclusiveScan 1132
1134: 132(ptr) AccessChain 27(data) 1129 59
- 1135: 23(fvec4) Load 1134
- 1136: 23(fvec4) VectorShuffle 1135 1133 4 5 2 3
+ 1135: 23(f64vec4) Load 1134
+ 1136: 23(f64vec4) VectorShuffle 1135 1133 4 5 2 3
Store 1134 1136
1137: 6(int) Load 8(invocation)
1138: 132(ptr) AccessChain 27(data) 49 59
- 1139: 23(fvec4) Load 1138
- 1140: 141(fvec3) VectorShuffle 1139 1139 0 1 2
- 1141: 141(fvec3) GroupNonUniformFMax 34 InclusiveScan 1140
+ 1139: 23(f64vec4) Load 1138
+ 1140:141(f64vec3) VectorShuffle 1139 1139 0 1 2
+ 1141:141(f64vec3) GroupNonUniformFMax 34 InclusiveScan 1140
1142: 132(ptr) AccessChain 27(data) 1137 59
- 1143: 23(fvec4) Load 1142
- 1144: 23(fvec4) VectorShuffle 1143 1141 4 5 6 3
+ 1143: 23(f64vec4) Load 1142
+ 1144: 23(f64vec4) VectorShuffle 1143 1141 4 5 6 3
Store 1142 1144
1145: 6(int) Load 8(invocation)
1146: 132(ptr) AccessChain 27(data) 59 59
- 1147: 23(fvec4) Load 1146
- 1148: 23(fvec4) GroupNonUniformFMax 34 InclusiveScan 1147
+ 1147: 23(f64vec4) Load 1146
+ 1148: 23(f64vec4) GroupNonUniformFMax 34 InclusiveScan 1147
1149: 132(ptr) AccessChain 27(data) 1145 59
Store 1149 1148
1150: 6(int) Load 8(invocation)
@@ -1742,32 +1742,32 @@ spv.subgroupArithmetic.comp
Store 1485 1484
1486: 6(int) Load 8(invocation)
1487: 125(ptr) AccessChain 27(data) 29 59 30
- 1488: 22(float) Load 1487
- 1489: 22(float) GroupNonUniformFAdd 34 ExclusiveScan 1488
+ 1488:22(float64_t) Load 1487
+ 1489:22(float64_t) GroupNonUniformFAdd 34 ExclusiveScan 1488
1490: 125(ptr) AccessChain 27(data) 1486 59 30
Store 1490 1489
1491: 6(int) Load 8(invocation)
1492: 132(ptr) AccessChain 27(data) 38 59
- 1493: 23(fvec4) Load 1492
- 1494: 131(fvec2) VectorShuffle 1493 1493 0 1
- 1495: 131(fvec2) GroupNonUniformFAdd 34 ExclusiveScan 1494
+ 1493: 23(f64vec4) Load 1492
+ 1494:131(f64vec2) VectorShuffle 1493 1493 0 1
+ 1495:131(f64vec2) GroupNonUniformFAdd 34 ExclusiveScan 1494
1496: 132(ptr) AccessChain 27(data) 1491 59
- 1497: 23(fvec4) Load 1496
- 1498: 23(fvec4) VectorShuffle 1497 1495 4 5 2 3
+ 1497: 23(f64vec4) Load 1496
+ 1498: 23(f64vec4) VectorShuffle 1497 1495 4 5 2 3
Store 1496 1498
1499: 6(int) Load 8(invocation)
1500: 132(ptr) AccessChain 27(data) 49 59
- 1501: 23(fvec4) Load 1500
- 1502: 141(fvec3) VectorShuffle 1501 1501 0 1 2
- 1503: 141(fvec3) GroupNonUniformFAdd 34 ExclusiveScan 1502
+ 1501: 23(f64vec4) Load 1500
+ 1502:141(f64vec3) VectorShuffle 1501 1501 0 1 2
+ 1503:141(f64vec3) GroupNonUniformFAdd 34 ExclusiveScan 1502
1504: 132(ptr) AccessChain 27(data) 1499 59
- 1505: 23(fvec4) Load 1504
- 1506: 23(fvec4) VectorShuffle 1505 1503 4 5 6 3
+ 1505: 23(f64vec4) Load 1504
+ 1506: 23(f64vec4) VectorShuffle 1505 1503 4 5 6 3
Store 1504 1506
1507: 6(int) Load 8(invocation)
1508: 132(ptr) AccessChain 27(data) 59 59
- 1509: 23(fvec4) Load 1508
- 1510: 23(fvec4) GroupNonUniformFAdd 34 ExclusiveScan 1509
+ 1509: 23(f64vec4) Load 1508
+ 1510: 23(f64vec4) GroupNonUniformFAdd 34 ExclusiveScan 1509
1511: 132(ptr) AccessChain 27(data) 1507 59
Store 1511 1510
1512: 6(int) Load 8(invocation)
@@ -1862,32 +1862,32 @@ spv.subgroupArithmetic.comp
Store 1589 1588
1590: 6(int) Load 8(invocation)
1591: 125(ptr) AccessChain 27(data) 29 59 30
- 1592: 22(float) Load 1591
- 1593: 22(float) GroupNonUniformFMul 34 ExclusiveScan 1592
+ 1592:22(float64_t) Load 1591
+ 1593:22(float64_t) GroupNonUniformFMul 34 ExclusiveScan 1592
1594: 125(ptr) AccessChain 27(data) 1590 59 30
Store 1594 1593
1595: 6(int) Load 8(invocation)
1596: 132(ptr) AccessChain 27(data) 38 59
- 1597: 23(fvec4) Load 1596
- 1598: 131(fvec2) VectorShuffle 1597 1597 0 1
- 1599: 131(fvec2) GroupNonUniformFMul 34 ExclusiveScan 1598
+ 1597: 23(f64vec4) Load 1596
+ 1598:131(f64vec2) VectorShuffle 1597 1597 0 1
+ 1599:131(f64vec2) GroupNonUniformFMul 34 ExclusiveScan 1598
1600: 132(ptr) AccessChain 27(data) 1595 59
- 1601: 23(fvec4) Load 1600
- 1602: 23(fvec4) VectorShuffle 1601 1599 4 5 2 3
+ 1601: 23(f64vec4) Load 1600
+ 1602: 23(f64vec4) VectorShuffle 1601 1599 4 5 2 3
Store 1600 1602
1603: 6(int) Load 8(invocation)
1604: 132(ptr) AccessChain 27(data) 49 59
- 1605: 23(fvec4) Load 1604
- 1606: 141(fvec3) VectorShuffle 1605 1605 0 1 2
- 1607: 141(fvec3) GroupNonUniformFMul 34 ExclusiveScan 1606
+ 1605: 23(f64vec4) Load 1604
+ 1606:141(f64vec3) VectorShuffle 1605 1605 0 1 2
+ 1607:141(f64vec3) GroupNonUniformFMul 34 ExclusiveScan 1606
1608: 132(ptr) AccessChain 27(data) 1603 59
- 1609: 23(fvec4) Load 1608
- 1610: 23(fvec4) VectorShuffle 1609 1607 4 5 6 3
+ 1609: 23(f64vec4) Load 1608
+ 1610: 23(f64vec4) VectorShuffle 1609 1607 4 5 6 3
Store 1608 1610
1611: 6(int) Load 8(invocation)
1612: 132(ptr) AccessChain 27(data) 59 59
- 1613: 23(fvec4) Load 1612
- 1614: 23(fvec4) GroupNonUniformFMul 34 ExclusiveScan 1613
+ 1613: 23(f64vec4) Load 1612
+ 1614: 23(f64vec4) GroupNonUniformFMul 34 ExclusiveScan 1613
1615: 132(ptr) AccessChain 27(data) 1611 59
Store 1615 1614
1616: 6(int) Load 8(invocation)
@@ -1982,32 +1982,32 @@ spv.subgroupArithmetic.comp
Store 1693 1692
1694: 6(int) Load 8(invocation)
1695: 125(ptr) AccessChain 27(data) 29 59 30
- 1696: 22(float) Load 1695
- 1697: 22(float) GroupNonUniformFMin 34 ExclusiveScan 1696
+ 1696:22(float64_t) Load 1695
+ 1697:22(float64_t) GroupNonUniformFMin 34 ExclusiveScan 1696
1698: 125(ptr) AccessChain 27(data) 1694 59 30
Store 1698 1697
1699: 6(int) Load 8(invocation)
1700: 132(ptr) AccessChain 27(data) 38 59
- 1701: 23(fvec4) Load 1700
- 1702: 131(fvec2) VectorShuffle 1701 1701 0 1
- 1703: 131(fvec2) GroupNonUniformFMin 34 ExclusiveScan 1702
+ 1701: 23(f64vec4) Load 1700
+ 1702:131(f64vec2) VectorShuffle 1701 1701 0 1
+ 1703:131(f64vec2) GroupNonUniformFMin 34 ExclusiveScan 1702
1704: 132(ptr) AccessChain 27(data) 1699 59
- 1705: 23(fvec4) Load 1704
- 1706: 23(fvec4) VectorShuffle 1705 1703 4 5 2 3
+ 1705: 23(f64vec4) Load 1704
+ 1706: 23(f64vec4) VectorShuffle 1705 1703 4 5 2 3
Store 1704 1706
1707: 6(int) Load 8(invocation)
1708: 132(ptr) AccessChain 27(data) 49 59
- 1709: 23(fvec4) Load 1708
- 1710: 141(fvec3) VectorShuffle 1709 1709 0 1 2
- 1711: 141(fvec3) GroupNonUniformFMin 34 ExclusiveScan 1710
+ 1709: 23(f64vec4) Load 1708
+ 1710:141(f64vec3) VectorShuffle 1709 1709 0 1 2
+ 1711:141(f64vec3) GroupNonUniformFMin 34 ExclusiveScan 1710
1712: 132(ptr) AccessChain 27(data) 1707 59
- 1713: 23(fvec4) Load 1712
- 1714: 23(fvec4) VectorShuffle 1713 1711 4 5 6 3
+ 1713: 23(f64vec4) Load 1712
+ 1714: 23(f64vec4) VectorShuffle 1713 1711 4 5 6 3
Store 1712 1714
1715: 6(int) Load 8(invocation)
1716: 132(ptr) AccessChain 27(data) 59 59
- 1717: 23(fvec4) Load 1716
- 1718: 23(fvec4) GroupNonUniformFMin 34 ExclusiveScan 1717
+ 1717: 23(f64vec4) Load 1716
+ 1718: 23(f64vec4) GroupNonUniformFMin 34 ExclusiveScan 1717
1719: 132(ptr) AccessChain 27(data) 1715 59
Store 1719 1718
1720: 6(int) Load 8(invocation)
@@ -2102,32 +2102,32 @@ spv.subgroupArithmetic.comp
Store 1797 1796
1798: 6(int) Load 8(invocation)
1799: 125(ptr) AccessChain 27(data) 29 59 30
- 1800: 22(float) Load 1799
- 1801: 22(float) GroupNonUniformFMax 34 ExclusiveScan 1800
+ 1800:22(float64_t) Load 1799
+ 1801:22(float64_t) GroupNonUniformFMax 34 ExclusiveScan 1800
1802: 125(ptr) AccessChain 27(data) 1798 59 30
Store 1802 1801
1803: 6(int) Load 8(invocation)
1804: 132(ptr) AccessChain 27(data) 38 59
- 1805: 23(fvec4) Load 1804
- 1806: 131(fvec2) VectorShuffle 1805 1805 0 1
- 1807: 131(fvec2) GroupNonUniformFMax 34 ExclusiveScan 1806
+ 1805: 23(f64vec4) Load 1804
+ 1806:131(f64vec2) VectorShuffle 1805 1805 0 1
+ 1807:131(f64vec2) GroupNonUniformFMax 34 ExclusiveScan 1806
1808: 132(ptr) AccessChain 27(data) 1803 59
- 1809: 23(fvec4) Load 1808
- 1810: 23(fvec4) VectorShuffle 1809 1807 4 5 2 3
+ 1809: 23(f64vec4) Load 1808
+ 1810: 23(f64vec4) VectorShuffle 1809 1807 4 5 2 3
Store 1808 1810
1811: 6(int) Load 8(invocation)
1812: 132(ptr) AccessChain 27(data) 49 59
- 1813: 23(fvec4) Load 1812
- 1814: 141(fvec3) VectorShuffle 1813 1813 0 1 2
- 1815: 141(fvec3) GroupNonUniformFMax 34 ExclusiveScan 1814
+ 1813: 23(f64vec4) Load 1812
+ 1814:141(f64vec3) VectorShuffle 1813 1813 0 1 2
+ 1815:141(f64vec3) GroupNonUniformFMax 34 ExclusiveScan 1814
1816: 132(ptr) AccessChain 27(data) 1811 59
- 1817: 23(fvec4) Load 1816
- 1818: 23(fvec4) VectorShuffle 1817 1815 4 5 6 3
+ 1817: 23(f64vec4) Load 1816
+ 1818: 23(f64vec4) VectorShuffle 1817 1815 4 5 6 3
Store 1816 1818
1819: 6(int) Load 8(invocation)
1820: 132(ptr) AccessChain 27(data) 59 59
- 1821: 23(fvec4) Load 1820
- 1822: 23(fvec4) GroupNonUniformFMax 34 ExclusiveScan 1821
+ 1821: 23(f64vec4) Load 1820
+ 1822: 23(f64vec4) GroupNonUniformFMax 34 ExclusiveScan 1821
1823: 132(ptr) AccessChain 27(data) 1819 59
Store 1823 1822
1824: 6(int) Load 8(invocation)
diff --git a/Test/baseResults/spv.subgroupBallot.comp.out b/Test/baseResults/spv.subgroupBallot.comp.out
index b0020479..077d7578 100644
--- a/Test/baseResults/spv.subgroupBallot.comp.out
+++ b/Test/baseResults/spv.subgroupBallot.comp.out
@@ -76,8 +76,8 @@ spv.subgroupBallot.comp
42: TypeInt 32 1
43: TypeVector 42(int) 4
44: TypeFloat 64
- 45: TypeVector 44(float) 4
- 46(Buffers): TypeStruct 41(fvec4) 43(ivec4) 17(ivec4) 45(fvec4)
+ 45: TypeVector 44(float64_t) 4
+ 46(Buffers): TypeStruct 41(fvec4) 43(ivec4) 17(ivec4) 45(f64vec4)
47: TypeArray 46(Buffers) 15
48: TypePointer Uniform 47
49(data): 48(ptr) Variable Uniform
@@ -101,10 +101,10 @@ spv.subgroupBallot.comp
149: TypeVector 42(int) 3
171: TypeVector 6(int) 2
181: TypeVector 6(int) 3
- 197: TypePointer Uniform 44(float)
- 204: TypeVector 44(float) 2
- 205: TypePointer Uniform 45(fvec4)
- 215: TypeVector 44(float) 3
+ 197: TypePointer Uniform 44(float64_t)
+ 204: TypeVector 44(float64_t) 2
+ 205: TypePointer Uniform 45(f64vec4)
+ 215: TypeVector 44(float64_t) 3
242: 138(ivec2) ConstantComposite 61 61
243: TypeVector 36(bool) 2
247: 138(ivec2) ConstantComposite 60 60
@@ -285,36 +285,36 @@ spv.subgroupBallot.comp
Store 195 194
196: 6(int) Load 8(invocation)
198: 197(ptr) AccessChain 49(data) 61 124 54
- 199: 44(float) Load 198
+ 199:44(float64_t) Load 198
200: 6(int) Load 8(invocation)
- 201: 44(float) GroupNonUniformBroadcast 38 199 200
+ 201:44(float64_t) GroupNonUniformBroadcast 38 199 200
202: 197(ptr) AccessChain 49(data) 196 124 54
Store 202 201
203: 6(int) Load 8(invocation)
206: 205(ptr) AccessChain 49(data) 60 124
- 207: 45(fvec4) Load 206
- 208: 204(fvec2) VectorShuffle 207 207 0 1
+ 207: 45(f64vec4) Load 206
+ 208:204(f64vec2) VectorShuffle 207 207 0 1
209: 6(int) Load 8(invocation)
- 210: 204(fvec2) GroupNonUniformBroadcast 38 208 209
+ 210:204(f64vec2) GroupNonUniformBroadcast 38 208 209
211: 205(ptr) AccessChain 49(data) 203 124
- 212: 45(fvec4) Load 211
- 213: 45(fvec4) VectorShuffle 212 210 4 5 2 3
+ 212: 45(f64vec4) Load 211
+ 213: 45(f64vec4) VectorShuffle 212 210 4 5 2 3
Store 211 213
214: 6(int) Load 8(invocation)
216: 205(ptr) AccessChain 49(data) 51 124
- 217: 45(fvec4) Load 216
- 218: 215(fvec3) VectorShuffle 217 217 0 1 2
+ 217: 45(f64vec4) Load 216
+ 218:215(f64vec3) VectorShuffle 217 217 0 1 2
219: 6(int) Load 8(invocation)
- 220: 215(fvec3) GroupNonUniformBroadcast 38 218 219
+ 220:215(f64vec3) GroupNonUniformBroadcast 38 218 219
221: 205(ptr) AccessChain 49(data) 214 124
- 222: 45(fvec4) Load 221
- 223: 45(fvec4) VectorShuffle 222 220 4 5 6 3
+ 222: 45(f64vec4) Load 221
+ 223: 45(f64vec4) VectorShuffle 222 220 4 5 6 3
Store 221 223
224: 6(int) Load 8(invocation)
225: 205(ptr) AccessChain 49(data) 124 124
- 226: 45(fvec4) Load 225
+ 226: 45(f64vec4) Load 225
227: 6(int) Load 8(invocation)
- 228: 45(fvec4) GroupNonUniformBroadcast 38 226 227
+ 228: 45(f64vec4) GroupNonUniformBroadcast 38 226 227
229: 205(ptr) AccessChain 49(data) 224 124
Store 229 228
230: 6(int) Load 8(invocation)
@@ -453,32 +453,32 @@ spv.subgroupBallot.comp
Store 354 353
355: 6(int) Load 8(invocation)
356: 197(ptr) AccessChain 49(data) 61 124 54
- 357: 44(float) Load 356
- 358: 44(float) GroupNonUniformBroadcastFirst 38 357
+ 357:44(float64_t) Load 356
+ 358:44(float64_t) GroupNonUniformBroadcastFirst 38 357
359: 197(ptr) AccessChain 49(data) 355 124 54
Store 359 358
360: 6(int) Load 8(invocation)
361: 205(ptr) AccessChain 49(data) 60 124
- 362: 45(fvec4) Load 361
- 363: 204(fvec2) VectorShuffle 362 362 0 1
- 364: 204(fvec2) GroupNonUniformBroadcastFirst 38 363
+ 362: 45(f64vec4) Load 361
+ 363:204(f64vec2) VectorShuffle 362 362 0 1
+ 364:204(f64vec2) GroupNonUniformBroadcastFirst 38 363
365: 205(ptr) AccessChain 49(data) 360 124
- 366: 45(fvec4) Load 365
- 367: 45(fvec4) VectorShuffle 366 364 4 5 2 3
+ 366: 45(f64vec4) Load 365
+ 367: 45(f64vec4) VectorShuffle 366 364 4 5 2 3
Store 365 367
368: 6(int) Load 8(invocation)
369: 205(ptr) AccessChain 49(data) 51 124
- 370: 45(fvec4) Load 369
- 371: 215(fvec3) VectorShuffle 370 370 0 1 2
- 372: 215(fvec3) GroupNonUniformBroadcastFirst 38 371
+ 370: 45(f64vec4) Load 369
+ 371:215(f64vec3) VectorShuffle 370 370 0 1 2
+ 372:215(f64vec3) GroupNonUniformBroadcastFirst 38 371
373: 205(ptr) AccessChain 49(data) 368 124
- 374: 45(fvec4) Load 373
- 375: 45(fvec4) VectorShuffle 374 372 4 5 6 3
+ 374: 45(f64vec4) Load 373
+ 375: 45(f64vec4) VectorShuffle 374 372 4 5 6 3
Store 373 375
376: 6(int) Load 8(invocation)
377: 205(ptr) AccessChain 49(data) 124 124
- 378: 45(fvec4) Load 377
- 379: 45(fvec4) GroupNonUniformBroadcastFirst 38 378
+ 378: 45(f64vec4) Load 377
+ 379: 45(f64vec4) GroupNonUniformBroadcastFirst 38 378
380: 205(ptr) AccessChain 49(data) 376 124
Store 380 379
381: 6(int) Load 8(invocation)
diff --git a/Test/baseResults/spv.subgroupClustered.comp.out b/Test/baseResults/spv.subgroupClustered.comp.out
index 9bfe1977..139e3f88 100644
--- a/Test/baseResults/spv.subgroupClustered.comp.out
+++ b/Test/baseResults/spv.subgroupClustered.comp.out
@@ -54,8 +54,8 @@ spv.subgroupClustered.comp
20: TypeVector 19(int) 4
21: TypeVector 6(int) 4
22: TypeFloat 64
- 23: TypeVector 22(float) 4
- 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(fvec4)
+ 23: TypeVector 22(float64_t) 4
+ 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(f64vec4)
25: TypeArray 24(Buffers) 15
26: TypePointer Uniform 25
27(data): 26(ptr) Variable Uniform
@@ -78,10 +78,10 @@ spv.subgroupClustered.comp
102: TypeVector 6(int) 2
103: TypePointer Uniform 21(ivec4)
112: TypeVector 6(int) 3
- 126: TypePointer Uniform 22(float)
- 132: TypeVector 22(float) 2
- 133: TypePointer Uniform 23(fvec4)
- 142: TypeVector 22(float) 3
+ 126: TypePointer Uniform 22(float64_t)
+ 132: TypeVector 22(float64_t) 2
+ 133: TypePointer Uniform 23(f64vec4)
+ 142: TypeVector 22(float64_t) 3
522: TypeBool
531: 72(ivec2) ConstantComposite 29 29
532: TypeVector 522(bool) 2
@@ -194,32 +194,32 @@ spv.subgroupClustered.comp
Store 124 123
125: 6(int) Load 8(invocation)
127: 126(ptr) AccessChain 27(data) 29 60 30
- 128: 22(float) Load 127
- 129: 22(float) GroupNonUniformFAdd 35 ClusteredReduce 128 34
+ 128:22(float64_t) Load 127
+ 129:22(float64_t) GroupNonUniformFAdd 35 ClusteredReduce 128 34
130: 126(ptr) AccessChain 27(data) 125 60 30
Store 130 129
131: 6(int) Load 8(invocation)
134: 133(ptr) AccessChain 27(data) 39 60
- 135: 23(fvec4) Load 134
- 136: 132(fvec2) VectorShuffle 135 135 0 1
- 137: 132(fvec2) GroupNonUniformFAdd 35 ClusteredReduce 136 34
+ 135: 23(f64vec4) Load 134
+ 136:132(f64vec2) VectorShuffle 135 135 0 1
+ 137:132(f64vec2) GroupNonUniformFAdd 35 ClusteredReduce 136 34
138: 133(ptr) AccessChain 27(data) 131 60
- 139: 23(fvec4) Load 138
- 140: 23(fvec4) VectorShuffle 139 137 4 5 2 3
+ 139: 23(f64vec4) Load 138
+ 140: 23(f64vec4) VectorShuffle 139 137 4 5 2 3
Store 138 140
141: 6(int) Load 8(invocation)
143: 133(ptr) AccessChain 27(data) 50 60
- 144: 23(fvec4) Load 143
- 145: 142(fvec3) VectorShuffle 144 144 0 1 2
- 146: 142(fvec3) GroupNonUniformFAdd 35 ClusteredReduce 145 34
+ 144: 23(f64vec4) Load 143
+ 145:142(f64vec3) VectorShuffle 144 144 0 1 2
+ 146:142(f64vec3) GroupNonUniformFAdd 35 ClusteredReduce 145 34
147: 133(ptr) AccessChain 27(data) 141 60
- 148: 23(fvec4) Load 147
- 149: 23(fvec4) VectorShuffle 148 146 4 5 6 3
+ 148: 23(f64vec4) Load 147
+ 149: 23(f64vec4) VectorShuffle 148 146 4 5 6 3
Store 147 149
150: 6(int) Load 8(invocation)
151: 133(ptr) AccessChain 27(data) 60 60
- 152: 23(fvec4) Load 151
- 153: 23(fvec4) GroupNonUniformFAdd 35 ClusteredReduce 152 34
+ 152: 23(f64vec4) Load 151
+ 153: 23(f64vec4) GroupNonUniformFAdd 35 ClusteredReduce 152 34
154: 133(ptr) AccessChain 27(data) 150 60
Store 154 153
155: 6(int) Load 8(invocation)
@@ -314,32 +314,32 @@ spv.subgroupClustered.comp
Store 232 231
233: 6(int) Load 8(invocation)
234: 126(ptr) AccessChain 27(data) 29 60 30
- 235: 22(float) Load 234
- 236: 22(float) GroupNonUniformFMul 35 ClusteredReduce 235 34
+ 235:22(float64_t) Load 234
+ 236:22(float64_t) GroupNonUniformFMul 35 ClusteredReduce 235 34
237: 126(ptr) AccessChain 27(data) 233 60 30
Store 237 236
238: 6(int) Load 8(invocation)
239: 133(ptr) AccessChain 27(data) 39 60
- 240: 23(fvec4) Load 239
- 241: 132(fvec2) VectorShuffle 240 240 0 1
- 242: 132(fvec2) GroupNonUniformFMul 35 ClusteredReduce 241 34
+ 240: 23(f64vec4) Load 239
+ 241:132(f64vec2) VectorShuffle 240 240 0 1
+ 242:132(f64vec2) GroupNonUniformFMul 35 ClusteredReduce 241 34
243: 133(ptr) AccessChain 27(data) 238 60
- 244: 23(fvec4) Load 243
- 245: 23(fvec4) VectorShuffle 244 242 4 5 2 3
+ 244: 23(f64vec4) Load 243
+ 245: 23(f64vec4) VectorShuffle 244 242 4 5 2 3
Store 243 245
246: 6(int) Load 8(invocation)
247: 133(ptr) AccessChain 27(data) 50 60
- 248: 23(fvec4) Load 247
- 249: 142(fvec3) VectorShuffle 248 248 0 1 2
- 250: 142(fvec3) GroupNonUniformFMul 35 ClusteredReduce 249 34
+ 248: 23(f64vec4) Load 247
+ 249:142(f64vec3) VectorShuffle 248 248 0 1 2
+ 250:142(f64vec3) GroupNonUniformFMul 35 ClusteredReduce 249 34
251: 133(ptr) AccessChain 27(data) 246 60
- 252: 23(fvec4) Load 251
- 253: 23(fvec4) VectorShuffle 252 250 4 5 6 3
+ 252: 23(f64vec4) Load 251
+ 253: 23(f64vec4) VectorShuffle 252 250 4 5 6 3
Store 251 253
254: 6(int) Load 8(invocation)
255: 133(ptr) AccessChain 27(data) 60 60
- 256: 23(fvec4) Load 255
- 257: 23(fvec4) GroupNonUniformFMul 35 ClusteredReduce 256 34
+ 256: 23(f64vec4) Load 255
+ 257: 23(f64vec4) GroupNonUniformFMul 35 ClusteredReduce 256 34
258: 133(ptr) AccessChain 27(data) 254 60
Store 258 257
259: 6(int) Load 8(invocation)
@@ -434,32 +434,32 @@ spv.subgroupClustered.comp
Store 336 335
337: 6(int) Load 8(invocation)
338: 126(ptr) AccessChain 27(data) 29 60 30
- 339: 22(float) Load 338
- 340: 22(float) GroupNonUniformFMin 35 ClusteredReduce 339 34
+ 339:22(float64_t) Load 338
+ 340:22(float64_t) GroupNonUniformFMin 35 ClusteredReduce 339 34
341: 126(ptr) AccessChain 27(data) 337 60 30
Store 341 340
342: 6(int) Load 8(invocation)
343: 133(ptr) AccessChain 27(data) 39 60
- 344: 23(fvec4) Load 343
- 345: 132(fvec2) VectorShuffle 344 344 0 1
- 346: 132(fvec2) GroupNonUniformFMin 35 ClusteredReduce 345 34
+ 344: 23(f64vec4) Load 343
+ 345:132(f64vec2) VectorShuffle 344 344 0 1
+ 346:132(f64vec2) GroupNonUniformFMin 35 ClusteredReduce 345 34
347: 133(ptr) AccessChain 27(data) 342 60
- 348: 23(fvec4) Load 347
- 349: 23(fvec4) VectorShuffle 348 346 4 5 2 3
+ 348: 23(f64vec4) Load 347
+ 349: 23(f64vec4) VectorShuffle 348 346 4 5 2 3
Store 347 349
350: 6(int) Load 8(invocation)
351: 133(ptr) AccessChain 27(data) 50 60
- 352: 23(fvec4) Load 351
- 353: 142(fvec3) VectorShuffle 352 352 0 1 2
- 354: 142(fvec3) GroupNonUniformFMin 35 ClusteredReduce 353 34
+ 352: 23(f64vec4) Load 351
+ 353:142(f64vec3) VectorShuffle 352 352 0 1 2
+ 354:142(f64vec3) GroupNonUniformFMin 35 ClusteredReduce 353 34
355: 133(ptr) AccessChain 27(data) 350 60
- 356: 23(fvec4) Load 355
- 357: 23(fvec4) VectorShuffle 356 354 4 5 6 3
+ 356: 23(f64vec4) Load 355
+ 357: 23(f64vec4) VectorShuffle 356 354 4 5 6 3
Store 355 357
358: 6(int) Load 8(invocation)
359: 133(ptr) AccessChain 27(data) 60 60
- 360: 23(fvec4) Load 359
- 361: 23(fvec4) GroupNonUniformFMin 35 ClusteredReduce 360 34
+ 360: 23(f64vec4) Load 359
+ 361: 23(f64vec4) GroupNonUniformFMin 35 ClusteredReduce 360 34
362: 133(ptr) AccessChain 27(data) 358 60
Store 362 361
363: 6(int) Load 8(invocation)
@@ -554,32 +554,32 @@ spv.subgroupClustered.comp
Store 440 439
441: 6(int) Load 8(invocation)
442: 126(ptr) AccessChain 27(data) 29 60 30
- 443: 22(float) Load 442
- 444: 22(float) GroupNonUniformFMax 35 ClusteredReduce 443 34
+ 443:22(float64_t) Load 442
+ 444:22(float64_t) GroupNonUniformFMax 35 ClusteredReduce 443 34
445: 126(ptr) AccessChain 27(data) 441 60 30
Store 445 444
446: 6(int) Load 8(invocation)
447: 133(ptr) AccessChain 27(data) 39 60
- 448: 23(fvec4) Load 447
- 449: 132(fvec2) VectorShuffle 448 448 0 1
- 450: 132(fvec2) GroupNonUniformFMax 35 ClusteredReduce 449 34
+ 448: 23(f64vec4) Load 447
+ 449:132(f64vec2) VectorShuffle 448 448 0 1
+ 450:132(f64vec2) GroupNonUniformFMax 35 ClusteredReduce 449 34
451: 133(ptr) AccessChain 27(data) 446 60
- 452: 23(fvec4) Load 451
- 453: 23(fvec4) VectorShuffle 452 450 4 5 2 3
+ 452: 23(f64vec4) Load 451
+ 453: 23(f64vec4) VectorShuffle 452 450 4 5 2 3
Store 451 453
454: 6(int) Load 8(invocation)
455: 133(ptr) AccessChain 27(data) 50 60
- 456: 23(fvec4) Load 455
- 457: 142(fvec3) VectorShuffle 456 456 0 1 2
- 458: 142(fvec3) GroupNonUniformFMax 35 ClusteredReduce 457 34
+ 456: 23(f64vec4) Load 455
+ 457:142(f64vec3) VectorShuffle 456 456 0 1 2
+ 458:142(f64vec3) GroupNonUniformFMax 35 ClusteredReduce 457 34
459: 133(ptr) AccessChain 27(data) 454 60
- 460: 23(fvec4) Load 459
- 461: 23(fvec4) VectorShuffle 460 458 4 5 6 3
+ 460: 23(f64vec4) Load 459
+ 461: 23(f64vec4) VectorShuffle 460 458 4 5 6 3
Store 459 461
462: 6(int) Load 8(invocation)
463: 133(ptr) AccessChain 27(data) 60 60
- 464: 23(fvec4) Load 463
- 465: 23(fvec4) GroupNonUniformFMax 35 ClusteredReduce 464 34
+ 464: 23(f64vec4) Load 463
+ 465: 23(f64vec4) GroupNonUniformFMax 35 ClusteredReduce 464 34
466: 133(ptr) AccessChain 27(data) 462 60
Store 466 465
467: 6(int) Load 8(invocation)
diff --git a/Test/baseResults/spv.subgroupPartitioned.comp.out b/Test/baseResults/spv.subgroupPartitioned.comp.out
index 74f01048..dd255c2a 100755
--- a/Test/baseResults/spv.subgroupPartitioned.comp.out
+++ b/Test/baseResults/spv.subgroupPartitioned.comp.out
@@ -57,8 +57,8 @@ spv.subgroupPartitioned.comp
24: TypeInt 32 1
25: TypeVector 24(int) 4
26: TypeFloat 64
- 27: TypeVector 26(float) 4
- 28(Buffers): TypeStruct 23(fvec4) 25(ivec4) 17(ivec4) 27(fvec4)
+ 27: TypeVector 26(float64_t) 4
+ 28(Buffers): TypeStruct 23(fvec4) 25(ivec4) 17(ivec4) 27(f64vec4)
29: TypeArray 28(Buffers) 15
30: TypePointer Uniform 29
31(data): 30(ptr) Variable Uniform
@@ -79,10 +79,10 @@ spv.subgroupPartitioned.comp
96: TypeVector 6(int) 2
103: TypeVector 6(int) 3
115: 24(int) Constant 3
- 116: TypePointer Uniform 26(float)
- 122: TypeVector 26(float) 2
- 123: TypePointer Uniform 27(fvec4)
- 130: TypeVector 26(float) 3
+ 116: TypePointer Uniform 26(float64_t)
+ 122: TypeVector 26(float64_t) 2
+ 123: TypePointer Uniform 27(f64vec4)
+ 130: TypeVector 26(float64_t) 3
144: TypeBool
152: TypeVector 144(bool) 2
153: 96(ivec2) ConstantComposite 35 35
@@ -192,27 +192,27 @@ spv.subgroupPartitioned.comp
Store 113 112
114: 6(int) Load 8(invocation)
117: 116(ptr) AccessChain 31(data) 34 115 35
- 118: 26(float) Load 117
+ 118:26(float64_t) Load 117
119: 17(ivec4) GroupNonUniformPartitionNV 118
120: 40(ptr) AccessChain 31(data) 114 33
Store 120 119
121: 6(int) Load 8(invocation)
124: 123(ptr) AccessChain 31(data) 34 115
- 125: 27(fvec4) Load 124
- 126: 122(fvec2) VectorShuffle 125 125 0 1
+ 125: 27(f64vec4) Load 124
+ 126:122(f64vec2) VectorShuffle 125 125 0 1
127: 17(ivec4) GroupNonUniformPartitionNV 126
128: 40(ptr) AccessChain 31(data) 121 33
Store 128 127
129: 6(int) Load 8(invocation)
131: 123(ptr) AccessChain 31(data) 34 115
- 132: 27(fvec4) Load 131
- 133: 130(fvec3) VectorShuffle 132 132 0 1 2
+ 132: 27(f64vec4) Load 131
+ 133:130(f64vec3) VectorShuffle 132 132 0 1 2
134: 17(ivec4) GroupNonUniformPartitionNV 133
135: 40(ptr) AccessChain 31(data) 129 33
Store 135 134
136: 6(int) Load 8(invocation)
137: 123(ptr) AccessChain 31(data) 34 115
- 138: 27(fvec4) Load 137
+ 138: 27(f64vec4) Load 137
139: 17(ivec4) GroupNonUniformPartitionNV 138
140: 40(ptr) AccessChain 31(data) 136 33
Store 140 139
@@ -350,36 +350,36 @@ spv.subgroupPartitioned.comp
Store 264 263
265: 6(int) Load 8(invocation)
266: 116(ptr) AccessChain 31(data) 34 115 35
- 267: 26(float) Load 266
+ 267:26(float64_t) Load 266
268: 17(ivec4) Load 19(ballot)
- 269: 26(float) GroupNonUniformFAdd 178 PartitionedReduceNV 267 268
+ 269:26(float64_t) GroupNonUniformFAdd 178 PartitionedReduceNV 267 268
270: 116(ptr) AccessChain 31(data) 265 115 35
Store 270 269
271: 6(int) Load 8(invocation)
272: 123(ptr) AccessChain 31(data) 63 115
- 273: 27(fvec4) Load 272
- 274: 122(fvec2) VectorShuffle 273 273 0 1
+ 273: 27(f64vec4) Load 272
+ 274:122(f64vec2) VectorShuffle 273 273 0 1
275: 17(ivec4) Load 19(ballot)
- 276: 122(fvec2) GroupNonUniformFAdd 178 PartitionedReduceNV 274 275
+ 276:122(f64vec2) GroupNonUniformFAdd 178 PartitionedReduceNV 274 275
277: 123(ptr) AccessChain 31(data) 271 115
- 278: 27(fvec4) Load 277
- 279: 27(fvec4) VectorShuffle 278 276 4 5 2 3
+ 278: 27(f64vec4) Load 277
+ 279: 27(f64vec4) VectorShuffle 278 276 4 5 2 3
Store 277 279
280: 6(int) Load 8(invocation)
281: 123(ptr) AccessChain 31(data) 33 115
- 282: 27(fvec4) Load 281
- 283: 130(fvec3) VectorShuffle 282 282 0 1 2
+ 282: 27(f64vec4) Load 281
+ 283:130(f64vec3) VectorShuffle 282 282 0 1 2
284: 17(ivec4) Load 19(ballot)
- 285: 130(fvec3) GroupNonUniformFAdd 178 PartitionedReduceNV 283 284
+ 285:130(f64vec3) GroupNonUniformFAdd 178 PartitionedReduceNV 283 284
286: 123(ptr) AccessChain 31(data) 280 115
- 287: 27(fvec4) Load 286
- 288: 27(fvec4) VectorShuffle 287 285 4 5 6 3
+ 287: 27(f64vec4) Load 286
+ 288: 27(f64vec4) VectorShuffle 287 285 4 5 6 3
Store 286 288
289: 6(int) Load 8(invocation)
290: 123(ptr) AccessChain 31(data) 115 115
- 291: 27(fvec4) Load 290
+ 291: 27(f64vec4) Load 290
292: 17(ivec4) Load 19(ballot)
- 293: 27(fvec4) GroupNonUniformFAdd 178 PartitionedReduceNV 291 292
+ 293: 27(f64vec4) GroupNonUniformFAdd 178 PartitionedReduceNV 291 292
294: 123(ptr) AccessChain 31(data) 289 115
Store 294 293
295: 6(int) Load 8(invocation)
@@ -486,36 +486,36 @@ spv.subgroupPartitioned.comp
Store 384 383
385: 6(int) Load 8(invocation)
386: 116(ptr) AccessChain 31(data) 34 115 35
- 387: 26(float) Load 386
+ 387:26(float64_t) Load 386
388: 17(ivec4) Load 19(ballot)
- 389: 26(float) GroupNonUniformFMul 178 PartitionedReduceNV 387 388
+ 389:26(float64_t) GroupNonUniformFMul 178 PartitionedReduceNV 387 388
390: 116(ptr) AccessChain 31(data) 385 115 35
Store 390 389
391: 6(int) Load 8(invocation)
392: 123(ptr) AccessChain 31(data) 63 115
- 393: 27(fvec4) Load 392
- 394: 122(fvec2) VectorShuffle 393 393 0 1
+ 393: 27(f64vec4) Load 392
+ 394:122(f64vec2) VectorShuffle 393 393 0 1
395: 17(ivec4) Load 19(ballot)
- 396: 122(fvec2) GroupNonUniformFMul 178 PartitionedReduceNV 394 395
+ 396:122(f64vec2) GroupNonUniformFMul 178 PartitionedReduceNV 394 395
397: 123(ptr) AccessChain 31(data) 391 115
- 398: 27(fvec4) Load 397
- 399: 27(fvec4) VectorShuffle 398 396 4 5 2 3
+ 398: 27(f64vec4) Load 397
+ 399: 27(f64vec4) VectorShuffle 398 396 4 5 2 3
Store 397 399
400: 6(int) Load 8(invocation)
401: 123(ptr) AccessChain 31(data) 33 115
- 402: 27(fvec4) Load 401
- 403: 130(fvec3) VectorShuffle 402 402 0 1 2
+ 402: 27(f64vec4) Load 401
+ 403:130(f64vec3) VectorShuffle 402 402 0 1 2
404: 17(ivec4) Load 19(ballot)
- 405: 130(fvec3) GroupNonUniformFMul 178 PartitionedReduceNV 403 404
+ 405:130(f64vec3) GroupNonUniformFMul 178 PartitionedReduceNV 403 404
406: 123(ptr) AccessChain 31(data) 400 115
- 407: 27(fvec4) Load 406
- 408: 27(fvec4) VectorShuffle 407 405 4 5 6 3
+ 407: 27(f64vec4) Load 406
+ 408: 27(f64vec4) VectorShuffle 407 405 4 5 6 3
Store 406 408
409: 6(int) Load 8(invocation)
410: 123(ptr) AccessChain 31(data) 115 115
- 411: 27(fvec4) Load 410
+ 411: 27(f64vec4) Load 410
412: 17(ivec4) Load 19(ballot)
- 413: 27(fvec4) GroupNonUniformFMul 178 PartitionedReduceNV 411 412
+ 413: 27(f64vec4) GroupNonUniformFMul 178 PartitionedReduceNV 411 412
414: 123(ptr) AccessChain 31(data) 409 115
Store 414 413
415: 6(int) Load 8(invocation)
@@ -622,36 +622,36 @@ spv.subgroupPartitioned.comp
Store 504 503
505: 6(int) Load 8(invocation)
506: 116(ptr) AccessChain 31(data) 34 115 35
- 507: 26(float) Load 506
+ 507:26(float64_t) Load 506
508: 17(ivec4) Load 19(ballot)
- 509: 26(float) GroupNonUniformFMin 178 PartitionedReduceNV 507 508
+ 509:26(float64_t) GroupNonUniformFMin 178 PartitionedReduceNV 507 508
510: 116(ptr) AccessChain 31(data) 505 115 35
Store 510 509
511: 6(int) Load 8(invocation)
512: 123(ptr) AccessChain 31(data) 63 115
- 513: 27(fvec4) Load 512
- 514: 122(fvec2) VectorShuffle 513 513 0 1
+ 513: 27(f64vec4) Load 512
+ 514:122(f64vec2) VectorShuffle 513 513 0 1
515: 17(ivec4) Load 19(ballot)
- 516: 122(fvec2) GroupNonUniformFMin 178 PartitionedReduceNV 514 515
+ 516:122(f64vec2) GroupNonUniformFMin 178 PartitionedReduceNV 514 515
517: 123(ptr) AccessChain 31(data) 511 115
- 518: 27(fvec4) Load 517
- 519: 27(fvec4) VectorShuffle 518 516 4 5 2 3
+ 518: 27(f64vec4) Load 517
+ 519: 27(f64vec4) VectorShuffle 518 516 4 5 2 3
Store 517 519
520: 6(int) Load 8(invocation)
521: 123(ptr) AccessChain 31(data) 33 115
- 522: 27(fvec4) Load 521
- 523: 130(fvec3) VectorShuffle 522 522 0 1 2
+ 522: 27(f64vec4) Load 521
+ 523:130(f64vec3) VectorShuffle 522 522 0 1 2
524: 17(ivec4) Load 19(ballot)
- 525: 130(fvec3) GroupNonUniformFMin 178 PartitionedReduceNV 523 524
+ 525:130(f64vec3) GroupNonUniformFMin 178 PartitionedReduceNV 523 524
526: 123(ptr) AccessChain 31(data) 520 115
- 527: 27(fvec4) Load 526
- 528: 27(fvec4) VectorShuffle 527 525 4 5 6 3
+ 527: 27(f64vec4) Load 526
+ 528: 27(f64vec4) VectorShuffle 527 525 4 5 6 3
Store 526 528
529: 6(int) Load 8(invocation)
530: 123(ptr) AccessChain 31(data) 115 115
- 531: 27(fvec4) Load 530
+ 531: 27(f64vec4) Load 530
532: 17(ivec4) Load 19(ballot)
- 533: 27(fvec4) GroupNonUniformFMin 178 PartitionedReduceNV 531 532
+ 533: 27(f64vec4) GroupNonUniformFMin 178 PartitionedReduceNV 531 532
534: 123(ptr) AccessChain 31(data) 529 115
Store 534 533
535: 6(int) Load 8(invocation)
@@ -758,36 +758,36 @@ spv.subgroupPartitioned.comp
Store 624 623
625: 6(int) Load 8(invocation)
626: 116(ptr) AccessChain 31(data) 34 115 35
- 627: 26(float) Load 626
+ 627:26(float64_t) Load 626
628: 17(ivec4) Load 19(ballot)
- 629: 26(float) GroupNonUniformFMax 178 PartitionedReduceNV 627 628
+ 629:26(float64_t) GroupNonUniformFMax 178 PartitionedReduceNV 627 628
630: 116(ptr) AccessChain 31(data) 625 115 35
Store 630 629
631: 6(int) Load 8(invocation)
632: 123(ptr) AccessChain 31(data) 63 115
- 633: 27(fvec4) Load 632
- 634: 122(fvec2) VectorShuffle 633 633 0 1
+ 633: 27(f64vec4) Load 632
+ 634:122(f64vec2) VectorShuffle 633 633 0 1
635: 17(ivec4) Load 19(ballot)
- 636: 122(fvec2) GroupNonUniformFMax 178 PartitionedReduceNV 634 635
+ 636:122(f64vec2) GroupNonUniformFMax 178 PartitionedReduceNV 634 635
637: 123(ptr) AccessChain 31(data) 631 115
- 638: 27(fvec4) Load 637
- 639: 27(fvec4) VectorShuffle 638 636 4 5 2 3
+ 638: 27(f64vec4) Load 637
+ 639: 27(f64vec4) VectorShuffle 638 636 4 5 2 3
Store 637 639
640: 6(int) Load 8(invocation)
641: 123(ptr) AccessChain 31(data) 33 115
- 642: 27(fvec4) Load 641
- 643: 130(fvec3) VectorShuffle 642 642 0 1 2
+ 642: 27(f64vec4) Load 641
+ 643:130(f64vec3) VectorShuffle 642 642 0 1 2
644: 17(ivec4) Load 19(ballot)
- 645: 130(fvec3) GroupNonUniformFMax 178 PartitionedReduceNV 643 644
+ 645:130(f64vec3) GroupNonUniformFMax 178 PartitionedReduceNV 643 644
646: 123(ptr) AccessChain 31(data) 640 115
- 647: 27(fvec4) Load 646
- 648: 27(fvec4) VectorShuffle 647 645 4 5 6 3
+ 647: 27(f64vec4) Load 646
+ 648: 27(f64vec4) VectorShuffle 647 645 4 5 6 3
Store 646 648
649: 6(int) Load 8(invocation)
650: 123(ptr) AccessChain 31(data) 115 115
- 651: 27(fvec4) Load 650
+ 651: 27(f64vec4) Load 650
652: 17(ivec4) Load 19(ballot)
- 653: 27(fvec4) GroupNonUniformFMax 178 PartitionedReduceNV 651 652
+ 653: 27(f64vec4) GroupNonUniformFMax 178 PartitionedReduceNV 651 652
654: 123(ptr) AccessChain 31(data) 649 115
Store 654 653
655: 6(int) Load 8(invocation)
@@ -1224,36 +1224,36 @@ spv.subgroupPartitioned.comp
Store 1044 1043
1045: 6(int) Load 8(invocation)
1046: 116(ptr) AccessChain 31(data) 34 115 35
- 1047: 26(float) Load 1046
+ 1047:26(float64_t) Load 1046
1048: 17(ivec4) Load 19(ballot)
- 1049: 26(float) GroupNonUniformFAdd 178 PartitionedInclusiveScanNV 1047 1048
+ 1049:26(float64_t) GroupNonUniformFAdd 178 PartitionedInclusiveScanNV 1047 1048
1050: 116(ptr) AccessChain 31(data) 1045 115 35
Store 1050 1049
1051: 6(int) Load 8(invocation)
1052: 123(ptr) AccessChain 31(data) 63 115
- 1053: 27(fvec4) Load 1052
- 1054: 122(fvec2) VectorShuffle 1053 1053 0 1
+ 1053: 27(f64vec4) Load 1052
+ 1054:122(f64vec2) VectorShuffle 1053 1053 0 1
1055: 17(ivec4) Load 19(ballot)
- 1056: 122(fvec2) GroupNonUniformFAdd 178 PartitionedInclusiveScanNV 1054 1055
+ 1056:122(f64vec2) GroupNonUniformFAdd 178 PartitionedInclusiveScanNV 1054 1055
1057: 123(ptr) AccessChain 31(data) 1051 115
- 1058: 27(fvec4) Load 1057
- 1059: 27(fvec4) VectorShuffle 1058 1056 4 5 2 3
+ 1058: 27(f64vec4) Load 1057
+ 1059: 27(f64vec4) VectorShuffle 1058 1056 4 5 2 3
Store 1057 1059
1060: 6(int) Load 8(invocation)
1061: 123(ptr) AccessChain 31(data) 33 115
- 1062: 27(fvec4) Load 1061
- 1063: 130(fvec3) VectorShuffle 1062 1062 0 1 2
+ 1062: 27(f64vec4) Load 1061
+ 1063:130(f64vec3) VectorShuffle 1062 1062 0 1 2
1064: 17(ivec4) Load 19(ballot)
- 1065: 130(fvec3) GroupNonUniformFAdd 178 PartitionedInclusiveScanNV 1063 1064
+ 1065:130(f64vec3) GroupNonUniformFAdd 178 PartitionedInclusiveScanNV 1063 1064
1066: 123(ptr) AccessChain 31(data) 1060 115
- 1067: 27(fvec4) Load 1066
- 1068: 27(fvec4) VectorShuffle 1067 1065 4 5 6 3
+ 1067: 27(f64vec4) Load 1066
+ 1068: 27(f64vec4) VectorShuffle 1067 1065 4 5 6 3
Store 1066 1068
1069: 6(int) Load 8(invocation)
1070: 123(ptr) AccessChain 31(data) 115 115
- 1071: 27(fvec4) Load 1070
+ 1071: 27(f64vec4) Load 1070
1072: 17(ivec4) Load 19(ballot)
- 1073: 27(fvec4) GroupNonUniformFAdd 178 PartitionedInclusiveScanNV 1071 1072
+ 1073: 27(f64vec4) GroupNonUniformFAdd 178 PartitionedInclusiveScanNV 1071 1072
1074: 123(ptr) AccessChain 31(data) 1069 115
Store 1074 1073
1075: 6(int) Load 8(invocation)
@@ -1360,36 +1360,36 @@ spv.subgroupPartitioned.comp
Store 1164 1163
1165: 6(int) Load 8(invocation)
1166: 116(ptr) AccessChain 31(data) 34 115 35
- 1167: 26(float) Load 1166
+ 1167:26(float64_t) Load 1166
1168: 17(ivec4) Load 19(ballot)
- 1169: 26(float) GroupNonUniformFMul 178 PartitionedInclusiveScanNV 1167 1168
+ 1169:26(float64_t) GroupNonUniformFMul 178 PartitionedInclusiveScanNV 1167 1168
1170: 116(ptr) AccessChain 31(data) 1165 115 35
Store 1170 1169
1171: 6(int) Load 8(invocation)
1172: 123(ptr) AccessChain 31(data) 63 115
- 1173: 27(fvec4) Load 1172
- 1174: 122(fvec2) VectorShuffle 1173 1173 0 1
+ 1173: 27(f64vec4) Load 1172
+ 1174:122(f64vec2) VectorShuffle 1173 1173 0 1
1175: 17(ivec4) Load 19(ballot)
- 1176: 122(fvec2) GroupNonUniformFMul 178 PartitionedInclusiveScanNV 1174 1175
+ 1176:122(f64vec2) GroupNonUniformFMul 178 PartitionedInclusiveScanNV 1174 1175
1177: 123(ptr) AccessChain 31(data) 1171 115
- 1178: 27(fvec4) Load 1177
- 1179: 27(fvec4) VectorShuffle 1178 1176 4 5 2 3
+ 1178: 27(f64vec4) Load 1177
+ 1179: 27(f64vec4) VectorShuffle 1178 1176 4 5 2 3
Store 1177 1179
1180: 6(int) Load 8(invocation)
1181: 123(ptr) AccessChain 31(data) 33 115
- 1182: 27(fvec4) Load 1181
- 1183: 130(fvec3) VectorShuffle 1182 1182 0 1 2
+ 1182: 27(f64vec4) Load 1181
+ 1183:130(f64vec3) VectorShuffle 1182 1182 0 1 2
1184: 17(ivec4) Load 19(ballot)
- 1185: 130(fvec3) GroupNonUniformFMul 178 PartitionedInclusiveScanNV 1183 1184
+ 1185:130(f64vec3) GroupNonUniformFMul 178 PartitionedInclusiveScanNV 1183 1184
1186: 123(ptr) AccessChain 31(data) 1180 115
- 1187: 27(fvec4) Load 1186
- 1188: 27(fvec4) VectorShuffle 1187 1185 4 5 6 3
+ 1187: 27(f64vec4) Load 1186
+ 1188: 27(f64vec4) VectorShuffle 1187 1185 4 5 6 3
Store 1186 1188
1189: 6(int) Load 8(invocation)
1190: 123(ptr) AccessChain 31(data) 115 115
- 1191: 27(fvec4) Load 1190
+ 1191: 27(f64vec4) Load 1190
1192: 17(ivec4) Load 19(ballot)
- 1193: 27(fvec4) GroupNonUniformFMul 178 PartitionedInclusiveScanNV 1191 1192
+ 1193: 27(f64vec4) GroupNonUniformFMul 178 PartitionedInclusiveScanNV 1191 1192
1194: 123(ptr) AccessChain 31(data) 1189 115
Store 1194 1193
1195: 6(int) Load 8(invocation)
@@ -1496,36 +1496,36 @@ spv.subgroupPartitioned.comp
Store 1284 1283
1285: 6(int) Load 8(invocation)
1286: 116(ptr) AccessChain 31(data) 34 115 35
- 1287: 26(float) Load 1286
+ 1287:26(float64_t) Load 1286
1288: 17(ivec4) Load 19(ballot)
- 1289: 26(float) GroupNonUniformFMin 178 PartitionedInclusiveScanNV 1287 1288
+ 1289:26(float64_t) GroupNonUniformFMin 178 PartitionedInclusiveScanNV 1287 1288
1290: 116(ptr) AccessChain 31(data) 1285 115 35
Store 1290 1289
1291: 6(int) Load 8(invocation)
1292: 123(ptr) AccessChain 31(data) 63 115
- 1293: 27(fvec4) Load 1292
- 1294: 122(fvec2) VectorShuffle 1293 1293 0 1
+ 1293: 27(f64vec4) Load 1292
+ 1294:122(f64vec2) VectorShuffle 1293 1293 0 1
1295: 17(ivec4) Load 19(ballot)
- 1296: 122(fvec2) GroupNonUniformFMin 178 PartitionedInclusiveScanNV 1294 1295
+ 1296:122(f64vec2) GroupNonUniformFMin 178 PartitionedInclusiveScanNV 1294 1295
1297: 123(ptr) AccessChain 31(data) 1291 115
- 1298: 27(fvec4) Load 1297
- 1299: 27(fvec4) VectorShuffle 1298 1296 4 5 2 3
+ 1298: 27(f64vec4) Load 1297
+ 1299: 27(f64vec4) VectorShuffle 1298 1296 4 5 2 3
Store 1297 1299
1300: 6(int) Load 8(invocation)
1301: 123(ptr) AccessChain 31(data) 33 115
- 1302: 27(fvec4) Load 1301
- 1303: 130(fvec3) VectorShuffle 1302 1302 0 1 2
+ 1302: 27(f64vec4) Load 1301
+ 1303:130(f64vec3) VectorShuffle 1302 1302 0 1 2
1304: 17(ivec4) Load 19(ballot)
- 1305: 130(fvec3) GroupNonUniformFMin 178 PartitionedInclusiveScanNV 1303 1304
+ 1305:130(f64vec3) GroupNonUniformFMin 178 PartitionedInclusiveScanNV 1303 1304
1306: 123(ptr) AccessChain 31(data) 1300 115
- 1307: 27(fvec4) Load 1306
- 1308: 27(fvec4) VectorShuffle 1307 1305 4 5 6 3
+ 1307: 27(f64vec4) Load 1306
+ 1308: 27(f64vec4) VectorShuffle 1307 1305 4 5 6 3
Store 1306 1308
1309: 6(int) Load 8(invocation)
1310: 123(ptr) AccessChain 31(data) 115 115
- 1311: 27(fvec4) Load 1310
+ 1311: 27(f64vec4) Load 1310
1312: 17(ivec4) Load 19(ballot)
- 1313: 27(fvec4) GroupNonUniformFMin 178 PartitionedInclusiveScanNV 1311 1312
+ 1313: 27(f64vec4) GroupNonUniformFMin 178 PartitionedInclusiveScanNV 1311 1312
1314: 123(ptr) AccessChain 31(data) 1309 115
Store 1314 1313
1315: 6(int) Load 8(invocation)
@@ -1632,36 +1632,36 @@ spv.subgroupPartitioned.comp
Store 1404 1403
1405: 6(int) Load 8(invocation)
1406: 116(ptr) AccessChain 31(data) 34 115 35
- 1407: 26(float) Load 1406
+ 1407:26(float64_t) Load 1406
1408: 17(ivec4) Load 19(ballot)
- 1409: 26(float) GroupNonUniformFMax 178 PartitionedInclusiveScanNV 1407 1408
+ 1409:26(float64_t) GroupNonUniformFMax 178 PartitionedInclusiveScanNV 1407 1408
1410: 116(ptr) AccessChain 31(data) 1405 115 35
Store 1410 1409
1411: 6(int) Load 8(invocation)
1412: 123(ptr) AccessChain 31(data) 63 115
- 1413: 27(fvec4) Load 1412
- 1414: 122(fvec2) VectorShuffle 1413 1413 0 1
+ 1413: 27(f64vec4) Load 1412
+ 1414:122(f64vec2) VectorShuffle 1413 1413 0 1
1415: 17(ivec4) Load 19(ballot)
- 1416: 122(fvec2) GroupNonUniformFMax 178 PartitionedInclusiveScanNV 1414 1415
+ 1416:122(f64vec2) GroupNonUniformFMax 178 PartitionedInclusiveScanNV 1414 1415
1417: 123(ptr) AccessChain 31(data) 1411 115
- 1418: 27(fvec4) Load 1417
- 1419: 27(fvec4) VectorShuffle 1418 1416 4 5 2 3
+ 1418: 27(f64vec4) Load 1417
+ 1419: 27(f64vec4) VectorShuffle 1418 1416 4 5 2 3
Store 1417 1419
1420: 6(int) Load 8(invocation)
1421: 123(ptr) AccessChain 31(data) 33 115
- 1422: 27(fvec4) Load 1421
- 1423: 130(fvec3) VectorShuffle 1422 1422 0 1 2
+ 1422: 27(f64vec4) Load 1421
+ 1423:130(f64vec3) VectorShuffle 1422 1422 0 1 2
1424: 17(ivec4) Load 19(ballot)
- 1425: 130(fvec3) GroupNonUniformFMax 178 PartitionedInclusiveScanNV 1423 1424
+ 1425:130(f64vec3) GroupNonUniformFMax 178 PartitionedInclusiveScanNV 1423 1424
1426: 123(ptr) AccessChain 31(data) 1420 115
- 1427: 27(fvec4) Load 1426
- 1428: 27(fvec4) VectorShuffle 1427 1425 4 5 6 3
+ 1427: 27(f64vec4) Load 1426
+ 1428: 27(f64vec4) VectorShuffle 1427 1425 4 5 6 3
Store 1426 1428
1429: 6(int) Load 8(invocation)
1430: 123(ptr) AccessChain 31(data) 115 115
- 1431: 27(fvec4) Load 1430
+ 1431: 27(f64vec4) Load 1430
1432: 17(ivec4) Load 19(ballot)
- 1433: 27(fvec4) GroupNonUniformFMax 178 PartitionedInclusiveScanNV 1431 1432
+ 1433: 27(f64vec4) GroupNonUniformFMax 178 PartitionedInclusiveScanNV 1431 1432
1434: 123(ptr) AccessChain 31(data) 1429 115
Store 1434 1433
1435: 6(int) Load 8(invocation)
@@ -2098,36 +2098,36 @@ spv.subgroupPartitioned.comp
Store 1818 1817
1819: 6(int) Load 8(invocation)
1820: 116(ptr) AccessChain 31(data) 34 115 35
- 1821: 26(float) Load 1820
+ 1821:26(float64_t) Load 1820
1822: 17(ivec4) Load 19(ballot)
- 1823: 26(float) GroupNonUniformFAdd 178 PartitionedExclusiveScanNV 1821 1822
+ 1823:26(float64_t) GroupNonUniformFAdd 178 PartitionedExclusiveScanNV 1821 1822
1824: 116(ptr) AccessChain 31(data) 1819 115 35
Store 1824 1823
1825: 6(int) Load 8(invocation)
1826: 123(ptr) AccessChain 31(data) 63 115
- 1827: 27(fvec4) Load 1826
- 1828: 122(fvec2) VectorShuffle 1827 1827 0 1
+ 1827: 27(f64vec4) Load 1826
+ 1828:122(f64vec2) VectorShuffle 1827 1827 0 1
1829: 17(ivec4) Load 19(ballot)
- 1830: 122(fvec2) GroupNonUniformFAdd 178 PartitionedExclusiveScanNV 1828 1829
+ 1830:122(f64vec2) GroupNonUniformFAdd 178 PartitionedExclusiveScanNV 1828 1829
1831: 123(ptr) AccessChain 31(data) 1825 115
- 1832: 27(fvec4) Load 1831
- 1833: 27(fvec4) VectorShuffle 1832 1830 4 5 2 3
+ 1832: 27(f64vec4) Load 1831
+ 1833: 27(f64vec4) VectorShuffle 1832 1830 4 5 2 3
Store 1831 1833
1834: 6(int) Load 8(invocation)
1835: 123(ptr) AccessChain 31(data) 33 115
- 1836: 27(fvec4) Load 1835
- 1837: 130(fvec3) VectorShuffle 1836 1836 0 1 2
+ 1836: 27(f64vec4) Load 1835
+ 1837:130(f64vec3) VectorShuffle 1836 1836 0 1 2
1838: 17(ivec4) Load 19(ballot)
- 1839: 130(fvec3) GroupNonUniformFAdd 178 PartitionedExclusiveScanNV 1837 1838
+ 1839:130(f64vec3) GroupNonUniformFAdd 178 PartitionedExclusiveScanNV 1837 1838
1840: 123(ptr) AccessChain 31(data) 1834 115
- 1841: 27(fvec4) Load 1840
- 1842: 27(fvec4) VectorShuffle 1841 1839 4 5 6 3
+ 1841: 27(f64vec4) Load 1840
+ 1842: 27(f64vec4) VectorShuffle 1841 1839 4 5 6 3
Store 1840 1842
1843: 6(int) Load 8(invocation)
1844: 123(ptr) AccessChain 31(data) 115 115
- 1845: 27(fvec4) Load 1844
+ 1845: 27(f64vec4) Load 1844
1846: 17(ivec4) Load 19(ballot)
- 1847: 27(fvec4) GroupNonUniformFAdd 178 PartitionedExclusiveScanNV 1845 1846
+ 1847: 27(f64vec4) GroupNonUniformFAdd 178 PartitionedExclusiveScanNV 1845 1846
1848: 123(ptr) AccessChain 31(data) 1843 115
Store 1848 1847
1849: 6(int) Load 8(invocation)
@@ -2234,36 +2234,36 @@ spv.subgroupPartitioned.comp
Store 1938 1937
1939: 6(int) Load 8(invocation)
1940: 116(ptr) AccessChain 31(data) 34 115 35
- 1941: 26(float) Load 1940
+ 1941:26(float64_t) Load 1940
1942: 17(ivec4) Load 19(ballot)
- 1943: 26(float) GroupNonUniformFMul 178 PartitionedExclusiveScanNV 1941 1942
+ 1943:26(float64_t) GroupNonUniformFMul 178 PartitionedExclusiveScanNV 1941 1942
1944: 116(ptr) AccessChain 31(data) 1939 115 35
Store 1944 1943
1945: 6(int) Load 8(invocation)
1946: 123(ptr) AccessChain 31(data) 63 115
- 1947: 27(fvec4) Load 1946
- 1948: 122(fvec2) VectorShuffle 1947 1947 0 1
+ 1947: 27(f64vec4) Load 1946
+ 1948:122(f64vec2) VectorShuffle 1947 1947 0 1
1949: 17(ivec4) Load 19(ballot)
- 1950: 122(fvec2) GroupNonUniformFMul 178 PartitionedExclusiveScanNV 1948 1949
+ 1950:122(f64vec2) GroupNonUniformFMul 178 PartitionedExclusiveScanNV 1948 1949
1951: 123(ptr) AccessChain 31(data) 1945 115
- 1952: 27(fvec4) Load 1951
- 1953: 27(fvec4) VectorShuffle 1952 1950 4 5 2 3
+ 1952: 27(f64vec4) Load 1951
+ 1953: 27(f64vec4) VectorShuffle 1952 1950 4 5 2 3
Store 1951 1953
1954: 6(int) Load 8(invocation)
1955: 123(ptr) AccessChain 31(data) 33 115
- 1956: 27(fvec4) Load 1955
- 1957: 130(fvec3) VectorShuffle 1956 1956 0 1 2
+ 1956: 27(f64vec4) Load 1955
+ 1957:130(f64vec3) VectorShuffle 1956 1956 0 1 2
1958: 17(ivec4) Load 19(ballot)
- 1959: 130(fvec3) GroupNonUniformFMul 178 PartitionedExclusiveScanNV 1957 1958
+ 1959:130(f64vec3) GroupNonUniformFMul 178 PartitionedExclusiveScanNV 1957 1958
1960: 123(ptr) AccessChain 31(data) 1954 115
- 1961: 27(fvec4) Load 1960
- 1962: 27(fvec4) VectorShuffle 1961 1959 4 5 6 3
+ 1961: 27(f64vec4) Load 1960
+ 1962: 27(f64vec4) VectorShuffle 1961 1959 4 5 6 3
Store 1960 1962
1963: 6(int) Load 8(invocation)
1964: 123(ptr) AccessChain 31(data) 115 115
- 1965: 27(fvec4) Load 1964
+ 1965: 27(f64vec4) Load 1964
1966: 17(ivec4) Load 19(ballot)
- 1967: 27(fvec4) GroupNonUniformFMul 178 PartitionedExclusiveScanNV 1965 1966
+ 1967: 27(f64vec4) GroupNonUniformFMul 178 PartitionedExclusiveScanNV 1965 1966
1968: 123(ptr) AccessChain 31(data) 1963 115
Store 1968 1967
1969: 6(int) Load 8(invocation)
@@ -2370,36 +2370,36 @@ spv.subgroupPartitioned.comp
Store 2058 2057
2059: 6(int) Load 8(invocation)
2060: 116(ptr) AccessChain 31(data) 34 115 35
- 2061: 26(float) Load 2060
+ 2061:26(float64_t) Load 2060
2062: 17(ivec4) Load 19(ballot)
- 2063: 26(float) GroupNonUniformFMin 178 PartitionedExclusiveScanNV 2061 2062
+ 2063:26(float64_t) GroupNonUniformFMin 178 PartitionedExclusiveScanNV 2061 2062
2064: 116(ptr) AccessChain 31(data) 2059 115 35
Store 2064 2063
2065: 6(int) Load 8(invocation)
2066: 123(ptr) AccessChain 31(data) 63 115
- 2067: 27(fvec4) Load 2066
- 2068: 122(fvec2) VectorShuffle 2067 2067 0 1
+ 2067: 27(f64vec4) Load 2066
+ 2068:122(f64vec2) VectorShuffle 2067 2067 0 1
2069: 17(ivec4) Load 19(ballot)
- 2070: 122(fvec2) GroupNonUniformFMin 178 PartitionedExclusiveScanNV 2068 2069
+ 2070:122(f64vec2) GroupNonUniformFMin 178 PartitionedExclusiveScanNV 2068 2069
2071: 123(ptr) AccessChain 31(data) 2065 115
- 2072: 27(fvec4) Load 2071
- 2073: 27(fvec4) VectorShuffle 2072 2070 4 5 2 3
+ 2072: 27(f64vec4) Load 2071
+ 2073: 27(f64vec4) VectorShuffle 2072 2070 4 5 2 3
Store 2071 2073
2074: 6(int) Load 8(invocation)
2075: 123(ptr) AccessChain 31(data) 33 115
- 2076: 27(fvec4) Load 2075
- 2077: 130(fvec3) VectorShuffle 2076 2076 0 1 2
+ 2076: 27(f64vec4) Load 2075
+ 2077:130(f64vec3) VectorShuffle 2076 2076 0 1 2
2078: 17(ivec4) Load 19(ballot)
- 2079: 130(fvec3) GroupNonUniformFMin 178 PartitionedExclusiveScanNV 2077 2078
+ 2079:130(f64vec3) GroupNonUniformFMin 178 PartitionedExclusiveScanNV 2077 2078
2080: 123(ptr) AccessChain 31(data) 2074 115
- 2081: 27(fvec4) Load 2080
- 2082: 27(fvec4) VectorShuffle 2081 2079 4 5 6 3
+ 2081: 27(f64vec4) Load 2080
+ 2082: 27(f64vec4) VectorShuffle 2081 2079 4 5 6 3
Store 2080 2082
2083: 6(int) Load 8(invocation)
2084: 123(ptr) AccessChain 31(data) 115 115
- 2085: 27(fvec4) Load 2084
+ 2085: 27(f64vec4) Load 2084
2086: 17(ivec4) Load 19(ballot)
- 2087: 27(fvec4) GroupNonUniformFMin 178 PartitionedExclusiveScanNV 2085 2086
+ 2087: 27(f64vec4) GroupNonUniformFMin 178 PartitionedExclusiveScanNV 2085 2086
2088: 123(ptr) AccessChain 31(data) 2083 115
Store 2088 2087
2089: 6(int) Load 8(invocation)
@@ -2506,36 +2506,36 @@ spv.subgroupPartitioned.comp
Store 2178 2177
2179: 6(int) Load 8(invocation)
2180: 116(ptr) AccessChain 31(data) 34 115 35
- 2181: 26(float) Load 2180
+ 2181:26(float64_t) Load 2180
2182: 17(ivec4) Load 19(ballot)
- 2183: 26(float) GroupNonUniformFMax 178 PartitionedExclusiveScanNV 2181 2182
+ 2183:26(float64_t) GroupNonUniformFMax 178 PartitionedExclusiveScanNV 2181 2182
2184: 116(ptr) AccessChain 31(data) 2179 115 35
Store 2184 2183
2185: 6(int) Load 8(invocation)
2186: 123(ptr) AccessChain 31(data) 63 115
- 2187: 27(fvec4) Load 2186
- 2188: 122(fvec2) VectorShuffle 2187 2187 0 1
+ 2187: 27(f64vec4) Load 2186
+ 2188:122(f64vec2) VectorShuffle 2187 2187 0 1
2189: 17(ivec4) Load 19(ballot)
- 2190: 122(fvec2) GroupNonUniformFMax 178 PartitionedExclusiveScanNV 2188 2189
+ 2190:122(f64vec2) GroupNonUniformFMax 178 PartitionedExclusiveScanNV 2188 2189
2191: 123(ptr) AccessChain 31(data) 2185 115
- 2192: 27(fvec4) Load 2191
- 2193: 27(fvec4) VectorShuffle 2192 2190 4 5 2 3
+ 2192: 27(f64vec4) Load 2191
+ 2193: 27(f64vec4) VectorShuffle 2192 2190 4 5 2 3
Store 2191 2193
2194: 6(int) Load 8(invocation)
2195: 123(ptr) AccessChain 31(data) 33 115
- 2196: 27(fvec4) Load 2195
- 2197: 130(fvec3) VectorShuffle 2196 2196 0 1 2
+ 2196: 27(f64vec4) Load 2195
+ 2197:130(f64vec3) VectorShuffle 2196 2196 0 1 2
2198: 17(ivec4) Load 19(ballot)
- 2199: 130(fvec3) GroupNonUniformFMax 178 PartitionedExclusiveScanNV 2197 2198
+ 2199:130(f64vec3) GroupNonUniformFMax 178 PartitionedExclusiveScanNV 2197 2198
2200: 123(ptr) AccessChain 31(data) 2194 115
- 2201: 27(fvec4) Load 2200
- 2202: 27(fvec4) VectorShuffle 2201 2199 4 5 6 3
+ 2201: 27(f64vec4) Load 2200
+ 2202: 27(f64vec4) VectorShuffle 2201 2199 4 5 6 3
Store 2200 2202
2203: 6(int) Load 8(invocation)
2204: 123(ptr) AccessChain 31(data) 115 115
- 2205: 27(fvec4) Load 2204
+ 2205: 27(f64vec4) Load 2204
2206: 17(ivec4) Load 19(ballot)
- 2207: 27(fvec4) GroupNonUniformFMax 178 PartitionedExclusiveScanNV 2205 2206
+ 2207: 27(f64vec4) GroupNonUniformFMax 178 PartitionedExclusiveScanNV 2205 2206
2208: 123(ptr) AccessChain 31(data) 2203 115
Store 2208 2207
2209: 6(int) Load 8(invocation)
diff --git a/Test/baseResults/spv.subgroupQuad.comp.out b/Test/baseResults/spv.subgroupQuad.comp.out
index d0833708..7c20fa7a 100644
--- a/Test/baseResults/spv.subgroupQuad.comp.out
+++ b/Test/baseResults/spv.subgroupQuad.comp.out
@@ -54,8 +54,8 @@ spv.subgroupQuad.comp
20: TypeVector 19(int) 4
21: TypeVector 6(int) 4
22: TypeFloat 64
- 23: TypeVector 22(float) 4
- 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(fvec4)
+ 23: TypeVector 22(float64_t) 4
+ 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(f64vec4)
25: TypeArray 24(Buffers) 15
26: TypePointer Uniform 25
27(data): 26(ptr) Variable Uniform
@@ -78,10 +78,10 @@ spv.subgroupQuad.comp
102: TypeVector 6(int) 2
103: TypePointer Uniform 21(ivec4)
112: TypeVector 6(int) 3
- 126: TypePointer Uniform 22(float)
- 132: TypeVector 22(float) 2
- 133: TypePointer Uniform 23(fvec4)
- 142: TypeVector 22(float) 3
+ 126: TypePointer Uniform 22(float64_t)
+ 132: TypeVector 22(float64_t) 2
+ 133: TypePointer Uniform 23(f64vec4)
+ 142: TypeVector 22(float64_t) 3
158: TypeBool
167: 72(ivec2) ConstantComposite 29 29
168: TypeVector 158(bool) 2
@@ -195,32 +195,32 @@ spv.subgroupQuad.comp
Store 124 123
125: 6(int) Load 8(invocation)
127: 126(ptr) AccessChain 27(data) 29 60 30
- 128: 22(float) Load 127
- 129: 22(float) GroupNonUniformQuadBroadcast 35 128 34
+ 128:22(float64_t) Load 127
+ 129:22(float64_t) GroupNonUniformQuadBroadcast 35 128 34
130: 126(ptr) AccessChain 27(data) 125 60 30
Store 130 129
131: 6(int) Load 8(invocation)
134: 133(ptr) AccessChain 27(data) 39 60
- 135: 23(fvec4) Load 134
- 136: 132(fvec2) VectorShuffle 135 135 0 1
- 137: 132(fvec2) GroupNonUniformQuadBroadcast 35 136 34
+ 135: 23(f64vec4) Load 134
+ 136:132(f64vec2) VectorShuffle 135 135 0 1
+ 137:132(f64vec2) GroupNonUniformQuadBroadcast 35 136 34
138: 133(ptr) AccessChain 27(data) 131 60
- 139: 23(fvec4) Load 138
- 140: 23(fvec4) VectorShuffle 139 137 4 5 2 3
+ 139: 23(f64vec4) Load 138
+ 140: 23(f64vec4) VectorShuffle 139 137 4 5 2 3
Store 138 140
141: 6(int) Load 8(invocation)
143: 133(ptr) AccessChain 27(data) 50 60
- 144: 23(fvec4) Load 143
- 145: 142(fvec3) VectorShuffle 144 144 0 1 2
- 146: 142(fvec3) GroupNonUniformQuadBroadcast 35 145 34
+ 144: 23(f64vec4) Load 143
+ 145:142(f64vec3) VectorShuffle 144 144 0 1 2
+ 146:142(f64vec3) GroupNonUniformQuadBroadcast 35 145 34
147: 133(ptr) AccessChain 27(data) 141 60
- 148: 23(fvec4) Load 147
- 149: 23(fvec4) VectorShuffle 148 146 4 5 6 3
+ 148: 23(f64vec4) Load 147
+ 149: 23(f64vec4) VectorShuffle 148 146 4 5 6 3
Store 147 149
150: 6(int) Load 8(invocation)
151: 133(ptr) AccessChain 27(data) 60 60
- 152: 23(fvec4) Load 151
- 153: 23(fvec4) GroupNonUniformQuadBroadcast 35 152 34
+ 152: 23(f64vec4) Load 151
+ 153: 23(f64vec4) GroupNonUniformQuadBroadcast 35 152 34
154: 133(ptr) AccessChain 27(data) 150 60
Store 154 153
155: 6(int) Load 8(invocation)
@@ -353,32 +353,32 @@ spv.subgroupQuad.comp
Store 276 275
277: 6(int) Load 8(invocation)
278: 126(ptr) AccessChain 27(data) 29 60 30
- 279: 22(float) Load 278
- 280: 22(float) GroupNonUniformQuadSwap 35 279 30
+ 279:22(float64_t) Load 278
+ 280:22(float64_t) GroupNonUniformQuadSwap 35 279 30
281: 126(ptr) AccessChain 27(data) 277 60 30
Store 281 280
282: 6(int) Load 8(invocation)
283: 133(ptr) AccessChain 27(data) 39 60
- 284: 23(fvec4) Load 283
- 285: 132(fvec2) VectorShuffle 284 284 0 1
- 286: 132(fvec2) GroupNonUniformQuadSwap 35 285 30
+ 284: 23(f64vec4) Load 283
+ 285:132(f64vec2) VectorShuffle 284 284 0 1
+ 286:132(f64vec2) GroupNonUniformQuadSwap 35 285 30
287: 133(ptr) AccessChain 27(data) 282 60
- 288: 23(fvec4) Load 287
- 289: 23(fvec4) VectorShuffle 288 286 4 5 2 3
+ 288: 23(f64vec4) Load 287
+ 289: 23(f64vec4) VectorShuffle 288 286 4 5 2 3
Store 287 289
290: 6(int) Load 8(invocation)
291: 133(ptr) AccessChain 27(data) 50 60
- 292: 23(fvec4) Load 291
- 293: 142(fvec3) VectorShuffle 292 292 0 1 2
- 294: 142(fvec3) GroupNonUniformQuadSwap 35 293 30
+ 292: 23(f64vec4) Load 291
+ 293:142(f64vec3) VectorShuffle 292 292 0 1 2
+ 294:142(f64vec3) GroupNonUniformQuadSwap 35 293 30
295: 133(ptr) AccessChain 27(data) 290 60
- 296: 23(fvec4) Load 295
- 297: 23(fvec4) VectorShuffle 296 294 4 5 6 3
+ 296: 23(f64vec4) Load 295
+ 297: 23(f64vec4) VectorShuffle 296 294 4 5 6 3
Store 295 297
298: 6(int) Load 8(invocation)
299: 133(ptr) AccessChain 27(data) 60 60
- 300: 23(fvec4) Load 299
- 301: 23(fvec4) GroupNonUniformQuadSwap 35 300 30
+ 300: 23(f64vec4) Load 299
+ 301: 23(f64vec4) GroupNonUniformQuadSwap 35 300 30
302: 133(ptr) AccessChain 27(data) 298 60
Store 302 301
303: 6(int) Load 8(invocation)
@@ -511,32 +511,32 @@ spv.subgroupQuad.comp
Store 414 413
415: 6(int) Load 8(invocation)
416: 126(ptr) AccessChain 27(data) 29 60 30
- 417: 22(float) Load 416
- 418: 22(float) GroupNonUniformQuadSwap 35 417 34
+ 417:22(float64_t) Load 416
+ 418:22(float64_t) GroupNonUniformQuadSwap 35 417 34
419: 126(ptr) AccessChain 27(data) 415 60 30
Store 419 418
420: 6(int) Load 8(invocation)
421: 133(ptr) AccessChain 27(data) 39 60
- 422: 23(fvec4) Load 421
- 423: 132(fvec2) VectorShuffle 422 422 0 1
- 424: 132(fvec2) GroupNonUniformQuadSwap 35 423 34
+ 422: 23(f64vec4) Load 421
+ 423:132(f64vec2) VectorShuffle 422 422 0 1
+ 424:132(f64vec2) GroupNonUniformQuadSwap 35 423 34
425: 133(ptr) AccessChain 27(data) 420 60
- 426: 23(fvec4) Load 425
- 427: 23(fvec4) VectorShuffle 426 424 4 5 2 3
+ 426: 23(f64vec4) Load 425
+ 427: 23(f64vec4) VectorShuffle 426 424 4 5 2 3
Store 425 427
428: 6(int) Load 8(invocation)
429: 133(ptr) AccessChain 27(data) 50 60
- 430: 23(fvec4) Load 429
- 431: 142(fvec3) VectorShuffle 430 430 0 1 2
- 432: 142(fvec3) GroupNonUniformQuadSwap 35 431 34
+ 430: 23(f64vec4) Load 429
+ 431:142(f64vec3) VectorShuffle 430 430 0 1 2
+ 432:142(f64vec3) GroupNonUniformQuadSwap 35 431 34
433: 133(ptr) AccessChain 27(data) 428 60
- 434: 23(fvec4) Load 433
- 435: 23(fvec4) VectorShuffle 434 432 4 5 6 3
+ 434: 23(f64vec4) Load 433
+ 435: 23(f64vec4) VectorShuffle 434 432 4 5 6 3
Store 433 435
436: 6(int) Load 8(invocation)
437: 133(ptr) AccessChain 27(data) 60 60
- 438: 23(fvec4) Load 437
- 439: 23(fvec4) GroupNonUniformQuadSwap 35 438 34
+ 438: 23(f64vec4) Load 437
+ 439: 23(f64vec4) GroupNonUniformQuadSwap 35 438 34
440: 133(ptr) AccessChain 27(data) 436 60
Store 440 439
441: 6(int) Load 8(invocation)
@@ -669,32 +669,32 @@ spv.subgroupQuad.comp
Store 553 552
554: 6(int) Load 8(invocation)
555: 126(ptr) AccessChain 27(data) 29 60 30
- 556: 22(float) Load 555
- 557: 22(float) GroupNonUniformQuadSwap 35 556 478
+ 556:22(float64_t) Load 555
+ 557:22(float64_t) GroupNonUniformQuadSwap 35 556 478
558: 126(ptr) AccessChain 27(data) 554 60 30
Store 558 557
559: 6(int) Load 8(invocation)
560: 133(ptr) AccessChain 27(data) 39 60
- 561: 23(fvec4) Load 560
- 562: 132(fvec2) VectorShuffle 561 561 0 1
- 563: 132(fvec2) GroupNonUniformQuadSwap 35 562 478
+ 561: 23(f64vec4) Load 560
+ 562:132(f64vec2) VectorShuffle 561 561 0 1
+ 563:132(f64vec2) GroupNonUniformQuadSwap 35 562 478
564: 133(ptr) AccessChain 27(data) 559 60
- 565: 23(fvec4) Load 564
- 566: 23(fvec4) VectorShuffle 565 563 4 5 2 3
+ 565: 23(f64vec4) Load 564
+ 566: 23(f64vec4) VectorShuffle 565 563 4 5 2 3
Store 564 566
567: 6(int) Load 8(invocation)
568: 133(ptr) AccessChain 27(data) 50 60
- 569: 23(fvec4) Load 568
- 570: 142(fvec3) VectorShuffle 569 569 0 1 2
- 571: 142(fvec3) GroupNonUniformQuadSwap 35 570 478
+ 569: 23(f64vec4) Load 568
+ 570:142(f64vec3) VectorShuffle 569 569 0 1 2
+ 571:142(f64vec3) GroupNonUniformQuadSwap 35 570 478
572: 133(ptr) AccessChain 27(data) 567 60
- 573: 23(fvec4) Load 572
- 574: 23(fvec4) VectorShuffle 573 571 4 5 6 3
+ 573: 23(f64vec4) Load 572
+ 574: 23(f64vec4) VectorShuffle 573 571 4 5 6 3
Store 572 574
575: 6(int) Load 8(invocation)
576: 133(ptr) AccessChain 27(data) 60 60
- 577: 23(fvec4) Load 576
- 578: 23(fvec4) GroupNonUniformQuadSwap 35 577 478
+ 577: 23(f64vec4) Load 576
+ 578: 23(f64vec4) GroupNonUniformQuadSwap 35 577 478
579: 133(ptr) AccessChain 27(data) 575 60
Store 579 578
580: 6(int) Load 8(invocation)
diff --git a/Test/baseResults/spv.subgroupShuffle.comp.out b/Test/baseResults/spv.subgroupShuffle.comp.out
index 14fc0b5f..dd917209 100644
--- a/Test/baseResults/spv.subgroupShuffle.comp.out
+++ b/Test/baseResults/spv.subgroupShuffle.comp.out
@@ -54,8 +54,8 @@ spv.subgroupShuffle.comp
20: TypeVector 19(int) 4
21: TypeVector 6(int) 4
22: TypeFloat 64
- 23: TypeVector 22(float) 4
- 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(fvec4)
+ 23: TypeVector 22(float64_t) 4
+ 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(f64vec4)
25: TypeArray 24(Buffers) 15
26: TypePointer Uniform 25
27(data): 26(ptr) Variable Uniform
@@ -77,10 +77,10 @@ spv.subgroupShuffle.comp
110: TypeVector 6(int) 2
111: TypePointer Uniform 21(ivec4)
121: TypeVector 6(int) 3
- 137: TypePointer Uniform 22(float)
- 144: TypeVector 22(float) 2
- 145: TypePointer Uniform 23(fvec4)
- 155: TypeVector 22(float) 3
+ 137: TypePointer Uniform 22(float64_t)
+ 144: TypeVector 22(float64_t) 2
+ 145: TypePointer Uniform 23(f64vec4)
+ 155: TypeVector 22(float64_t) 3
173: TypeBool
183: 76(ivec2) ConstantComposite 29 29
184: TypeVector 173(bool) 2
@@ -206,36 +206,36 @@ spv.subgroupShuffle.comp
Store 135 134
136: 6(int) Load 8(invocation)
138: 137(ptr) AccessChain 27(data) 29 62 30
- 139: 22(float) Load 138
+ 139:22(float64_t) Load 138
140: 6(int) Load 8(invocation)
- 141: 22(float) GroupNonUniformShuffle 35 139 140
+ 141:22(float64_t) GroupNonUniformShuffle 35 139 140
142: 137(ptr) AccessChain 27(data) 136 62 30
Store 142 141
143: 6(int) Load 8(invocation)
146: 145(ptr) AccessChain 27(data) 39 62
- 147: 23(fvec4) Load 146
- 148: 144(fvec2) VectorShuffle 147 147 0 1
+ 147: 23(f64vec4) Load 146
+ 148:144(f64vec2) VectorShuffle 147 147 0 1
149: 6(int) Load 8(invocation)
- 150: 144(fvec2) GroupNonUniformShuffle 35 148 149
+ 150:144(f64vec2) GroupNonUniformShuffle 35 148 149
151: 145(ptr) AccessChain 27(data) 143 62
- 152: 23(fvec4) Load 151
- 153: 23(fvec4) VectorShuffle 152 150 4 5 2 3
+ 152: 23(f64vec4) Load 151
+ 153: 23(f64vec4) VectorShuffle 152 150 4 5 2 3
Store 151 153
154: 6(int) Load 8(invocation)
156: 145(ptr) AccessChain 27(data) 51 62
- 157: 23(fvec4) Load 156
- 158: 155(fvec3) VectorShuffle 157 157 0 1 2
+ 157: 23(f64vec4) Load 156
+ 158:155(f64vec3) VectorShuffle 157 157 0 1 2
159: 6(int) Load 8(invocation)
- 160: 155(fvec3) GroupNonUniformShuffle 35 158 159
+ 160:155(f64vec3) GroupNonUniformShuffle 35 158 159
161: 145(ptr) AccessChain 27(data) 154 62
- 162: 23(fvec4) Load 161
- 163: 23(fvec4) VectorShuffle 162 160 4 5 6 3
+ 162: 23(f64vec4) Load 161
+ 163: 23(f64vec4) VectorShuffle 162 160 4 5 6 3
Store 161 163
164: 6(int) Load 8(invocation)
165: 145(ptr) AccessChain 27(data) 62 62
- 166: 23(fvec4) Load 165
+ 166: 23(f64vec4) Load 165
167: 6(int) Load 8(invocation)
- 168: 23(fvec4) GroupNonUniformShuffle 35 166 167
+ 168: 23(f64vec4) GroupNonUniformShuffle 35 166 167
169: 145(ptr) AccessChain 27(data) 164 62
Store 169 168
170: 6(int) Load 8(invocation)
@@ -384,36 +384,36 @@ spv.subgroupShuffle.comp
Store 307 306
308: 6(int) Load 8(invocation)
309: 137(ptr) AccessChain 27(data) 29 62 30
- 310: 22(float) Load 309
+ 310:22(float64_t) Load 309
311: 6(int) Load 8(invocation)
- 312: 22(float) GroupNonUniformShuffleXor 35 310 311
+ 312:22(float64_t) GroupNonUniformShuffleXor 35 310 311
313: 137(ptr) AccessChain 27(data) 308 62 30
Store 313 312
314: 6(int) Load 8(invocation)
315: 145(ptr) AccessChain 27(data) 39 62
- 316: 23(fvec4) Load 315
- 317: 144(fvec2) VectorShuffle 316 316 0 1
+ 316: 23(f64vec4) Load 315
+ 317:144(f64vec2) VectorShuffle 316 316 0 1
318: 6(int) Load 8(invocation)
- 319: 144(fvec2) GroupNonUniformShuffleXor 35 317 318
+ 319:144(f64vec2) GroupNonUniformShuffleXor 35 317 318
320: 145(ptr) AccessChain 27(data) 314 62
- 321: 23(fvec4) Load 320
- 322: 23(fvec4) VectorShuffle 321 319 4 5 2 3
+ 321: 23(f64vec4) Load 320
+ 322: 23(f64vec4) VectorShuffle 321 319 4 5 2 3
Store 320 322
323: 6(int) Load 8(invocation)
324: 145(ptr) AccessChain 27(data) 51 62
- 325: 23(fvec4) Load 324
- 326: 155(fvec3) VectorShuffle 325 325 0 1 2
+ 325: 23(f64vec4) Load 324
+ 326:155(f64vec3) VectorShuffle 325 325 0 1 2
327: 6(int) Load 8(invocation)
- 328: 155(fvec3) GroupNonUniformShuffleXor 35 326 327
+ 328:155(f64vec3) GroupNonUniformShuffleXor 35 326 327
329: 145(ptr) AccessChain 27(data) 323 62
- 330: 23(fvec4) Load 329
- 331: 23(fvec4) VectorShuffle 330 328 4 5 6 3
+ 330: 23(f64vec4) Load 329
+ 331: 23(f64vec4) VectorShuffle 330 328 4 5 6 3
Store 329 331
332: 6(int) Load 8(invocation)
333: 145(ptr) AccessChain 27(data) 62 62
- 334: 23(fvec4) Load 333
+ 334: 23(f64vec4) Load 333
335: 6(int) Load 8(invocation)
- 336: 23(fvec4) GroupNonUniformShuffleXor 35 334 335
+ 336: 23(f64vec4) GroupNonUniformShuffleXor 35 334 335
337: 145(ptr) AccessChain 27(data) 332 62
Store 337 336
338: 6(int) Load 8(invocation)
diff --git a/Test/baseResults/spv.subgroupShuffleRelative.comp.out b/Test/baseResults/spv.subgroupShuffleRelative.comp.out
index 4658969f..86e2b2ef 100644
--- a/Test/baseResults/spv.subgroupShuffleRelative.comp.out
+++ b/Test/baseResults/spv.subgroupShuffleRelative.comp.out
@@ -54,8 +54,8 @@ spv.subgroupShuffleRelative.comp
20: TypeVector 19(int) 4
21: TypeVector 6(int) 4
22: TypeFloat 64
- 23: TypeVector 22(float) 4
- 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(fvec4)
+ 23: TypeVector 22(float64_t) 4
+ 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(f64vec4)
25: TypeArray 24(Buffers) 15
26: TypePointer Uniform 25
27(data): 26(ptr) Variable Uniform
@@ -77,10 +77,10 @@ spv.subgroupShuffleRelative.comp
110: TypeVector 6(int) 2
111: TypePointer Uniform 21(ivec4)
121: TypeVector 6(int) 3
- 137: TypePointer Uniform 22(float)
- 144: TypeVector 22(float) 2
- 145: TypePointer Uniform 23(fvec4)
- 155: TypeVector 22(float) 3
+ 137: TypePointer Uniform 22(float64_t)
+ 144: TypeVector 22(float64_t) 2
+ 145: TypePointer Uniform 23(f64vec4)
+ 155: TypeVector 22(float64_t) 3
173: TypeBool
183: 76(ivec2) ConstantComposite 29 29
184: TypeVector 173(bool) 2
@@ -206,36 +206,36 @@ spv.subgroupShuffleRelative.comp
Store 135 134
136: 6(int) Load 8(invocation)
138: 137(ptr) AccessChain 27(data) 29 62 30
- 139: 22(float) Load 138
+ 139:22(float64_t) Load 138
140: 6(int) Load 8(invocation)
- 141: 22(float) GroupNonUniformShuffleUp 35 139 140
+ 141:22(float64_t) GroupNonUniformShuffleUp 35 139 140
142: 137(ptr) AccessChain 27(data) 136 62 30
Store 142 141
143: 6(int) Load 8(invocation)
146: 145(ptr) AccessChain 27(data) 39 62
- 147: 23(fvec4) Load 146
- 148: 144(fvec2) VectorShuffle 147 147 0 1
+ 147: 23(f64vec4) Load 146
+ 148:144(f64vec2) VectorShuffle 147 147 0 1
149: 6(int) Load 8(invocation)
- 150: 144(fvec2) GroupNonUniformShuffleUp 35 148 149
+ 150:144(f64vec2) GroupNonUniformShuffleUp 35 148 149
151: 145(ptr) AccessChain 27(data) 143 62
- 152: 23(fvec4) Load 151
- 153: 23(fvec4) VectorShuffle 152 150 4 5 2 3
+ 152: 23(f64vec4) Load 151
+ 153: 23(f64vec4) VectorShuffle 152 150 4 5 2 3
Store 151 153
154: 6(int) Load 8(invocation)
156: 145(ptr) AccessChain 27(data) 51 62
- 157: 23(fvec4) Load 156
- 158: 155(fvec3) VectorShuffle 157 157 0 1 2
+ 157: 23(f64vec4) Load 156
+ 158:155(f64vec3) VectorShuffle 157 157 0 1 2
159: 6(int) Load 8(invocation)
- 160: 155(fvec3) GroupNonUniformShuffleUp 35 158 159
+ 160:155(f64vec3) GroupNonUniformShuffleUp 35 158 159
161: 145(ptr) AccessChain 27(data) 154 62
- 162: 23(fvec4) Load 161
- 163: 23(fvec4) VectorShuffle 162 160 4 5 6 3
+ 162: 23(f64vec4) Load 161
+ 163: 23(f64vec4) VectorShuffle 162 160 4 5 6 3
Store 161 163
164: 6(int) Load 8(invocation)
165: 145(ptr) AccessChain 27(data) 62 62
- 166: 23(fvec4) Load 165
+ 166: 23(f64vec4) Load 165
167: 6(int) Load 8(invocation)
- 168: 23(fvec4) GroupNonUniformShuffleUp 35 166 167
+ 168: 23(f64vec4) GroupNonUniformShuffleUp 35 166 167
169: 145(ptr) AccessChain 27(data) 164 62
Store 169 168
170: 6(int) Load 8(invocation)
@@ -384,36 +384,36 @@ spv.subgroupShuffleRelative.comp
Store 307 306
308: 6(int) Load 8(invocation)
309: 137(ptr) AccessChain 27(data) 29 62 30
- 310: 22(float) Load 309
+ 310:22(float64_t) Load 309
311: 6(int) Load 8(invocation)
- 312: 22(float) GroupNonUniformShuffleDown 35 310 311
+ 312:22(float64_t) GroupNonUniformShuffleDown 35 310 311
313: 137(ptr) AccessChain 27(data) 308 62 30
Store 313 312
314: 6(int) Load 8(invocation)
315: 145(ptr) AccessChain 27(data) 39 62
- 316: 23(fvec4) Load 315
- 317: 144(fvec2) VectorShuffle 316 316 0 1
+ 316: 23(f64vec4) Load 315
+ 317:144(f64vec2) VectorShuffle 316 316 0 1
318: 6(int) Load 8(invocation)
- 319: 144(fvec2) GroupNonUniformShuffleDown 35 317 318
+ 319:144(f64vec2) GroupNonUniformShuffleDown 35 317 318
320: 145(ptr) AccessChain 27(data) 314 62
- 321: 23(fvec4) Load 320
- 322: 23(fvec4) VectorShuffle 321 319 4 5 2 3
+ 321: 23(f64vec4) Load 320
+ 322: 23(f64vec4) VectorShuffle 321 319 4 5 2 3
Store 320 322
323: 6(int) Load 8(invocation)
324: 145(ptr) AccessChain 27(data) 51 62
- 325: 23(fvec4) Load 324
- 326: 155(fvec3) VectorShuffle 325 325 0 1 2
+ 325: 23(f64vec4) Load 324
+ 326:155(f64vec3) VectorShuffle 325 325 0 1 2
327: 6(int) Load 8(invocation)
- 328: 155(fvec3) GroupNonUniformShuffleDown 35 326 327
+ 328:155(f64vec3) GroupNonUniformShuffleDown 35 326 327
329: 145(ptr) AccessChain 27(data) 323 62
- 330: 23(fvec4) Load 329
- 331: 23(fvec4) VectorShuffle 330 328 4 5 6 3
+ 330: 23(f64vec4) Load 329
+ 331: 23(f64vec4) VectorShuffle 330 328 4 5 6 3
Store 329 331
332: 6(int) Load 8(invocation)
333: 145(ptr) AccessChain 27(data) 62 62
- 334: 23(fvec4) Load 333
+ 334: 23(f64vec4) Load 333
335: 6(int) Load 8(invocation)
- 336: 23(fvec4) GroupNonUniformShuffleDown 35 334 335
+ 336: 23(f64vec4) GroupNonUniformShuffleDown 35 334 335
337: 145(ptr) AccessChain 27(data) 332 62
Store 337 336
338: 6(int) Load 8(invocation)
diff --git a/Test/baseResults/spv.subgroupVote.comp.out b/Test/baseResults/spv.subgroupVote.comp.out
index 45eb4b8d..40013958 100644
--- a/Test/baseResults/spv.subgroupVote.comp.out
+++ b/Test/baseResults/spv.subgroupVote.comp.out
@@ -56,8 +56,8 @@ spv.subgroupVote.comp
20: TypeVector 19(int) 4
21: TypeVector 6(int) 4
22: TypeFloat 64
- 23: TypeVector 22(float) 4
- 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(fvec4) 19(int)
+ 23: TypeVector 22(float64_t) 4
+ 24(Buffers): TypeStruct 18(fvec4) 20(ivec4) 21(ivec4) 23(f64vec4) 19(int)
25: TypeArray 24(Buffers) 15
26: TypePointer Uniform 25
27(data): 26(ptr) Variable Uniform
@@ -81,10 +81,10 @@ spv.subgroupVote.comp
111: TypeVector 6(int) 2
112: TypePointer Uniform 21(ivec4)
120: TypeVector 6(int) 3
- 142: TypePointer Uniform 22(float)
- 149: TypeVector 22(float) 2
- 150: TypePointer Uniform 23(fvec4)
- 158: TypeVector 22(float) 3
+ 142: TypePointer Uniform 22(float64_t)
+ 149: TypeVector 22(float64_t) 2
+ 150: TypePointer Uniform 23(f64vec4)
+ 158: TypeVector 22(float64_t) 3
182: 81(ivec2) ConstantComposite 33 33
183: TypeVector 34(bool) 2
194: 90(ivec3) ConstantComposite 33 33 33
@@ -212,30 +212,30 @@ spv.subgroupVote.comp
139: Label
141: 6(int) Load 8(invocation)
143: 142(ptr) AccessChain 27(data) 33 68 41
- 144: 22(float) Load 143
+ 144:22(float64_t) Load 143
145: 34(bool) GroupNonUniformAllEqual 36 144
146: 19(int) Select 145 46 33
147: 30(ptr) AccessChain 27(data) 141 29
Store 147 146
148: 6(int) Load 8(invocation)
151: 150(ptr) AccessChain 27(data) 46 68
- 152: 23(fvec4) Load 151
- 153: 149(fvec2) VectorShuffle 152 152 0 1
+ 152: 23(f64vec4) Load 151
+ 153:149(f64vec2) VectorShuffle 152 152 0 1
154: 34(bool) GroupNonUniformAllEqual 36 153
155: 19(int) Select 154 46 33
156: 30(ptr) AccessChain 27(data) 148 29
Store 156 155
157: 6(int) Load 8(invocation)
159: 150(ptr) AccessChain 27(data) 59 68
- 160: 23(fvec4) Load 159
- 161: 158(fvec3) VectorShuffle 160 160 0 1 2
+ 160: 23(f64vec4) Load 159
+ 161:158(f64vec3) VectorShuffle 160 160 0 1 2
162: 34(bool) GroupNonUniformAllEqual 36 161
163: 19(int) Select 162 46 33
164: 30(ptr) AccessChain 27(data) 157 29
Store 164 163
165: 6(int) Load 8(invocation)
166: 150(ptr) AccessChain 27(data) 68 68
- 167: 23(fvec4) Load 166
+ 167: 23(f64vec4) Load 166
168: 34(bool) GroupNonUniformAllEqual 36 167
169: 19(int) Select 168 46 33
170: 30(ptr) AccessChain 27(data) 165 29
diff --git a/Test/baseResults/spv.vulkan110.int16.frag.out b/Test/baseResults/spv.vulkan110.int16.frag.out
index 6639dc7b..410839d7 100755
--- a/Test/baseResults/spv.vulkan110.int16.frag.out
+++ b/Test/baseResults/spv.vulkan110.int16.frag.out
@@ -97,13 +97,13 @@ spv.vulkan110.int16.frag
2: TypeVoid
3: TypeFunction 2
14: TypeInt 16 1
- 15: TypePointer Function 14(int)
+ 15: TypePointer Function 14(int16_t)
17: TypeInt 32 0
18: 17(int) Constant 3
- 19: TypeArray 14(int) 18
- 20: 14(int) Constant 4294962927
- 21: 14(int) Constant 4294967295
- 22: 14(int) Constant 16384
+ 19: TypeArray 14(int16_t) 18
+ 20: 14(int16_t) Constant 4294962927
+ 21: 14(int16_t) Constant 4294967295
+ 22: 14(int16_t) Constant 16384
23: 19 ConstantComposite 20 21 22
24(Uniforms): TypeStruct 17(int)
25: TypePointer Uniform 24(Uniforms)
@@ -113,83 +113,83 @@ spv.vulkan110.int16.frag
29: TypePointer Uniform 17(int)
32: TypePointer Function 19
36: TypeInt 16 0
- 37: TypePointer Function 36(int)
- 39: TypeArray 36(int) 18
- 40: 36(int) Constant 65535
- 41: 36(int) Constant 32767
+ 37: TypePointer Function 36(int16_t)
+ 39: TypeArray 36(int16_t) 18
+ 40: 36(int16_t) Constant 65535
+ 41: 36(int16_t) Constant 32767
42: 39 ConstantComposite 40 40 41
45: TypePointer Function 39
49: TypeVector 27(int) 2
50: TypePointer Function 49(ivec2)
- 52: TypeVector 14(int) 2
- 53: TypePointer Function 52(ivec2)
- 57: TypeVector 36(int) 2
- 58: TypePointer Function 57(ivec2)
+ 52: TypeVector 14(int16_t) 2
+ 53: TypePointer Function 52(i16vec2)
+ 57: TypeVector 36(int16_t) 2
+ 58: TypePointer Function 57(i16vec2)
65: TypeVector 17(int) 2
66: TypePointer Function 65(ivec2)
71: TypeInt 64 1
- 72: TypeVector 71(int) 2
- 73: TypePointer Function 72(ivec2)
+ 72: TypeVector 71(int64_t) 2
+ 73: TypePointer Function 72(i64vec2)
77: TypeInt 64 0
- 78: TypeVector 77(int) 2
- 79: TypePointer Function 78(ivec2)
+ 78: TypeVector 77(int64_t) 2
+ 79: TypePointer Function 78(i64vec2)
91: TypeFloat 16
- 92: TypeVector 91(float) 2
- 93: TypePointer Function 92(fvec2)
+ 92: TypeVector 91(float16_t) 2
+ 93: TypePointer Function 92(f16vec2)
97: TypeFloat 32
98: TypeVector 97(float) 2
99: TypePointer Function 98(fvec2)
103: TypeFloat 64
- 104: TypeVector 103(float) 2
- 105: TypePointer Function 104(fvec2)
+ 104: TypeVector 103(float64_t) 2
+ 105: TypePointer Function 104(f64vec2)
151: TypeInt 8 1
- 152: TypeVector 151(int) 2
- 153: TypePointer Function 152(ivec2)
+ 152: TypeVector 151(int8_t) 2
+ 153: TypePointer Function 152(i8vec2)
160: TypeInt 8 0
- 161: TypeVector 160(int) 2
- 162: TypePointer Function 161(ivec2)
+ 161: TypeVector 160(int8_t) 2
+ 162: TypePointer Function 161(i8vec2)
173: TypeBool
174: TypeVector 173(bool) 2
175: TypePointer Function 174(bvec2)
- 178: 14(int) Constant 0
- 179: 14(int) Constant 1
- 180: 52(ivec2) ConstantComposite 178 178
- 181: 52(ivec2) ConstantComposite 179 179
- 184: 36(int) Constant 0
- 185: 36(int) Constant 1
- 186: 57(ivec2) ConstantComposite 184 184
- 187: 57(ivec2) ConstantComposite 185 185
- 193: TypeVector 36(int) 3
- 194: TypePointer Function 193(ivec3)
- 197: TypeVector 14(int) 3
+ 178: 14(int16_t) Constant 0
+ 179: 14(int16_t) Constant 1
+ 180: 52(i16vec2) ConstantComposite 178 178
+ 181: 52(i16vec2) ConstantComposite 179 179
+ 184: 36(int16_t) Constant 0
+ 185: 36(int16_t) Constant 1
+ 186: 57(i16vec2) ConstantComposite 184 184
+ 187: 57(i16vec2) ConstantComposite 185 185
+ 193: TypeVector 36(int16_t) 3
+ 194: TypePointer Function 193(i16vec3)
+ 197: TypeVector 14(int16_t) 3
219: TypePointer Function 27(int)
225: TypeVector 17(int) 3
226: TypePointer Function 225(ivec3)
- 242: TypePointer Function 71(int)
+ 242: TypePointer Function 71(int64_t)
264: 17(int) Constant 1
270: 17(int) Constant 2
276: TypeVector 27(int) 3
280: TypePointer Function 173(bool)
282: 17(int) Constant 0
296: TypePointer Function 17(int)
- 354: 52(ivec2) ConstantComposite 21 21
- 363: 193(ivec3) ConstantComposite 184 184 184
+ 354: 52(i16vec2) ConstantComposite 21 21
+ 363:193(i16vec3) ConstantComposite 184 184 184
405: 173(bool) ConstantTrue
412: 173(bool) ConstantFalse
413: 174(bvec2) ConstantComposite 412 412
425: TypeVector 173(bool) 3
426: 425(bvec3) ConstantComposite 412 412 412
- 432: TypeVector 14(int) 4
- 433: TypePointer Function 432(ivec4)
- 441: TypePointer Function 77(int)
- 443: TypeVector 36(int) 4
- 444: TypePointer Function 443(ivec4)
+ 432: TypeVector 14(int16_t) 4
+ 433: TypePointer Function 432(i16vec4)
+ 441: TypePointer Function 77(int64_t)
+ 443: TypeVector 36(int16_t) 4
+ 444: TypePointer Function 443(i16vec4)
456: TypePointer Function 425(bvec3)
- 518(Block): TypeStruct 14(int) 52(ivec2) 197(ivec3) 432(ivec4) 36(int) 57(ivec2) 193(ivec3) 443(ivec4)
+ 518(Block): TypeStruct 14(int16_t) 52(i16vec2) 197(i16vec3) 432(i16vec4) 36(int16_t) 57(i16vec2) 193(i16vec3) 443(i16vec4)
519: TypePointer Uniform 518(Block)
520(block): 519(ptr) Variable Uniform
- 521(si16): 14(int) SpecConstant 4294967286
- 522(su16): 36(int) SpecConstant 20
+ 521(si16): 14(int16_t) SpecConstant 4294967286
+ 522(su16): 36(int16_t) SpecConstant 20
4(main): 2 Function None 3
5: Label
Return
@@ -204,13 +204,13 @@ spv.vulkan110.int16.frag
31: 17(int) Load 30
Store 33(indexable) 23
34: 15(ptr) AccessChain 33(indexable) 31
- 35: 14(int) Load 34
+ 35: 14(int16_t) Load 34
Store 16(i16) 35
43: 29(ptr) AccessChain 26 28
44: 17(int) Load 43
Store 46(indexable) 42
47: 37(ptr) AccessChain 46(indexable) 44
- 48: 36(int) Load 47
+ 48: 36(int16_t) Load 47
Store 38(u16) 48
Return
FunctionEnd
@@ -228,135 +228,135 @@ spv.vulkan110.int16.frag
154(i8v): 153(ptr) Variable Function
163(u8v): 162(ptr) Variable Function
176(bv): 175(ptr) Variable Function
- 55: 52(ivec2) Load 54(i16v)
+ 55: 52(i16vec2) Load 54(i16v)
56: 49(ivec2) SConvert 55
Store 51(i32v) 56
- 60: 57(ivec2) Load 59(u16v)
+ 60: 57(i16vec2) Load 59(u16v)
61: 49(ivec2) UConvert 60
62: 49(ivec2) Bitcast 61
Store 51(i32v) 62
- 63: 52(ivec2) Load 54(i16v)
- 64: 57(ivec2) Bitcast 63
+ 63: 52(i16vec2) Load 54(i16v)
+ 64: 57(i16vec2) Bitcast 63
Store 59(u16v) 64
- 68: 52(ivec2) Load 54(i16v)
+ 68: 52(i16vec2) Load 54(i16v)
69: 49(ivec2) SConvert 68
70: 65(ivec2) Bitcast 69
Store 67(u32v) 70
- 75: 52(ivec2) Load 54(i16v)
- 76: 72(ivec2) SConvert 75
+ 75: 52(i16vec2) Load 54(i16v)
+ 76: 72(i64vec2) SConvert 75
Store 74(i64v) 76
- 81: 52(ivec2) Load 54(i16v)
- 82: 72(ivec2) SConvert 81
- 83: 78(ivec2) Bitcast 82
+ 81: 52(i16vec2) Load 54(i16v)
+ 82: 72(i64vec2) SConvert 81
+ 83: 78(i64vec2) Bitcast 82
Store 80(u64v) 83
- 84: 57(ivec2) Load 59(u16v)
+ 84: 57(i16vec2) Load 59(u16v)
85: 65(ivec2) UConvert 84
Store 67(u32v) 85
- 86: 57(ivec2) Load 59(u16v)
- 87: 72(ivec2) UConvert 86
- 88: 72(ivec2) Bitcast 87
+ 86: 57(i16vec2) Load 59(u16v)
+ 87: 72(i64vec2) UConvert 86
+ 88: 72(i64vec2) Bitcast 87
Store 74(i64v) 88
- 89: 57(ivec2) Load 59(u16v)
- 90: 78(ivec2) UConvert 89
+ 89: 57(i16vec2) Load 59(u16v)
+ 90: 78(i64vec2) UConvert 89
Store 80(u64v) 90
- 95: 52(ivec2) Load 54(i16v)
- 96: 92(fvec2) ConvertSToF 95
+ 95: 52(i16vec2) Load 54(i16v)
+ 96: 92(f16vec2) ConvertSToF 95
Store 94(f16v) 96
- 101: 52(ivec2) Load 54(i16v)
+ 101: 52(i16vec2) Load 54(i16v)
102: 98(fvec2) ConvertSToF 101
Store 100(f32v) 102
- 107: 52(ivec2) Load 54(i16v)
- 108: 104(fvec2) ConvertSToF 107
+ 107: 52(i16vec2) Load 54(i16v)
+ 108:104(f64vec2) ConvertSToF 107
Store 106(f64v) 108
- 109: 57(ivec2) Load 59(u16v)
- 110: 92(fvec2) ConvertUToF 109
+ 109: 57(i16vec2) Load 59(u16v)
+ 110: 92(f16vec2) ConvertUToF 109
Store 94(f16v) 110
- 111: 57(ivec2) Load 59(u16v)
+ 111: 57(i16vec2) Load 59(u16v)
112: 98(fvec2) ConvertUToF 111
Store 100(f32v) 112
- 113: 57(ivec2) Load 59(u16v)
- 114: 104(fvec2) ConvertUToF 113
+ 113: 57(i16vec2) Load 59(u16v)
+ 114:104(f64vec2) ConvertUToF 113
Store 106(f64v) 114
- 115: 52(ivec2) Load 54(i16v)
+ 115: 52(i16vec2) Load 54(i16v)
116: 49(ivec2) SConvert 115
Store 51(i32v) 116
- 117: 57(ivec2) Load 59(u16v)
+ 117: 57(i16vec2) Load 59(u16v)
118: 49(ivec2) UConvert 117
119: 49(ivec2) Bitcast 118
Store 51(i32v) 119
- 120: 52(ivec2) Load 54(i16v)
- 121: 57(ivec2) Bitcast 120
+ 120: 52(i16vec2) Load 54(i16v)
+ 121: 57(i16vec2) Bitcast 120
Store 59(u16v) 121
- 122: 52(ivec2) Load 54(i16v)
+ 122: 52(i16vec2) Load 54(i16v)
123: 49(ivec2) SConvert 122
124: 65(ivec2) Bitcast 123
Store 67(u32v) 124
- 125: 52(ivec2) Load 54(i16v)
- 126: 72(ivec2) SConvert 125
+ 125: 52(i16vec2) Load 54(i16v)
+ 126: 72(i64vec2) SConvert 125
Store 74(i64v) 126
- 127: 52(ivec2) Load 54(i16v)
- 128: 72(ivec2) SConvert 127
- 129: 78(ivec2) Bitcast 128
+ 127: 52(i16vec2) Load 54(i16v)
+ 128: 72(i64vec2) SConvert 127
+ 129: 78(i64vec2) Bitcast 128
Store 80(u64v) 129
- 130: 57(ivec2) Load 59(u16v)
+ 130: 57(i16vec2) Load 59(u16v)
131: 65(ivec2) UConvert 130
Store 67(u32v) 131
- 132: 57(ivec2) Load 59(u16v)
- 133: 72(ivec2) UConvert 132
- 134: 72(ivec2) Bitcast 133
+ 132: 57(i16vec2) Load 59(u16v)
+ 133: 72(i64vec2) UConvert 132
+ 134: 72(i64vec2) Bitcast 133
Store 74(i64v) 134
- 135: 57(ivec2) Load 59(u16v)
- 136: 72(ivec2) UConvert 135
- 137: 72(ivec2) Bitcast 136
- 138: 78(ivec2) Bitcast 137
+ 135: 57(i16vec2) Load 59(u16v)
+ 136: 72(i64vec2) UConvert 135
+ 137: 72(i64vec2) Bitcast 136
+ 138: 78(i64vec2) Bitcast 137
Store 80(u64v) 138
- 139: 52(ivec2) Load 54(i16v)
- 140: 92(fvec2) ConvertSToF 139
+ 139: 52(i16vec2) Load 54(i16v)
+ 140: 92(f16vec2) ConvertSToF 139
Store 94(f16v) 140
- 141: 52(ivec2) Load 54(i16v)
+ 141: 52(i16vec2) Load 54(i16v)
142: 98(fvec2) ConvertSToF 141
Store 100(f32v) 142
- 143: 52(ivec2) Load 54(i16v)
- 144: 104(fvec2) ConvertSToF 143
+ 143: 52(i16vec2) Load 54(i16v)
+ 144:104(f64vec2) ConvertSToF 143
Store 106(f64v) 144
- 145: 57(ivec2) Load 59(u16v)
- 146: 92(fvec2) ConvertUToF 145
+ 145: 57(i16vec2) Load 59(u16v)
+ 146: 92(f16vec2) ConvertUToF 145
Store 94(f16v) 146
- 147: 57(ivec2) Load 59(u16v)
+ 147: 57(i16vec2) Load 59(u16v)
148: 98(fvec2) ConvertUToF 147
Store 100(f32v) 148
- 149: 57(ivec2) Load 59(u16v)
- 150: 104(fvec2) ConvertUToF 149
+ 149: 57(i16vec2) Load 59(u16v)
+ 150:104(f64vec2) ConvertUToF 149
Store 106(f64v) 150
- 155: 52(ivec2) Load 54(i16v)
- 156: 152(ivec2) SConvert 155
+ 155: 52(i16vec2) Load 54(i16v)
+ 156: 152(i8vec2) SConvert 155
Store 154(i8v) 156
- 157: 57(ivec2) Load 59(u16v)
- 158: 152(ivec2) UConvert 157
- 159: 152(ivec2) Bitcast 158
+ 157: 57(i16vec2) Load 59(u16v)
+ 158: 152(i8vec2) UConvert 157
+ 159: 152(i8vec2) Bitcast 158
Store 154(i8v) 159
- 164: 52(ivec2) Load 54(i16v)
- 165: 152(ivec2) SConvert 164
- 166: 161(ivec2) Bitcast 165
+ 164: 52(i16vec2) Load 54(i16v)
+ 165: 152(i8vec2) SConvert 164
+ 166: 161(i8vec2) Bitcast 165
Store 163(u8v) 166
- 167: 57(ivec2) Load 59(u16v)
- 168: 161(ivec2) UConvert 167
+ 167: 57(i16vec2) Load 59(u16v)
+ 168: 161(i8vec2) UConvert 167
Store 163(u8v) 168
- 169: 57(ivec2) Load 59(u16v)
- 170: 161(ivec2) UConvert 169
- 171: 52(ivec2) UConvert 170
- 172: 52(ivec2) Bitcast 171
+ 169: 57(i16vec2) Load 59(u16v)
+ 170: 161(i8vec2) UConvert 169
+ 171: 52(i16vec2) UConvert 170
+ 172: 52(i16vec2) Bitcast 171
Store 54(i16v) 172
177: 174(bvec2) Load 176(bv)
- 182: 52(ivec2) Select 177 181 180
+ 182: 52(i16vec2) Select 177 181 180
Store 54(i16v) 182
183: 174(bvec2) Load 176(bv)
- 188: 57(ivec2) Select 183 187 186
+ 188: 57(i16vec2) Select 183 187 186
Store 59(u16v) 188
- 189: 52(ivec2) Load 54(i16v)
+ 189: 52(i16vec2) Load 54(i16v)
190: 174(bvec2) INotEqual 189 186
Store 176(bv) 190
- 191: 57(ivec2) Load 59(u16v)
+ 191: 57(i16vec2) Load 59(u16v)
192: 174(bvec2) INotEqual 191 186
Store 176(bv) 192
Return
@@ -369,169 +369,169 @@ spv.vulkan110.int16.frag
227(uv): 226(ptr) Variable Function
243(i64): 242(ptr) Variable Function
281(b): 280(ptr) Variable Function
- 196: 193(ivec3) Load 195(u16v)
- 198: 197(ivec3) CompositeConstruct 179 179 179
- 199: 193(ivec3) IAdd 196 198
+ 196:193(i16vec3) Load 195(u16v)
+ 198:197(i16vec3) CompositeConstruct 179 179 179
+ 199:193(i16vec3) IAdd 196 198
Store 195(u16v) 199
- 201: 14(int) Load 200(i16)
- 202: 14(int) ISub 201 179
+ 201: 14(int16_t) Load 200(i16)
+ 202: 14(int16_t) ISub 201 179
Store 200(i16) 202
- 203: 14(int) Load 200(i16)
- 204: 14(int) IAdd 203 179
+ 203: 14(int16_t) Load 200(i16)
+ 204: 14(int16_t) IAdd 203 179
Store 200(i16) 204
- 205: 193(ivec3) Load 195(u16v)
- 206: 197(ivec3) CompositeConstruct 179 179 179
- 207: 193(ivec3) ISub 205 206
+ 205:193(i16vec3) Load 195(u16v)
+ 206:197(i16vec3) CompositeConstruct 179 179 179
+ 207:193(i16vec3) ISub 205 206
Store 195(u16v) 207
- 208: 193(ivec3) Load 195(u16v)
- 209: 193(ivec3) Not 208
+ 208:193(i16vec3) Load 195(u16v)
+ 209:193(i16vec3) Not 208
Store 195(u16v) 209
- 210: 14(int) Load 200(i16)
+ 210: 14(int16_t) Load 200(i16)
Store 200(i16) 210
- 211: 193(ivec3) Load 195(u16v)
- 212: 193(ivec3) SNegate 211
+ 211:193(i16vec3) Load 195(u16v)
+ 212:193(i16vec3) SNegate 211
Store 195(u16v) 212
- 213: 14(int) Load 200(i16)
- 214: 14(int) Load 200(i16)
- 215: 14(int) IAdd 214 213
+ 213: 14(int16_t) Load 200(i16)
+ 214: 14(int16_t) Load 200(i16)
+ 215: 14(int16_t) IAdd 214 213
Store 200(i16) 215
- 216: 193(ivec3) Load 195(u16v)
- 217: 193(ivec3) Load 195(u16v)
- 218: 193(ivec3) ISub 217 216
+ 216:193(i16vec3) Load 195(u16v)
+ 217:193(i16vec3) Load 195(u16v)
+ 218:193(i16vec3) ISub 217 216
Store 195(u16v) 218
- 221: 14(int) Load 200(i16)
+ 221: 14(int16_t) Load 200(i16)
222: 27(int) SConvert 221
223: 27(int) Load 220(i)
224: 27(int) IMul 223 222
Store 220(i) 224
- 228: 193(ivec3) Load 195(u16v)
+ 228:193(i16vec3) Load 195(u16v)
229: 225(ivec3) UConvert 228
230: 225(ivec3) Load 227(uv)
231: 225(ivec3) UDiv 230 229
Store 227(uv) 231
- 232: 14(int) Load 200(i16)
+ 232: 14(int16_t) Load 200(i16)
233: 27(int) SConvert 232
234: 17(int) Bitcast 233
235: 225(ivec3) Load 227(uv)
236: 225(ivec3) CompositeConstruct 234 234 234
237: 225(ivec3) UMod 235 236
Store 227(uv) 237
- 238: 193(ivec3) Load 195(u16v)
+ 238:193(i16vec3) Load 195(u16v)
239: 225(ivec3) UConvert 238
240: 225(ivec3) Load 227(uv)
241: 225(ivec3) IAdd 239 240
Store 227(uv) 241
- 244: 14(int) Load 200(i16)
- 245: 71(int) SConvert 244
- 246: 71(int) Load 243(i64)
- 247: 71(int) ISub 245 246
+ 244: 14(int16_t) Load 200(i16)
+ 245: 71(int64_t) SConvert 244
+ 246: 71(int64_t) Load 243(i64)
+ 247: 71(int64_t) ISub 245 246
Store 243(i64) 247
- 248: 193(ivec3) Load 195(u16v)
+ 248:193(i16vec3) Load 195(u16v)
249: 225(ivec3) UConvert 248
250: 225(ivec3) Load 227(uv)
251: 225(ivec3) IMul 249 250
Store 227(uv) 251
- 252: 14(int) Load 200(i16)
- 253: 71(int) SConvert 252
- 254: 71(int) Load 243(i64)
- 255: 71(int) IMul 253 254
+ 252: 14(int16_t) Load 200(i16)
+ 253: 71(int64_t) SConvert 252
+ 254: 71(int64_t) Load 243(i64)
+ 255: 71(int64_t) IMul 253 254
Store 243(i64) 255
- 256: 14(int) Load 200(i16)
+ 256: 14(int16_t) Load 200(i16)
257: 27(int) SConvert 256
258: 27(int) Load 220(i)
259: 27(int) SMod 257 258
Store 220(i) 259
- 260: 14(int) Load 200(i16)
- 261: 193(ivec3) Load 195(u16v)
- 262: 197(ivec3) CompositeConstruct 260 260 260
- 263: 193(ivec3) ShiftLeftLogical 261 262
+ 260: 14(int16_t) Load 200(i16)
+ 261:193(i16vec3) Load 195(u16v)
+ 262:197(i16vec3) CompositeConstruct 260 260 260
+ 263:193(i16vec3) ShiftLeftLogical 261 262
Store 195(u16v) 263
265: 37(ptr) AccessChain 195(u16v) 264
- 266: 36(int) Load 265
- 267: 14(int) Load 200(i16)
- 268: 14(int) ShiftRightArithmetic 267 266
+ 266: 36(int16_t) Load 265
+ 267: 14(int16_t) Load 200(i16)
+ 268: 14(int16_t) ShiftRightArithmetic 267 266
Store 200(i16) 268
- 269: 14(int) Load 200(i16)
+ 269: 14(int16_t) Load 200(i16)
271: 37(ptr) AccessChain 195(u16v) 270
- 272: 36(int) Load 271
- 273: 14(int) ShiftLeftLogical 269 272
+ 272: 36(int16_t) Load 271
+ 273: 14(int16_t) ShiftLeftLogical 269 272
Store 200(i16) 273
- 274: 193(ivec3) Load 195(u16v)
+ 274:193(i16vec3) Load 195(u16v)
275: 27(int) Load 220(i)
277: 276(ivec3) CompositeConstruct 275 275 275
- 278: 193(ivec3) ShiftLeftLogical 274 277
+ 278:193(i16vec3) ShiftLeftLogical 274 277
279: 225(ivec3) UConvert 278
Store 227(uv) 279
283: 37(ptr) AccessChain 195(u16v) 282
- 284: 36(int) Load 283
- 285: 14(int) Load 200(i16)
- 286: 36(int) Bitcast 285
+ 284: 36(int16_t) Load 283
+ 285: 14(int16_t) Load 200(i16)
+ 286: 36(int16_t) Bitcast 285
287: 173(bool) INotEqual 284 286
Store 281(b) 287
- 288: 14(int) Load 200(i16)
- 289: 36(int) Bitcast 288
+ 288: 14(int16_t) Load 200(i16)
+ 289: 36(int16_t) Bitcast 288
290: 37(ptr) AccessChain 195(u16v) 282
- 291: 36(int) Load 290
+ 291: 36(int16_t) Load 290
292: 173(bool) IEqual 289 291
Store 281(b) 292
293: 37(ptr) AccessChain 195(u16v) 282
- 294: 36(int) Load 293
+ 294: 36(int16_t) Load 293
295: 17(int) UConvert 294
297: 296(ptr) AccessChain 227(uv) 264
298: 17(int) Load 297
299: 173(bool) UGreaterThan 295 298
Store 281(b) 299
- 300: 14(int) Load 200(i16)
+ 300: 14(int16_t) Load 200(i16)
301: 27(int) SConvert 300
302: 27(int) Load 220(i)
303: 173(bool) SLessThan 301 302
Store 281(b) 303
304: 37(ptr) AccessChain 195(u16v) 264
- 305: 36(int) Load 304
+ 305: 36(int16_t) Load 304
306: 17(int) UConvert 305
307: 296(ptr) AccessChain 227(uv) 282
308: 17(int) Load 307
309: 173(bool) UGreaterThanEqual 306 308
Store 281(b) 309
- 310: 14(int) Load 200(i16)
+ 310: 14(int16_t) Load 200(i16)
311: 27(int) SConvert 310
312: 27(int) Load 220(i)
313: 173(bool) SLessThanEqual 311 312
Store 281(b) 313
- 314: 14(int) Load 200(i16)
+ 314: 14(int16_t) Load 200(i16)
315: 27(int) SConvert 314
316: 17(int) Bitcast 315
317: 225(ivec3) Load 227(uv)
318: 225(ivec3) CompositeConstruct 316 316 316
319: 225(ivec3) BitwiseOr 317 318
Store 227(uv) 319
- 320: 14(int) Load 200(i16)
+ 320: 14(int16_t) Load 200(i16)
321: 27(int) SConvert 320
322: 27(int) Load 220(i)
323: 27(int) BitwiseOr 321 322
Store 220(i) 323
- 324: 14(int) Load 200(i16)
- 325: 71(int) SConvert 324
- 326: 71(int) Load 243(i64)
- 327: 71(int) BitwiseAnd 326 325
+ 324: 14(int16_t) Load 200(i16)
+ 325: 71(int64_t) SConvert 324
+ 326: 71(int64_t) Load 243(i64)
+ 327: 71(int64_t) BitwiseAnd 326 325
Store 243(i64) 327
- 328: 193(ivec3) Load 195(u16v)
+ 328:193(i16vec3) Load 195(u16v)
329: 225(ivec3) UConvert 328
330: 225(ivec3) Load 227(uv)
331: 225(ivec3) BitwiseAnd 329 330
Store 227(uv) 331
- 332: 14(int) Load 200(i16)
+ 332: 14(int16_t) Load 200(i16)
333: 27(int) SConvert 332
334: 17(int) Bitcast 333
335: 225(ivec3) Load 227(uv)
336: 225(ivec3) CompositeConstruct 334 334 334
337: 225(ivec3) BitwiseXor 335 336
Store 227(uv) 337
- 338: 193(ivec3) Load 195(u16v)
- 339: 14(int) Load 200(i16)
- 340: 36(int) Bitcast 339
- 341: 193(ivec3) CompositeConstruct 340 340 340
- 342: 193(ivec3) BitwiseXor 338 341
+ 338:193(i16vec3) Load 195(u16v)
+ 339: 14(int16_t) Load 200(i16)
+ 340: 36(int16_t) Bitcast 339
+ 341:193(i16vec3) CompositeConstruct 340 340 340
+ 342:193(i16vec3) BitwiseXor 338 341
Store 195(u16v) 342
Return
FunctionEnd
@@ -549,190 +549,190 @@ spv.vulkan110.int16.frag
442(u64): 441(ptr) Variable Function
445(u16v4): 444(ptr) Variable Function
457(bv): 456(ptr) Variable Function
- 344: 52(ivec2) Load 343(i16v)
- 345: 52(ivec2) ExtInst 1(GLSL.std.450) 5(SAbs) 344
+ 344: 52(i16vec2) Load 343(i16v)
+ 345: 52(i16vec2) ExtInst 1(GLSL.std.450) 5(SAbs) 344
Store 343(i16v) 345
- 347: 14(int) Load 346(i16)
- 348: 14(int) ExtInst 1(GLSL.std.450) 7(SSign) 347
+ 347: 14(int16_t) Load 346(i16)
+ 348: 14(int16_t) ExtInst 1(GLSL.std.450) 7(SSign) 347
Store 346(i16) 348
- 349: 52(ivec2) Load 343(i16v)
- 350: 14(int) Load 346(i16)
- 351: 52(ivec2) CompositeConstruct 350 350
- 352: 52(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 349 351
+ 349: 52(i16vec2) Load 343(i16v)
+ 350: 14(int16_t) Load 346(i16)
+ 351: 52(i16vec2) CompositeConstruct 350 350
+ 352: 52(i16vec2) ExtInst 1(GLSL.std.450) 39(SMin) 349 351
Store 343(i16v) 352
- 353: 52(ivec2) Load 343(i16v)
- 355: 52(ivec2) ExtInst 1(GLSL.std.450) 39(SMin) 353 354
+ 353: 52(i16vec2) Load 343(i16v)
+ 355: 52(i16vec2) ExtInst 1(GLSL.std.450) 39(SMin) 353 354
Store 343(i16v) 355
- 357: 193(ivec3) Load 356(u16v)
- 359: 36(int) Load 358(u16)
- 360: 193(ivec3) CompositeConstruct 359 359 359
- 361: 193(ivec3) ExtInst 1(GLSL.std.450) 38(UMin) 357 360
+ 357:193(i16vec3) Load 356(u16v)
+ 359: 36(int16_t) Load 358(u16)
+ 360:193(i16vec3) CompositeConstruct 359 359 359
+ 361:193(i16vec3) ExtInst 1(GLSL.std.450) 38(UMin) 357 360
Store 356(u16v) 361
- 362: 193(ivec3) Load 356(u16v)
- 364: 193(ivec3) ExtInst 1(GLSL.std.450) 38(UMin) 362 363
+ 362:193(i16vec3) Load 356(u16v)
+ 364:193(i16vec3) ExtInst 1(GLSL.std.450) 38(UMin) 362 363
Store 356(u16v) 364
- 365: 52(ivec2) Load 343(i16v)
- 366: 14(int) Load 346(i16)
- 367: 52(ivec2) CompositeConstruct 366 366
- 368: 52(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 365 367
+ 365: 52(i16vec2) Load 343(i16v)
+ 366: 14(int16_t) Load 346(i16)
+ 367: 52(i16vec2) CompositeConstruct 366 366
+ 368: 52(i16vec2) ExtInst 1(GLSL.std.450) 42(SMax) 365 367
Store 343(i16v) 368
- 369: 52(ivec2) Load 343(i16v)
- 370: 52(ivec2) ExtInst 1(GLSL.std.450) 42(SMax) 369 354
+ 369: 52(i16vec2) Load 343(i16v)
+ 370: 52(i16vec2) ExtInst 1(GLSL.std.450) 42(SMax) 369 354
Store 343(i16v) 370
- 371: 193(ivec3) Load 356(u16v)
- 372: 36(int) Load 358(u16)
- 373: 193(ivec3) CompositeConstruct 372 372 372
- 374: 193(ivec3) ExtInst 1(GLSL.std.450) 41(UMax) 371 373
+ 371:193(i16vec3) Load 356(u16v)
+ 372: 36(int16_t) Load 358(u16)
+ 373:193(i16vec3) CompositeConstruct 372 372 372
+ 374:193(i16vec3) ExtInst 1(GLSL.std.450) 41(UMax) 371 373
Store 356(u16v) 374
- 375: 193(ivec3) Load 356(u16v)
- 376: 193(ivec3) ExtInst 1(GLSL.std.450) 41(UMax) 375 363
+ 375:193(i16vec3) Load 356(u16v)
+ 376:193(i16vec3) ExtInst 1(GLSL.std.450) 41(UMax) 375 363
Store 356(u16v) 376
- 377: 52(ivec2) Load 343(i16v)
- 378: 14(int) Load 346(i16)
- 379: 14(int) SNegate 378
- 380: 14(int) Load 346(i16)
- 381: 52(ivec2) CompositeConstruct 379 379
- 382: 52(ivec2) CompositeConstruct 380 380
- 383: 52(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 377 381 382
+ 377: 52(i16vec2) Load 343(i16v)
+ 378: 14(int16_t) Load 346(i16)
+ 379: 14(int16_t) SNegate 378
+ 380: 14(int16_t) Load 346(i16)
+ 381: 52(i16vec2) CompositeConstruct 379 379
+ 382: 52(i16vec2) CompositeConstruct 380 380
+ 383: 52(i16vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 377 381 382
Store 343(i16v) 383
- 384: 52(ivec2) Load 343(i16v)
- 385: 52(ivec2) Load 343(i16v)
- 386: 52(ivec2) SNegate 385
- 387: 52(ivec2) Load 343(i16v)
- 388: 52(ivec2) ExtInst 1(GLSL.std.450) 45(SClamp) 384 386 387
+ 384: 52(i16vec2) Load 343(i16v)
+ 385: 52(i16vec2) Load 343(i16v)
+ 386: 52(i16vec2) SNegate 385
+ 387: 52(i16vec2) Load 343(i16v)
+ 388: 52(i16vec2) ExtInst 1(GLSL.std.450) 45(SClamp) 384 386 387
Store 343(i16v) 388
- 389: 193(ivec3) Load 356(u16v)
- 390: 36(int) Load 358(u16)
- 391: 36(int) SNegate 390
- 392: 36(int) Load 358(u16)
- 393: 193(ivec3) CompositeConstruct 391 391 391
- 394: 193(ivec3) CompositeConstruct 392 392 392
- 395: 193(ivec3) ExtInst 1(GLSL.std.450) 44(UClamp) 389 393 394
+ 389:193(i16vec3) Load 356(u16v)
+ 390: 36(int16_t) Load 358(u16)
+ 391: 36(int16_t) SNegate 390
+ 392: 36(int16_t) Load 358(u16)
+ 393:193(i16vec3) CompositeConstruct 391 391 391
+ 394:193(i16vec3) CompositeConstruct 392 392 392
+ 395:193(i16vec3) ExtInst 1(GLSL.std.450) 44(UClamp) 389 393 394
Store 356(u16v) 395
- 396: 193(ivec3) Load 356(u16v)
- 397: 193(ivec3) Load 356(u16v)
- 398: 193(ivec3) SNegate 397
- 399: 193(ivec3) Load 356(u16v)
- 400: 193(ivec3) ExtInst 1(GLSL.std.450) 44(UClamp) 396 398 399
+ 396:193(i16vec3) Load 356(u16v)
+ 397:193(i16vec3) Load 356(u16v)
+ 398:193(i16vec3) SNegate 397
+ 399:193(i16vec3) Load 356(u16v)
+ 400:193(i16vec3) ExtInst 1(GLSL.std.450) 44(UClamp) 396 398 399
Store 356(u16v) 400
401: 15(ptr) AccessChain 343(i16v) 282
- 402: 14(int) Load 401
+ 402: 14(int16_t) Load 401
403: 15(ptr) AccessChain 343(i16v) 264
- 404: 14(int) Load 403
- 406: 14(int) Select 405 404 402
+ 404: 14(int16_t) Load 403
+ 406: 14(int16_t) Select 405 404 402
Store 346(i16) 406
- 407: 14(int) Load 346(i16)
- 408: 52(ivec2) CompositeConstruct 407 407
- 409: 14(int) Load 346(i16)
- 410: 14(int) SNegate 409
- 411: 52(ivec2) CompositeConstruct 410 410
- 414: 52(ivec2) Select 413 411 408
+ 407: 14(int16_t) Load 346(i16)
+ 408: 52(i16vec2) CompositeConstruct 407 407
+ 409: 14(int16_t) Load 346(i16)
+ 410: 14(int16_t) SNegate 409
+ 411: 52(i16vec2) CompositeConstruct 410 410
+ 414: 52(i16vec2) Select 413 411 408
Store 343(i16v) 414
415: 37(ptr) AccessChain 356(u16v) 282
- 416: 36(int) Load 415
+ 416: 36(int16_t) Load 415
417: 37(ptr) AccessChain 356(u16v) 264
- 418: 36(int) Load 417
- 419: 36(int) Select 405 418 416
+ 418: 36(int16_t) Load 417
+ 419: 36(int16_t) Select 405 418 416
Store 358(u16) 419
- 420: 36(int) Load 358(u16)
- 421: 193(ivec3) CompositeConstruct 420 420 420
- 422: 36(int) Load 358(u16)
- 423: 36(int) SNegate 422
- 424: 193(ivec3) CompositeConstruct 423 423 423
- 427: 193(ivec3) Select 426 424 421
+ 420: 36(int16_t) Load 358(u16)
+ 421:193(i16vec3) CompositeConstruct 420 420 420
+ 422: 36(int16_t) Load 358(u16)
+ 423: 36(int16_t) SNegate 422
+ 424:193(i16vec3) CompositeConstruct 423 423 423
+ 427:193(i16vec3) Select 426 424 421
Store 356(u16v) 427
- 429: 52(ivec2) Load 343(i16v)
+ 429: 52(i16vec2) Load 343(i16v)
430: 27(int) Bitcast 429
Store 428(i32) 430
- 435: 432(ivec4) Load 434(i16v4)
- 436: 71(int) Bitcast 435
+ 435:432(i16vec4) Load 434(i16v4)
+ 436: 71(int64_t) Bitcast 435
Store 431(i64) 436
- 439: 57(ivec2) Load 438(u16v2)
+ 439: 57(i16vec2) Load 438(u16v2)
440: 17(int) Bitcast 439
Store 437(u32) 440
- 446: 443(ivec4) Load 445(u16v4)
- 447: 77(int) Bitcast 446
+ 446:443(i16vec4) Load 445(u16v4)
+ 447: 77(int64_t) Bitcast 446
Store 442(u64) 447
448: 27(int) Load 428(i32)
- 449: 52(ivec2) Bitcast 448
+ 449: 52(i16vec2) Bitcast 448
Store 343(i16v) 449
- 450: 71(int) Load 431(i64)
- 451: 432(ivec4) Bitcast 450
+ 450: 71(int64_t) Load 431(i64)
+ 451:432(i16vec4) Bitcast 450
Store 434(i16v4) 451
452: 17(int) Load 437(u32)
- 453: 57(ivec2) Bitcast 452
+ 453: 57(i16vec2) Bitcast 452
Store 438(u16v2) 453
- 454: 77(int) Load 442(u64)
- 455: 443(ivec4) Bitcast 454
+ 454: 77(int64_t) Load 442(u64)
+ 455:443(i16vec4) Bitcast 454
Store 445(u16v4) 455
- 458: 193(ivec3) Load 356(u16v)
- 459: 36(int) Load 358(u16)
- 460: 193(ivec3) CompositeConstruct 459 459 459
+ 458:193(i16vec3) Load 356(u16v)
+ 459: 36(int16_t) Load 358(u16)
+ 460:193(i16vec3) CompositeConstruct 459 459 459
461: 425(bvec3) ULessThan 458 460
Store 457(bv) 461
- 462: 52(ivec2) Load 343(i16v)
- 463: 14(int) Load 346(i16)
- 464: 52(ivec2) CompositeConstruct 463 463
+ 462: 52(i16vec2) Load 343(i16v)
+ 463: 14(int16_t) Load 346(i16)
+ 464: 52(i16vec2) CompositeConstruct 463 463
465: 174(bvec2) SLessThan 462 464
466: 425(bvec3) Load 457(bv)
467: 425(bvec3) VectorShuffle 466 465 3 4 2
Store 457(bv) 467
- 468: 193(ivec3) Load 356(u16v)
- 469: 36(int) Load 358(u16)
- 470: 193(ivec3) CompositeConstruct 469 469 469
+ 468:193(i16vec3) Load 356(u16v)
+ 469: 36(int16_t) Load 358(u16)
+ 470:193(i16vec3) CompositeConstruct 469 469 469
471: 425(bvec3) ULessThanEqual 468 470
Store 457(bv) 471
- 472: 52(ivec2) Load 343(i16v)
- 473: 14(int) Load 346(i16)
- 474: 52(ivec2) CompositeConstruct 473 473
+ 472: 52(i16vec2) Load 343(i16v)
+ 473: 14(int16_t) Load 346(i16)
+ 474: 52(i16vec2) CompositeConstruct 473 473
475: 174(bvec2) SLessThanEqual 472 474
476: 425(bvec3) Load 457(bv)
477: 425(bvec3) VectorShuffle 476 475 3 4 2
Store 457(bv) 477
- 478: 193(ivec3) Load 356(u16v)
- 479: 36(int) Load 358(u16)
- 480: 193(ivec3) CompositeConstruct 479 479 479
+ 478:193(i16vec3) Load 356(u16v)
+ 479: 36(int16_t) Load 358(u16)
+ 480:193(i16vec3) CompositeConstruct 479 479 479
481: 425(bvec3) UGreaterThan 478 480
Store 457(bv) 481
- 482: 52(ivec2) Load 343(i16v)
- 483: 14(int) Load 346(i16)
- 484: 52(ivec2) CompositeConstruct 483 483
+ 482: 52(i16vec2) Load 343(i16v)
+ 483: 14(int16_t) Load 346(i16)
+ 484: 52(i16vec2) CompositeConstruct 483 483
485: 174(bvec2) SGreaterThan 482 484
486: 425(bvec3) Load 457(bv)
487: 425(bvec3) VectorShuffle 486 485 3 4 2
Store 457(bv) 487
- 488: 193(ivec3) Load 356(u16v)
- 489: 36(int) Load 358(u16)
- 490: 193(ivec3) CompositeConstruct 489 489 489
+ 488:193(i16vec3) Load 356(u16v)
+ 489: 36(int16_t) Load 358(u16)
+ 490:193(i16vec3) CompositeConstruct 489 489 489
491: 425(bvec3) UGreaterThanEqual 488 490
Store 457(bv) 491
- 492: 52(ivec2) Load 343(i16v)
- 493: 14(int) Load 346(i16)
- 494: 52(ivec2) CompositeConstruct 493 493
+ 492: 52(i16vec2) Load 343(i16v)
+ 493: 14(int16_t) Load 346(i16)
+ 494: 52(i16vec2) CompositeConstruct 493 493
495: 174(bvec2) SGreaterThanEqual 492 494
496: 425(bvec3) Load 457(bv)
497: 425(bvec3) VectorShuffle 496 495 3 4 2
Store 457(bv) 497
- 498: 193(ivec3) Load 356(u16v)
- 499: 36(int) Load 358(u16)
- 500: 193(ivec3) CompositeConstruct 499 499 499
+ 498:193(i16vec3) Load 356(u16v)
+ 499: 36(int16_t) Load 358(u16)
+ 500:193(i16vec3) CompositeConstruct 499 499 499
501: 425(bvec3) IEqual 498 500
Store 457(bv) 501
- 502: 52(ivec2) Load 343(i16v)
- 503: 14(int) Load 346(i16)
- 504: 52(ivec2) CompositeConstruct 503 503
+ 502: 52(i16vec2) Load 343(i16v)
+ 503: 14(int16_t) Load 346(i16)
+ 504: 52(i16vec2) CompositeConstruct 503 503
505: 174(bvec2) IEqual 502 504
506: 425(bvec3) Load 457(bv)
507: 425(bvec3) VectorShuffle 506 505 3 4 2
Store 457(bv) 507
- 508: 193(ivec3) Load 356(u16v)
- 509: 36(int) Load 358(u16)
- 510: 193(ivec3) CompositeConstruct 509 509 509
+ 508:193(i16vec3) Load 356(u16v)
+ 509: 36(int16_t) Load 358(u16)
+ 510:193(i16vec3) CompositeConstruct 509 509 509
511: 425(bvec3) INotEqual 508 510
Store 457(bv) 511
- 512: 52(ivec2) Load 343(i16v)
- 513: 14(int) Load 346(i16)
- 514: 52(ivec2) CompositeConstruct 513 513
+ 512: 52(i16vec2) Load 343(i16v)
+ 513: 14(int16_t) Load 346(i16)
+ 514: 52(i16vec2) CompositeConstruct 513 513
515: 174(bvec2) INotEqual 512 514
516: 425(bvec3) Load 457(bv)
517: 425(bvec3) VectorShuffle 516 515 3 4 2