From 56df702d0034a312694bfceb771372ea5bd254fa Mon Sep 17 00:00:00 2001 From: Chris Duncan Date: Fri, 24 Jan 2025 23:13:44 -0800 Subject: [PATCH] Remove redundant swizzles. Refactor 32-bit rotation to remove a swizzle operation. --- src/shaders/compute.wgsl | 742 +++++++++++++++++++-------------------- 1 file changed, 371 insertions(+), 371 deletions(-) diff --git a/src/shaders/compute.wgsl b/src/shaders/compute.wgsl index 928ada3..abb665b 100644 --- a/src/shaders/compute.wgsl +++ b/src/shaders/compute.wgsl @@ -143,101 +143,101 @@ fn main(id: vec3) { */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); v0 = v0 + m0 + vec2(0u, u32(v0.x + m0.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); v0 = v0 + m1 + vec2(0u, u32(v0.x + m1.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=0, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m2 + vec2(0u, u32(v1.x + m2.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m3 + vec2(0u, u32(v1.x + m3.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=0, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); v2 = v2 + m4 + vec2(0u, u32(v2.x + m4.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=0, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=0, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=0, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=0, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=0, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -251,102 +251,102 @@ fn main(id: vec3) { * r=1, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=1, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m4 + vec2(0u, u32(v1.x + m4.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=1, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=1, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=1, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); v0 = v0 + m1 + vec2(0u, u32(v0.x + m1.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=1, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); v1 = v1 + m0 + vec2(0u, u32(v1.x + m0.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); v1 = v1 + m2 + vec2(0u, u32(v1.x + m2.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=1, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=1, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); v3 = v3 + m3 + vec2(0u, u32(v3.x + m3.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -360,102 +360,102 @@ fn main(id: vec3) { * r=2, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=2, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m0 + vec2(0u, u32(v1.x + m0.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=2, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); v2 = v2 + m2 + vec2(0u, u32(v2.x + m2.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=2, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=2, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=2, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); v1 = v1 + m3 + vec2(0u, u32(v1.x + m3.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=2, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); v2 = v2 + m1 + vec2(0u, u32(v2.x + m1.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=2, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); v3 = v3 + m4 + vec2(0u, u32(v3.x + m4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -469,102 +469,102 @@ fn main(id: vec3) { * r=3, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=3, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m3 + vec2(0u, u32(v1.x + m3.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m1 + vec2(0u, u32(v1.x + m1.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=3, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=3, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=3, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); v0 = v0 + m2 + vec2(0u, u32(v0.x + m2.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=3, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=3, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); v2 = v2 + m4 + vec2(0u, u32(v2.x + m4.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); v2 = v2 + m0 + vec2(0u, u32(v2.x + m0.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=3, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -578,102 +578,102 @@ fn main(id: vec3) { * r=4, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); v0 = v0 + m0 + vec2(0u, u32(v0.x + m0.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=4, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=4, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); v2 = v2 + m2 + vec2(0u, u32(v2.x + m2.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); v2 = v2 + m4 + vec2(0u, u32(v2.x + m4.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=4, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=4, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); v0 = v0 + m1 + vec2(0u, u32(v0.x + m1.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=4, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=4, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=4, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); v3 = v3 + m3 + vec2(0u, u32(v3.x + m3.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -688,101 +688,101 @@ fn main(id: vec3) { */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); v0 = v0 + m2 + vec2(0u, u32(v0.x + m2.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=5, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=5, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); v2 = v2 + m0 + vec2(0u, u32(v2.x + m0.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=5, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); v3 = v3 + m3 + vec2(0u, u32(v3.x + m3.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=5, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); v0 = v0 + m4 + vec2(0u, u32(v0.x + m4.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=5, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=5, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=5, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); v3 = v3 + m1 + vec2(0u, u32(v3.x + m1.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -796,102 +796,102 @@ fn main(id: vec3) { * r=6, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=6, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m1 + vec2(0u, u32(v1.x + m1.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=6, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=6, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); v3 = v3 + m4 + vec2(0u, u32(v3.x + m4.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=6, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); v0 = v0 + m0 + vec2(0u, u32(v0.x + m0.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=6, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); v1 = v1 + m3 + vec2(0u, u32(v1.x + m3.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=6, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); v2 = v2 + m2 + vec2(0u, u32(v2.x + m2.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=6, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -905,102 +905,102 @@ fn main(id: vec3) { * r=7, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=7, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=7, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); v2 = v2 + m1 + vec2(0u, u32(v2.x + m1.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=7, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); v3 = v3 + m3 + vec2(0u, u32(v3.x + m3.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=7, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); v0 = v0 + m0 + vec2(0u, u32(v0.x + m0.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=7, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); v1 = v1 + m4 + vec2(0u, u32(v1.x + m4.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=7, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=7, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); v3 = v3 + m2 + vec2(0u, u32(v3.x + m2.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -1014,102 +1014,102 @@ fn main(id: vec3) { * r=8, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=8, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=8, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); v2 = v2 + m3 + vec2(0u, u32(v2.x + m3.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=8, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); v3 = v3 + m0 + vec2(0u, u32(v3.x + m0.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=8, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); v0 = v0 + m2 + vec2(0u, u32(v0.x + m2.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=8, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=8, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); v2 = v2 + m1 + vec2(0u, u32(v2.x + m1.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); v2 = v2 + m4 + vec2(0u, u32(v2.x + m4.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=8, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -1123,102 +1123,102 @@ fn main(id: vec3) { * r=9, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); v0 = v0 + m2 + vec2(0u, u32(v0.x + m2.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=9, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m4 + vec2(0u, u32(v1.x + m4.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=9, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=9, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); v3 = v3 + m1 + vec2(0u, u32(v3.x + m1.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=9, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=9, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=9, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); v2 = v2 + m3 + vec2(0u, u32(v2.x + m3.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=9, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); v3 = v3 + m0 + vec2(0u, u32(v3.x + m0.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -1233,101 +1233,101 @@ fn main(id: vec3) { */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); v0 = v0 + m0 + vec2(0u, u32(v0.x + m0.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); v0 = v0 + m1 + vec2(0u, u32(v0.x + m1.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); + v4 = ((v4 ^ v8) << ROTATE_1) | ((v4 ^ v8).yx >> ROTATE_31); /** * r=10, i=1, a=v[1], b=v[5], c=v[9], d=v[13] */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m2 + vec2(0u, u32(v1.x + m2.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m3 + vec2(0u, u32(v1.x + m3.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=10, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); v2 = v2 + m4 + vec2(0u, u32(v2.x + m4.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); + v6 = ((v6 ^ v10) << ROTATE_1) | ((v6 ^ v10).yx >> ROTATE_31); /** * r=10, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=10, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); - v15 = ((v15 ^ v0).xy >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); + v15 = ((v15 ^ v0) >> ROTATE_16) | ((v15 ^ v0).yx << ROTATE_16); v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); + v5 = ((v5 ^ v10) << ROTATE_1) | ((v5 ^ v10).yx >> ROTATE_31); /** * r=10, i=5, a=v[1], b=v[6], c=v[11], d=v[12] */ v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = v12.yx ^ v1.yx; + v12 = (v12 ^ v1).yx; v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); + v6 = ((v6 ^ v11) >> ROTATE_24) | ((v6 ^ v11).yx << ROTATE_8); v1 = v1 + v6 + vec2(0u, u32(v1.x + v6.x < v1.x)); - v12 = ((v12 ^ v1).xy >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); + v12 = ((v12 ^ v1) >> ROTATE_16) | ((v12 ^ v1).yx << ROTATE_16); v11 = v11 + v12 + vec2(0u, u32(v11.x + v12.x < v11.x)); - v6 = ((v6 ^ v11).xy << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); + v6 = ((v6 ^ v11) << ROTATE_1) | ((v6 ^ v11).yx >> ROTATE_31); /** * r=10, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); + v7 = ((v7 ^ v8) << ROTATE_1) | ((v7 ^ v8).yx >> ROTATE_31); /** * r=10, i=7, a=v[3], b=v[4], c=v[9], d=v[14] */ v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = v14.yx ^ v3.yx; + v14 = (v14 ^ v3).yx; v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); + v4 = ((v4 ^ v9) >> ROTATE_24) | ((v4 ^ v9).yx << ROTATE_8); v3 = v3 + v4 + vec2(0u, u32(v3.x + v4.x < v3.x)); - v14 = ((v14 ^ v3).xy >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); + v14 = ((v14 ^ v3) >> ROTATE_16) | ((v14 ^ v3).yx << ROTATE_16); v9 = v9 + v14 + vec2(0u, u32(v9.x + v14.x < v9.x)); - v4 = ((v4 ^ v9).xy << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); + v4 = ((v4 ^ v9) << ROTATE_1) | ((v4 ^ v9).yx >> ROTATE_31); @@ -1341,11 +1341,11 @@ fn main(id: vec3) { * r=11, i=0, a=v[0], b=v[4], c=v[8], d=v[12] */ v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = v12.yx ^ v0.yx; + v12 = (v12 ^ v0).yx; v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); - v4 = ((v4 ^ v8).xy >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); + v4 = ((v4 ^ v8) >> ROTATE_24) | ((v4 ^ v8).yx << ROTATE_8); v0 = v0 + v4 + vec2(0u, u32(v0.x + v4.x < v0.x)); - v12 = ((v12 ^ v0).xy >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); + v12 = ((v12 ^ v0) >> ROTATE_16) | ((v12 ^ v0).yx << ROTATE_16); v8 = v8 + v12 + vec2(0u, u32(v8.x + v12.x < v8.x)); // skip since it does not affect the final values of `v0` and `v8` @@ -1354,23 +1354,23 @@ fn main(id: vec3) { */ v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); v1 = v1 + m4 + vec2(0u, u32(v1.x + m4.x < v1.x)); - v13 = v13.yx ^ v1.yx; + v13 = (v13 ^ v1).yx; v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); + v5 = ((v5 ^ v9) >> ROTATE_24) | ((v5 ^ v9).yx << ROTATE_8); v1 = v1 + v5 + vec2(0u, u32(v1.x + v5.x < v1.x)); - v13 = ((v13 ^ v1).xy >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); + v13 = ((v13 ^ v1) >> ROTATE_16) | ((v13 ^ v1).yx << ROTATE_16); v9 = v9 + v13 + vec2(0u, u32(v9.x + v13.x < v9.x)); - v5 = ((v5 ^ v9).xy << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); + v5 = ((v5 ^ v9) << ROTATE_1) | ((v5 ^ v9).yx >> ROTATE_31); /** * r=11, i=2, a=v[2], b=v[6], c=v[10], d=v[14] */ v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = v14.yx ^ v2.yx; + v14 = (v14 ^ v2).yx; v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); - v6 = ((v6 ^ v10).xy >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); + v6 = ((v6 ^ v10) >> ROTATE_24) | ((v6 ^ v10).yx << ROTATE_8); v2 = v2 + v6 + vec2(0u, u32(v2.x + v6.x < v2.x)); - v14 = ((v14 ^ v2).xy >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); + v14 = ((v14 ^ v2) >> ROTATE_16) | ((v14 ^ v2).yx << ROTATE_16); v10 = v10 + v14 + vec2(0u, u32(v10.x + v14.x < v10.x)); // skip since it does not affect the final values of `v0` and `v8` @@ -1378,22 +1378,22 @@ fn main(id: vec3) { * r=11, i=3, a=v[3], b=v[7], c=v[11], d=v[15] */ v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = v15.yx ^ v3.yx; + v15 = (v15 ^ v3).yx; v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); + v7 = ((v7 ^ v11) >> ROTATE_24) | ((v7 ^ v11).yx << ROTATE_8); v3 = v3 + v7 + vec2(0u, u32(v3.x + v7.x < v3.x)); - v15 = ((v15 ^ v3).xy >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); + v15 = ((v15 ^ v3) >> ROTATE_16) | ((v15 ^ v3).yx << ROTATE_16); v11 = v11 + v15 + vec2(0u, u32(v11.x + v15.x < v11.x)); - v7 = ((v7 ^ v11).xy << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); + v7 = ((v7 ^ v11) << ROTATE_1) | ((v7 ^ v11).yx >> ROTATE_31); /** * r=11, i=4, a=v[0], b=v[5], c=v[10], d=v[15] */ v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); v0 = v0 + m1 + vec2(0u, u32(v0.x + m1.x < v0.x)); - v15 = v15.yx ^ v0.yx; + v15 = (v15 ^ v0).yx; v10 = v10 + v15 + vec2(0u, u32(v10.x + v15.x < v10.x)); - v5 = ((v5 ^ v10).xy >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); + v5 = ((v5 ^ v10) >> ROTATE_24) | ((v5 ^ v10).yx << ROTATE_8); v0 = v0 + v5 + vec2(0u, u32(v0.x + v5.x < v0.x)); // skip since it does not affect the final values of `v0` and `v8` // skip since it does not affect the final values of `v0` and `v8` @@ -1408,11 +1408,11 @@ fn main(id: vec3) { * r=11, i=6, a=v[2], b=v[7], c=v[8], d=v[13] */ v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = v13.yx ^ v2.yx; + v13 = (v13 ^ v2).yx; v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); - v7 = ((v7 ^ v8).xy >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); + v7 = ((v7 ^ v8) >> ROTATE_24) | ((v7 ^ v8).yx << ROTATE_8); v2 = v2 + v7 + vec2(0u, u32(v2.x + v7.x < v2.x)); - v13 = ((v13 ^ v2).xy >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); + v13 = ((v13 ^ v2) >> ROTATE_16) | ((v13 ^ v2).yx << ROTATE_16); v8 = v8 + v13 + vec2(0u, u32(v8.x + v13.x < v8.x)); // skip since we already have the final values of `v0` and `v8` -- 2.34.1