]> zoso.dev Git - nano-pow.git/commitdiff
Deprecate x and y temp vars for third round.
authorChris Duncan <chris@zoso.dev>
Tue, 4 Feb 2025 00:33:03 +0000 (16:33 -0800)
committerChris Duncan <chris@zoso.dev>
Tue, 4 Feb 2025 00:33:03 +0000 (16:33 -0800)
src/shaders/compute.wgsl

index 06b049b932cfe2a1cd0b463a7161d1ab0bec3f0b..5969c24df66ed91fd4a55d46b7f9552a288ac857 100644 (file)
@@ -326,16 +326,13 @@ fn main(id: vec3<u32>) {
        * r=2, i=0, a=v[0], b=v[4], c=v[8], d=v[12], m[sigma]=?, m[sigma+1]=?
        * r=2, i=1, a=v[1], b=v[5], c=v[9], d=v[13], m[sigma]=?, m[sigma+1]=0
        */
-       // x = VEC4_0;
-       y = vec4(VEC2_0, m0);
-
        v01 += v45 + vec4(0u, u32(v01.x + v45.x < v01.x), 0u, u32(v01.z + v45.z < v01.z));
-       // v01 += x + vec4(0u, u32(v01.x + x.x < v01.x), 0u, u32(v01.z + x.z < v01.z));
+       // NOP
        vCD = (vCD ^ v01).yxwz;
        v89 += vCD + vec4(0u, u32(v89.x + vCD.x < v89.x), 0u, u32(v89.z + vCD.z < v89.z));
        v45 = ((v45 ^ v89) >> ROTATE_24) | ((v45 ^ v89).yxwz << ROTATE_8);
        v01 += v45 + vec4(0u, u32(v01.x + v45.x < v01.x), 0u, u32(v01.z + v45.z < v01.z));
-       v01 += y + vec4(0u, u32(v01.x + y.x < v01.x), 0u, u32(v01.z + y.z < v01.z));
+       v01 += vec4(VEC2_0, m0) + vec4(0u, 0u, 0u, u32(v01.z + m0.x < v01.z));
        vCD = ((vCD ^ v01) >> ROTATE_16) | ((vCD ^ v01).yxwz << ROTATE_16);
        v89 += vCD + vec4(0u, u32(v89.x + vCD.x < v89.x), 0u, u32(v89.z + vCD.z < v89.z));
        v45 = ((v45 ^ v89) << ROTATE_1) | ((v45 ^ v89).yxwz >> ROTATE_31);
@@ -344,16 +341,13 @@ fn main(id: vec3<u32>) {
        * r=2, i=2, a=v[2], b=v[6], c=v[10], d=v[14], m[sigma]=?, m[sigma+1]=2
        * r=2, i=3, a=v[3], b=v[7], c=v[11], d=v[15], m[sigma]=?, m[sigma+1]=?
        */
-       // x = VEC4_0;
-       y = vec4(m2, VEC2_0);
-
        v23 += v67 + vec4(0u, u32(v23.x + v67.x < v23.x), 0u, u32(v23.z + v67.z < v23.z));
-       // v23 += x + vec4(0u, u32(v23.x + x.x < v23.x), 0u, u32(v23.z + x.z < v23.z));
+       // NOP
        vEF = (vEF ^ v23).yxwz;
        vAB += vEF + vec4(0u, u32(vAB.x + vEF.x < vAB.x), 0u, u32(vAB.z + vEF.z < vAB.z));
        v67 = ((v67 ^ vAB) >> ROTATE_24) | ((v67 ^ vAB).yxwz << ROTATE_8);
        v23 += v67 + vec4(0u, u32(v23.x + v67.x < v23.x), 0u, u32(v23.z + v67.z < v23.z));
-       v23 += y + vec4(0u, u32(v23.x + y.x < v23.x), 0u, u32(v23.z + y.z < v23.z));
+       v23 += vec4(m2, VEC2_0) + vec4(0u, u32(v23.x + m2.x < v23.x), 0u, 0u);
        vEF = ((vEF ^ v23) >> ROTATE_16) | ((vEF ^ v23).yxwz << ROTATE_16);
        vAB += vEF + vec4(0u, u32(vAB.x + vEF.x < vAB.x), 0u, u32(vAB.z + vEF.z < vAB.z));
        v67 = ((v67 ^ vAB) << ROTATE_1) | ((v67 ^ vAB).yxwz >> ROTATE_31);
@@ -364,16 +358,14 @@ fn main(id: vec3<u32>) {
        */
        b = vec4(v45.zw, v67.xy);
        d = vec4(vEF.zw, vCD.xy);
-       x = vec4(VEC2_0, m3);
-       // y = VEC4_0;
 
        v01 += b + vec4(0u, u32(v01.x + b.x < v01.x), 0u, u32(v01.z + b.z < v01.z));
-       v01 += x + vec4(0u, u32(v01.x + x.x < v01.x), 0u, u32(v01.z + x.z < v01.z));
+       v01 += vec4(VEC2_0, m3) + vec4(0u, 0u, 0u, u32(v01.z + m3.x < v01.z));
        d = (d ^ v01).yxwz;
        vAB += d + vec4(0u, u32(vAB.x + d.x < vAB.x), 0u, u32(vAB.z + d.z < vAB.z));
        b = ((b ^ vAB) >> ROTATE_24) | ((b ^ vAB).yxwz << ROTATE_8);
        v01 += b + vec4(0u, u32(v01.x + b.x < v01.x), 0u, u32(v01.z + b.z < v01.z));
-       // v01 += y + vec4(0u, u32(v01.x + y.x < v01.x), 0u, u32(v01.z + y.z < v01.z));
+       // NOP
        d = ((d ^ v01) >> ROTATE_16) | ((d ^ v01).yxwz << ROTATE_16);
        vAB += d + vec4(0u, u32(vAB.x + d.x < vAB.x), 0u, u32(vAB.z + d.z < vAB.z));
        b = ((b ^ vAB) << ROTATE_1) | ((b ^ vAB).yxwz >> ROTATE_31);
@@ -389,16 +381,14 @@ fn main(id: vec3<u32>) {
        */
        b = vec4(v67.zw, v45.xy);
        d = vec4(vCD.zw, vEF.xy);
-       // x = VEC4_0;
-       y = vec4(m1, m4);
 
        v23 += b + vec4(0u, u32(v23.x + b.x < v23.x), 0u, u32(v23.z + b.z < v23.z));
-       // v23 += x + vec4(0u, u32(v23.x + x.x < v23.x), 0u, u32(v23.z + x.z < v23.z));
+       // NOP
        d = (d ^ v23).yxwz;
        v89 += d + vec4(0u, u32(v89.x + d.x < v89.x), 0u, u32(v89.z + d.z < v89.z));
        b = ((b ^ v89) >> ROTATE_24) | ((b ^ v89).yxwz << ROTATE_8);
        v23 += b + vec4(0u, u32(v23.x + b.x < v23.x), 0u, u32(v23.z + b.z < v23.z));
-       v23 += y + vec4(0u, u32(v23.x + y.x < v23.x), 0u, u32(v23.z + y.z < v23.z));
+       v23 += vec4(m1, m4) + vec4(0u, u32(v23.x + m1.x < v23.x), 0u, u32(v23.z + m4.x < v23.z));
        d = ((d ^ v23) >> ROTATE_16) | ((d ^ v23).yxwz << ROTATE_16);
        v89 += d + vec4(0u, u32(v89.x + d.x < v89.x), 0u, u32(v89.z + d.z < v89.z));
        b = ((b ^ v89) << ROTATE_1) | ((b ^ v89).yxwz >> ROTATE_31);
@@ -418,18 +408,15 @@ fn main(id: vec3<u32>) {
 
        /**
        * r=3, i=0, a=v[0], b=v[4], c=v[8], d=v[12], m[sigma]=?, m[sigma+1]=?
-       * r=3, i=1, a=v[1], b=v[5], c=v[9], d=v[13], m[sigma]=?, m[sigma+1]=?
+       * r=3, i=1, a=v[1], b=v[5], c=v[9], d=v[13], m[sigma]=3, m[sigma+1]=1
        */
-       // x = vec4(VEC2_0, m3); // still assigned this value from last assignment at r=2 i=4/5
-       y = vec4(VEC2_0, m1);
-
        v01 += v45 + vec4(0u, u32(v01.x + v45.x < v01.x), 0u, u32(v01.z + v45.z < v01.z));
-       v01 += x + vec4(0u, u32(v01.x + x.x < v01.x), 0u, u32(v01.z + x.z < v01.z));
+       v01 += vec4(VEC2_0, m3) + vec4(0u, 0u, 0u, u32(v01.z + m3.x < v01.z));
        vCD = (vCD ^ v01).yxwz;
        v89 += vCD + vec4(0u, u32(v89.x + vCD.x < v89.x), 0u, u32(v89.z + vCD.z < v89.z));
        v45 = ((v45 ^ v89) >> ROTATE_24) | ((v45 ^ v89).yxwz << ROTATE_8);
        v01 += v45 + vec4(0u, u32(v01.x + v45.x < v01.x), 0u, u32(v01.z + v45.z < v01.z));
-       v01 += y + vec4(0u, u32(v01.x + y.x < v01.x), 0u, u32(v01.z + y.z < v01.z));
+       v01 += vec4(VEC2_0, m1) + vec4(0u, 0u, 0u, u32(v01.z + m1.x < v01.z));
        vCD = ((vCD ^ v01) >> ROTATE_16) | ((vCD ^ v01).yxwz << ROTATE_16);
        v89 += vCD + vec4(0u, u32(v89.x + vCD.x < v89.x), 0u, u32(v89.z + vCD.z < v89.z));
        v45 = ((v45 ^ v89) << ROTATE_1) | ((v45 ^ v89).yxwz >> ROTATE_31);