]> zoso.dev Git - libnemo.git/commitdiff
Inline G mix 3 of round 1.
authorChris Duncan <chris@zoso.dev>
Thu, 9 Jan 2025 16:12:16 +0000 (08:12 -0800)
committerChris Duncan <chris@zoso.dev>
Thu, 9 Jan 2025 16:12:16 +0000 (08:12 -0800)
src/lib/nano-pow/shaders/gpu-compute.ts

index 90856d9d4a5b01f9a83591376dae244bc39ffcb2..8ea072bd1046a338434be363f132c86b75a1fa4a 100644 (file)
@@ -437,7 +437,7 @@ fn main(
        // o0 = v4 + 0u;
        // o1 = v5 + 0u;
        // if (v4 > 0xFFFFFFFFu - 0u) {
-       //       o1 = o1 + 1u;
+       //      o1 = o1 + 1u;
        // }
        // v4 = o0;
        // v5 = o1;
@@ -1170,84 +1170,89 @@ fn main(
 
 
 
-               G(&v6, &v7, &v14, &v15, &v22, &v23, &v30, &v31, 0u, 0u, 0u, 0u);
-       // // a = a + b
-       // o0 = v6 + v14;
-       // o1 = v7 + v15;
-       // if (v6 > 0xFFFFFFFFu - v14) {
-       //  o1 = o1 + 1u;
-       // }
-       // v6 = o0;
-       // v7 = o1;
+       /**
+       * r=1, i=3(x2), a=v[6-7], b=v[14-15], c=v[22-23], d=v[30-31]
+       */
+
+       // a = a + b
+       o0 = v6 + v14;
+       o1 = v7 + v15;
+       if (v6 > 0xFFFFFFFFu - v14) {
+               o1 = o1 + 1u;
+       }
+       v6 = o0;
+       v7 = o1;
 
        // // a = a + m[sigma[r][2*i+0]]
+       // // skip since adding 0u does nothing
        // o0 = v6 + 0u;
        // o1 = v7 + 0u;
        // if (v6 > 0xFFFFFFFFu - 0u) {
-       //  o1 = o1 + 1u;
+       //      o1 = o1 + 1u;
        // }
        // v6 = o0;
        // v7 = o1;
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = v30 ^ v6;
-       // xor1 = v31 ^ v7;
-       // v30 = xor1;
-       // v31 = xor0;
+       // d = rotr64(d ^ a, 32)
+       xor0 = v30 ^ v6;
+       xor1 = v31 ^ v7;
+       v30 = xor1;
+       v31 = xor0;
 
-       // // c = c + d
-       // o0 = v22 + v30;
-       // o1 = v23 + v31;
-       // if (v22 > 0xFFFFFFFFu - v30) {
-       //  o1 = o1 + 1u;
-       // }
-       // v22 = o0;
-       // v23 = o1;
+       // c = c + d
+       o0 = v22 + v30;
+       o1 = v23 + v31;
+       if (v22 > 0xFFFFFFFFu - v30) {
+               o1 = o1 + 1u;
+       }
+       v22 = o0;
+       v23 = o1;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = v14 ^ v22;
-       // xor1 = v15 ^ v23;
-       // v14 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // v15 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // b = rotr64(b ^ c, 24)
+       xor0 = v14 ^ v22;
+       xor1 = v15 ^ v23;
+       v14 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v15 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // a = a + b
-       // o0 = v6 + v14;
-       // o1 = v7 + v15;
-       // if (v6 > 0xFFFFFFFFu - v14) {
-       //  o1 = o1 + 1u;
-       // }
-       // v6 = o0;
-       // v7 = o1;
+       // a = a + b
+       o0 = v6 + v14;
+       o1 = v7 + v15;
+       if (v6 > 0xFFFFFFFFu - v14) {
+               o1 = o1 + 1u;
+       }
+       v6 = o0;
+       v7 = o1;
 
        // // a = a + m[sigma[r][2*i+1]]
+       // // skip since adding 0u does nothing
        // o0 = v6 + 0u;
        // o1 = v7 + 0u;
        // if (v6 > 0xFFFFFFFFu - 0u) {
-       //  o1 = o1 + 1u;
+       //      o1 = o1 + 1u;
        // }
        // v6 = o0;
        // v7 = o1;
 
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = v30 ^ v6;
-       // xor1 = v31 ^ v7;
-       // v30 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // v31 = (xor1 >> 16u) ^ (xor0 << 16u);
+       // d = rotr64(d ^ a, 16)
+       xor0 = v30 ^ v6;
+       xor1 = v31 ^ v7;
+       v30 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v31 = (xor1 >> 16u) ^ (xor0 << 16u);
 
-       // // c = c + d
-       // o0 = v22 + v30;
-       // o1 = v23 + v31;
-       // if (v22 > 0xFFFFFFFFu - v30) {
-       //  o1 = o1 + 1u;
-       // }
-       // v22 = o0;
-       // v23 = o1;
+       // c = c + d
+       o0 = v22 + v30;
+       o1 = v23 + v31;
+       if (v22 > 0xFFFFFFFFu - v30) {
+               o1 = o1 + 1u;
+       }
+       v22 = o0;
+       v23 = o1;
 
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = v14 ^ v22;
-       // xor1 = v15 ^ v23;
-       // v14 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // v15 = (xor0 >> 31u) ^ (xor1 << 1u);
+       // b = rotr64(b ^ c, 63)
+       xor0 = v14 ^ v22;
+       xor1 = v15 ^ v23;
+       v14 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v15 = (xor0 >> 31u) ^ (xor1 << 1u);