]> zoso.dev Git - libnemo.git/commitdiff
Inline G mix 5 of round 0.
authorChris Duncan <chris@zoso.dev>
Wed, 8 Jan 2025 22:00:02 +0000 (14:00 -0800)
committerChris Duncan <chris@zoso.dev>
Wed, 8 Jan 2025 22:00:02 +0000 (14:00 -0800)
src/lib/nano-pow/shaders/gpu-compute.ts

index 8a3af94384c4410b4fc28e726f79ec7853a719b6..5cfe334257a52aa9b2dc3b36b2a1a80e8ffe956e 100644 (file)
@@ -641,7 +641,94 @@ fn main(
 
 
 
-       G(&v2, &v3, &v12, &v13, &v22, &v23, &v24, &v25, 0u, 0u, 0u, 0u);
+
+
+       /**
+       * r=0, i=5(x2), a=v[2-3], b=v[12-13], c=v[22-23], d=v[24-25]
+       */
+
+       // a = a + b
+       o0 = v2 + v12;
+       o1 = v3 + v13;
+       if (v2 > 0xFFFFFFFFu - v12) {
+               o1 = o1 + 1u;
+       }
+       v2 = o0;
+       v3 = o1;
+
+       // // a = a + m[sigma[r][2*i+0]]
+       // // skip since adding 0u does nothing
+       // o0 = v2 + 0u;
+       // o1 = v3 + 0u;
+       // if (v2 > 0xFFFFFFFFu - 0u) {
+       //      o1 = o1 + 1u;
+       // }
+       // v2 = o0;
+       // v3 = o1;
+
+       // d = rotr64(d ^ a, 32)
+       xor0 = v24 ^ v2;
+       xor1 = v25 ^ v3;
+       v24 = xor1;
+       v25 = xor0;
+
+       // c = c + d
+       o0 = v22 + v24;
+       o1 = v23 + v25;
+       if (v22 > 0xFFFFFFFFu - v24) {
+               o1 = o1 + 1u;
+       }
+       v22 = o0;
+       v23 = o1;
+
+       // b = rotr64(b ^ c, 24)
+       xor0 = v12 ^ v22;
+       xor1 = v13 ^ v23;
+       v12 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v13 = (xor1 >> 24u) ^ (xor0 << 8u);
+
+       // a = a + b
+       o0 = v2 + v12;
+       o1 = v3 + v13;
+       if (v2 > 0xFFFFFFFFu - v12) {
+               o1 = o1 + 1u;
+       }
+       v2 = o0;
+       v3 = o1;
+
+       // // a = a + m[sigma[r][2*i+1]]
+       // // skip since adding 0u does nothing
+       // o0 = v2 + 0u;
+       // o1 = v3 + 0u;
+       // if (v2 > 0xFFFFFFFFu - 0u) {
+       //      o1 = o1 + 1u;
+       // }
+       // v2 = o0;
+       // v3 = o1;
+
+       // d = rotr64(d ^ a, 16)
+       xor0 = v24 ^ v2;
+       xor1 = v25 ^ v3;
+       v24 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v25 = (xor1 >> 16u) ^ (xor0 << 16u);
+
+       // c = c + d
+       o0 = v22 + v24;
+       o1 = v23 + v25;
+       if (v22 > 0xFFFFFFFFu - v24) {
+               o1 = o1 + 1u;
+       }
+       v22 = o0;
+       v23 = o1;
+
+       // b = rotr64(b ^ c, 63)
+       xor0 = v12 ^ v22;
+       xor1 = v13 ^ v23;
+       v12 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v13 = (xor0 >> 31u) ^ (xor1 << 1u);
+
+
+
        G(&v4, &v5, &v14, &v15, &v16, &v17, &v26, &v27, 0u, 0u, 0u, 0u);
        G(&v6, &v7, &v8, &v9, &v18, &v19, &v28, &v29, 0u, 0u, 0u, 0u);