]> zoso.dev Git - libnemo.git/commitdiff
Inline G mix round 10.
authorChris Duncan <chris@zoso.dev>
Thu, 9 Jan 2025 21:23:17 +0000 (13:23 -0800)
committerChris Duncan <chris@zoso.dev>
Thu, 9 Jan 2025 21:23:17 +0000 (13:23 -0800)
src/lib/nano-pow/shaders/gpu-compute.ts

index d9146f6dd1b90c8b93e5114746ef5655eea16be0..7e38f22c40edd7424e326c58419674815eddb618 100644 (file)
@@ -7222,665 +7222,700 @@ fn main(
        *                                                                                                                               ROUND(10)                                                                                                                                       *
        ****************************************************************************/
 
-       G(&v0, &v1, &v8, &v9, &v16, &v17, &v24, &v25, m0, m1, m2, m3);
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       /**
+       * r=10, i=0(x2), a=v[0-1], b=v[8-9], c=v[16-17], d=v[24-25]
+       */
 
-       // // a = a + m[sigma[r][2*i+0]]
-       // o0 = va0 + mx0;
-       // o1 = va1 + mx1;
-       // if (va0 > 0xFFFFFFFFu - mx0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v0 + v8;
+       o1 = v1 + v9;
+       if (v0 > 0xFFFFFFFFu - v8) {
+               o1 = o1 + 1u;
+       }
+       v0 = o0;
+       v1 = o1;
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = xor1;
-       // vd1 = xor0;
+       // a = a + m[sigma[r][2*i+0]]
+       o0 = v0 + m0;
+       o1 = v1 + m1;
+       if (v0 > 0xFFFFFFFFu - m0) {
+               o1 = o1 + 1u;
+       }
+       v0 = o0;
+       v1 = o1;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // d = rotr64(d ^ a, 32)
+       xor0 = v24 ^ v0;
+       xor1 = v25 ^ v1;
+       v24 = xor1;
+       v25 = xor0;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // vb1 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // c = c + d
+       o0 = v16 + v24;
+       o1 = v17 + v25;
+       if (v16 > 0xFFFFFFFFu - v24) {
+               o1 = o1 + 1u;
+       }
+       v16 = o0;
+       v17 = o1;
 
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // b = rotr64(b ^ c, 24)
+       xor0 = v8 ^ v16;
+       xor1 = v9 ^ v17;
+       v8 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v9 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // a = a + m[sigma[r][2*i+1]]
-       // o0 = va0 + my0;
-       // o1 = va1 + my1;
-       // if (va0 > 0xFFFFFFFFu - my0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v0 + v8;
+       o1 = v1 + v9;
+       if (v0 > 0xFFFFFFFFu - v8) {
+               o1 = o1 + 1u;
+       }
+       v0 = o0;
+       v1 = o1;
 
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // vd1 = (xor1 >> 16u) ^ (xor0 << 16u);
+       // a = a + m[sigma[r][2*i+1]]
+       o0 = v0 + m2;
+       o1 = v1 + m3;
+       if (v0 > 0xFFFFFFFFu - m2) {
+               o1 = o1 + 1u;
+       }
+       v0 = o0;
+       v1 = o1;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // d = rotr64(d ^ a, 16)
+       xor0 = v24 ^ v0;
+       xor1 = v25 ^ v1;
+       v24 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v25 = (xor1 >> 16u) ^ (xor0 << 16u);
 
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // vb1 = (xor0 >> 31u) ^ (xor1 << 1u);
+       // c = c + d
+       o0 = v16 + v24;
+       o1 = v17 + v25;
+       if (v16 > 0xFFFFFFFFu - v24) {
+               o1 = o1 + 1u;
+       }
+       v16 = o0;
+       v17 = o1;
 
+       // b = rotr64(b ^ c, 63)
+       xor0 = v8 ^ v16;
+       xor1 = v9 ^ v17;
+       v8 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v9 = (xor0 >> 31u) ^ (xor1 << 1u);
 
 
 
 
-       G(&v2, &v3, &v10, &v11, &v18, &v19, &v26, &v27, m4, m5, m6, m7);
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
 
-       // // a = a + m[sigma[r][2*i+0]]
-       // o0 = va0 + mx0;
-       // o1 = va1 + mx1;
-       // if (va0 > 0xFFFFFFFFu - mx0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       /**
+       * r=10, i=1(x2), a=v[2-3], b=v[10-11], c=v[18-19], d=v[26-27]
+       */
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = xor1;
-       // vd1 = xor0;
+       // a = a + b
+       o0 = v2 + v10;
+       o1 = v3 + v11;
+       if (v2 > 0xFFFFFFFFu - v10) {
+               o1 = o1 + 1u;
+       }
+       v2 = o0;
+       v3 = o1;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // a = a + m[sigma[r][2*i+0]]
+       o0 = v2 + m4;
+       o1 = v3 + m5;
+       if (v2 > 0xFFFFFFFFu - m4) {
+               o1 = o1 + 1u;
+       }
+       v2 = o0;
+       v3 = o1;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // vb1 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // d = rotr64(d ^ a, 32)
+       xor0 = v26 ^ v2;
+       xor1 = v27 ^ v3;
+       v26 = xor1;
+       v27 = xor0;
 
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // c = c + d
+       o0 = v18 + v26;
+       o1 = v19 + v27;
+       if (v18 > 0xFFFFFFFFu - v26) {
+               o1 = o1 + 1u;
+       }
+       v18 = o0;
+       v19 = o1;
 
-       // // a = a + m[sigma[r][2*i+1]]
-       // o0 = va0 + my0;
-       // o1 = va1 + my1;
-       // if (va0 > 0xFFFFFFFFu - my0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // b = rotr64(b ^ c, 24)
+       xor0 = v10 ^ v18;
+       xor1 = v11 ^ v19;
+       v10 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v11 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // vd1 = (xor1 >> 16u) ^ (xor0 << 16u);
+       // a = a + b
+       o0 = v2 + v10;
+       o1 = v3 + v11;
+       if (v2 > 0xFFFFFFFFu - v10) {
+               o1 = o1 + 1u;
+       }
+       v2 = o0;
+       v3 = o1;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // a = a + m[sigma[r][2*i+1]]
+       o0 = v2 + m6;
+       o1 = v3 + m7;
+       if (v2 > 0xFFFFFFFFu - m6) {
+               o1 = o1 + 1u;
+       }
+       v2 = o0;
+       v3 = o1;
 
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // vb1 = (xor0 >> 31u) ^ (xor1 << 1u);
+       // d = rotr64(d ^ a, 16)
+       xor0 = v26 ^ v2;
+       xor1 = v27 ^ v3;
+       v26 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v27 = (xor1 >> 16u) ^ (xor0 << 16u);
 
+       // c = c + d
+       o0 = v18 + v26;
+       o1 = v19 + v27;
+       if (v18 > 0xFFFFFFFFu - v26) {
+               o1 = o1 + 1u;
+       }
+       v18 = o0;
+       v19 = o1;
 
+       // b = rotr64(b ^ c, 63)
+       xor0 = v10 ^ v18;
+       xor1 = v11 ^ v19;
+       v10 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v11 = (xor0 >> 31u) ^ (xor1 << 1u);
 
 
 
-       G(&v4, &v5, &v12, &v13, &v20, &v21, &v28, &v29, m8, m9, 0u, 0u);
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
 
-       // // a = a + m[sigma[r][2*i+0]]
-       // o0 = va0 + mx0;
-       // o1 = va1 + mx1;
-       // if (va0 > 0xFFFFFFFFu - mx0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = xor1;
-       // vd1 = xor0;
+       /**
+       * r=10, i=2(x2), a=v[4-5], b=v[12-13], c=v[20-21], d=v[28-29]
+       */
+
+       // a = a + b
+       o0 = v4 + v12;
+       o1 = v5 + v13;
+       if (v4 > 0xFFFFFFFFu - v12) {
+               o1 = o1 + 1u;
+       }
+       v4 = o0;
+       v5 = o1;
+
+       // a = a + m[sigma[r][2*i+0]]
+       o0 = v4 + m8;
+       o1 = v5 + m9;
+       if (v4 > 0xFFFFFFFFu - m8) {
+               o1 = o1 + 1u;
+       }
+       v4 = o0;
+       v5 = o1;
+
+       // d = rotr64(d ^ a, 32)
+       xor0 = v28 ^ v4;
+       xor1 = v29 ^ v5;
+       v28 = xor1;
+       v29 = xor0;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v20 + v28;
+       o1 = v21 + v29;
+       if (v20 > 0xFFFFFFFFu - v28) {
+               o1 = o1 + 1u;
+       }
+       v20 = o0;
+       v21 = o1;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // vb1 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // b = rotr64(b ^ c, 24)
+       xor0 = v12 ^ v20;
+       xor1 = v13 ^ v21;
+       v12 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v13 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v4 + v12;
+       o1 = v5 + v13;
+       if (v4 > 0xFFFFFFFFu - v12) {
+               o1 = o1 + 1u;
+       }
+       v4 = o0;
+       v5 = o1;
 
        // // a = a + m[sigma[r][2*i+1]]
-       // o0 = va0 + my0;
-       // o1 = va1 + my1;
-       // if (va0 > 0xFFFFFFFFu - my0) {
+       // // skip since adding 0u does nothing
+       // o0 = v4 + 0u;
+       // o1 = v5 + 0u;
+       // if (v4 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v4 = o0;
+       // v5 = o1;
 
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // vd1 = (xor1 >> 16u) ^ (xor0 << 16u);
+       // d = rotr64(d ^ a, 16)
+       xor0 = v28 ^ v4;
+       xor1 = v29 ^ v5;
+       v28 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v29 = (xor1 >> 16u) ^ (xor0 << 16u);
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v20 + v28;
+       o1 = v21 + v29;
+       if (v20 > 0xFFFFFFFFu - v28) {
+               o1 = o1 + 1u;
+       }
+       v20 = o0;
+       v21 = o1;
 
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // vb1 = (xor0 >> 31u) ^ (xor1 << 1u);
+       // b = rotr64(b ^ c, 63)
+       xor0 = v12 ^ v20;
+       xor1 = v13 ^ v21;
+       v12 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v13 = (xor0 >> 31u) ^ (xor1 << 1u);
 
 
 
 
 
-       G(&v6, &v7, &v14, &v15, &v22, &v23, &v30, &v31, 0u, 0u, 0u, 0u);
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       /**
+       * r=10, i=3(x2), a=v[6-7], b=v[14-15], c=v[22-23], d=v[30-31]
+       */
+
+       // a = a + b
+       o0 = v6 + v14;
+       o1 = v7 + v15;
+       if (v6 > 0xFFFFFFFFu - v14) {
+               o1 = o1 + 1u;
+       }
+       v6 = o0;
+       v7 = o1;
 
        // // a = a + m[sigma[r][2*i+0]]
-       // o0 = va0 + mx0;
-       // o1 = va1 + mx1;
-       // if (va0 > 0xFFFFFFFFu - mx0) {
+       // // skip since adding 0u does nothing
+       // o0 = v6 + 0u;
+       // o1 = v7 + 0u;
+       // if (v6 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v6 = o0;
+       // v7 = o1;
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = xor1;
-       // vd1 = xor0;
+       // d = rotr64(d ^ a, 32)
+       xor0 = v30 ^ v6;
+       xor1 = v31 ^ v7;
+       v30 = xor1;
+       v31 = xor0;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v22 + v30;
+       o1 = v23 + v31;
+       if (v22 > 0xFFFFFFFFu - v30) {
+               o1 = o1 + 1u;
+       }
+       v22 = o0;
+       v23 = o1;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // vb1 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // b = rotr64(b ^ c, 24)
+       xor0 = v14 ^ v22;
+       xor1 = v15 ^ v23;
+       v14 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v15 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v6 + v14;
+       o1 = v7 + v15;
+       if (v6 > 0xFFFFFFFFu - v14) {
+               o1 = o1 + 1u;
+       }
+       v6 = o0;
+       v7 = o1;
 
        // // a = a + m[sigma[r][2*i+1]]
-       // o0 = va0 + my0;
-       // o1 = va1 + my1;
-       // if (va0 > 0xFFFFFFFFu - my0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
-
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // vd1 = (xor1 >> 16u) ^ (xor0 << 16u);
-
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
+       // // skip since adding 0u does nothing
+       // o0 = v6 + 0u;
+       // o1 = v7 + 0u;
+       // if (v6 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // vc0 = o0;
-       // vc1 = o1;
-
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // vb1 = (xor0 >> 31u) ^ (xor1 << 1u);
+       // v6 = o0;
+       // v7 = o1;
 
+       // d = rotr64(d ^ a, 16)
+       xor0 = v30 ^ v6;
+       xor1 = v31 ^ v7;
+       v30 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v31 = (xor1 >> 16u) ^ (xor0 << 16u);
 
+       // c = c + d
+       o0 = v22 + v30;
+       o1 = v23 + v31;
+       if (v22 > 0xFFFFFFFFu - v30) {
+               o1 = o1 + 1u;
+       }
+       v22 = o0;
+       v23 = o1;
 
+       // b = rotr64(b ^ c, 63)
+       xor0 = v14 ^ v22;
+       xor1 = v15 ^ v23;
+       v14 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v15 = (xor0 >> 31u) ^ (xor1 << 1u);
 
 
-       G(&v0, &v1, &v10, &v11, &v20, &v21, &v30, &v31, 0u, 0u, 0u, 0u);
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+
+
+
+       /**
+       * r=10, i=4(x2), a=v[0-1], b=v[10-11], c=v[20-21], d=v[30-31]
+       */
+
+       // a = a + b
+       o0 = v0 + v10;
+       o1 = v1 + v11;
+       if (v0 > 0xFFFFFFFFu - v10) {
+               o1 = o1 + 1u;
+       }
+       v0 = o0;
+       v1 = o1;
 
        // // a = a + m[sigma[r][2*i+0]]
-       // o0 = va0 + mx0;
-       // o1 = va1 + mx1;
-       // if (va0 > 0xFFFFFFFFu - mx0) {
+       // // skip since adding 0u does nothing
+       // o0 = v0 + 0u;
+       // o1 = v1 + 0u;
+       // if (v0 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v0 = o0;
+       // v1 = o1;
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = xor1;
-       // vd1 = xor0;
+       // d = rotr64(d ^ a, 32)
+       xor0 = v30 ^ v0;
+       xor1 = v31 ^ v1;
+       v30 = xor1;
+       v31 = xor0;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v20 + v30;
+       o1 = v21 + v31;
+       if (v20 > 0xFFFFFFFFu - v30) {
+               o1 = o1 + 1u;
+       }
+       v20 = o0;
+       v21 = o1;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // vb1 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // b = rotr64(b ^ c, 24)
+       xor0 = v10 ^ v20;
+       xor1 = v11 ^ v21;
+       v10 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v11 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v0 + v10;
+       o1 = v1 + v11;
+       if (v0 > 0xFFFFFFFFu - v10) {
+               o1 = o1 + 1u;
+       }
+       v0 = o0;
+       v1 = o1;
 
        // // a = a + m[sigma[r][2*i+1]]
-       // o0 = va0 + my0;
-       // o1 = va1 + my1;
-       // if (va0 > 0xFFFFFFFFu - my0) {
+       // // skip since adding 0u does nothing
+       // o0 = v0 + 0u;
+       // o1 = v1 + 0u;
+       // if (v0 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v0 = o0;
+       // v1 = o1;
 
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // vd1 = (xor1 >> 16u) ^ (xor0 << 16u);
+       // d = rotr64(d ^ a, 16)
+       xor0 = v30 ^ v0;
+       xor1 = v31 ^ v1;
+       v30 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v31 = (xor1 >> 16u) ^ (xor0 << 16u);
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v20 + v30;
+       o1 = v21 + v31;
+       if (v20 > 0xFFFFFFFFu - v30) {
+               o1 = o1 + 1u;
+       }
+       v20 = o0;
+       v21 = o1;
 
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // vb1 = (xor0 >> 31u) ^ (xor1 << 1u);
+       // b = rotr64(b ^ c, 63)
+       xor0 = v10 ^ v20;
+       xor1 = v11 ^ v21;
+       v10 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v11 = (xor0 >> 31u) ^ (xor1 << 1u);
 
 
 
 
 
-       G(&v2, &v3, &v12, &v13, &v22, &v23, &v24, &v25, 0u, 0u, 0u, 0u);
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       /**
+       * r=10, i=5(x2), a=v[2-3], b=v[12-13], c=v[22-23], d=v[24-25]
+       */
+
+       // a = a + b
+       o0 = v2 + v12;
+       o1 = v3 + v13;
+       if (v2 > 0xFFFFFFFFu - v12) {
+               o1 = o1 + 1u;
+       }
+       v2 = o0;
+       v3 = o1;
 
        // // a = a + m[sigma[r][2*i+0]]
-       // o0 = va0 + mx0;
-       // o1 = va1 + mx1;
-       // if (va0 > 0xFFFFFFFFu - mx0) {
+       // // skip since adding 0u does nothing
+       // o0 = v2 + 0u;
+       // o1 = v3 + 0u;
+       // if (v2 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v2 = o0;
+       // v3 = o1;
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = xor1;
-       // vd1 = xor0;
+       // d = rotr64(d ^ a, 32)
+       xor0 = v24 ^ v2;
+       xor1 = v25 ^ v3;
+       v24 = xor1;
+       v25 = xor0;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v22 + v24;
+       o1 = v23 + v25;
+       if (v22 > 0xFFFFFFFFu - v24) {
+               o1 = o1 + 1u;
+       }
+       v22 = o0;
+       v23 = o1;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // vb1 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // b = rotr64(b ^ c, 24)
+       xor0 = v12 ^ v22;
+       xor1 = v13 ^ v23;
+       v12 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v13 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v2 + v12;
+       o1 = v3 + v13;
+       if (v2 > 0xFFFFFFFFu - v12) {
+               o1 = o1 + 1u;
+       }
+       v2 = o0;
+       v3 = o1;
 
        // // a = a + m[sigma[r][2*i+1]]
-       // o0 = va0 + my0;
-       // o1 = va1 + my1;
-       // if (va0 > 0xFFFFFFFFu - my0) {
+       // // skip since adding 0u does nothing
+       // o0 = v2 + 0u;
+       // o1 = v3 + 0u;
+       // if (v2 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v2 = o0;
+       // v3 = o1;
 
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // vd1 = (xor1 >> 16u) ^ (xor0 << 16u);
+       // d = rotr64(d ^ a, 16)
+       xor0 = v24 ^ v2;
+       xor1 = v25 ^ v3;
+       v24 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v25 = (xor1 >> 16u) ^ (xor0 << 16u);
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v22 + v24;
+       o1 = v23 + v25;
+       if (v22 > 0xFFFFFFFFu - v24) {
+               o1 = o1 + 1u;
+       }
+       v22 = o0;
+       v23 = o1;
+
+       // b = rotr64(b ^ c, 63)
+       xor0 = v12 ^ v22;
+       xor1 = v13 ^ v23;
+       v12 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v13 = (xor0 >> 31u) ^ (xor1 << 1u);
 
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // vb1 = (xor0 >> 31u) ^ (xor1 << 1u);
 
 
 
 
+       /**
+       * r=10, i=6(x2), a=v[4-5], b=v[14-15], c=v[16-17], d=v[26-27]
+       */
 
-       G(&v4, &v5, &v14, &v15, &v16, &v17, &v26, &v27, 0u, 0u, 0u, 0u);
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v4 + v14;
+       o1 = v5 + v15;
+       if (v4 > 0xFFFFFFFFu - v14) {
+               o1 = o1 + 1u;
+       }
+       v4 = o0;
+       v5 = o1;
 
        // // a = a + m[sigma[r][2*i+0]]
-       // o0 = va0 + mx0;
-       // o1 = va1 + mx1;
-       // if (va0 > 0xFFFFFFFFu - mx0) {
+       // // skip since adding 0u does nothing
+       // o0 = v4 + 0u;
+       // o1 = v5 + 0u;
+       // if (v4 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v4 = o0;
+       // v5 = o1;
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = xor1;
-       // vd1 = xor0;
+       // d = rotr64(d ^ a, 32)
+       xor0 = v26 ^ v4;
+       xor1 = v27 ^ v5;
+       v26 = xor1;
+       v27 = xor0;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v16 + v26;
+       o1 = v17 + v27;
+       if (v16 > 0xFFFFFFFFu - v26) {
+               o1 = o1 + 1u;
+       }
+       v16 = o0;
+       v17 = o1;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // vb1 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // b = rotr64(b ^ c, 24)
+       xor0 = v14 ^ v16;
+       xor1 = v15 ^ v17;
+       v14 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v15 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v4 + v14;
+       o1 = v5 + v15;
+       if (v4 > 0xFFFFFFFFu - v14) {
+               o1 = o1 + 1u;
+       }
+       v4 = o0;
+       v5 = o1;
 
        // // a = a + m[sigma[r][2*i+1]]
-       // o0 = va0 + my0;
-       // o1 = va1 + my1;
-       // if (va0 > 0xFFFFFFFFu - my0) {
+       // // skip since adding 0u does nothing
+       // o0 = v4 + 0u;
+       // o1 = v5 + 0u;
+       // if (v4 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v4 = o0;
+       // v5 = o1;
 
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // vd1 = (xor1 >> 16u) ^ (xor0 << 16u);
+       // d = rotr64(d ^ a, 16)
+       xor0 = v26 ^ v4;
+       xor1 = v27 ^ v5;
+       v26 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v27 = (xor1 >> 16u) ^ (xor0 << 16u);
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v16 + v26;
+       o1 = v17 + v27;
+       if (v16 > 0xFFFFFFFFu - v26) {
+               o1 = o1 + 1u;
+       }
+       v16 = o0;
+       v17 = o1;
 
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // vb1 = (xor0 >> 31u) ^ (xor1 << 1u);
+       // b = rotr64(b ^ c, 63)
+       xor0 = v14 ^ v16;
+       xor1 = v15 ^ v17;
+       v14 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v15 = (xor0 >> 31u) ^ (xor1 << 1u);
 
 
 
 
 
-       G(&v6, &v7, &v8, &v9, &v18, &v19, &v28, &v29, 0u, 0u, 0u, 0u);
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       /**
+       * r=10, i=7(x2), a=v[6-7], b=v[8-9], c=v[18-19], d=v[28-29]
+       */
+
+       // a = a + b
+       o0 = v6 + v8;
+       o1 = v7 + v9;
+       if (v6 > 0xFFFFFFFFu - v8) {
+               o1 = o1 + 1u;
+       }
+       v6 = o0;
+       v7 = o1;
 
        // // a = a + m[sigma[r][2*i+0]]
-       // o0 = va0 + mx0;
-       // o1 = va1 + mx1;
-       // if (va0 > 0xFFFFFFFFu - mx0) {
+       // // skip since adding 0u does nothing
+       // o0 = v6 + 0u;
+       // o1 = v7 + 0u;
+       // if (v6 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v6 = o0;
+       // v7 = o1;
 
-       // // d = rotr64(d ^ a, 32)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = xor1;
-       // vd1 = xor0;
+       // d = rotr64(d ^ a, 32)
+       xor0 = v28 ^ v6;
+       xor1 = v29 ^ v7;
+       v28 = xor1;
+       v29 = xor0;
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v18 + v28;
+       o1 = v19 + v29;
+       if (v18 > 0xFFFFFFFFu - v28) {
+               o1 = o1 + 1u;
+       }
+       v18 = o0;
+       v19 = o1;
 
-       // // b = rotr64(b ^ c, 24)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor0 >> 24u) ^ (xor1 << 8u);
-       // vb1 = (xor1 >> 24u) ^ (xor0 << 8u);
+       // b = rotr64(b ^ c, 24)
+       xor0 = v8 ^ v18;
+       xor1 = v9 ^ v19;
+       v8 = (xor0 >> 24u) ^ (xor1 << 8u);
+       v9 = (xor1 >> 24u) ^ (xor0 << 8u);
 
-       // // a = a + b
-       // o0 = va0 + vb0;
-       // o1 = va1 + vb1;
-       // if (va0 > 0xFFFFFFFFu - vb0) {
-       //      o1 = o1 + 1u;
-       // }
-       // va0 = o0;
-       // va1 = o1;
+       // a = a + b
+       o0 = v6 + v8;
+       o1 = v7 + v9;
+       if (v6 > 0xFFFFFFFFu - v8) {
+               o1 = o1 + 1u;
+       }
+       v6 = o0;
+       v7 = o1;
 
        // // a = a + m[sigma[r][2*i+1]]
-       // o0 = va0 + my0;
-       // o1 = va1 + my1;
-       // if (va0 > 0xFFFFFFFFu - my0) {
+       // // skip since adding 0u does nothing
+       // o0 = v6 + 0u;
+       // o1 = v7 + 0u;
+       // if (v6 > 0xFFFFFFFFu - 0u) {
        //      o1 = o1 + 1u;
        // }
-       // va0 = o0;
-       // va1 = o1;
+       // v6 = o0;
+       // v7 = o1;
 
-       // // d = rotr64(d ^ a, 16)
-       // xor0 = vd0 ^ va0;
-       // xor1 = vd1 ^ va1;
-       // vd0 = (xor0 >> 16u) ^ (xor1 << 16u);
-       // vd1 = (xor1 >> 16u) ^ (xor0 << 16u);
+       // d = rotr64(d ^ a, 16)
+       xor0 = v28 ^ v6;
+       xor1 = v29 ^ v7;
+       v28 = (xor0 >> 16u) ^ (xor1 << 16u);
+       v29 = (xor1 >> 16u) ^ (xor0 << 16u);
 
-       // // c = c + d
-       // o0 = vc0 + vd0;
-       // o1 = vc1 + vd1;
-       // if (vc0 > 0xFFFFFFFFu - vd0) {
-       //      o1 = o1 + 1u;
-       // }
-       // vc0 = o0;
-       // vc1 = o1;
+       // c = c + d
+       o0 = v18 + v28;
+       o1 = v19 + v29;
+       if (v18 > 0xFFFFFFFFu - v28) {
+               o1 = o1 + 1u;
+       }
+       v18 = o0;
+       v19 = o1;
 
-       // // b = rotr64(b ^ c, 63)
-       // xor0 = vb0 ^ vc0;
-       // xor1 = vb1 ^ vc1;
-       // vb0 = (xor1 >> 31u) ^ (xor0 << 1u);
-       // vb1 = (xor0 >> 31u) ^ (xor1 << 1u);
+       // b = rotr64(b ^ c, 63)
+       xor0 = v8 ^ v18;
+       xor1 = v9 ^ v19;
+       v8 = (xor1 >> 31u) ^ (xor0 << 1u);
+       v9 = (xor0 >> 31u) ^ (xor1 << 1u);