我正在使用浏览器内的
Javascript,而不是NodeJS.我有两个Uint8Arrays ……
- var d1 = new Uint8Array([255,255,255])
- var d2 = new Uint8Array([255,237,49,56,0])
每个元素都有8个元素,整数在0到255之间.每个数组代表一个更大的数字.例如,第一个数组表示正整数
- 0xffffffff
我的问题是如何将d1除以d2并获得结果?我读到Javascript中整数的最大值是2 ^ 53,我相信这比我可以拥有的最大值少.我不关心结果的对象类型是什么,但是Uint8Array很好.
解决方法
你可以用一个图书馆叫BigInteger ..
https://www.npmjs.com/package/big-integer
https://www.npmjs.com/package/big-integer
我没有看到使用Uint8Array的内置方式,但我发现了这个 – > Javascript ArrayBuffer to Hex有一种转换成十六进制的方法,那个bigInteger似乎没问题.
所以这是一个使用它的例子. – >
- var d1 = new Uint8Array([255,255]);
- var d2 = new Uint8Array([255,0]);
- function buf2hex(buffer) { // buffer is an ArrayBuffer
- return Array.prototype.map.call(new Uint8Array(buffer),x => ('00' + x.toString(16)).slice(-2)).join('');
- }
- var bd1 = bigInt(buf2hex(d1),16);
- console.log(`value 1 = ${bd1.toString()}`);
- var bd2 = bigInt(buf2hex(d2),16);
- console.log(`value 2 = ${bd2.toString()}`);
- var r = bd1.divmod(bd2);
- console.log(`result ${r.quotient.value} remainder ${r.remainder.value}`);
- <script src="https://peterolson.github.io/BigInteger.js/BigInteger.min.js"></script>