大規模な算術演算(本当に大規模な)を処理するために、私は大規模な基底に最大squareroot(MAXNUMBER)を格納する必要があります。より大きいベースで数字を表すには、小さい桁数が必要です。バイナリ形式では10進数で120 = 1111000です。だから、私たちが大規模な拠点に大量のデータを保管すると、最低レベルのビット数が減るのでしょうか?私はそうではないと思う16進数のシステムの任意の数は、紙の小さな桁数を確実にハードウェアではないので。大規模算術
ここで何か不足していると思います。誰かがビット数の少ないビットレベルで大きなベース・ナンバーをどのように保存することができますか?