私はコーディングに関するいくつかの経験を持っていますが、私を悩ます大きな問題の1つは、コードを改善する方法です。私のコードの品質を測定するには?
私はすべての時間が複雑、可読性とコードの正しをチェックしますが、私の質問は、私はサイズや特定のコマンドの時間を測定することができる方法です。例えば
:
Iは次の問題があります
A
整数
B
ある整数
C
ある整数
if
- でAはbiであるB gger C=A
else
割り当てる -
1.使用のif-else文
2.三項演算子を使用 - その問題に対してC=B
を、我々は2つのシンプルなソリューションを持っています
コンパイル前のファイルサイズのドライチェックのために、私は得る2番目のソリューションファイルが最初の半分から少なくなっていることがわかります(1000000回の操作で、いくらかのMBが得られます)。
私の質問は、私は同じ操作を行い、いくつかのコード間の時間差を測定する方法であるが、異なるコマンドと、そしてどのくらいのコンパイラは例から2などの近くにあり、コマンドの最適化を行います。
正直言って、その低い時間枠を測定するのは難しいです。私は非常に簡単です(各実行後と1000000回の操作が平均を取得した後の時間を書き留めてください)、これは正確な実行時間を与えるのではなく、どちらが速いのか平均して。しかし、正確な実行時間を得る方法は私にとっても謎です。 –
@Ante - その差が小さすぎて測定できない場合は、どうして最初に気にしますか? –
実行時間!=目的のための適応度 –