この本を使用して自分自身でアルゴリズム(最初の5つの章)を分析する方法を学習しています:Introduction of Algorithms。私は、次の単純なアルゴリズムを持っていると仮定し(私はそれを作った):入力サイズが不明な場合のランタイムを推定する方法
for i <- 0 to 100
for j <- 1 to 2000
if (i*10 + j*20 = n)
c <- c+1
さて、私は特定入力サイズのために、このアルゴリズムの実行中の時間を推定したい場合は、n= 500
を言って、私が言うと思います:
最悪の場合の実行時間はT(n) = 100*2000*500 = 10 * 10^7
です。しかし、入力サイズ(つまりn
)を一般化したい場合は、これを行う方法がわかりません。親切に、誰かが私を啓発することができますか?
ありがとうございました
Big-Oはすでにn以上のn - >無限大として一般化しています。したがって、例えば、次のようになります。 'O(n * n)= O(n^2)'(iとjの両方が独立であり、 – user2864740