第1个回答 2013-03-08
************我谈**********************
“如果执行时间的算法不按照问题规模n的增加而增长,即使成千上万的语句的算法,其执行的时间,但也有大量的常数。该算法的时间复杂度是O(1)。“
不要明白这一点吗?
所以该算法是不是说多少单一的语言
温度=;
= J;
J =温度; />共三种语言中,和每个频率是1,且每个频率可以被认为是O(1),则T(n)的= O的(1)+ O(1)+ O(1)= O( 1)。
以下四个语句:
scanf的(“为%d”,&N);
= N;
(I = 0,<N我+ +)= I * 1(这也只能算是一个)
(I = 0,I <n * n的,我+ +)= I×1; (同上)
前两个栏的频率分别为
频率为N和N * N
(1)的总频率的所有
O. + O (1)+ O(N)+ O(N * N)= O(N * N)
(为什么这个等式的左边是等于右侧的O(N * N)??不要问我,我懒得说了,这是一个C / C + +的问题,这是一个数学问题,不明白自己看到的高等数学。)
声明,更多的是总是有限的,或一个单独的语句的频率最花时间
单个语句,比如for(){(){(){}}}而( 1){(){}}等等这样的,可以视为一个忘记
一份声明中可以执行了N年没有完成,如:F(I = 0; + +),除非你终止!!