我做了一个非常简单的基准测试程序,用4种不同语言计算高达10,000,000的所有素数。
- (2.97秒) - node.js(javascript)(4.4.5)
- (6.96秒) - c(c99)
- (6.91秒) - java(1.7)
- (45.5秒) - 蟒蛇(2.7)
以上是每次平均3次运行,用户时间
Node.js运行速度最快。这让我很困惑,原因有两个:
- javascript总是对变量使用双精度浮点数,而c和java在这种情况下使用(长)整数。带整数的数学应该更快。
- 当javascript实际上是一种及时编译的语言时,javascript通常被称为解释。但即便如此,JIT编译器如何比完全编译的语言更快? python代码运行速度最慢,这并不奇怪,但为什么node.js代码的运行速度与python类似?
我使用-O2优化编译了c代码,但我尝试了所有级别的优化,并没有产生显着的差异。
countPrime.js
"use strict";
var isPrime = function(n){
//if (n !== parseInt(n,10)) {return false};
if (n < 2) {return false};
if (n === 2) {return true};
if (n === 3) {return true};
if (n % 2 === 0) {return false};
if (n % 3 === 0) {return false};
if (n % 1) {return false};
var sqrtOfN = Math.sqrt(n);
for (var i = 5; i <= sqrtOfN; i += 6){
if (n % i === 0) {return false}
if (n % (i + 2) === 0) {return false}
}
return true;
};
var countPrime = function(){
var count = 0;
for (let i = 1; i < 10000000;i++){
if (isPrime(i)){
count++;
}
}
console.log('total',count);
};
countPrime();
node.js结果
$ time node primeCalc.js
total 664579
real 0m2.965s
user 0m2.928s
sys 0m0.016s
$ node --version
v4.4.5
primeCalc.c
#include <stdio.h>
#include <math.h>
#define true 1
#define false 0
int isPrime (register long n){
if (n < 2) return false;
if (n == 2) return true;
if (n == 3) return true;
if (n % 2 == 0) return false;
if (n % 3 == 0) return false;
if (n % 1) return false;
double sqrtOfN = sqrt(n);
for (long i = 5; i <= sqrtOfN; i += 6){
if (n % i == 0) return false;
if (n % (i + 2) == 0) return false;
}
return true;
};
int main(int argc, const char * argv[]) {
register long count = 0;
for (register long i = 0; i < 10000000; i++){
if (isPrime(i)){
count++;
}
}
printf("total %li\n",count);
return 0;
}
c结果
$ gcc primeCalc.c -lm -g -O2 -std=c99 -Wall
$ time ./a.out
total 664579
real 0m6.718s
user 0m6.668s
sys 0m0.008s
PrimeCalc.java
公共类PrimeCalc {
public static void main(String[] args) {
long count = 0;
for (long i = 0; i < 10000000; i++){
if (isPrime(i)){
count++;
}
}
System.out.println("total "+count);
}
public static boolean isPrime(long n) {
if (n < 2) return false;
if (n == 2) return true;
if (n == 3) return true;
if (n % 2 == 0) return false;
if (n % 3 == 0) return false;
if (n % 1 > 0) return false;
double sqrtOfN = Math.sqrt(n);
for (long i = 5; i <= sqrtOfN; i += 6){
if (n % i == 0) return false;
if (n % (i + 2) == 0) return false;
}
return true;
};
}
java结果
$ javac PrimeCalc.java
$ time java PrimeCalc
total 664579
real 0m7.197s
user 0m7.036s
sys 0m0.040s
$ java -version
java version "1.7.0_111"
OpenJDK Runtime Environment (IcedTea 2.6.7) (7u111-2.6.7-0ubuntu0.14.04.3)
OpenJDK 64-Bit Server VM (build 24.111-b01, mixed mode)
primeCalc.py
import math
def isPrime (n):
if n < 2 : return False
if n == 2 : return True
if n == 3 : return True
if n % 2 == 0 : return False
if n % 3 == 0 : return False
if n % 1 >0 : return False
sqrtOfN = int(math.sqrt(n)) + 1
for i in xrange (5, sqrtOfN, 6):
if n % i == 0 : return False;
if n % (i + 2) == 0 : return False;
return True
count = 0;
for i in xrange(10000000) :
if isPrime(i) :
count+=1
print "total ",count
python结果
time python primeCalc.py
total 664579
real 0m46.588s
user 0m45.732s
sys 0m0.156s
$ python --version
Python 2.7.6
Linux的
$ uname -a
Linux hoarfrost-node_6-3667558 4.2.0-c9 #1 SMP Wed Sep 30 16:14:37 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux
额外的c运行时间(附录)
- (7.81秒)没有优化,gcc primeCalc.c -lm -std = c99 -Wall
- (8.13 s)优化0,gcc primeCalc.c -lm -O0 -std = c99 -Wall
- (7.30秒)优化1,gcc primeCalc.c -lm -O1 -std = c99 -Wall
(6.66 s)优化2,gcc primeCalc.c -lm -O2 -std = c99-Wall
- 每个优化级别用户时间平均3次新运行*
我在这里阅读帖子: 为什么这个NodeJS比本机C快2倍? 此代码使用的实例实际上并没有做任何重要的事情。就好像编译器可以在编译时找出结果,甚至不需要执行循环100000000次来得出答案。 如果在计算中添加另一个除法步骤,则优化不太重要。
for (long i = 0; i < 100000000; i++) {
d += i >> 1;
d = d / (i +1); // <-- New Term
}
- (1.88秒)没有优化
- (1.53秒)优化(-O2)
更新03/15/2017 在阅读了@leon的答案后,我进行了一些验证测试。
测试1 - 32位Beaglebone Black,664,579素数高达10,000,000
未编辑的calcPrime.js和calcPrime.c在具有32位处理器的Beaglebone black上运行。
- C代码= 62秒(gcc,长数据类型)
- JS代码= 102秒(节点v4)
测试2 - 64位Macbook Pro,664,579素数高达10,000,000
使用uint32_t替换calcPrime.c代码中的长数据类型,并在具有64位处理器的MacBook pro上运行。
- C代码= 5.73秒(clang,长数据类型)
- C代码= 2.43秒(clang,uint_32_t数据类型)
- JS代码= 2.12秒(节点v4)
测试3 - 64位Macbook Pro,91,836个素数(i = 1; i <8,000,000,000; i + = 10000)
在C代码中使用无符号长数据类型,强制javascript使用64位。 - C代码= 20.4秒(clang,long数据类型) - JS代码= 17.8秒(节点v4)
测试4 - 64位Macbook Pro,86,277个素数(i = 8,000,00,001; i <16,000,000,000; i + = 10000)
在C代码中使用无符号长数据类型,强制javascript使用全部64位。 - C代码= 35.8秒(clang,long数据类型) - JS代码= 34.1秒(节点v4)
测试5 - Cloud9 64位Linux,(i = 0; i <10000000; i ++)
language datatype time % to C
javascript auto 3.22 31%
C long 7.95 224%
C int 2.46 0%
Java long 8.08 229%
Java int 2.15 -12%
Python auto 48.43 1872%
Pypy auto 9.51 287%
测试6 - Cloud9 64位Linux,(i = 8000000001; i <16000000000; i + = 10000)
javascript auto 52.38 12%
C long 46.80 0%
Java long 49.70 6%
Python auto 268.47 474%
Pypy auto 56.55 21%
(所有结果均为三次运行的用户秒数的平均值,运行之间的时间差异<10%)
混合结果
在整数范围内将C和Java数据类型更改为整数会显着加快执行速度。在BBB和Cloud9计算机上切换到int使得C比node.js更快。但是在我的Mac上,node.js程序仍然运行得更快。也许是因为Mac正在使用clang而BBB和Cloud 9计算机正在使用gcc。有谁知道gcc是否编译比gcc更快的程序?
当使用所有64位整数时,C比BBB和Cloud9 PC上的node.js快一点但在我的MAC上稍微慢一些。
您还可以看到,在这些测试中,pypy比标准python快四倍。
node.js甚至与C兼容的事实令我惊讶。