Я хочу рассчитать время выполнения моей Java-программы. когда я использовал следующий метод:вычислить время выполнения для Java-программы
long startTime = System.currentTimeMillis();
...my program...
long endTime = System.currentTimeMillis();
long totalTime = endTime - startTime;
System.out.println(totalTime);
результат отличается время от времени, так что я имею в виду, чтобы получить некоторые (100 или некоторые ..) образцы и вычислить среднее значение, чтобы сделать его более точным:
long total = 0
for (int i = 0; i < 100; i++) {
Long s = System.currentTimeMillis();
...my program...
Long e = System.currentTimeMillis();
total += (e - s);
}
, так что я получил общее время выполнения .. для первого метода это обычно около 600 мс, а для второго метода результат будет около 30000 мс (так avg time: 30000/100 = 300 мс).
Я думаю, что это может быть связано с JVM, для загрузки файла или его преобразования в байтовый код требуется некоторое время. а второй метод загружает только & и один раз запускает метод 100 раз?
Я не уверен в своих объяснениях, пожалуйста, исправьте меня, если я ошибаюсь.
и моя проблема: если я хочу получить «реальное» общее время работы и вычислить среднее значение, что мне делать?
Заранее благодарен!