У меня есть функция f(x)
, которая принимает в качестве входных данных список x
из 100 случайных чисел с плавающей точкой от 0 до 1. Различные списки приведут к разным временам выполнения f
.
Я хочу узнать, сколько времени в среднем требуется f
для большого количества различных случайных списков. Как лучше всего это сделать? Должен ли я использовать timeit
, и если да, то есть ли способ сделать это, не включая время, необходимое для создания каждого случайного списка в каждом испытании?
Вот как бы я это сделал без timeit
(псевдокод):
for i = 1 to 10000:
x = random list
start = current time
f(x)
end = current time
results.append(end - start)
return mean(results)