Представьте, что у вас есть алгоритм, который сортирует последовательность из 1000 чисел за 1 миллисекунду. при этом мы знаем, что количество шагов, необходимых алгоритму вычисляется по формуле f(n)=c⋅n⋅log10n, где n - количество чисел, а с - некоторая константа, нам неизвестная. за сколько миллисекунд алгоритм сможет отсортировать последовательность из 1000000 чисел?