Вопрос предполагает использование двух алгоритмов , и , микросекунд соответственно, для размера задачи . Вопрос заключается в том, при каком размере входных данных алгоритм стать лучше, чем . Как мне это найти?
Я нашел аналогичный вопрос с решением, которое я не совсем понимаю. Время работы алгоритмов из аналогичного вопроса составляет и
Решается следующим образом:
Следовательно, алгоритм лучше когда больше, чем
Я понимаю концепцию необходимости использовать неравенство, чтобы доказать, что , однако мне трудно понять, что делается в решении для примера и как применить его к вопросу...
Предположим, что два алгоритма решают одну и ту же задачу. В этом случае вы можете сказать, что алгоритм A лучше, чем B, если < , потому что первый работает за более короткое время.
Для каких (положительных) значений n это < неравенство сохраняется? Подставляя выражения и Вы получаете
.
Вы можете узнать, как можно решить неравенство такого рода с помощью ручки и бумаги, например, здесь , или решить его графически и алгебраически, используя механизм для символьной математики, такой как Wolfram Alpha. Если вы сделаете это, вы увидите, что меньше, чем только если n меньше некоторого порогового значения. За этим порогом алгоритм "становится лучше, чем ", потому что функция квадратного корня (например, ) растет медленнее, чем квадратичный (как ) по мере увеличения n.
Кумар
Варехен
Кумар
келалака