Ну вы хоть пытались?
Покажите попытки, чтобы было о чём вообще говорить. И покажите, как вы видите образцовый результат. А то со слов мне лично не всё понятно.
Рекомендую все данные, которые можно разместить, как текст, текстом и размешать, а не скриншотом.
Скрины не читаются на мобиле, не индексируются, не копипастятся.
Вам же лучше, если отвечающим будет удобнее.
Такая запись --log-level=OFF в python может сработать только если OFF ранее определено. Иначе будет ошибка, что переменная OFF не определена до использования. По крайней мере, у меня было так. Но, возможно, я неправильно что-то делал. Можете привести более развернутый пример?
Рекомендую погуглить самостоятельно. За каждым таким вопросом не набегаетесь сюда. Да и не любят тут ни такие вопросы, ни вопрошающих их.
Когда у вас будет свой неработающий как задумано код - приносите, будет предмет для разговора.
А сейчас ваш вопрос в переводе звучит: «Погуглите за меня, мне лень».
profesor08, неоспоримо. Я прикинул, что до 40 разных элементов set быстрее; дальше начинает проигрывать. Добавление количества уникальных элементов снижает эту границу. От общего количества элементов в arr зависимости не нашел.
profesor08, не соглашусь. Заранее посчитать результат можно, если заранее знаете ответ. Достаточно добавить немножно рандома в число (или числа), которые мы append-им, и всё пропало :)
Что можно сказать по результатам:
для определенного класса задач быстрее один способ, для другого - другой способ. В этом ничего необычного нет.
У нас есть задача, в ней приведен пример, и ничего не сказано, что данные могут быть сильно другой структуры. Вы также привели пример, аналогичный примеру в задаче, и ничего не сказали, что данные могут быть другой структуры. На примере из задачи и на вашем первом примере мой алгоритм быстрее. Это неоспоримо.
В принципе, можно оценить примерно диапазоны применимости обоих алгоритмов и сделать универсальную функцию для любых диапазонов :)
Полагаю, более конструктивного решения не найти. Давайте остановим разгорающийся флейм.
profesor08, простите, но вы же сами подготовили те самые "прекрасные" данные - я просто добавил количество элементов списка.
Теперь вы меняете исходные данные и утверждаете, что теперь-то ваш вариант выигрышный. Т.е. ВАШ вариант теперь выигрывает на вновь СПЕЦИАЛЬНО ПОДГОТОВЛЕННЫХ ДАННЫХ.
Переобуваетесь на ходу...
В то же время, нельзя не признать, что для случаев, похожих на новый вариант данных, ваш вариант быстрее.
Просто time.time - time.time не достаточно точно?
А для чего там деление на 10?