neo_centrist, последние 28 дней: 0.57$
Вот на это и ориентир.
Нужно ежедневно поддерживать "пологий" CTR и кол-во просмотров, чтобы зарабатывать траст.
Логика - та же как и в моём ответе, но действий - больше.
Зачем возводить в квадрат и суммировать всё, если можно взять модульную разницу для конкретной сложности? (возможно, я ошибся, хочу выяснить просто...)
#, почти, но не совсем.
Это и есть рефлексирование, только дедуктивное.))
Т.е., мы заранее знаем, что вероятность попадания в "белый" список гораздо реже, чем в "чёрный", поэтому и проверок нам нужно меньше при "белом".
Что больше/чаще встречается - всегда оставляем "на потом".
Это простое правило позволяет ускорить любой поиск/фильтрацию в разы.
Так-то!)))
Антон Антон, 1. всегда можно проверить частоту разделения букв и понять: это одно слово или нет.
2. Частные случаи не подходят под корректность лексики. Значит это тот же мат. И их - крайне малый процент.
Антон Антон, можно, но можно и убрать все символы, кроме букв и привести схожие написания символов к нужным словам (у меня в блоге это есть даже), и объединить всё в единую строку ("слово") из букв.
И проверить его на подстроки...
mrdragon9000, комнаты хранятся в потоках.
Промежуточные состояния комнат - дублируются в бд.
Комнаты имеют свои идентификаторы и управляются менеджером потоков: supervisor.
Dimas Hav, preg_match() и регулярные выражения.
Слова - в двух массивах: черный и белый списки.
Оба списка группируем по схожим подстрокам.
Проверяем входное слово в три этапа:
1. Слово принадлежит к какой-либо группе? Нет - не мат. Выход.
2. Слово принадлежит к списку слов исключений в этой группе? Да - не мат. Выход.
3. Слово принадлежит к списку слов мата в этой группе? Нет - не мат. Иначе - мат.
Вот на это и ориентир.
Нужно ежедневно поддерживать "пологий" CTR и кол-во просмотров, чтобы зарабатывать траст.