Задать вопрос
  • Какие порекомендуете статьи на русском про архитектуру WEB-приложений?

    smart
    @smart
    вы меня знаете
    Недавно был аналогичный вопрос и я писал развернутый ответ к нему: Как повысить знания в области архитектуры веб проектов?

    Повторю вкратце: много информации есть в открытом доступе, начиная от вводных статей начального уровня (типа habrahabr.ru/post/15362 - моя очень давняя публикация), заканчивая докладами с конференций, на которых разбираются и глубокие частные вопросы.

    Например, в интернете доступны записи с многих технологических конференций:
    https://techforum.mail.ru/video/
    https://tech.yandex.ru/events/yac/
    ritconf.ru/archive и www.highload.ru (тут видеозаписей нет, но есть слайды почти всех презентаций)
    Ответ написан
    Комментировать
  • Какие читать книги по machine learning?

    ptitca_zu
    @ptitca_zu
    Programmer. Reader. Introvert
    Яндекс недавно выложил на Хабре свои лекции по машинному обучению. Начал смотреть – более фундаментальный подход, чем у Эндрю (его курс тоже с интересом прошел).

    Насчет читать, я, например, сразу после курса взялся за building ml systems with Python.

    Очень подробная книга и с языком сразу.
    Ответ написан
    Комментировать
  • Какие читать книги по machine learning?

    barmaley_exe
    @barmaley_exe
    Для начала можно взять какие-нибудь онлайн курсы, а потом уже переходить к серьёзной литературе.

    Здесь есть ревью многих книг по ML. Они все на английском, да.

    Насчёт русскоязычной литературы ничего не скажу, но на machinelearning.ru есть краткий список литературы.
    Ответ написан
    Комментировать
  • Упал faсebook.com?

    Codewalker
    @Codewalker
    Он ушел, но обещал вернуться. Пока можете в своем hosts прописать что-то из

    66.220.153.19 www.facebook.com
    66.220.153.23 www.facebook.com
    66.220.156.16 www.facebook.com
    66.220.156.32 www.facebook.com
    66.220.156.48 www.facebook.com
    66.220.156.64 www.facebook.com
    66.220.158.11 www.facebook.com
    66.220.158.18 www.facebook.com
    66.220.158.25 www.facebook.com
    66.220.158.32 www.facebook.com
    66.220.158.47 www.facebook.com
    66.220.158.53 www.facebook.com
    69.63.189.11 www.facebook.com
    69.63.189.16 www.facebook.com
    69.63.189.26 www.facebook.com
    69.63.189.31 www.facebook.com
    69.63.189.34 www.facebook.com
    69.63.189.39 www.facebook.com
    69.63.189.70 www.facebook.com
    69.63.189.74 www.facebook.com
    69.63.189.78 www.facebook.com
    69.63.189.79 www.facebook.com
    69.63.190.10 www.facebook.com
    69.63.190.14 www.facebook.com
    69.63.190.18 www.facebook.com
    Ответ написан
    Комментировать
  • Упал faсebook.com?

    @inkvizitor68sl
    Linux-сисадмин с 8 летним стажем.
    facebook.com has address 69.171.229.11
    facebook.com has address 69.171.224.11
    facebook.com has address 66.220.149.11
    Ответ написан
    Комментировать
  • Упал faсebook.com?

    dmsn
    @dmsn
    Так anonymous обещали же.
    Уже работает.
    Ответ написан
    1 комментарий
  • Критерии выбора значимых признаков для SVM классификации (метод опорных векторов)?

    YasonBy
    @YasonBy
    Прежде всего, не нужно зацикливаться на SVM: это всего лишь один из многих методов классификации. Да, у SVM есть своя специфика (у других методов — своя), но на данном этапе Вы вполне можете использовать общие алгоритмы предобработки данных.

    какие именно признаки брать?
    Это называется feature selection и feature extraction.

    Простыми словами, процесс выглядит так:
    1. Составляем список имеющихся признаков.
    2. Добавляем в него различные функции от признаков (как упомянутый логарифм от веса), комбинации разных признаков (например, длина*ширина*высота), и т.п. Что именно комбинировать и какие преобразования использовать, должно подсказать знание задачи и здравый смысл. Этот процесс относится к feature extraction.
    3. Задаём функцию ошибки, то есть определяем как будет оцениваться точность классификации. Например, это может быть отношение правильно распознанных примеров к их общему количеству. Здесь полезно почитать про precision and recall.
    4. Переходим на один уровень абстракции выше.
    Представим эдакий чёрный ящик, внутри которого находится классификатор вместе с обучающей и тестирующей выборками. На входе ящика — двоичный вектор, указывающий, какие признаки должен использовать классификатор; на выходе — величина ошибки классификации (на тестовой выборке).

    Таким образом, задача выбора признаков сводится к задаче оптимизации: нужно найти такой входной вектор, при котором выходное значение ящика (ошибка классификации) будет минимально. Можно, например, добавлять признаки по одному (начиная с тех, которые сильнее всего улучшают результат) — см. градиентный спуск. Можно использовать что-то посерьёзнее, типа генетических алгоритмов.

    Нужно ли при этом нормализовывать численные значения этих признаков?
    Это сильно зависит от конкретной задачи и самих признаков.

    Что делать если количество зерен в реальности (в обучающей выборке) относится к количеству плевел как 1/200? Портит ли это обучающую выборку?
    В общем случае, портит: если одних примеров гораздо меньше, чем других, существует риск, что классификатор «запомнит» примеры из обучающей выборки, и не сможет адекватно разпознавать другие похожие примеры (Overfitting).
    К тому же, если используется простейшая функция ошибки (правильно_распознанных / размер_выборки), философски настроенный классификатор может всегда отвечать «плевел» — и в 99.5% случаев будет прав :)
    Ответ написан
    1 комментарий