anta88, ну норм, может вам нужен такой партнер который может находить дурачков делать все для вашего проекта бесплатно, это вполне себе такой годный ресурс.
А 1 раз сделал и забыл, ну на такое лучше деньги найти, 1 раз купил его услугу и забыл.
>С таким набором знаний уже можно найти работу и дальше осваивать тему в процессе
ага держи карман шире)
сфера очень очень узкая и устроится получается только у лучших.
Kulver_stukas, а как на счет того чтоб не пользоваться сервисом если он не нравиться (например рекламой)
почему не перейти на гугловые, или там эппловские сервисы?
хром тоже кстати бдит, без каких-либо проблем.
разработчикам сайта следовало хотябы прописать правила безопасности в заголовке, чтоб левые скрипты не грузились ни у кого
Василий, при чем тут качается или не качается, там чувак говорит про потребление ресурсов. все они потребляют ресурсы, например оперативную память, а тк язык не эффективный по памяти, любые такие библиотеки съедают прилично памяти.
П. С.
те, кто занимаются фронтендом профессионально и в 2017 году джейквери используют -> те криворукие имбецилы.
ой всё, тоже язык учил через восприятия большого обьема речи на слух (в кино), и повторения без понимания. Со временем пришло понимание и умение говорить.
П. С.
то как мы реально работаем с языком, построено не через заучивание грамматики или перевода одного слова на другой.
ни один ребенок не изучал язык через запоминания перевода одних слов на другие слова и обьяснением граматики как типа нужно конструировать предложения)))
миллиарды людей успешно начинают говорить используя схемы с восприятием большого количества языка на слух, при этом есть практика миллионов россиян например, которые по классическим программам по 10 лет изучают язык, и не могут связать двух слов, или там из РЕАЛЬНОЙ речи американца хоть что-то понять.
Я думаю это достаточное доказательство того что классические методы изучения языка по книжкам НЕ РАБОТАЮТ и использовать их бесполезно.
Olek1, ну можно наверно услугу VDS предоставлять используя докер, хз, как бы кто как использует, я пока с упаковкой в микросервисы и тестированием сталкивался.
Olek1, такие схемы в целом усложняют, а не упрощают разработку, если вам не нужна динамическая балансировка нагрузки, настоящая микросервисная архитектура, то докер ничего кроме головной боли вам не добавит.
Например вам придется усложнить все схемы внедрения и тестирования софта.
xmoonlight, ну могу предложить вот такой попробовать вариант (это что пришло на ум, а не что в индустрии используется)
берем слово - ПЕРЕСТРОЙКА
берем 2 хэша следующим образом:
от слова П_Р_С_Р_Й_А и _Е_Е_Т_О_К_
по этим 2м хэшам можно сохранить весь словарь в двух таблицах (в этих таблицах будут хранится разный набор слов который соответствует например половинному слову)
что позволит в случае ошибки в одной букве все равно найти вариант в другой таблице. сравнить разные ответы (на запрос с П_Р_С_Р_Й_А - может дать как ПЕРЕСТРОЙКА так и "перИсКройка"), из предполагаемых ответов из таблиц, с тем словом что мы имеем выбираем тот который "ближе" к оригиналу, считая что во введенных данных ошибка.
как-то короче так.
xmoonlight, на сколько я знаю во всяких гуглах на деревьях строят словари (например используя суффиксное дерево), и там типа если после какой-то буквы в словаре нет слова, тогда там начинают назад откатывать букву и пробовать другие варианты текущей буквы и с другим вариантом буквы двигаться по дереву проверяя типа корректность слова.
Максим, послушай, ты когда модель "обучаешь" ты подгоняешь ответы модели к определенным ответам в тестах, излишняя подгонка к каким-либо конкретным тестовым данным - вызывает "переобучение".
это неминуемо для всех методов, просто когда данных мало (в случае с задачей про титаник), переобучится очень легко, есть подходы которые позволяют контролировать переобучения, смотреть например когда у тебя точность на тестовых данных начинает расходится с точностью на других данных (которые даются на самой платформе), то у тебя уже идет переобучение, после этого лучше откатить процесс подгонки параметров, из той модели что ты использовал, при выбранных параметрах, ты уже выжал все что мог, можно подумать о том чтоб сменить модель обучения, и потом использовать комбинации разных моделей, только так можно дальше улучшить результаты.
но так задрачиваться на Титанике не стоит там данных мало, это задача лишь для проработки пайплайна.
Максим, блин чувак, я же тебе уже обьяснил.
у тебя процесс обучения связан с тем что ты "подгоняешь" результаты к какой-то тестовой выборке.
ну вот ты и подогнал к свой тестовой выборке модель.
с этим титаником вообще набор данных ничтожный, очень легко переобучится (переподогнать данные), и крос валидация ничего тебе не гарантирует, только снижает это переобучение (все раавно у тебя идет подгонка данных к конкретным ответам).
сделай модель проще, если там какой-нибудь рандом форест, количество узлов ограничь, иначе он все равно будет тебе так подгонять под ответ модель.
А 1 раз сделал и забыл, ну на такое лучше деньги найти, 1 раз купил его услугу и забыл.