Думаю что datepicker цепляется к фокусу, но факт выбора даты происходит позже. Когда юзер кликает на submit того виджета, выходит что если я в фокус навешу свою функцию, то она сразу же отработает после вызова виджета, но не после подтверждения в виджете факта выбора даты.
Не, так не выходит, в виджете при каждой смене числа меняется в input значение, получается onchange срабатывает каждый раз когда меняю число хоть на какое-то.
Спасибо за пинок в нужном направлении. Действительно, так все заработало как нужно. Не могу сказать что это то что я искал, но все достаточно элегантно, пожалуй так и оставлю :)
А, да, я понял о чем вы, не, это не проблема. Простите, наверно не внятно написал вопрос. Ресайзить фото которые загружаются с помощью именно редактора через встроенный менеджер фото в самом редакторе clip2net.com/s/3kV6X1x
В шаблоне не могу использовать, так как картинки в теле статьи. А в моделе save(), имеете в виду прочесть все фотки по url которые вставили в тело статьи, и перерезать их все?
Если вы знаете как отличить следующий урл, то не вижу проблемы.
Открываете первую страницу, смотрите есть ли ссылка на следующую, если есть, то переходим на неё. И с начала, если есть урл на следующую, то переходим на неё. И с начала. Но добавьте условие, если следующей ссылки не найдено, то выходим из цикла.
Начинаем отсчет от class="csb gbil" если есть следующий td с начинкой a, то забираем его урл и переходим на него, на этой странице, вы будите уже на страницу больше, следовательно просматривая снова это список от class="csb gbil" вы найдете снова следующую страницу, и так дальше.
Ставите искусственно константу глубины прохода, и скрипт ваш дальше чем надо не зайдет, хотя если брать гугл, то сомневаюсь что он вам даст себя просто так парсить, но пробуйте.
Не, плагины точно не при чем, никогда не пользуюсь, так как для работы все нужно. Проблема не только у меня, но и у других людей.
Даже не могу понять, это проблема на клиенте, браузер там отрезает его, еще что-то, или проблема на сервере, ну там не валидный какой-то html отдается, ХЗ у меня даже предположений не хватает.
Мало данных для более детального совета (для того кода что вы дали, я вам показал как циклом урлы подставлять)
Могу только схематически еще раз пояснить, но применять уже вам
1 парсите главную страницу где урлы, собираете их в список
1.1 если на этой странице не все урлы, то задайте цикл и проходите по всем ссылкам и собирайте все урлы
2 запускайте цикл по собраным урлам и заходите на каждую страницу
3 забирайте данные с каждой страницы
То есть в итоге у вас должно быть цикл на 1 пункт, цикл на 1.1 пункт, цикл по 2 пункту, и сбор данных (тут можно и с циклом и без).
Кнопка перехода, это та же ссылка (ну или она должна быть связана с ссылкой). Открывайте её программно как обычную страницу, и читайте так же информацию как и все остальные.
Я не совсем пойму, вы же говорите что имеете уже 100+ страниц(urlов)
Но если эти урлы где-то на странице, так возьмите сначала эту страницу распарсите, и положите все урлы в список, а потом циклом по этому списку пройдите, заходите на каждую страницу и вытаскивайте нужные данные.
Вытаскивайте все url из страницы гугла, и складывайте в список
url = ['url1', 'url2', 'urlN']
Далее проходите по этому списку и собранные данные уже кладите в БД, или в файл, или еще куда-то.
for i in xrange(len(url)):
page = mech.open(url[i])
html = page.read()
soup = BeautifulSoup(html)
extract(soup)