WapSter, брать источник проводить через сервис и обрезать если вы так обсуждаете. Я думаю было не понятно что я пошутил насчет ручной обработки. Как бы как еще можно сделать одинаковыми фотографии как не CSS-ом ??
tester12, минимальный шанс, так как данные которые были уже сжатыми SSD, уже будут перезаписаны и вероятность добыть их равна один на кол-во нулей которые фактически займут меньше гига.
Вот по сути функции по крайней мере могут помочь, смотрите change и потом внутрии нее if если инпут с классом таким-то, то записываете заранее скрытому блоку инпутов, show блоку и он показывается.
Так как сайт не статичный и у него нету конкретной привязки к определенным данным он может создать трудности при выкачке его с помощью стандартных утилит которые вы перечислили выше. Если у сайта еще и много данных, новости или еще что-то за несколько лет, вы скачаете его примерно через несколько недель. Обычно в таких сайтах одинаковы шаблоны(тимплейты) вывода таких новостей и проще скачать уже тимплейт чем сайт которые получается на выходе. Поверьте вы в одиночку не сможете скачать такой сайт какой вам нужен полноценно.