mklink /D Ссылка Назначение
где - Ссылка - имя новой символической ссылки.mklink /D C:\Users\{UserName}\.WebIde70 {путь к папке, куда перенесли}
Вот это почитайте - http://habrahabr.ru/post/128772/
Если вкратце - то асинхронная модель не лучше и не хуже. У неё своя область применения. Например, запускать тяжелую математику внутри NodeJS-сервера - смерть всему и всем. А вот тяжелые запросы в БД из PHP вполне себе бодренько будут бегать по серверу (ну насколько для них это возможно).
Или хороший пример - из nginx-ового перла запросы в mysql-базу делать (да-да, он и такое может). Тогда он тоже начинает крайне отвратно работать)
То есть асинхронная модель (по крайней мере, в районе web-серверов/приложений) хороша только тогда, когда все запросы у вас быстро отрабатывают. Как то так.
(ну и как обычно - комментарии не менее ценны, чем статья).
Плюсы фриланса вы вероятно уже знаете, расскажу о минусах:
Вы эникейщик, значит привыкли работать в режиме "хороший админ тот, кому не приходится много работать". Во фрилансе всё по другому.
Конкретно odesk заточен на повременную работу с контролем времени (со скриншотами и "индексом активности" мыши и клавиатуры). Это очень напряжный вид найма. В офисе мы постоянно делаем перерывы и отвлечения, а в повременке-с-контролем-времени заказчик может (и будет) вычеркивать такие периоды из оплачиваемого веремни. То есть фактически снижать ваш почасовой рейт. Ну или вы сами будете останавливать таймер, чтобы избежать конфликтов.
Реально это оборачивается очень длинным рабочим днем по низкой ставке. А ставка и без того будет низкой — индусы и прочие бангладешцы отчаянно сбивают цены.
И так будет продолжаться довольно долго, пока вы не наработаете много оплаченных часов и хорошую репутацию.
В общем это рабский труд, откажитесь пока не надорвали здоровье.
Однозначно Python.
- Простой лаконичный синтаксис.
- Читабельность и низкий порог вхождения.
- Огромное количество готовых библиотек.
- Кроссплатформенность.
- Удобный менеджер установки пакетов pip и каталог библиотек PyPI
Для вашей целей вам понадобится:
- Встроенная библиотека urllib2 чтобы скачивать нужную страничку.
- библиотека BeautifulSoup для удобного парсинга страничек и вытягивания из них анных.
- xlrd для чтения excel-файла.
- xlwt для записи того, что прочитали с помощью xlrd и новых даных в новый файл или поерх старого.
Утилиту имеет смысл делать простую консольную. Всего пара десятков строк понятного кода и полная автоматизация.