По-хорошему надо создавать новый bot с нуля с новым токеном, а для этого как-то завершить текущий bot.launch и начать новый из цикла вокруг bot.launch.
unbelieve, можно посмотреть в сторону L7 filter. Но надо понимать, что торрент-трафик в 2022 году может быть слегка обфусцированным (шифрованным, uTP и прочее) и не очень ловиться фильтрами.
Никита Март, proxy arp обычно возвращает только адреса вне диапазона внутренней сети по понятиям роутера. То есть из адресов не из 192.168.1.0/24 роутер ответит только на свой собственный 192.168.1.1. А из всех остальных - на любой.
Если в настройках сети нет шлюза или он не вписывается в сеть линка, то некоторые операционные системы (тм) шлют в локальный линк ARP-запрос, а дальше если на шлюзе включен proxy-arp, то он возвращает свой mac на arp-запрос, и система радостно посылает пакеты в шлюз, но не в тот, который указан в настройках, а в реальный (IP которого отличается!). Кажется, что "всё работает", но на самом деле это категорически неправильно и может вызывать кучу разных проблем.
В нормальных операционных системах нельзя прописать шлюз, до которого нет link-маршрута, а отсутствие явно указанного шлюза сразу вызывает ошибку no route to host.
i3a4em, такие методы применяют для того, чтобы не делать правильно. В результате пользователи просто будут уходить из таких чатов, битва за клиента будет проиграна.
kiddle, fbtool, вероятно, не предназначен для легальной работы. А идея взять тысячи левых аккаунтов и из каждого выдернуть токен автоматизированно вообще попахивает деструктивной деятельностью.
Николай Савельев, я конкретно с ads manager не имел дело. Лимиты там не очень удобны, но надо просто правильно понимать, как и для чего они. Все же хотят тысячу запросов в секунду. Но тот, кто это хочет, просто не понимает, как использовать API. Потому что если задача требует таких масштабов, то эта задача наверняка решается неправильно.
Вот у меня были реальные проблемы с лимитами (200 в час, но по cpu usage раньше можно было упереться уже на 80, сейчас вроде что-то они улучшили и в процессор больше не упирается), потому что мне надо было получать информацию ~4000 запросами каждый день. Я сделал обновление из cron, которое останавливает процесс на 80% использования лимита. При этом в веб-интерфейсе всегда есть возможность форсировать обновление данных за счёт остатка лимита, если вдруг понадобится. Что интересно, там большинство запросов в конце концов перешли из категории лимитов api usage (200 в час) в категорию business case usage (не знаю точно сколько, но там лимита очень много).
Если бы любому из обычных бизнесов, которые являются нашими клиентами, пришлось бы делать такие запросы самостоятельно в интересах, они о существовании лимита даже бы не задумывались.
Пройти review оказалось несложно. Всё, что спросил ревьюер, это где увидеть privacy policy.
Зависит от того, как скрипт запущен. Например, если запущен в screen/tmux, то он будет кидать в консоль, которую будет видно при подключении к screen/tmux (это не очень удобный способ запуска постоянно работающего сервиса). Если это systemd-сервис, то см. journalctl. Итд итп.
godsplane, git может думать что угодно, если его не использовать, то это будет просто каталог с файлами и один ненужный .git рядом. Не знаю, какие тут могут возникнуть реальные проблемы.
А для чего вообще это делается? В Facebook много чего можно делать через Graph API: легально получить токен и легально делать запросы. Возможно, лучше пойти именно по такому пути.
А зачем вообще удалять .git? В чём глубокий смысл? Если волнует размер репы, то можно просто скачать только последний коммит с помощью git clone --depth=1. Если есть страх за то, не зальёшь ли случайно обратно локальные изменения, то можно просто никогда не делать git push и даже удалить origin вообще (git remote remove origin).
Или скачать zip-архивом, как подсказывают в ответах. Адрес архива фиксированный, его можно использовать в скриптах.
Но не представляю даже, какие там могут быть "ошибки".
WA делает вызовы с номеров +1-... и это само по себе может вызывать проблемы. В своё время у них вообще голосовые вызовы на Россию не работали.
По SMS могу сказать, что имена Facebook, WhatsApp, Instagram итд у операторов обычно числятся в категории международных и ценник на них 2x-3x от обычного. Поэтому SMS могут доходить не на всех операторов.
Недавно помогал одному человеку восстанавливать доступ к Instagram, тот обнаружил, что московский пользователь внезапно подключился откуда-то из датацентра во Франкфурте и отправил SMS, которая только где-то с третьего раза всё же дошла. Так что проблемы могут быть и временными.
Twitt, telethon нужен только для того, чтобы получить начальный список пользователей в группе. Далее надо ботом следить за входящими/выходящими и за счёт этого поддерживать список в актуальном состоянии.
Но я бы советовал просто сразу оставить идею вообще "пинговать всех", это плохая практика и это, как правило, даже не лучшее решение даже реальных практических полезных задач. Например, если надо уведомлять пользователях о каких-то событиях или новостях, то это правильно делать с помощью канала.