136559 130660635278385
74326 130680625206861
64439 130709961862667
127493 130713795254452
99022 130742938591839
110769 130796875274146
68352 130802048518387
89443 130860375214416
135229 130983055285542
76668 131029145179572
112362 131035558569795
79248 131047518514871
121629 131066401927814
113450 131069661900273
133285 131090035266307
131810 131098165260659
78422 131112448498001
128012 131134878593683
123251 131234161908131
117383 131267118564808
130954 131275921906867
116600 131282305227752
118272 131290675226483
71981 131311975137113
70058 131338248468017
88874 131355885168572
75166 131379261794021
79378 131410061791718
98027 131419818511757
async def loadpg(url_):
return session.get(url_, timeout=30)
await loadpg(url_=link)
будет работать корректно но вроде бы нет.
Да всё так и в последствии имелась идея идти по этим трекам от разных серверов что бы видеть все новые id в независимости от серверов.
Входных данных по сути нет, имея сет ids и сегментировав эти ids на треки ids для разных серверов думал суметь находить новые id для этих серверов для каждого в отдельности и идти по ним. По сути поиск новых данных и независимость от их системы синхронизации данных между разными базами.