хотел узнать мнения сообщества об эффективности моей программы - есть парсер, обрабатывающие страницу, собирает ссылки и сохраняет их в файл. И в диспетчере задач смотрю, что программа занимает 300 мб( и продолжает расти), так и должно быть или я де то ошибся.(Сама программа работает)
Сам код
from urllib.request import urlopen
import time
from bs4 import BeautifulSoup
def Parse(url) -> list:
###ссылка на сайт inner_html_code = str(urlopen(url)
inner_soup = BeautifulSoup(inner_html_code, "html.parser")
inner_soup = inner_soup.find("body")
inner_soup = (inner_soup.find_all("td", {'valign':"top", "width":"150"}))
list = []
for a in inner_soup:
if a.find("a"):
list.append((###ссылка))
return list
for i in range(25,5025,25):
list = Parse(i)
with open("D:\Result\Result.txt", "a" ) as F:
for a in list:
F.writelines(a + '\n')
time.sleep(90)