from urllib import request
def getIP(urls):
link = 'http://www.zone-h.org/mirror/id/22714269'
requestToLink = request.Request(link)
answerFromServ = request.urlopen(requestToLink).read()
result = answerFromServ.decode('utf8')
print (result[result.find('IP') + 20 : result.find('IP') + 37])
Не судите, решил вклиниться ради личного интереса как начинающий.
Это конкретный ip с конкретной страницы, возможно нужно улучшить место с поиском самого ip адреса.
Но как осуществить поиск всех ссылок на странице www.zone-h.org/archive?
from urllib import request
def getUrls():
urls = []
link = 'http://www.zone-h.org/archive'
requestToLink = request.Request(link)
answerFromServ = request.urlopen(requestToLink).read()
result = answerFromServ.decode('utf8')
findIt = 'mirror/id'
for findIt in result:
urls.append(result[result.find('mirror/id') + 10 : result.find('mirror/id') + 18])
result = result[result.find('mirror/id'):]
return urls
На сколько я понимаю, в этом коде что-то не так со строкой
result = result[result.find('mirror/id'):]
Но что?)
Спасибо за ответы, и ещё раз - не судите исполнение, на днях начал читать Лутца и установил py3.4