from __future__ import print_function
import pickle
import os.path
from googleapiclient.discovery import build
from google_auth_oauthlib.flow import InstalledAppFlow
from google.auth.transport.requests import Request
# If modifying these scopes, delete the file token.pickle.
SCOPES = ['https://www.googleapis.com/auth/documents.readonly']
# The ID of a sample document.
DOCUMENT_ID = '195j9eDD3ccgjQRttHhJPymLJUCOUjs-jmwTrekvdjFE'
def main():
"""Shows basic usage of the Docs API.
Prints the title of a sample document.
"""
creds = None
# The file token.pickle stores the user's access and refresh tokens, and is
# created automatically when the authorization flow completes for the first
# time.
if os.path.exists('token.pickle'):
with open('token.pickle', 'rb') as token:
creds = pickle.load(token)
# If there are no (valid) credentials available, let the user log in.
if not creds or not creds.valid:
if creds and creds.expired and creds.refresh_token:
creds.refresh(Request())
else:
flow = InstalledAppFlow.from_client_secrets_file(
'C:\py\her\credentials.json', SCOPES)
creds = flow.run_local_server(port=8080)
# Save the credentials for the next run
with open('token.pickle', 'wb') as token:
pickle.dump(creds, token)
service = build('docs', 'v1', credentials=creds)
# Retrieve the documents contents from the Docs service.
document = service.documents().get(documentId=DOCUMENT_ID).execute()
print('The title of the document is: {}'.format(document.get('title')))
if __name__ == '__main__':
main()
{"installed":{"client_id":"moi_identificator.apps.googleusercontent.com","project_id":"id_moego_proekta","auth_uri":"https://accounts.google.com/o/oauth2/auth","token_uri":"https://oauth2.googleapis.com/token","auth_provider_x509_cert_url":"https://www.googleapis.com/oauth2/v1/certs"}}
перелинковка вообще не при чем. краулер не ходит по ссылкам как клиент, он получает из список потом запрашивает их отдельно
И третий, не очевидный, пользовательское взаимодействие
Теперь я понял что вас беспокоит не сео, а сбор статистики.
Почему вы думаете что сбор статистики будет не корректный? Были прецеденты?
А вообще я думаю что поисковики уже более менее научились передвигаться по js, во всяком случае можно обычную ссылку на карту сайта сделать и норм. - но это не факт
без ajax/js написать сайт
Если юзер кликнул на ссылку с отключенным JS, то что будет? Если ничего то и у поисковых ботов тоже ничего.
второе обращение только для клиентов, краулер всегда получает отрендеренный контент. Если конечно ТС под "собиранием" понимает сср
Битрикс - это как купить дорогой автомобиль, за дешево его уже не будут ремонтировать)
Подключил API ключ для браузера https://developers.google.com/docs/api/quickstart/... а
обращался с локального клиента из Python. Ответ: ключ надо было подключать здесь https://developers.google.com/docs/api/quickstart/...