Кто-то говорит 125 килобайт когда сайт только добавился в поисковики, кто-то мол размер 2 экрана.
Пример; страница 2 километра в длину, поисковик понятно не будет его читать полностью, а лишь часть. Брать авито и юлу как раз таки у них прогрузка контента идет раз в 2-3 экрана в длину.
Робот по очевидным причинам не может измерять контент "экранами".
Вроде бы на количество контента нет ограничений (в размумных пределах по скорости загрузки html и его размера)
+ всякие метаданные полезны
бот считывает страницу дальше он ее парсит, если же у вас яваскрипт + бесконечная прокрутка, то вы сам себе злобный буратино. Бот не будет крутить страницу и свайпать, хотя за подробностями сходите в службу поддержки или на форумы SEO там есть куча предположений что и как
Антоха, На это он не обращает внимание.
Советы что вам давали относятся к юзабилити. Люди ленятся крутить страницы, так что желательно все помещать на 1 экране и ставить якоря для прыжка на нужное место
Антоха, бот ничего про пиксели не знает.
Так что прочитает разметку полностью, если в лимиты не упрётся.
(Хотя если у тебя одна только разметка несколько секунд грузится, то это совсем не нормально и надо чинить, а не о SEO думать)
Если упрётся - тогда в тот же вебмастер придёт уведомление, что бот не смог страницу прочитать.
Глубина прокрутки по экспериментам 10 000px на мобильном устройстве.
Таймаут, который ждёт Googlebot для загрузки всего контента 5 секунд.
Проверить, как "видит" ваш сайт Googlebot вы можете в GoogleSearchConsole.
Примерно до 1Мб должна быть страница по весу вместе со всеми картинками, скриптами и т.п. Размер считываемого контента сильно зависит от количества ссылок на сайт. Рендерингу мешают скрипты и стили, поэтому очень желательно выносить их во внешние файлы. Самый важный контент с ключами должен быть в начале по коду.