Как в robots.txt закрыть для Яндекса директиву Sitemap предназначенный для Google?
Добрый день! Ситуация такая: В robots.txt прописал разные директивы для Яндекс и Google ботов. Так как требования к карте сайта у этих поисковиков слегка отличаются (Яндекс не понимает image:image), для них были созданы отдельные Sitemap. Но несмотря на то, что для каждого поисковика прописана своя карта сайта, Яндекс индексирует и ту, которая предназначена для Гугл, и соответственно в Вебмастере ругается, что карта содержит ошибки. В помощи Вебмастера читал, что директива Sitemap межсекционная, поэтому будет использоваться роботом вне зависимости от места в файле robots.txt, где она указана.
Поэтому вопрос к знатокам, как это можно исправить? Например, для Яндекс бота явно прописать Disallow: /google_sitemap. Будет ли это правильно? Или просто не обращать на это внимания, потому что свою карту он читает нормально?
1) Программно генерировать/отдавать разные версии robots.txt для разных ботов.
2) Сделать имя отличное от sitemap.xml не прописывать его в robots.txt а доавить вручную в GSC( Google Search Console) для сайта.