Тоже интересует этот вопрос про поисковых ботов.
Недавно на codeschool.com начал изучать Angular.JS он как раз для REST API хорошо подходит, рендерит страницы из JSON, для этого в HTML вставляются спец атрибуты и выражения в скобках. Но для того чтобы интернет-боты индексировали сайт люди делают пререндеринг всех страниц с помощью специальной библиотеки phantomjs и хранят их на сервере. Это некрасивое костыльное решение, я считаю.
Я думаю что варианты решения такие:
- Сделать обычный фронт-энд, который при наличии JS превращается в JS приложение, работающее через Ajax c RESTful API.
- Ждать пока боты научатся выполнять JS.
- Вместо пре-рендеринга сделать простенький просмотр контента, с меню и пагинацией.