Надо прописать строку
Disallow: *?page=
Но я не рекомендую так делать, ведь роботы перестанут посещать эти страницы... не будут с этих страниц переходить сканировать товары и прочие ссылки.
Надо просто правильно настроить пагинацию, и пусть роботы везде гуляют.
Иногда указывают канонический адрес для всех страниц на первую
<link rel="canonical" href="http://orac.ru/lepnina/karnizy/">
Это в 100 раз лучше, чем запрет в файле robots.txt, но гугл рекомендует канонический адрес писать правильно на каждую страницу пагинации и добавлять метатеги rel NEXT и PREV, для связки страниц одной тематике и для указания следующей и предыдущей страницы.
При этом рекомендую SEO текста убрать со всех страниц, кроме первой (настраивается программно в коде). Ну и метатегу Title ещу добавлять надпись "страница 2", "страница 3" и т.д., тогда вообще идеально и закрывать не надо.