Реализовать *страницы* для сайта довольно просто с использованием GET запросов, но это неудобно и как я наблюдаю, чаще всего используются ссылки типа `сайт/222/`, на Хабре - `/page222/`, но как обрабатывать такие запросы?
Создавать для каждой новой страницы директорию с ее названием а туда дублировать один и тот же РНР файл, который загружает материалы из базы, опираясь на название.....глупо......наверное есть свои секреты, не поделитесь?
Вроде метод htaccess не подходит для пользователей, у которых не установлен апач на компьютере, или я ошибаюсь и любой пользователь может спокойно пользоваться интернет сервисом?
в вопросе вроде бы речь идет о сайте с использованием PHP, а он либо на сервере либо, если на локальном компьютере, с использованием LAMP, WAMP, Denwer и т.п. (т.е. apache).
Как правило, средствами веб-сервера запросы переадресовываются на единый входящий скрипт (фронт-контроллер, например index.php), который согласно правилам роутинга запрашивает/отдаёт нужный контент.
PS ЧПУ - это скорее "декоративные" возможности роутинга, так как запрос может быть и вида:
/abc/111/c/222/d/333, что не делает его понятней, чем /index.php?abc=111&c=222&d=333
> Создавать для каждой новой страницы директорию с ее названием а туда дублировать один и тот же РНР файл, который загружает материалы из базы, опираясь на название