Про Google и Яндекс, знает каждый современный человек. Но, недостатки алгоритмов поиска данных ПС, привели к тому, что появились миллионы сайтов, с оптимизированными текстами под эти системы. При этом, ранжирование сайтов не самое логичное. Выходят случаи как в анекдоте. Искал, как отодрать соску от плиты. И, надолго залип в интернете))
Поэтому, какой должен быть поисковик нового поколения? Каким требованиям он должен соответствовать?
Maxim Siomin, в Гугле хорошо искать статьи и картинки. Более понимает, что от него хочешь. Яндекс годится искать новости и видео. В остальном же, оба выводят результаты поиска списком. Из-за чего, не малая часть хороших сайтов остаются не замеченными. К примеру, в соц. сетях даже не раскрученные группы можно найти по хэштегам.
Алексей Ярков, вы не поняли вопрос. Повторюсь. Каким требованиям должна соответствовать ПС нового поколения? Клон Гугла не подойдет, так как я отметил его недостатки)
Которая сканирует биоизлучения мозга и точно выдаёт то, чего ты хочешь, даже если ты не хочешь, чтобы другие это видели. Товарищ майор Доигралес оценит!
CodingStubb, да полно вам. Существует же оптогенетика. "Оптогенетика применяется на протяжении 20 лет — свет используется для контроля взаимодействия клеток друг с другом. С помощью оптогенетики можно разрабатывать новые методы лечения заболеваний, исправляя ошибки, возникающие на клеточном уровне."
Было бы рентабельно - во все девайсы бы уже ставили сканеры и фильтра слабых эм излучений мозга.
Например - поисковая система должна быть способна точно понять что хочет найти человек ничего незная о нем (решение проблемы сбора приватной информации, точнее это одна из отмазок этой необходимости)
Если что это почти невозможная задача, ибо чтобы задать правильный и понятный вопрос нужно знать 'половину ответа', современные поисковые системы пытаются дополнить вопрос, собирая приватную информацию о вопрошающем, а то иначе вопросы будут должны выглядеть как огромные простыни текста.
Василий Банников, сначала нужно уничтожить интернет в принципе как децентрализованную структуру, это невероятно сложно, в мире не так уж много компаний (стран) в принципе на такое способные, и даже они не стремятся к этому (китай например).
Отсутствие единообразия в веб-прилоожениях - прямое следствие децентрализации.
CodingStub, чтобы это работало, нужно чтобы перестроилась его большая часть, это то и сложно сделать
есть огромное количество веб-сайтов, владельцы которых буквально настроил и забыл, максимум поддерживает жизнь, и так будет годами - десятилетиями.
На пике технологий ... обычно следуют только трендам поисковой оптимизации, и то не все а кому нужно конкурировать за товар/клиентов. Таких не то чтобы не много - не они определяют основную массу.
Гугл к примеру не может в одночасье изменить свои алгоритмы, только маленькими шажками, по немногу, иначе вместо оптимизации 'выльет из ушата ребенка'.
CodingStub, нет
Речь не столько о деньгах, сколько о принципиальной в этом возможности.
Если гугл изменит алгоритм таким образом, чтобы ранжировать в топ сайты следующих новым веяниям унифицированного интернета, то он моментально превратится в гугл для магазинов. А за информацией народ пойдет к его конкурентам.
Напоминаю, именно тотальное использование большинством людей сервисами поисковика, позволяет гуглу быть таким хорошим, за счет сбора приватной информации... стоит только упустить момент, обратно выкарабкиваться будет ой как сложно.
rPman, хоть ресурсы нужны и гугловские, но не им эту концепцию реализовывать. Если только в отдельном проекте. Что кстати разумнее, чем перестраивать сам поисковик.