Пользователь пока ничего не рассказал о себе

Достижения

Все достижения (3)

Наибольший вклад в теги

Все теги (52)

Лучшие ответы пользователя

Все ответы (97)
  • Как определяют номер телефона у посетителей сайта?

    @granty
    Куки исключены, браузер не сохраняет их и не хранит историю.

    1. Про evercookie слышали? А про Web Fingerprint?
    На хакере перечислена масса способов хранить ID на вашем компе без использования Куков и кэша, а технология Web Fingerprint позволяет хранить цифровой отпечаток компа, браузера на сервере банка: Фингерпринтинг конкретного ПК с точностью 99,24%, не спасает даже смена браузера.

    Если вы - клиент банка и заходили в его интернет-банкинг, он легко может вас опознать при использовании того же браузера и того же компа.
    А если у вас на мобиле установлено приложение интернет-банкинга - вы вообще под колпаком :)

    2. Если вы лазите по инету залогиненым в Вконтакте/Яндексе, то через backdoors в их API можно определить ваш профиль и все ваши данные.
    Сайт Соцфишинг работает на этом принципе.
    Сам банк тоже может использовать соцфишинг и ставить невидимый ифрейм на своё меню, и при клике вы автоматически авторизуетесь через аккаунт, например, Вконтакте. Зная ваш ID на Вконтакте, ваш телефон легко узнаётся, их базы регулярно сливаются и продаются

    PS: Узнать как конкретно вас "слил" и каким образом - невозможно без исследования конкретной ситуации.

    факультатив

    Всё вышеперечисленное - детский лепет по сравнению с тем, какие возможности имеет Google (и, частично, Яндекс с Apple).
    У всех дома стоит точка WiFi, к которой коннектится ваш комп и мобильник с Андроид. Через мобильник Гугл знает все номера телефонов, которые подключаются к этой точке доступа (и все аккаунты соцсетей в которые вы логинились с мобильника). Поэтому когда вы лезете Хромом с компа через эту же точку доступа - Гугль уже знает, что это вы (или один из ваших домочадцев). По GPS на мобильнике он знает даже адрес вашего проживания с точностью до подъезда.
    Так что мы все давно уже добровольно "чипованы", чего удивляться что о нас всё известно.
    Ответ написан
  • Google начал удалять из поиска заведомо несуществующие страницы?

    @granty
    Самое интересное, что:

    1. Судя по вашей же карте сайта и кэшу Google(см запрос ниже) на сайте никогда не было url: /soderzhanki-2-sezon-3-seriya и /soderzhanki-2-sezon-2-seriya

    2. Судя по whois дата регистрации домена 2020-01-23, то есть сайт - свежак, и ещё даже не проиндексировался поисковиками. Из ~25 страницы, имеющихся на сайте:
    - 10 страниц в индексе Google
    - 3 страницы в индексе Яндексе, (одна появилась в выдаче позавчера, и две - 8 часов назад)

    3. Судя по информации с вашей же карты сайта:
    - 2 сезон 3 серия была выложена 2020-02-13, то есть только сегодня.

    Не объясните, как вы успели получить на неё DMCA?

    spoiler
    Потому, что, есть у меня сомнение, что ты, мил человек, просто спамер, и пытаешься накрутить себе посещаемость, "поведенские факторы", и получить ссылку с qna.habr.com.


    PS: Хотя жалоба DMCA болтается в выдаче по запросу вашего сайта, но она на сериал "Фитнес", и вашего сайта в ней нет. Я не поленился, и запросил из lumendatabase.org полный список url по жалобе...



    UPDATE: В комментариях топикстартер частично реабилитировался и смог предоставить правильный DMCA, соответствующий критериям заданного им вопроса, правда, на другой сайт - mazhor3.ru. Поэтому появилась возможность проверить ситуацию и ответить по существу вопроса.

    На сайте mazhor3.ru, действительно нет некоторых страниц, указанных в жалобе DMCA (пришлось повозится, ибо автор топика редиректами уже сменил структуру URL на сайте, чтобы формально выйти из-под DMCA)

    Это не ошибка Google - он не проверяет url-ы, присланные правообладателем в жалобе. Эти url могут быть вообще не в индексе Google, сайт может использовать клоакинг по IP. Поэтому Google не тратит свои ресурсы на расследования, а просто блокирует присланные url-ы, не проверяя существуют они или нет.
    Правообладатели иногда злоупотребляют этим, и присылают "url на будущие серии". Они знают, что встречную жалобу на них подавать не станут (ведь у этого вебмастера на сайте полно нелегального контента, и таких сайтов у него целая сетка).
    Ответ написан
  • Коллеги, как Вы выходите из положения, когда нужно постоянно приводить ПК в исходное состояние?

    @granty
    Я Акронис использую. Делаю полный бэкап винта на физическом уровне. Делается загрузочный CD/флешка.
    Ответ написан
  • Что должно быть в чек-листе для успешного SEO в Яндексе и Google?

    @granty
    Судя по сленгу, курсы заработка на сайтах вы прошли, но кроме этого сленга, на этих курсах ничего не преподавали.

    Ответ на ваш вопрос сильно зависит от того, что это за проект и как он будет монетизироваться.

    1. очередной кулинарный сайт не отобьётся никаким SEO

    2. блоги о моде и красоте (и тп) - они давно все перекочевали в ютуб (самипонимаетепочему), а в youtube - своё SEO и принципы раскрутки.

    3. Новостные сайты - отдельная песня, они попадают в выдачу быстроробота, там своё, специфическое SEO.

    4. Фотогалереи и прочие "картиночные" сайты -тоже отдельная песня про специфику ранжирование картинок в ПС.

    5. Тематические форумы - для их раскрутки должен быть костяк профессионалов по тематике форума. Да и там ниши все заняты.

    6. Сайты-сервисы - там качественность и востребованность сервиса важнее SEO.

    7. продающие сайты - смотря что они продают. Для них грамотный маркетинг важнее СЕО, ибо даёт выше конверсию (разные "воронки продаж" и прочее лапша, которую вам развешивают на курсах маркетинга).
    Некоторым никакого SEO не требуется, покупают трафик с Директа/Адсенса. Бижутерию, например, проще продавать в группах в соцсетях. А в некоторых высококонкуретных нишах SEO вообще себя не окупает.

    Если сайту нужен трафик с органики (выдачи ПС):
    - определяетесь с регионами, на которые работает сайт. На сайте должны быть адреса и телефоны (вашей фирмы) из этого региона.
    Если регионов несколько - под каждый надо делать отдельный поддомен, иначе не будет автоматический региональной привязки и "регионозависимых" запросов вам не видать. Можете проверить выдачу Яндекса по геозависимым запросам - там сплошные поддомены.

    - собираете "продающие запросы", по которые вы хотите иметь трафик с ПС, разбиваете их на НЧ/НК, СЧ/СК и ВЧ/ВК (надеюсь, на курсах вам объяснили WTF). Это классический способ составления семантическое ядра сайта (СЯ). Есть "неклассические" способы формирования СЯ, но их в паблик не выкладывают, sorry.

    - группируете запросы и распределяете их по страницам сайта. Под каждый запрос, кроме длинных хвостов (Long tail), придётся писать отдельную страницу. Это определит структуру сайта.

    - на этапе разработки ТЗ к движке сайта, сразу применяете ваши знания "боевого карате SEO", потому, что там начинается вся магия.
    Например, правильное ЧПУ поймут и Яндекс, и Google. Неправильное ЧПУ - потеря ранжирующего фактора.
    Админка движка сайта должна дать возможность максимально задействовать внутреннее ссылочное, хорошо если будет "автоматика", ибо запаришься делать его руками.
    Важны любые мелочи, даже атрибуты alt и title у картинок.
    Ну, с тонкостями SEO вы знакомы, судя по вопросу...

    - если нужен трафик с мобильных устройств - не забудьте про мобильную версию сайта. Там свои муки выбора как сделать мобильную версию сайта, чтобы ПС признали её "мобилопригодной".
    Этот вопрос больше "технический", чем SEO, но можно запросто лишиться трафика с мобильных устройств.

    Постскриптум
    Запарился я пересказывать вам очевидные вещи, которым вас должны были научить на курсах.

    Как собирать органический трафик - есть хороший курс 2013 года Андрея Камчеса на эту тему. Поищите, он в интернетах есть бесплатно.

    Ида, про 8-й тип сайтов - MFA с монетизацией на PPC/CPA я не упомянул. Умышленно :)
    Как и про 9-й тип сайтов для заработка на фишинге и прочих мошеннических приёмах.
    Ответ написан
  • Как узнать откуда был загружен iframe?

    @granty
    Откуда был загружен iframe никак не узнать (узнать-то можно, но в вашем случае это не поможет).

    1. яваскрипт не сработает, тк политика «Одинакового источника» (Same Origin Policy) запрещает доступ из ифрейма к window.top.location.href, если они имеют разные происхождения (грубо говоря - разные домены).
    Проверить window.top != window.self браузер даёт, а доступ к фактическому url из window.top - нет.

    2. на сервере проверять переменную $_SERVER['HTTP_REFERER'] (кто запросил загрузку страницы) смысла тоже нет - если у ифрейма установлен атрибут referrerpolicy:
    <iframe referrerpolicy='no-referrer'>
    реферер не будет прислан (будет, но только в IE/Edge и Safari_IOS).


    Но сделать то, что вы хотите - можно легко. На странице надо издать HTTP-заголовок CSP с директивой frame-ancestors:
    header( "Content-Security-Policy: frame-ancestors https://ваш_сайт.ru http://ваш_сайт.ru https://www.facebook.com https://facebook.com https://www.google.com https://google.com;" );

    это разрешит открывать эту страницу в ифрейме с собственного домена ваш_сайт.ru(без поддоменов!) по http:/https:.
    И сайтам facebook.com и google.com с www или без (но только если фэйсбук/гугль загружены по https: - а их и невозможно загрузить по http:).

    PS: если ваш сайт доступен и по www - добавьте в "волшебную" строку:
    https://www.ваш_сайт.ru http://www.ваш_сайт.ru
    Ответ написан