Под изменения поисковых алгоритмов гугл. "Волшебный" алгоритм поиска от Google. Google: история создания и развития алгоритмов

всего

Вступление

Алгоритмы Google , основа работы поисковой системы Google. Созданный Ларри Пейджем и Сергеем Брином, Google сегодня способен найти документы на двух сотнях языках и произвести обработку данных базовых форматов (Microsoft Word, PDF, Excel и т.д.). В этой статье вспомним главные этапы развития алгоритмов Google, созданных для ранжирования веб-страниц в поисковой выдаче Google.

Алгоритмы Google: история развития

1998 год . В этот год был основан поисковик Google. В то же время был создан (PR), алгоритм работы которого основывался на передаче ссылочной массы и имел два основных параметра.

  1. Чем больше количество ссылок, ведущих на ту или иную страницу, тем выше уровень Page Rank и место, занимаемое в поисковой выдаче.
  2. Чем выше уровень Page Rank ссылающихся веб-страниц, тем больше масса, передаваемая ссылками.

Официальным создателем PR является Лари Пейдж, а владельцем патента на данное изобретение – университет Стэнфорда.

Интересный факт – многие считают, что Page Rank переводится как «ранг страницы». На самом деле это словосочетание переводится как «ранг Пейджа», создатель изобретения дал ему свое имя. В дальнейшем многие поисковики переняли идею Page Rank в качестве основы, разработав собственные аналоги инструмента.

Начало века

2000 год . Компания Google представляет широкой общественности новую разработку – алгоритм под названием Hilltop , который позволяет наиболее точно рассчитать уровень PR. Данный алгоритм читает географию и степень новизны того или иного документа. После этого Google начинает оповещать веб-мастеров о том, чтобы они не оставляли ссылки на подозрительных веб-сайтах и «линко-помойках».

2001 год . В этот год компания Google регистрирует патент на алгоритм Hilltop. На этом же этапе поисковая система делит результаты поиска для некоммерческих и коммерческих запросов.

2003 год . 15.11.13 запускается новейший алгоритм Florida, который убирает из выдачи либо понижает место страниц, содержание которых перенасыщено ключевыми фразами и словами. В этот день специалисты в области SEO поняли, что новый алгоритм поисковика понижает рейтинг страниц по следующим причинам:

  • не уникальный либо низко уникальный контент;
  • высокое содержание ключевиков в заголовках и текстах;
  • ссылки неестественного вида (покупные).

2005 год . Специалисты Google впервые пробуют персонализировать поисковую выдачу, задав за основу предыдущие запросы того или иного пользователя.

2006 год . Компания запускает усовершенствованный алгоритм, базирующийся на алгоритме под названием Orion – детище студента из Израиля. Поисковая система теперь может находить совпадающие по тематике запроса веб-страницы, не содержащие ключевиков.

С этого момента Google начинает «уточнять» запросы пользователя, предлагая варианты, которые чаще всего ищут с данным словом. К примеру, пользователь набирает в поисковой строке слово «круг». Система предлагает ему такие варианты запроса, как «круг песни», «круг для купания новорожденных» и т.д.

2007 год . Этот год ознаменован запуском нового алгоритма Austin . Новинка способна учитывать уровень трастовости того или иного веб-ресурса и понижать в поисковой выдаче ресурсы с меньшим показателем трастовости. Таким образом, веб-сайты, которые не успели набрать траст.

Новое в 2009 году

2009 год . Разработчики Google внедряют в работу поисковой системы новый алгоритм Caffeine . Прошлые алгоритмы Google стали не соответствовать, возросшим производственным мощностям. Благодаря чему поисковик начинает намного чаще производить индексирование сайтов.

Во много раз ускоряется формирование страницы с результатами поисковой выдачи. Caffeine не сильно повлиял на формулу рассчёта релевантности, тем не менее стали заметны следующие изменения:

Постоянная индексация всего пространства всемирной паутины позволила поисковой выдаче Google стать гораздо динамичнее и меняться в течение дня.

Второе десятилетие нашего века

2011 год . Специалисты пополняют алгоритмы Google своим «мусорщиком». Это запуск алгоритма под названием Panda – первый серьезный чистильщик выдачи. Новый алгоритм «чистит» поисковую выдачу от «плохих» сайтов:

  • сателлитов,
  • дорвеев,
  • сайтов, содержание которых представляет собой лишь рекламу и ссылки,
  • сайтов с низкой уникальностью контента.

Создатели усовершенствованного алгоритма Мэтт Катс и Амит Сингал отмечают, что их новое детище учитывает следующие моменты:

  • Процентный показатель уникальности содержания определенной страницы и на ресурсе в целом;
  • Уровень шаблонности содержания, то есть схожесть текстов, написанных под различные ключевики;
  • Наличие стилистических, грамматических и орфографических ошибок;
  • Релевантность представленной на ресурсе рекламы к тематике размещенных текстов
  • Соответствие содержания тегов и метатегов веб-страницы к ее контенту;
  • Степень насыщенности размещенных текстов ключевиками;
  • Уровень качества исходящих и входящих ссылок;
  • Действия интернет-пользователя (длительность посещения сайта, число просмотренных веб-страниц, количество отказов и возвратов на ресурс).

Сегодня можно с уверенность отметить, что практически все современные поисковые системы учитывают данные факторы, в особенности – поведенческие. Чем интереснее контент сайта для интернет-пользователя, тем больше он проведет времени на данном ресурсе. Тем выше данный веб-сайт будет ранжироваться на странице поисковой выдачи.

Калибри

2013 год. В октябре алгоритмы Google пополнились новейшим алгоритмом «Колибри» — Hummingbird . Новшество данного алгоритма заключается в том, что он способен понимать даже скрытый смысл запросов. К примеру, если вы введете «купить что-либо около дома» Hummingbird по мет, что имеются в виду оффлайн-магазины.

А из интернет-магазинов он выберет лишь те, на сайтах которых максимально подробно описана информация об условиях доставки и их преимуществах. Помимо этого, алгоритм Hummingbird предпочитает длинные, подробные запросы. Но при этом по тем запросам, по которым Google не сможет «пофантазировать», выдача не изменилась.

И еще один важный момент – неуникальное, низкоуникальное и сгенерированное содержание теперь не работает.

В завершение всего стоит отметить, что российский Google – один из наиболее удобных вариантов работы поисковой системы.

В России Google не использует большую часть своих «карательных» санкций. Благодаря этому продвижение сайтов для данной системы в России намного проще, чем для других поисковиков.

Пингвин и Панда, что дальше

4.10. 2013 вышел алгоритм Пингвин 2.1

Как и ранее поисковик Google обращает внимание на подозрительные сайты и анкор-листы. Данное обновление алгоритма отразилось на ранние попадавшие под санкции алгоритма сайты. Затронуло 1% запросов.

19.05. 2014 год вышло обновление Панда 4.0

Самое серьёзное обновление данного поискового алгоритма. Затронуло 7.5% поисковых запросов.

24.08. 2014 год, алгоритм Голубь

Алгоритм обратил внимание на геозависимые запросы. Теперь, при получении геозависимого запроса поисковик Google дает наиболее информативные, локальные результаты поиска для пользователя.

В марте в большинстве англоязычных блогов пишут про Google Фред , про то что много сайтов просело и поисковая система выкатила новый алгоритм.

По мнению многих, алгоритм влияет на микро сайты, которые сливают свой трафик на партнерские программы, а так же на проекты, у которых много рекламы.

В сегодняшнем выпуске мы рассмотрим:

  • что это за алгоритм Google Fred
  • почему многие про него написали
  • на что он может повлиять
  • какие типы сайтов вылетели
  • что мы думаем по этому поводу
  • причины и следствия

Переходим к просмотру видео:

Фото с доски:

Важно : Если у вас есть вопросы, то смело задавайте их в комментариях. С удовольствием на них отвечу!

Что же такое Google Fred на самом деле?

Трясти выдачу Google начало примерно 8-9 марта. Тогда большинство и обратило на это внимание.

Особенно, когда сайты полностью вылетели, многие рванулись на форумы и нишевые сайты узнать в чем же дело.

Вот что показывали ряд сервисов отслеживания изменений алгоритмов:

Как видно, изменения таки были. Так же многие их ощутили по позициям и проседанию трафика.

Почему название FRED?

На самом деле, название придуманное представителем Google, вот как оно появилось :

Так и подтянули это название и про него начали писать в отраслевых блогах и СМИ.

За что наказывает

Говорят что за:

  • наличие большого количества рекламы
  • аффилиатные сайты заточенные только под слив трафика
  • сайты с плохим контентом или генеренным

Сайты, которые в целом несут мало пользы для юзера.

Но, есть одно но:

  • проседали и сайты, которые полностью белые
  • не заточены под партнерские программы

Так что это такое Фред?

По сути, это «неофициальное» название апдейта поисковой системы Google. Никак не алгоритм.

Просто Google докрутили какие-то нюансы в существующих алгоритмах, а оптимизаторы, вебмастера и аналитики увидели почувствовали его. Подхватили название и разнесли информацию везде, где только можно.

Сам Google ничего официально не заявлял и про Fred негде почитать в блоге для вебмастеров от Google.

Что мы думаем о апдейте резюме

  • апдейт был – это просто факт
  • под него попадали сайты, на которые даже не строили ссылки
  • так же сайты, которые не подходят под описание сайта под слив трафика на партнерки
  • каких то уведомлений в Google Search Console нет
  • по некоторым проектам позиции пляшут постоянно
  • по некоторым выпали, потом вернулись обратно

Так что это такое?

Мы не уверены вообще, что это новый алгоритм. Если взять за внимание что:

  • Google обновляет алгоритмы более 600 раз в год
  • У него есть Penguin – отвечает за ссылки, Panda – за контент, Human bird – новое ядро алгоритма

То понятное дело, что они тестируют все постоянно. Как в режиме реального времени, так и нет.

Если ваш сайт пострадал от апдейта Фред – на что обратить внимание?

  1. Качество ссылочного профиля
  2. Качество контента
  3. Проверить Google Search console
  4. Проверить технически все на сайте

По факту, причины могут быть абсолютно любые. Так же они зависят еще от ниш.

Как всем известно, во многих нишах происходит заруба. Как следствие, Google обращает на них много внимания, и постоянно закручивает гайки.

Резюме

  • Fred – не алгоритм
  • А просто апдейт Гугла
  • Который затронул ряд сайтов
  • Говорят только за контент и рекламу, но думаю что нет (за ссылки тоже)
  • Апдейт новый, но задачи он решает все те-же
  • Нужно лучше планировать ссылки, контент, связи между сайтами
  • Тогда будет меньше вероятность получить санкции

Как и говорил в видео, мы не увидели существенных проседаний в то время, да и сейчас. Были примеры, но на общем фоне их не много. Большинство сайтов только прибавило по видимости и трафику.

Вот такие дела.

PS : основной посыла этого апдейта, направлен на то, чтобы все принимали правила Google для вебмастеров .

PPS : хотя , что Google подтвердил этот алгоритм, вот ответ в Twitter:

Задумывались ли вы, как работает технология Google? Конечно, в процессе организации поисковой выдачи (SERP) задействован сложный алгоритм, основанный на множестве переменных. Но все же — сможете в простых словах объяснить принцип работы самого популярного в мире поисковика?

Чтобы разобраться в дебрях алгоритма самой сложной поисковой машины, взгляните на эту крайне полезную инфографику от quicksprout.

Вездесущие поисковые «пауки» Google заползают на некоторые веб-страницы, а затем идут дальше по ссылкам с этих страниц. Такой подход сканирования сети позволяют Google индексировать более чем 100 миллионов гигабайт информации.

Для того чтобы пользователи получали лучшие результаты выдачи, Google постоянно создает и совершенствует программы. Вот краткий список основных направлений, по которым ведется постоянная работа:

  • проверка орфографии;
  • автозаполнение;
  • поиск по синонимам;
  • общее понимание запросов;
  • живой поиск Google;
  • поисковые паттерны.

  • сколько раз на странице встречается ключевое выражение?
  • вхождение ключевого слова в Title или URL?
  • содержит ли страница синонимы ключевого выражения?
  • каков Google PageRank страницы?

Все это происходит за ⅛ секунды.

Так называемая Сеть знаний (knowledge graph) — технология, которая выдает результаты, основанные на глобальной базе данных по реальным людям, местам и связям между ними. Например: кроме сухих фактов о биографии Льва Толстого вы получите максимум интересного контента (текст/фото/видео), связанного с этой фигурой.

Удобства поисковой выдаче добавляют и сниппеты — небольшие фрагменты информации, позволяющие быстро и без необходимости перехода по ссылке понять, соответствует ли страница вашему запросу.

Прочие инструменты Google, облегчающие поиск:

Здесь комментарии излишни. Просто нажмите на иконку микрофона, и расскажите поисковой системе, что хотите найти. Но будьте аккуратны — она может ответить. :)

2. Изображения

Показывает основанные на результатах выдачи эскизы изображений.

Поиск Google позволяет задавать конкретные вопросы, и получать быстрый ответ на них.

А еще Google владеет вторым по популярности в мире поисковиком, который вы все прекрасно знаете:

Вывод

Что же сделало Google столь успешной поисковой системой? Несмотря на множество сложнейших процессов, происходящих незаметно для пользователя, Google — простой и удобный поисковик с точки зрения юзабилити. Какой бы вы ни задали вопрос, он предоставит релевантную поисковую выдачу за 1/8 секунды.

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

В последние годы поисковая выдача сильно преобразовалась по сравнению с началом и серединой 2000 годов. Приятно видеть новые изменения, нацеленные на увеличение комфорта для пользователя. И для того чтобы в полной мере оценить сколько было проделано работы над поисковой системой мы решили собрать 34 ключевых события в истории развития Google.

Далекое прошлое

Март 1998 года . Компания Google успешно стартует вместе с Ларри Пэйджом и Сергеем Брин. Тогда же и выходит первый алгоритм ранжирования сайтов под названием PageRank.
PageRank - это величина, которая соответствует важности страницы. Расчеты весьма просты: чем больше ссылок ведут на страницу - тем выше её PageRank. Важно отметить, что вес, передаваемый страницей донором, напрямую зависит от ссылок на сам донор. Кстати, PageRank алгоритм, который работает уже почти 20 лет, хоть и в сильно измененном виде.

  • 2000 год. Запуск Google Toolbar, приложения представляющее собой панель инструментов для работы с поисковиком. Примерно в это время и появились первые беседы о SEO.
  • Декабрь 2000 года - Hilltop. Это своеобразное дополнение ПэйджРанка. Суть в том, что ссылки с релевантных по тематике сайтов значительно прибавили в весе.
  • 2001 год. Google начал разделять выдачу на коммерческие и некоммерческие запросы.
  • Февраль 2003 год - Boston. Обновление названо в честь города, в котором проходила конференция. Основное изменение: ввели ежемесячные апдейты поисковой базы.
  • Апрель 2003 года - Cassandra. Алгоритм, который первым пошатнул оптимизаторов, потому что начали наказывать за использование скрытых текстов и ссылок. С этого момента SEO, с точки зрения Google, начало «чернеть».
  • Май 2003 года - Dominic. С этого момента Google начал иначе расценивать обратные ссылки на сайт. Именно после Доминика впервые появились роботы Freshbot и Deepcrawler.
  • Июнь 2003 года - Esmeralda. Всего лишь последнее ежемесячное обновление поисковой выдачи. Каких-то серьезных изменений с выходом Эсмеральды замечено не было.
  • Июль 2003 года - Fritz. Главное изменение: с моменты выхода Фрица Google начал обновляться ежедневно!
  • Ноябрь 2003 года - Florida. Одно из очень важных обновлений, так как именно после Флориды существенная часть «зверски» оптимизированных сайтов была пессимизированна. Флорида нанесла удар по ресурсам, перенасыщенным ключевыми словами, ворованным контентом и покупным ссылочным профилем. С конца 2003 года SEO изменилось и стало более требовательным.
  • Январь 2004 года - Austin. На помощь Флориде спешит обновление Остин. Суть обновления в ужесточении борьбы с переспамленными и невидимыми текстами. Повышается требование к релевантности текста.
  • Февраль 2004 года - Brandy. Гугл начал реагировать на синонимы ключевых слов. Оптимизированные тексты стали разнообразнее, что, несомненно, украсило выдачу. Внимание, уделяемое тематичности анкорного текста увеличилось. Анализ ключевых слов изменился.

Время перемен

  • Февраль 2005 года - Allegra. Принесенные Аллегрой изменения - загадка истории. Предположительные изменения: отдельная кара за покупные ссылки. SEO продолжает чернеть.
  • Май 2005 года - Bourbon. Бурбон начал накладывать санкции на сайты с дублированным контентом, понижая их в выдаче.
  • Сентябрь 2005 года - Gilligan. Серьезных изменений Джиллиган не внес, во всяком случае заметных. Но упомянуть для исторической справки нужно - я упомянул.
  • Октябрь 2005 года - Google maps + local. Обновления, цель которых призвать предпринимателей обновлять свою контактную информацию на картах.
  • Октябрь 2005 года - Jagger. Продолжил борьбу со ссылочными манипуляциями. Теперь целью Google стали фермы ссылок, сайты, которые по доброте душевной обменивались бэклинками, и еще раз алгоритм пробежался по сомнительному ссылочному профилю.
  • Декабрь 2005 года - Big Daddy. Google предложил использовать каноникализацию, то есть выбирать наиболее подходящую страницу из потенциальных дублей. Использовать редиректы 301 и 302. Из значительных изменений - всё.
  • Ноябрь 2006 года - Supplemental Index. Расширение возможностей Google. Поисковик стал обрабатывать больше документов. Почему-то именно в этом году были замечены серьезные изменения в позицях сайтов.
  • Июнь 2007 года - Buffy. Незначительные обновления, которые не стоят вашего внимания. И ни намека на вампиров.
  • Апрель 2008 года - Dewey. Появился словно землетрясение, пошатал позиции сайтов и всё. Почему - никто не понял.
  • Август 2008 года - Google Suggest. Теперь Гугл начал выдавать выпадающие поисковые подсказки при вводе запроса в поисковую строку.
  • Февраль 2009 года - Vince. Со слов Мэтта Катса, особо ничего не произошло. Но любознательные оптимизаторы пришли к умозаключению, что ресурсы крупных брендов получили сильное преимущество.
  • Август 2009 года - Caffeine Preview. Google любезно оповестил оптимизаторов о значительных изменениях в структуре поиска, благодаря чему, отныне документы будут индексироваться значительно быстрее. В этом же году выдача стала обновляться в режиме реального времени.
  • Май 2010 года - My Day. Данное обновление порезало количество трафика с многословных запросов.
  • Июнь 2010 года - Caffeine. Вышел анонсированный ранее Кофеин. Алгоритм позволил индексировать больше страниц с большей скоростью. Теперь новые документы быстрее попадают в индекс.

Обновления Google: наши дни

  • 23 февраля 2011 года - . В День защитников Отечества вышел алгоритм Панда, некий защитник поисковый выдачи от мусора с упором на внутренние факторы. Панда масштабный, известный и нашумевший алгоритм, много раз терпел различные модернизации. То слабел, то становился сильней. Основная задача - убрать из выдачи все «некачественные сайты» вроде дорвеев и сайтов, созданных исключительно для рекламы, оставив при этом достойнейших.
  • 3 января 2012 года - Page Layout. Дополнение к Панде, анализирующее удобство просмотра документов. Цель - избавиться от навязчивой рекламы, занимающей большую часть экрана пользователя.
  • Февраль 2012 года - Venice. Обновление, которое стало учитывать региональную расположенность пользователя. Цель - показывать сайты, которые расположены к пользователю ближе других.
  • 24 апреля 2012 года - Penguin. Второй нашумевший алгоритм. Цель та же, что и у Панды, но упор идет на внешние факторы. Взял под контроль все, что связано со ссылочным профилем ресурса. Наказывает сайты либо понижая весь сайт в поиске, либо вовсе удаляя его.
  • Сентябрь 2012 года - Exact Match Domain (EMD). Редко встречающийся, но необходимый фильтр. Суть заключается в понижении низкокачественных сайтов, оптимизированных под единственный запрос, который является доменом. К примеру, сайт kupi-kartoshku.ru, где каждая страница оптимизирована под запрос «купи картошку», весьма вероятно попадет под этот фильтр.
  • Август 2013 года - Hummingbird. Сложный алгоритм. Задачей Колибри является распознавание смысла в сложных многословных запросах и подборе наиболее релевантных документов. Факторами могут служить: скрытый смысл запроса, конструкция, ваше местоположение и так далее.
  • Август 2014 года - Pigeon. В продолжение темы птиц, Голубь нацелен на предоставление в поисковой выдаче по геозависимым запросам компаний (сайтов), которые расположены ближе всего к вам. Например, если вы хотите заказать китайской лапши, Голубь подберет для вас ближайшее заведение, способное удовлетворить вашу потребность. Также в августе 2014 была объявлено, что Гугл дает небольшой плюс в ранжировании сайтам, использующим защищенный протокол типа https.
  • 21 апреля 2015 года - Mobile-friendly. Алгоритм, который отдает предпочтение отдельным страницам сайта, адаптированным под экраны мобильных устройств. Не требуют масштабирования или горизонтальной прокрутки. Одним словом, удобные для чтения с телефона/планшета. Проверить можно в Вебмастере Google.

Продолжение следует…

За последние 5 лет алгоритмы Google потерпели массу изменений. Уровень сложности подтасовки результатов поисковой выдачи колеблется между уровнями «очень сложно» и «невозможно». Поэтому единственное что остается - быть ответственным оптимизатором. Google неоднократно упоминал, что контент остается самым значимым фактором ранжирования и всегда им будет. Получается, что лучшим выходом из сложившейся ситуации является тематический трафик и продвижение очень качественными ссылками. Я рад, что занимаюсь оптимизацией именно в это время. Уверен, что в 2016 нас ждет много новых сюрпризов.

Технологии

Поиск в Google работает на основе алгоритма. Компьютеры обрабатывают данные, ища сигналы о том, что тот или иной сайт более или менее интересен и соответствует данному запросу. PageRank занимает в этом процессе большую часть, посредством которого Google и отбирает внешние ссылки, а также тексты, имеющие отношение к ним. Но Google использует также множество других сигналов для определения релевантности страницы , иначе PageRank искал бы бесконечно.

Входящим ссылкам проставляется рейтинг для различных веб-страниц. Если брать в расчет эти ссылки, то поиск дает достаточно хорошие результаты. Оттого Google и был неповторим и уникален в 1999 году, когда в результатах было меньше подобия бесконечной игры и меньше вмешательства человека.

Но сегодня все это изменилось. Алгоритм Google все больше и больше подчиняется мотивированно настроенным людям и компаниям, борющимся за него. Это как "гонка вооружений" , в которой Google проигрывает.

Еще одно событие, произошедшее на днях, играет не в пользу самого поисковика - в алгоритме от Google появились изменения, направленные на борьбу с некоторыми наиболее раздражающими загрязнителями интернета - "фермами контента", к примеру . "Гонка вооружений" продолжается.

Google настаивает на том, что он не использует напрямую запущенную недавно функцию блокировки пользователями нерелевантных результатов в браузере Chrome. Однако, когда речь заходит о том, как алгоритм работает, получается, что новое решение от Google аналогично пользовательскому запрету.

"Если взять первые несколько десятков сайтов, которые пользователи Chrome блокировали чаще всего, то 84 процента из них в новом алгоритме понижаются", - сообщают в компании.

Странное, однако, заявление. Ведь, это могло бы стать огромным стимулом для манипуляции блокировкой. Забудьте о контент-фермах, просто наймите тысячи людей, которые будут просто-напросто блокировать сайты конкурентов . Еще одна сторона "гонки вооружений".

Google же, как волшебник из страны Оз, прячется за своим могучим и таинственным алгоритмом поиска . Если хороший поиск также прост, как щелчок мыши по веб-странице, то все волшебство может испариться.

И, если, каким-то образом вы можете удалить как можно больше спама, сделав это по демографическим либо географическим показателям или даже по личным данным пользователя, то все действительно может быть достаточно неприятным. Особенно, если у Google не будет доступа к любым из этих данных. А у Facebook он будет.

Один из самых интересных экспериментов происходит уже сейчас, он касается возможности поиска по понравившимся на Facebook линкам . Результаты поиска определяются тем, что понравилось вашим друзьям на Facebook, и эти данные хранятся действительно долго.

Социальной сетью пользуются более пятисот миллионов людей, половина из которых проверяют профиль каждый день. Эти люди тратят 700 миллиардов минут на сайте и делятся тридцатью миллиардами единиц контента. Они делятся линками, и люди, чтобы проголосовать за его содержание, нажимает на кнопку "like". В целом это составляет довольно интересный эксперимент поиска c Blekko .

А теперь представьте, что Google может делать со всеми этими данными, и вы поймете, почему социальные сети сейчас так важны для него. Не "убить" Facebook, а попытаться "нейтрализовать" угрозу, чтобы следующий большой скачок в эволюции поисковика не происходил без них. В чем Google обычно плошал, так это в торговле и туризме, вот поэтому предложение от друга, к примеру, отеля в Париже, может стать в поиске результатов хорошей вещью.

Может пройти не один год, прежде чем, Facebook действительно заинтересуется поиском в полной мере. В этом бизнесе так много доходов от рекламы , что бесконечно игнорировать его также не получится. Это, собственно, и должно пугать Google больше всего.