Разделы

Цифровизация Бизнес-приложения

Поисковые системы беспристрастнее Фемиды

Распространенное мнение, согласно которому поисковые системы расширяют пропасть между уже завоевавшими популярность ресурсами и их менее удачливыми конкурентами, опровергнуто. Результаты исследований, проведенных в США и Германии, показали, что поисковики «нивелируют» Сеть, предоставляя большие возможности менее посещаемым сайтам.
Основываясь на анализе трафика Сети, д-р Санто Фортунато (Santo Fortunato) и его коллеги из университетов Индианы и Бильфельда установили, что поисковики, ранжирующие результаты поиска в соответствии с количеством ссылок на веб-страницу, увеличивают шансы менее посещаемых ресурсов.

Необычные феномены, характерные для самоорганизующейся информационной структуры интернета, сразу привлекли к себе пристальное внимание ученых. Один из них получил наименование «гуглеархия» (googlearchy). Этот термин был предложен в 2003 году специалистами из Принстонского университета и лабораторий NEC для обозначения эффекта прогрессирующего отрыва наиболее популярных ресурсов Сети вследствие лавинообразного роста числа ссылок, ведущих на них. Из этого следовало, что поисковые системы, формирующие список ресурсов в соответствии с количеством ссылок, ведущих на них, способствуют углублению пропасти между «лидерами» и «догоняющими». Механизм «гуглеархии» означал, что поисковые системы загоняют Сеть в своеобразную ловушку, выхода из которой не виделось.

«Считается, что в этом случае возникает замкнутый круг: популярные страницы становятся все более и более популярными, — комментирует д-р Фортунато. — Этот предполагаемый эффект даже получил название „гуглеархия“ (googlearchy) и вызвал широкий интерес среди специалистов по ИТ, социологов и политологов. Наши исследования доказывают обратное».

Группа д-ра Фортунато исследовала связь между трафиком и количеством ссылок на более чем 28 тыс. сайтов в поисковых системах Alexa, Google и Yahoo. В качестве меры популярности сайта ученые предложили использовать вероятность перехода гипотетического пользователя Сети по соответствующей ссылке.

Выяснилось, что существующие модели поиска нужной информации в Сети — «серфинга» и поиска с использованием поисковых систем — не подходят для описания опытных данных, в которых между трафиком и количеством ссылок на страницу существует не степенная, как считалось ранее, а линейная зависимость.

Андрей Шарак, Lansoft, — о трех стратегических направлениях развития рынка
Импортонезависимость

На основе новой теоретической модели, учитывающей характер запросов, способы поиска, представления информации и дальнейшего ее использования, была получена зависимость между трафиком веб-страницы и количеством ссылок, ведущих на нее. Новая модель согласуется с наблюдаемой картиной — поисковые системы «нивелируют» Сеть, направляя пользователей к менее популярным ресурсам, и, таким образом, «восстанавливают справедливость» во Всемирной Сети.

#gallery#
«Поисковые системы — интерфейс между обществом и главным товаром XXI века — информацией, — говорит д-р Фортунато. — Наши исследования будут полезны специалистам, которые моделируют структуру Сети, разработчикам поисковых систем, специалистам по ИТ, которые предсказывают развитие трафика, экспертам по маркетингу, анализирующим методы эффективной рекламы в Сети, а также социологам, которых интересует ее влияние на поиск и распространение знаний в информационном обществе».