Разделы

Big Data

Forrester: Платформа Hadoop станет стандартом индустрии в 2015 г.

В 2015 г. открытая платформа Hadoop от Apache фактически станет стандартом для ИТ-инфраструктуры всех крупных компаний, прогнозируют аналитики Forrester Research. Ожидается, что число специалистов, как и скорость внедрения Hadoop заметно вырастет.

Открытая платформа Hadoop от Apache Software Foundation для обработки больших данных в скором времени станет обязательной для использования крупными предприятиями решением. Таков прогноз экспертов компании Forrester Research. Тенденцию к обязательной интеграции Hadoop аналитики называют «хадупономикой» (Hadooponomics), которая должна обеспечивать способность линейного масштабирования как хранения данных, так и их обработки. «Хадупономика» тесно связана с возможностью дальнейшего активного применения облачных решений на крупных предприятиях.

Как отмечают авторы отчета, не все предприятия на сегодняшний день активно применяют Hadoop, однако критическую важность этой платформы уже доказали многие лидирующие в своих индустриях компании, такие как WalMart, Fidelity Investments, Sears, Verizon, USAA, Cardinal Health, Wells Fargo, Proctor & Gamble, Cablevision, Nasdaq, AutoTrader, Netflix и Yelp.

«Оставшиеся в меньшинстве информационные директора, которые ранее недооценивали важность этой платформы, сделают ее применение приоритетом на 2015 г. Профессионалы в области разработки и развертывания приложений должны быть готовы к этому», — предсказывает Forrester Research. В целом, аналитики Forrester сделали целый ряд предсказаний касательно будущего развития Hadoop в следующем году. Они, в частности, касались языка SQL, облачных вычислений, новых областей для применения Hadoop и другого.

Так, ожидается, что ANSI-совместимые возможности SQL на базе Hadoop предоставят Hadoop все возможности для того, чтобы стать полезной платформой данных для предприятий, так как эти опции будут знакомы профессионалам в сфере управления данными и доступны на существующих системах. Все это позволит создать песочницу для анализа данных, которая не была доступна ранее.

Кроме того, эксперты отмечают, что так называемая «облачная эластичность», возможность синхронизировать вычислительные и сетевые мощности с хранимыми данными, станет одним из ключевых факторов для снижения расхода средств. Поэтому, ожидается, что платформа Hadoop будет все более активно применяться в облачных решениях на фоне растущего спроса на специализированную аналитику.

Аналитики предсказывают появление новых дистрибутивов Hadoop из их аналогов от HP, Oracle, SAP, Software AG и Tibco, а также не видят причин, по которым Microsoft, Red Hat, VMware и другие поставщики операционных систем не должны интегрировать данную платформу в собственные ОС.

Что делать, если инфраструктура не успевает за ростом бизнеса?
Маркет

Еще одним важным изменением должно стать появление квалифицированных кадров, способных работать с платформой Hadoop. «Информационным директорам больше не придется нанимать высокооплачиваемых консультантов по Hadoop для реализации проектов. Благодаря этому проекты Hadoop будут реализовываться быстрее и эффективнее», — говорится в отчете.

По мнению Сергея Заблодского, директора отделения хранилищ данных IBS, сказать, что Hadoop в ближайшем будущем станет обязательным компонентом ИТ-архитектуры любой компании, будет сильным преувеличением. «Даже если мы говорим об основном применении Hadoop, то есть обработке больших данных, то далеко не все компании используют для этого Hadoop-кластеры. Необходимо понимать, что сама проблематика больших данных возникла не вчера, и Hadoop не единственный инструмент, который позволяет с такими данными работать», — отмечает эксперт.

«Сегодня есть целый ряд успешных альтернативных решений как среди коммерческого ПО, так и среди ПО с открытым кодом. Безусловно, Hadoop популярен и у него есть своя ниша, а его применение для решения определенных задач будет расти, но об обязательности этой технологии я бы не говорил, так как есть задачи в области больших данных, для которых Hadoop – не лучший выбор», — добавляет Заблодский.

По поводу распространения Hadoop в России, Сергей Заблодский отметил, что для большинства заказчиков внедрение Hadoop сегодня не является актуальной задачей и не станет такой в ближайшей перспективе. «Пока что проекты с использованием Hadoop на нашем рынке — это, скорее, эксперименты с технологией и попытки нащупать границы применимости. Достаточно активно осваивают Hadoop некоторые телеком-операторы и банки, но далеко не всегда это попытки решать аналитические задачи. Одно из направлений экспериментов — дешевые системы хранения малоиспользуемых неструктурированных данных. В остальных отраслях значимого интереса к решениям такого класса пока не заметно: для большинства насущных задач достаточно классических технологий работы с данными и программно-аппаратных комплексов», – считает он.

Антон Труханов