Hortonworks представя решение за бързо стартиране на оптимизация на складове за данни

  • Oct 19, 2023

Hortonworks предприема следващата стъпка с инструментите на OEM, които сега препродава, като въвежда предписващ ангажимент за бързо стартиране за внедряване на пълния пакет. Тъй като пазарът изисква по-прости рампи за присъединяване към Hadoop, ние вярваме, че Hortonworks трябва да пренесе тази нова програма за бързо стартиране в облака.

Преди около шест месеца писахме за Hortonworks' еволюция от догматична чиста стратегия с отворен код към такава, която е повече прагматичен. Неговата основна платформа остава 100% отворен код, но както отбелязахме, компанията изглежда много повече като своите конкуренти в добавянето на специфично за доставчика съдържание чрез партньорства за препродажба с Синхронизиране за трансформиране на данни и AtScale за предоставяне на виртуални OLAP витрини за данни.

Вижте също

Силата на IoT и Big Data

Разглеждаме къде IoT ще има най-голямо въздействие и какво означава това за бъдещето на анализа на големи данни.

Прочетете сега

Сега Hortonworks предприема логичната следваща стъпка, въвеждайки ръководено от услуги предписващо предложение за внедряване на пакета инструменти Hortonworks и OEM. Новото решение за оптимизация на EDW на Hortonworks осигурява бързо стартиране, 7-8 седмично ангажиране, ръководено от услуги, на клиенти, които са нови в Hadoop и искат да разширят своите хранилища за данни. Обединяване на

Hortonworks Data Platform (HDP) със Syncsort DMX-h и AtScale, новото предложение е предназначено да накара клиентите да преминат на етап прототип.

Също:Hortonworks, Neustar си сътрудничат за осигуряване на IoT, следват още усилия | Доставчиците на Hadoop слушат: Hortonworks става прагматичен | Всички облаци с големи данни не си приличат

Това предложение адресира два основни проблема: Първо, Hadoop може да бъде сложен и смущаващ за нови клиенти за внедряване; и второ, остава вечната необходимост да се укротят по-обикновените проблеми със системната интеграция, свързани с всеки проект за хранилище на данни или магазин за данни.

Целевите клиенти са тези, които искат да използват Hadoop за неговите по-евтини изчислителни цикли и съхранение за прехвърляне на някои работни натоварвания, като ETL; разширяване на анализа в случай на използване на "активно архивиране", за да включи по-стари исторически данни; или изградете нови витрини за данни. Например, докато инструментът Syncsort DMX-h може да извлича и насочва към по-широк набор от типове данни (напр. JSON), предложението на Hortonworks се фокусира стриктно върху трансформирането на конвенционални структурирани данни, идващи от данни складове.

Оперативната идея е, че Hadoop ще бъде по-икономична платформа за много от тези натоварвания, особено с трансформация на данни и проучвателни анализи. Но също така предполага, че хранилището на данни остава най-подходящото място за рутинни оперативни анализи. Ето защо Hortonworks обозначава този ангажимент като оптимизация на склад за данни, а не като подмяна.

Ангажиментът включва полеви консултанти на Hortonworks, които инсталират HDP, Syncsort и AtScale; конфигуриране на източници и цели, процеси (напр. Hive LLAP за интерактивен SQL) и ODBC/JDBC интерфейси; процедури за трансформиране на данни; създаване на до три виртуални OLAP куба в AtScale; и демонстриране на резултатите.

Въпреки че има много случаи на използване на Hadoop, оптимизацията на EDW често е първата, тъй като цели като преместване на ETL могат да генерират осезаема възвръщаемост на инвестициите. И това обяснява защо Hortonworks са насочили тясно този стартов пакет към този сценарий.

Решението за оптимизация на EDW на Hortonworks идва в благоприятен момент. Към днешна дата ние изчисляваме, че инсталираната база на Hadoop е малко на север от 3000. Това очевидно е само върхът на айсберга в цялостния пазар за съхранение на данни и анализи.

Hadoop е наричан на шега колекция от зоопарк животни, отчасти защото много от проектите са кръстени на същества в дивата природа, но и защото тези проекти също държа се като същества в дивата природа. И не е изненадващо, че профилът на първите осиновители са тези с ИТ организации с ресурсите и уменията да поемат сложни проекти, като опитомяването на тези същества. За следващите 3000 осиновители нещата ще трябва да станат много по-лесни.

Ето защо виждате Hortonworks да разкрива този пакет и също така виждате много по-насочени опции за onramp. Очевидните са управляваните услуги за анализ на големи данни, които се държат като SaaS облачни услуги, като се грижат за базовото водоснабдяване, поддръжка и актуализиране. Сред най-утвърдените са Elastic MapReduce (EMR) на Amazon и Microsoft Azure HDInsight (който е изграден около HDP). А в пространството за съхранение на данни имате Amazon Redshift, Azure SQL Data Warehouse, и Снежинка.

Но виждате и по-тясно насочени услуги, като напр машинаизучаване на от всички основни облакдоставчици, и посветен Sparkкомпютърни услуги. Те се доставят при предпоставка за изпълнение на целеви операции, а не като пълноценна Hadoop или платформа за съхранение на данни. Hortonworks също подхрани този разказ Hortonworks Data Cloud, само по себе си опростено предложение, изградено около двете най-популярни работни натоварвания на Hadoop: Hive и Spark.

Нашето мнение е, че управляваните услуги в облака са логичните пътища за следващата вълна от възприемащи големи данни. Вярваме, че до края на 2018 г. над половината от новите внедрявания на Hadoop ще бъдат базирани на облак и управляваните услуги ще бъдат от съществено значение за превръщането на Hadoop - или други форми на анализ - в привлекателни за новите осиновители. От обявяването днес решението за оптимизация на Hortonworks EDW е насочено към локални клиенти. Но логичният път ще бъде Hortonworks да разшири това до облака, като Hortonworks Data Cloud е цел, която е твърде очевидна.

Как можете да превърнете големи данни в бизнес прозрения?