IDC: Системите за бизнес анализ трябва да се справят със свръхогромния информационен поток, известен като Big Data

Септември 25, 2012 от Ваню Кръстев

Днес най-отчетливото предизвикателство пред системите за бизнес анализ е, че трябва да се справят със свръхогромния информационен поток, известен като Big Data. Обемът на информацията, която корпоративните ИТ системи трябва да поддържат на световно ниво става огромен, но управляван от почти същия състав от хора, който компаниите имат в момента. Допълнително капацитетът на устройствата за съхранение расте много по-бавно отколкото расте количеството данни, а Business Intelligence системите са изправени пред предизвикателството да обработват огромни масиви от неструктурирана информация. Това бяха основните акценти, върху които протече дискусията по време на тазгодишният форум Business Analytics and Big Data Forum Sofia, организиран от IDC България.

 

В своята дейност компаниите започват да натрупват доста сериозни масиви от данни, кото си стоят в хранилищата без да носят кой знае каква полза на бизнеса. Според изследване на IDC много малка част от тях се използват повторно и идва моментът, в който фирмите осъзнават, че трябва да имат инструменти, чрез който да ги анализират за донесат ползи за бизнеса.

Банките и телекомите генерират по милион клиентски записа на ден. Twitter генерира над 12 тербайта от туитове на ден. Facebook генерира над 25 терабайта данни на ден само от лог информацията на потребителите си. В YouTube се качват 72 часа клипове всяка една минута. Дилемата пред всички тях е как ще си съхраняват данните и дали ще могат да извличат някаква смислена стойност от тях чрез анализ.

Новата концепция в света на бизнес анализа е  концепцията за всеобхватния (pervasive) BI. Тя надгражда по-раншното развитие на BI системите, при което се считаше, че аналитична информация трябва да бъде доставяна само на управленския състав. Системите за всеобхватен BI отчитат, че служителите на всички нива в една организация имат нужда от аналитични средства в работата си. Много важен факт в концепцията за всеобхватния BI е, че инструментите за анализ са интегрирани с бизнес процесите в организацията.   

За корпоративния потребител явлението Big Data означава, че предстои развитието на т.нар. агрегационни BI инструменти, които предварително обединяват и обработват различни типове данни така, че по-бързо да може да бъде извличана необходимата информация от едно място. Предстои и конвергенция на класическите BI средства със средства за откриване на необходимите данни в огромните информационни потоци, както и за откриване на трудни за откриване по класическия метод връзки между тях. Освен това тези данни трябва да бъдат филтрирани в контекста на определена бизнес задача и да бъдат персонализирани. Още едно предизвикателство при справянето с Big Data e, че ако досега бизнесът анализираше данни само от корпоративните си системи, днес на анализ е подложено всякакъв тип неструктурирано външно съдържание.

На днешния етап под BI системи за Big Data се разбира новата генерация от технологии и архитектури, които позволяват по един сравнително икономичен начин да се извличат данни от огромни обеми данни (от над няколко десетки терабайта). Тези обработки трябва да изваждат смислена информация от данни с неясна структура – структирирани или неструктурирани, при това с много висока скорост.

Това което се случва днес, е, че релационните архитектури на бази данни не са достатъчно еластични да отговорят на предизвикателството на Big Data. Новите архитектури също се свързват с релационни бази данни, но са така пригодени, че могат да обслужват големия обем информация. Появавят се и BI производители, които предлагат системи за управление на бази от данни, които не почиват на реалационните модели.

В развитието на начина по който се използват базите данни в един момент BI производителите започнаха да влагат усиля в това да ускорят протичането на аналитичните процеси чрез високопроизводителна кобинация от хардуер и софтуер. Това е in-memory технологията, кояо като архитектурна комбинация от хардуер и софтуер има твърде висока цена. В отговор на това се появи и феномена Apache Hadoop. Open source разработката използва технологията Map Reduce, която разпределя паралелната аналитична обработка върху клъстер от стандартни сървъри. С други думи, имаме стандартен хардуер, върху който може да се изпълнява високопроизводителна обработка на Big Data.

В момента има голям спектър от фирми, които правят технологии за Big Data и поставят нови стандарти при анализа на корпоративната информация. Сред тях са и бързоразвиващите се алтернативни BI доставчици, които най-вероятно ще бъдат изкупени от по-големите производители.  Техните BI системи разчитат преди всичко на бързите резултати чрез лесно управление и имат намалени функционалности за стандартизацията и контрола на постъпващите данни. За сметка на това те имат мощни софтуерни инструменти, който интегрират и обработват данните от различни източници и предоставят изключителни аналитични възможности за изграждане на всеобхватен поглед върху бизнеса.

Очертаващите се тенденции през следващите години са BI светът да бъде повлиян освен от Big Data,  но и от cloud computing технологиите, мобилността, както и от другия основен стълб, който тласка развитието на индустрията – социалния бизнес. Всички тези сфери имат своето влияние върху проблемите с достъпа до данните – достига ли правилната информация до правилните хора в правилното време и дали организацията ще успее да се възползва от всичко това. 

 
 
 

Вход потребители

Топ новини

На 15 юни в Бизнес център „Земята и хората“ за втора поредна година ще се проведе SQL Server 2017 Discovery Day, където пред българските експерти от ИТ сферата официално ще бъде представен новият Microsoft SQL Server. На събитието, организирано от учебния център на Инспирит ЕООД - SQL Master Academy- посетителите ще могат да обменят опит и да обсъдят казуси от...

Образователната организация ERP Academy ще гостува на Софтуерния университет с безплатна лекция на тема: "Запознаване с BI и CRM". Събитието ще се проведе на 16 декември от 19 часа в зала Inspiration. Лектори ще бъдат Николай Миленков и Анастас Шопов.

Dell обяви новия си високопроизводителен и високоефективен тънък клиент Wyse 5060, който е лесен за внедряване и управление, предлага по-големи опции за сигурност и цялостна съвместимост на виртуалното работно място със Citrix, Microsoft и VMware. Създаден е за служители от индустриите на знанието, които изискват мощна производителност на настолните машини и поддръжка на...

Premium Drupal Themes by Adaptivethemes