A cada dia que passa, geramos uma quantidade cada vez maior de dados. Essa crescente supremacia de dados pessoais e corporativos em todo o mundo fez com que muitas empresas parassem para pensar como elas podem extrair valor dessa situação.
Neil Mendelson, vice-presidente de Big Data e soluções analíticas da Oracle, usou o seu conhecimento na área para fazer algumas previsões sobre a evolução das tendências relacionadas aos dados. “Você só precisa examinar empresas como o Google para entender o verdadeiro valor que os dados podem trazer”, exemplificou o executivo.
Para ele, o mercado atual ainda está focado no valor das marcas, mas a tendência é que esse valor seja transferido para os dados que elas detêm, como informações sobre lugares, coisas e pessoas.
Tendo isso em mente, veja as cinco melhores previsões relacionadas ao Big Data apontadas pela Oracle:
1. As pautas das reuniões mudarão de Big Data para o chamado “capital de dados”
Os dados contribuem tanto quanto o capital financeiro para a inovação e a criação de novos produtos, serviços e processos. Para o CEO, isso implica no foco em meios para acessar o capital de dados, enquanto o Diretor de TI foca seu interesse no fornecimento de liquidez de dados.
2. Crescimento no gerenciamento de Big Data
NoSQL e Hadoop vão progredir de suas posições atuais para se tornar componentes típicos dentro da gestão de dados das empresas ao lado dos sistemas de bancos de dados relacionais. Durante este ano, as empresas vão decidir quais papéis devem ser atribuídos aos vários componentes rudimentares e utilizar todas as três arquiteturas para criar um sistema de gerenciamento de dados maduro.
3. Maior demanda por um SQL para todos os tipos de dados
Empresas vão exigir um SQL que trabalhe com todos os tipos de dados ao invés de se limitar a RDBMSs, NoSQL ou Hadoop. Também haverá uma demanda para que o SQL tenha capacidades semelhantes às que estão sendo utilizadas atualmente por desenvolvedores de aplicativos, exigindo um prazo overnight na tecnologia por trás do SQL.
4. Transformação do processo de ETL em JIT (just-in-time, ou tradução dinâmica)
O ETL – Extração, Transformação e Carga (em inglês Extract, Transform and Load) – é o principal processo de condução dos dados até o armazenamento definitivo no Data Warehouse. Porém, seu processo será reexaminado após a explosão das capacidades de streaming de memória. Especialistas em dados vão preferir métodos de reaplicação em tempo real em vez da etapa de carga padrão. Aproveitando-se dessa tecnologia de processamento in-memory, a transformação de dados será feita rápido o suficiente para sustentar a exploração interativa.
5. Big Data será caracterizado por visualização e ferramentas de descoberta self-service
A tecnologia que resultará na criação de ferramentas de visualização e descoberta de dados será útil para os especialistas dentro das empresas. As novas ferramentas de interação com o usuário irão mesclar o nível superior de interação do consumidor com o complexo algoritmo por trás das cortinas que trazem capacidades de investigação, organização e valorização.
Isso permitirá que as empresas utilizem dados de fontes externas de acordo com a análise de dados internos e das políticas sociais. Como resultado, o Big Data se tornará muito mais fácil de ser explorado.
Fonte: Canaltech