Início Streaming no InfoQ Brasil
Artigos
Feed RSS-
APIs em tempo real no contexto do Apache Kafka
Os eventos oferecem uma abordagem no estilo Goldilocks, na qual APIs em tempo real podem ser usadas como base para aplicações garantindo flexibilidade e alto desempenho, com baixo acoplamento, porém, eficiente. O Apache Kafka oferece uma plataforma escalonável de streaming de eventos na qual podemos construir aplicações em torno deste poderoso conceito de eventos.
-
Bate papo sobre o livro “De pé sobre os ombros: Um guia para líderes na transformação digital"
O livro "De pé sobre os ombros: Um guia para líderes na transformação digital" fornece uma introdução ao pensamento e práticas relevantes sobre como identificar com os principais gargalos e preocupações para a transformação das empresas. Os autores compartilham a experiência no setor aplicando as ideias e como a mudança para o trabalho remoto pode mudar a abordagem para a transformação digital.
-
O desafio de construir um ecossistema orientado a eventos de tempo real que seja confiável
Mundialmente, há um apetite crescente por dados fornecidos em tempo real. Testemunhamos o surgimento da API de tempo real. Quando se trata de APIs baseadas em eventos, os engenheiros podem escolher entre vários protocolos diferentes, e além de escolher um protocolo, precisam pensar nos modelos de assinatura: Iniciados no servidor, baseados em push, ou iniciados no cliente, baseados em pull.
-
A solução Kongo: Criando uma aplicação IoT escalável com Apache Kafka
O Kafka é um sistema distribuído de processamento de stream que permite que os produtores distribuídos enviem mensagens aos consumidores distribuídos por meio de um cluster Kafka. Simplificando, é uma maneira de entregar mensagens onde se deseja que elas sejam enviadas. O Kafka é particularmente vantajoso porque oferece alto rendimento e baixa latência e poderosa escalabilidade horizontal.
-
Repensando as APIs do Flink para um framework unificado de processamento de dados
Desde o início, o Apache Flink seguiu uma filosofia de adotar uma abordagem unificada para processamento batch e streaming. O componente principal é o processamento de streams de dados ilimitados, como em batch por exemplo. Atualizações recentes das APIs do Flink incluem projetos arquiteturais realizados pela comunidade para suportar tanto batch como streaming de forma unificada no Apache Flink.
-
Azure Data Lake Analytics e U-SQL
Aniruddha Chakrabarti apresenta o artigo “Azure Data Lake Analytics e U-SQL” que descreve sobre os principais serviços da Azure Cloud para Big Data Analytics e a introdução de uma nova linguagem de processamento e consulta de big data chamada U-SQL, fornecendo uma visão geral da linguagem U-SQL e como usá-la em aplicações que rodam na Azure Cloud.
-
Aumentando a Qualidade do Atendimento ao Paciente através de Stream Processing
Today’s healthcare technology landscape is disaggregated and siloed. Physicians analyse patient data streams from different systems without much correlation. Even though health-tech domain is mature and rich with data, the value of it is not directed towards increasing the quality of patient care. This article presents a stream processing solution in which streams are co-related.
-
Como usar a solução de código aberto Prometheus para monitorar aplicações em escala
Nesse artigo o autor discute como coletar métricas e detectar anomalias no streaming de dados usando o Prometheus, Apache Kafka e Apache Cassandra.
-
Dimensionando um processador de Stream distribuído em um ambiente containerizado
Este artigo apresenta um experimento de escalonamento de processadores de Stream distribuído em um ambiente de Kubernetes. Para fazer isto, o processador de stream deve fornecer uma linguagem de programação de consulta para manter o nível ideal de paralelismo, independentemente da escala inicial do aplicativo.
-
Processos ETL em batch estão mortos e o Apache Kafka é o futuro para processamento de dados?
Na QCon San Francisco 2016, Neha Narkhede palestriu sobre “ETL is Dead; Long Live Streams ”e discutiu a mudança do cenário do processamento de dados corporativos. Uma premissa central da conversa foi que a plataforma de streaming Apache Kafka de código aberto pode fornecer uma estrutura flexível e uniforme que suporta os requisitos modernos para transformação e processamento de dados.
-
Apache Kafka: dez melhores práticas para otimizar sua implantação
O author Ben Bromhead discute as melhores práticas mais recentes do Kafka para que os desenvolvedores gerenciem a plataforma de streaming de dados mais efetivamente. As melhores práticas incluem configuração de log, uso adequado de hardware, configuração do Zookeeper, fator de replicação e número de partições.
-
Criando uma camada RESTFul para integração entre microserviços com Apache Kafka
O Apache Kafka é uma das principais opções no mercado quando há a necessidade de trafegar dados na forma de eventos entre sistemas com escalabilidade e organização. A Via Varejo, na última Black Friday (2018) trafegou mais de 50 milhões de mensagens utilizando o Apache Kafka em apenas 2 dias com uma média de 25 mil mensagens por segundo.