Início Event Stream Processing no InfoQ Brasil
Artigos
Feed RSS-
APIs em tempo real no contexto do Apache Kafka
Os eventos oferecem uma abordagem no estilo Goldilocks, na qual APIs em tempo real podem ser usadas como base para aplicações garantindo flexibilidade e alto desempenho, com baixo acoplamento, porém, eficiente. O Apache Kafka oferece uma plataforma escalonável de streaming de eventos na qual podemos construir aplicações em torno deste poderoso conceito de eventos.
-
O desafio de construir um ecossistema orientado a eventos de tempo real que seja confiável
Mundialmente, há um apetite crescente por dados fornecidos em tempo real. Testemunhamos o surgimento da API de tempo real. Quando se trata de APIs baseadas em eventos, os engenheiros podem escolher entre vários protocolos diferentes, e além de escolher um protocolo, precisam pensar nos modelos de assinatura: Iniciados no servidor, baseados em push, ou iniciados no cliente, baseados em pull.
-
A solução Kongo: Criando uma aplicação IoT escalável com Apache Kafka
O Kafka é um sistema distribuído de processamento de stream que permite que os produtores distribuídos enviem mensagens aos consumidores distribuídos por meio de um cluster Kafka. Simplificando, é uma maneira de entregar mensagens onde se deseja que elas sejam enviadas. O Kafka é particularmente vantajoso porque oferece alto rendimento e baixa latência e poderosa escalabilidade horizontal.
-
Repensando as APIs do Flink para um framework unificado de processamento de dados
Desde o início, o Apache Flink seguiu uma filosofia de adotar uma abordagem unificada para processamento batch e streaming. O componente principal é o processamento de streams de dados ilimitados, como em batch por exemplo. Atualizações recentes das APIs do Flink incluem projetos arquiteturais realizados pela comunidade para suportar tanto batch como streaming de forma unificada no Apache Flink.
-
Aumentando a Qualidade do Atendimento ao Paciente através de Stream Processing
Today’s healthcare technology landscape is disaggregated and siloed. Physicians analyse patient data streams from different systems without much correlation. Even though health-tech domain is mature and rich with data, the value of it is not directed towards increasing the quality of patient care. This article presents a stream processing solution in which streams are co-related.
-
Dimensionando um processador de Stream distribuído em um ambiente containerizado
Este artigo apresenta um experimento de escalonamento de processadores de Stream distribuído em um ambiente de Kubernetes. Para fazer isto, o processador de stream deve fornecer uma linguagem de programação de consulta para manter o nível ideal de paralelismo, independentemente da escala inicial do aplicativo.
-
Processos ETL em batch estão mortos e o Apache Kafka é o futuro para processamento de dados?
Na QCon San Francisco 2016, Neha Narkhede palestriu sobre “ETL is Dead; Long Live Streams ”e discutiu a mudança do cenário do processamento de dados corporativos. Uma premissa central da conversa foi que a plataforma de streaming Apache Kafka de código aberto pode fornecer uma estrutura flexível e uniforme que suporta os requisitos modernos para transformação e processamento de dados.
-
Apache Kafka: dez melhores práticas para otimizar sua implantação
O author Ben Bromhead discute as melhores práticas mais recentes do Kafka para que os desenvolvedores gerenciem a plataforma de streaming de dados mais efetivamente. As melhores práticas incluem configuração de log, uso adequado de hardware, configuração do Zookeeper, fator de replicação e número de partições.
-
Criando uma camada RESTFul para integração entre microserviços com Apache Kafka
O Apache Kafka é uma das principais opções no mercado quando há a necessidade de trafegar dados na forma de eventos entre sistemas com escalabilidade e organização. A Via Varejo, na última Black Friday (2018) trafegou mais de 50 milhões de mensagens utilizando o Apache Kafka em apenas 2 dias com uma média de 25 mil mensagens por segundo.
-
Como escolher um processador de stream para a sua aplicação
Processadores de stream são plataformas de software que permitem aos usuários responderem mais rapidamente aos streams de dados que chegam em comparação ao processamento tradicional de dados em lotes. Neste artigo, os autores apresentam a arquitetura de referência de processadores de stream, características importantes necessárias e opcionais com base nos casos de uso específicos.
-
Migração em lote com ETL para processamento de fluxo: um estudo de caso Netflix com Kafka e Flink
No Qcon NY, Shriya Arora falou sobre “Personalising Netflix with Streaming Datasets” e discutiu a migração de uma rotina de processamento de dados de ETL em lote para o processamento de fluxo usando o Apache Flink.
-
Big Data com Apache Spark Part 3: Spark Streaming
Este é o terceiro artigo da série Big Data com Apache Spark. Nos 2 primeiros artigos abordamos o processamento de dados estáticos. Neste artigo trataremos do processamento de dados em streaming e em tempo real. O artigo busca mostrar como podemos usar o Apache Spark para realizar análises sob informações em cenários onde os dados são gerados continuamente.