Início Bancos de dados no InfoQ Brasil
Artigos
Feed RSS-
Como versionar seu databases para DevOps
Um ambiente robusto DevOps requer uma integração contínua para cada componente do sistema. Mas muitas vezes, o database é omitido da equação. Neste artigo, discutimos os únicos aspectos dos bancos de dados, tanto relacionais quanto no NoSQL, em um ambiente de integração contínua bem-sucedido.
-
Análise de dados no mundo ágil
É tudo uma questão de negócios centrados no cliente, ou ainda existem dados para serem minerados? Podemos integrar a análise de dados e a empatia pelo cliente? Este artigo explora como tornar os negócios mais direcionados ao cliente, e quais informações precisamos para entender o bem mais precioso da empresa: os clientes.
-
Entrevista com Udi Dahan: transações em sistemas (na nuvem) de mensagens
Os atuais serviços de mensagens baseados na nuvem têm níveis de suporte a transações diferente das versões anteriores? Nesta entrevista com o especialista em sistemas distribuídos Udi Dahan, exploramos esta questão.
-
Redis - Persistência, Backup e Restore em um banco de dados em memória
Este artigo aborda uma introdução a persistência de dados utilizando Redis e aspectos relacionados a como realizar backup e restore de dados utilizando um banco de em memória, com uma introdução prática dos modelos e conceitos usados no Redis e também uma breve consideração sobre os modelos.
-
Postgres oferece mais funcionalidades do que você imagina
Jason Skowronski apresenta os detalhes inovadores e pouco conhecido da comunidade de desenvolvedores e até mesmo usuários do Postgres de como escalar, processar grande volumes de dados com velocidade e trabalhar com dados especiais como busca de dados baseados em tempo e utilização do tipo de dados tsvector para realizar buscas rápidas em campos de texto.
-
Automatizando a execução de Spark Notebooks
O uso de notebooks para explorar um dataset facilita muito o trabalho do desenvolvedor, mas possui desafios para serem publicados em produção ou para os usuários finais visualizarem seus resultados, veja nesse artigo como a Tail fez para automatizar o uso dos Spark Notebooks.
-
Construindo um pipeline CI/CD + Liquibase no GitLab
Neste artigo veremos como construir um pipeline CI/CD utilizando o GitLab-CI para realizar a parte de compilação, testes unitários, empacotamento e deploy de uma aplicação Java utilizando Maven no servidor de aplicação WildFly. Por fim, o gerenciamento de mudança do banco de dados através da ferramenta Liquibase será automático.
-
Estendendo o OutputStream do Apache Spark Structured Streaming
Nem sempre o suporte padrão de saída do processamento de streams do Apache Spark Structured Streaming pode atender suas necessidades, por isso esse artigo mostra como estender a saída do stream e implementar sua própria integração externa. Apresento como estender o OutputStream com um exemplo completo de integração, persistindo o resultado do processamento em banco de dados relacional.
-
ORMs heróis ou vilões dentro da arquitetura de dados?
Ferramenta útil e muito produtiva para uns, um equipamento que destrói toda a saúde no banco de dados para outros: os ORMs e os mappers são ferramentas que até o momento trazem uma grande polêmica. Afinal, existe uma quebra de paradigma entre o programa e a persistência, mas como resolver? O objetivo do post é falar sobre ORMs para que, finalmente, os programadores e os DBAs vivam em paz.
-
Processamento de dados em tempo real usando Redis Streams e Apache Spark Structured Streaming
Roshan Kumar, gerente sênior de produtos na Redis Labs, demonstra nesse artigo como a combinação do Apache Spark Structured Streaming, que possui recursos de consulta SQL para streaming de dados, com o Redis Streams pode promover e simplificar a escalabilidade do processamento de dados em tempo real.
-
Modernização: Jakarta NoSQL foi aprovado como um projeto EE4J
Conheça mais sobre as novidades do mundo Jakarta EE e o roadmap do suporte do Jakarta EE para bancos de dados NoSQL
-
Como usar a solução de código aberto Prometheus para monitorar aplicações em escala
Nesse artigo o autor discute como coletar métricas e detectar anomalias no streaming de dados usando o Prometheus, Apache Kafka e Apache Cassandra.