top of page
Buscar


Criação de PODs do Kubernetes com arquivo YAML (manifesto)
Criação de PODs do kubernetes utilizando arquivos YAML
Rodrigo Saito
há 10 horas2 min de leitura


Como criar componentes do Kubernetes de modo imperativo
primeiros comandos no kubernates em modo imperativo
Rodrigo Saito
há 24 horas1 min de leitura


Como instalar Kubernetes em uma Máquina Virtual Linux
criação de uma vm oracle ubuntu e a instalação do docker, minikube
Rodrigo Saito
há 2 dias3 min de leitura


Configuração de multiplos ambientes no Python (pyenv, pip, venv, pipx e poetry)
Fala pessoal, tudo bem? Quando falamos de multiplos ambientes, devemos sempre pensar que os projetos irão ser criados em tempos diferentes. A medida que o tempo vai passando, em paralelo, teremos versões de linguagens de programação que irão sendo atualizadas (e é exatamente o que acontece com o Python) Por isso, precisamos de ambientes de versões diferentes para poder suportar multiplos ambientes ou projetos. Cada versão consegue trabalhar com diferentes bibliotecas e versõe
Rodrigo Saito
4 de jan.7 min de leitura


Como instalar o n8n no Docker Desktop
Fala pessoal, tudo bem? Voce conhece o n8n? É uma ferramenta de automação de fluxo de trabalho com licença FairCode que combina recursos de IA com automação de processos de negócios. Ela abrange tudo, desde a configuração até o uso e o desenvolvimento. É um trabalho em andamento e todas as contribuições são bem-vindas. Vamos fazer a instalação simples no docker para que possamos utiliza-lo, mesmo de forma limitada comparada a versão enterprise, que pode ser utilizada por 14 d
Rodrigo Saito
4 de nov. de 20252 min de leitura


Como instalar um Cluster do Apache Spark no Docker Desktop utilizando Compose
Fala pessoal, tudo bem Voce sabe o que é o Apache Spark? O Apache Spark é um mecanismo analítico unificado para processamento de dados em larga escala. Ele fornece APIs de alto nível em Java, Scala, Python e R, além de um mecanismo otimizado que suporta gráficos de execução gerais. Ele também suporta um amplo conjunto de ferramentas de alto nível, incluindo Spark SQL para SQL e processamento de dados estruturados, API Pandas no Spark para cargas de trabalho Pandas, MLlib para
Rodrigo Saito
13 de out. de 20255 min de leitura
bottom of page
