Cursos FREE
Cursos On-line - Instituto Federal do Rio Grande do Sul (ifrs.edu.br)
Informática:
Automação de Sistemas (Porto Alegre) – curso novo
Banco de Dados 1: Fundamentos (Bento Gonçalves)
CSS: folhas de estilo (Bento Gonçalves)
Descoberta de Conhecimento em Bases de Dados: fundamentos (Veranópolis)
Documentos Google: editor de textos (Bento Gonçalves)
Google Drive (Bento Gonçalves)
HTML 1: Introdução ao desenvolvimento de páginas web (Bento Gonçalves)
HTML 2: tabelas e formulários (Bento Gonçalves)
Inkscape (Erechim)
JavaScript (Bento Gonçalves)
Lógica de Programação 1 (Feliz)
Lógica de Programação 2 (Feliz)
Lógica de Programação 3 (Feliz)
Planilhas Google: Planilha Eletrônica (Bento Gonçalves) – curso novo
Produção de Vídeos usando OBS Studio e Kdenlive (Ibirubá)
Programação Básica com Java I (Alvorada)
Programação Básica com Java II (Alvorada)
Programação Básica com Java III (Alvorada)
Projeto de Sistemas Web (Bento Gonçalves)
Raspberry PI Básico para IoT (Bento Gonçalves)
Raspberry PI e Aplicações (Bento Gonçalves)
Windows Server 2016: active directory (Porto Alegre)
Windows Server 2016: Instalação e Administração (Porto Alegre)
-------------------------------------------------------------------------------------------------------------------------
Treinamento Big Data Engineer | Academy (gupy.io)
Conteúdo programático semanal:
O Treinamento tem duração de 10 semanas e formado por 6 módulos, com a seguinte divisão:
Big Data Foundations (Semana 1 e 2):
- Conhecimento de ferramentas atuais no mercado de Big Data;
- Criação e funcionamento de um cluster Hadoop para Big Data em Docker;
- Manipulação de dados com HDFS;
- Manipulação de dados com uso do Hive;
- Otimização de consultas em grandes volumes de dados estruturados e semiestruturados com uso de Hive;
- Ingestão de dados relacionais para o HDFS/Hive, com uso do Sqoop;
- Otimização de importação no Sqoop;
- Exportação de dados do HDFS para o SGBD, com uso do Sqoop;
- Manipulação de dados com HBase;
- Operações com Dataframe em Spark para processamento de dados em batch;
- Uso do Spark SQL Queries para consultas de dados estruturados e semiestruturados
MongoDB - Básico (Semana 3):
- Entendimento de conceitos e arquitetura NoSQL e MongoDB;
- Instalação de cluster MongoDB através de container e Cloud;
- Manipular coleções, documentos e índices;
- Realizar diversas pesquisas no MongoDB com diferentes operadores;
- Fazer uso das interfaces gráficas MongoExpress e MongoCompass;
- Trabalhar com pipeline de agregações;
- Entendimento de Replicação e shards.
Redis – Básico (Semana 4):
- Entendimento de conceitos e arquitetura NoSQL e Redis;
- Instalação de cluster Redis através de container;
- Manipulação de diversos tipos de estrutura de dados com Redis-CLI;
- Implementar paradigma de mensagens Pub/Sub;
- Configurações básicas de persistência de dados.
Apache Kafka – Básico (Semana 5):
- Entendimento de conceitos e arquitetura do Kafka e da Confluent;
- Instalação de cluster Kafka através de container;
- Gerenciamento de tópicos;
- Produção e consumo de dados através do console;
- Entendimento das guias do Control Center;
- Desenvolvimento de stream com uso do KSQL;
- Aplicação de KSQL Datagen;
- Produção e consumo de dados com uso do Schema Registry;
- Trabalhando com Kafka Connect;
- Custos com Confluent Cloud;
- Otimização de parâmetros;
- Melhores práticas em um cluster Kafka.
Elastic Essential I (Semana 6 e 7):
- Entendimento de conceitos e arquitetura da Elastic;
- Instalação de cluster Elastic através de container;
- Realizar operações de CRUD em índices;
- Gerenciamento de índices;
- Alteração de mapeamento e reindex;
- Desenvolvimento de consultas do tipo term, terms, range, match e multi_match, com uso de bool query;
- Aplicação de analyzers em atributos;
- Desenvolvimento de agregações básicas;
- Ingestão de dados através de beats e logstash;
- Entendimento das guias do Kibana;
Spark - Big Data Processing (Semana 8, 9 e 10)
- Uso do Jupyter Notebooks para a criação de projetos em Spark com Python
- Spark batch intermediario
- Operações com RDD em Spark para processamento de dados em batch;
- Uso de Partições com RDD;
- Operações com Dataset em Spark para processamento de dados em batch;
- Uso de Dataset em Dataframe e RDD;
- Comandos avançados com Dataset;
- Uso do IntelliJ IDEA para a criação de projetos em Spark com Scala;
- Struct Streaming para leitura de dados do Kafka;
- Spark Streaming para leitura de dados do Kafka;
- Otimizações com uso de Variáveis Compartilhadas;
- Criações de User defined Function;
- Configurações de Tunning para o Spark Application.
REQUISITOS E QUALIFICAÇÕES
O que você precisa saber:
- Conhecimento intermediário de pelo menos uma destas linguagens:
- Python (Preferivel);
- Scala;
- Java.
- Conhecimento intermediário em SQL;
- Conhecimento básico em Git.
-------------------------------------------------------------------------------------------------------------------------
Softblue
Curso de Sql
O curso é divido em 10 módulos e a partir do segundo módulo você já vai acompanhar na prática, através do softwares que você vai baixar durante o curso.
Introdução ao Banco de Dados
Normatização de Dados
Criando um Banco de Dados
Manipulando Dados
Relacionamento e Visões
Funções Especiais e Subqueries
Controle de Acesso
Transações (ACID)
Store Procedures e Triggers
-------------------------------------------------------------------------------------------------------------------------
Zero ao Python | Kenzie Academy Brasil
Para se inscrever na "Semana do Zero ao Python - 2ª edição", basta se inscrever no
hotsite da iniciativa, clicando aqui. Como dito anteriormente, o programa será
grátis e ocorre entre os
dias 26 e 30 de abril.