Descrição de Vaga
Código: | 3506 | |
Título da vaga: | Azure Cloud - 11374563 | |
Local: | São Paulo,São Paulo | |
Região: | Outra | |
Tipo de emprego: | Efetivo | |
Nível Profissional: | ||
NÍvel Acadêmico: | Ensino Superior Completo | |
Turno/Horas: | ||
Habilidades: | - Experiência mínima de 3 anos em Azure (Planejamento, implantação de projetos corporativos, configuração e operação de ambiente BigData / DataLake); - Inglês básico - Espanhol intermediário DIFERENCIAL: - Certificação Azure Fundamentals 900 - Certificação Azure Data Engineer O QUE IREMOS AVALIAR: - Experiência com desenvolvimento de Data Lakes em Cloud; - Conhecimento de plataformas Big Data em ambiente de nuvem e banco de dados tradicionais (e.g., Azure, Cosmos DB); - Experiência Azure Data Lake Storage; Azure DataBricks; Azure Data Factory; Azure Machine Learning, Azure Data Explorer, Event Hubs, Synapse Analytics (antigo SQL DW); - Perfil Hands On; - Domínio de técnicas de processos de ETL/Modelagem dimensional; - Conhecimentos avançados em SQL para exploração, tratamento e preparação de dados; - Conhecimento na criação de rotinas em linguagem de programação para Big Data (SQL, spark, python, pyspark); |
|
Categoria: | ||
Remuneração Básica: | - - | |
Benefícios: | 0 | |
Resumo da Vaga: | - Experiência mínima de 3 anos em Azure (Planejamento, implantação de projetos corporativos, configuração e operação de ambiente BigData / DataLake); - Inglês básico - Espanhol intermediário DIFERENCIAL: - Certificação Azure Fundamentals 900 - Certificação Azure Data Engineer O QUE IREMOS AVALIAR: - Experiência com desenvolvimento de Data Lakes em Cloud; - Conhecimento de plataformas Big Data em ambiente de nuvem e banco de dados tradicionais (e.g., Azure, Cosmos DB); - Experiência Azure Data Lake Storage; Azure DataBricks; Azure Data Factory; Azure Machine Learning, Azure Data Explorer, Event Hubs, Synapse Analytics (antigo SQL DW); - Perfil Hands On; - Domínio de técnicas de processos de ETL/Modelagem dimensional; - Conhecimentos avançados em SQL para exploração, tratamento e preparação de dados; - Conhecimento na criação de rotinas em linguagem de programação para Big Data (SQL, spark, python, pyspark); |