iTRecruiter

Local:
Remoto

DATA ENGINEER

DATA ENGINEER (REMOTE)

Portuguese company hires for remote work

FLUENT PORTUGUESE AND ENGLISH (C1)

SEND CV IN ENGLISH

Description

Data Engineer

PURPOSE OF THE JOB

You will work on one of the world's largest platforms which deals with a few petabytes of data coming to the system daily. You will contribute as part of R&D self-organized team working in a challenging, innovative environment for our client.

Investigate, create, and implement the solutions for many technical challenges using cutting edge technologies, including building/enhancing data processing platform enabling work of software used by hundreds of millions of users.

RESPONSIBILITIES

• Obtains tasks from the project lead or Team Lead (TL), prepares functional and design specifications, approves them with all stakeholders.

• Ensures that assigned area/areas are delivered within set deadlines and required quality objectives.

• Provides estimations, agrees task duration with the manager and contributes to project plan of assigned area.

• Evaluating existing data systems.

• Developing best practices for data coding to ensure consistency within the system.

• Updating and optimizing local and metadata models.

• Evaluating implemented data systems for variances, discrepancies, and efficiency.

• Troubleshooting and optimizing data systems.

• Understand the business drivers and analytical use-cases and translate these to data products.

• Design, implement and maintain pipelines that produce business critical data reliably and efficiently using cloud technology.

• Addresses area-level risks, provides, and implements mitigation plan.

• Reports about area readiness/quality, and raise red flags in crisis situations which are beyond his/her AOR.

• Responsible for resolving crisis situations within his/her AOR.

• Initiates and conducts code reviews, creates code standards, conventions, and guidelines.

• Suggests technical and functional improvements to add value to the product.

• Constantly improves his/her professional level.

• Collaborates with other teams.

- MUST HAVE -

Having a solid understanding of data engineering principles and proficiency in designing, building, and optimizing data pipelines.

Having knowledge of ETL tools and frameworks and an understanding of native capabilities for data ingestion, transformation, and orchestration, such AIRFLOW

Strong SQL skills

Proficiency in Python

Minimum 4 years experience in the technologies above

PLUS -

In-depth knowledge of both Snowflake and Databricks platforms is required. Proficiency in data modeling and designing efficient data structures/ETL processes and optimizing data storage.

AWS cloud experience (EC2/S3).

Awareness of data governance principles and best practices for ensuring data security, and compliance.

Tableau, Python/Scala, PySpark, SparkSQL, Airflow, Kafka, Flink, Trino, Snowflake, Deltalake, Databricks, AWS (EC2/S3).

- Office hours -

Eastern Daylight Time

- 14:30 PM - 22:30 PM ( Lisbon Time) -

- 09:30 AM- 17.30 PM ( Client Time)

- Pacific Daylight Time -

- 17:00 PM - 01:00 AM ( Client Time) - preferred time -

- 09:30AM - 16:00 PM ( Client Time)

Full remote

______________________________________________________________________________

ENGENHEIRO DE DADOS (REMOTO)

Empresa portuguesa contrata para trabalho remoto

PORTUGUÊS E INGLÊS FLUENTES (C1)

ENVIAR CV EM INGLÊS

Descrição

Engenheiro de Dados

OBJETIVO DO TRABALHO

Você trabalhará em uma das maiores plataformas do mundo, que lida com alguns

petabytes de dados que chegam ao sistema diariamente. Você contribuirá como parte do

Equipe auto-organizada de pesquisa e desenvolvimento trabalhando em um ambiente desafiador e inovador para o nosso cliente.

Investigue, crie e implemente as soluções para muitos técnicos

desafios usando tecnologias de ponta, incluindo a construção/aprimoramento de dados

plataforma de processamento que permite o trabalho de software usado por centenas de milhões de

Usuários.

RESPONSABILIDADES

• Obtém tarefas do líder do projeto ou Líder de Equipe (TL), prepara especificações funcionais e de design, aprova-as com todas as partes interessadas.

• Garante que a área/áreas atribuídas sejam entregues dentro dos prazos definidos e dos objetivos de qualidade exigidos.

• Fornece estimativas, concorda a duração da tarefa com o gerente e contribui para o plano de projeto da área designada.

• Avaliação de sistemas de dados existentes.

• Desenvolvimento de melhores práticas de codificação de dados para garantir a consistência dentro do sistema.

• Atualização e otimização de modelos locais e de metadados.

• Avaliação de sistemas de dados implementados quanto a variâncias, discrepâncias e eficiência.

• Solução de problemas e otimização de sistemas de dados.

• Entender os drivers de negócios e casos de uso analíticos e traduzi-los para produtos de dados.

• Projetar, implementar e manter pipelines que produzem dados críticos de negócios de forma confiável e eficiente usando a tecnologia de nuvem.

• Aborda riscos em nível de área, fornece e implementa plano de mitigação.

• Relatórios sobre prontidão/qualidade da área, e levantar bandeiras vermelhas em situações de crise que estão além de sua AOR.

• Responsável pela resolução de situações de crise dentro do seu AOR.

• Inicia e conduz revisões de código, cria padrões de código, convenções e diretrizes.

• Sugere melhorias técnicas e funcionais para agregar valor ao produto.

• Melhora constantemente seu nível profissional.

• Colabora com outras equipes.

- DEVE TER -

Ter uma sólida compreensão dos princípios de engenharia de dados e proficiência em projetar, construir e otimizar pipelines de dados.

Ter conhecimento de ferramentas e frameworks de ETL e uma compreensão de recursos nativos para ingestão, transformação e orquestração de dados, como AIRFLOW

Fortes habilidades em SQL

Proficiência em Python

Experiência mínima de 4 anos nas tecnologias acima

-MAIS-

É necessário um conhecimento profundo das plataformas Snowflake e Databricks.

Proficiência em modelagem de dados e projeto de estruturas de dados/processos de ETL eficientes e otimização do armazenamento de dados.

Experiência na nuvem da AWS (EC2/S3).

Conscientização sobre os princípios de governança de dados e as melhores práticas para garantir a segurança e a conformidade dos dados.

Tableau, Python/Scala, PySpark, SparkSQL, Airflow, Kafka, Flink, Trino, Snowflake, Deltalake, Databricks, AWS (EC2/S3).

-Horário de funcionamento

- Horário de verão oriental

-- 14:30 - 22:30 (Hora de Lisboa)

-- 09:30 - 17:30 (Horário do Cliente)

- Horário de verão do Pacífico

-- 17:00 PM - 01:00 AM ( Hora do Cliente) - horário preferido

-- 09:30 - 16:00 (Horário do Cliente)

100% REMOTO

#00256384

Clique aqui para se candidatar

Vaga preenchida

Usamos cookies e outras tecnologias semelhantes para melhorar a sua experiência em nosso site. Ao utilizar nosso site, você concorda com tal monitoramento. Conheça nossa Política de Privacidade.
Aceitar tudocontinuar como visitante