Indicium Logo
Blog Indicium

Data Engineer


Descrição: Responsável por criar e manter pipeline de dados para serem consumidos em aplicações cruciais internas e externas, e em análises que contribuem na tomada de decisão da empresa.


Quem somos:

Nossa missão é construir vantagem analítica nas empresas através dos dados. Para isso, trabalhamos em todas as etapas da Jornada Data Driven utilizando processos inovadores e tecnologias na fronteira do conhecimento.

Crescemos exponencialmente desde nosso início, em 2017, e hoje temos clientes entre as maiores empresas do Brasil e do mundo! Já somos considerados uma das líderes em data science e analytics* na América Latina, e nossa visão é estar entre as maiores consultorias independentes de analytics no Brasil nos próximos anos. Temos projetos em diferentes continentes e esperamos crescer ainda mais!

Apesar da “hype” nos últimos anos, as empresas em geral ainda mal arranharam a superfície da utilização dos dados. Isso significa que nosso ambiente é extremamente dinâmico e inovador: podemos estar estruturando uma nova estratégia de dados em uma grande empresa brasileira em um dia e, no dia seguinte, fazendo um modelo de previsão para uma multinacional americana ou europeia.

Também buscamos inovar em processos e ferramentas, utilizando tecnologias de código aberto em engenharia de dados, big data, machine learning, inteligência artificial, BI e analytics. Encorajamos a busca contínua por novas e melhores ferramentas e também desenvolvemos nossas próprias, quando necessário.

Nosso principal recurso não são os processos inovadores e as tecnologias de ponta, mas as pessoas e a cultura que desenvolvemos diariamente.

Buscamos pessoas que queiram compartilhar e agregar ainda mais nessa cultura de inovação e desenvolvimento mútuo.

  • Acreditamos que cada um tem uma voz. Nossa gestão é transparente (mesmo!) e horizontal.
  • Temos uma cultura de treinamento e educação permanente com material próprio e externo.
  • Temos uma cultura de feedback permanente e desenvolvimento de pessoas.
  • Incentivamos que nossos colegas sejam donos de seus próprios projetos e criem novos processos.
  • Valorizamos as interações dentro e fora do ambiente de trabalho com noites de jogos, happy hours e muito mais (presenciais e virtuais).
  • Temos programa de incentivo para iniciativas pessoais e colaborativas.

Gostou?

Então, siga conosco!



Desafios:

  • Usar API de serviços (internos e externos) para ingestão de dados em nossos processos de ELT (Extract Load and Transform)
  • Garantir que todo o processo de ELT esteja funcionando por meio de monitoramento e métricas como SLA
  • Monitorar a execução do ELT hospedados na nuvem e on-premises
  • Disseminação de boas práticas de Devops e Dataops no time.

Requisitos:

  • Experiência em linguagem de programação (Python, Java, Ruby, JavaScript, Scala, etc.)
  • Facilidade com ambiente Linux e Git
  • Conhecimento  em SQL
  • Conhecimento em algoritmos e estrutura de dados
  • Conhecimento em Dev Ops
  • Certificação em plataforma de nuvem pública (AWS, Azure, GPC)

Diferenciais:

  • Experiência com aplicações de data pipelines (Airflow, Prefect, etc)
  • Conhecimento de frameworks de processamento distribuído (Spark, Hadoop, Dask, etc)
  • Experiência com processamento de dados na nuvem (AWS, GCP)

Carga Horária: 40 horas semanais


Local: Florianópolis - SC (trabalho remoto)


Remuneração: A combinar

  • Por Caroline Wolff

Assine nossa newsletter