Ingeniero de Datos

Factor IT - Santiago (Hybrid)

Factor IT

Salary: $$$
Type: Full time

Tags: Python SQL BigQuery Docker

En Factor IT trabajamos para impulsar la transformación digital en grandes empresas de la región, con foco en Data & Analytics, automatización e inteligencia artificial. Dentro de nuestros proyectos, participamos en iniciativas que construyen y evolucionan plataformas de datos sobre Google Cloud (GCP), integrando servicios, pipelines y automatización para habilitar analítica avanzada y toma de decisiones basada en datos. Te unirás a un equipo que diseña soluciones robustas y escalables, con tecnologías modernas, alto expertise técnico y una cultura de colaboración y aprendizaje continuo.

This posting is original from the Get on Board platform.

Ingeniero de Datos

Como Ingeniero de Datos, nuestro objetivo es diseñar, construir y mantener pipelines de datos confiables y escalables en entornos de GCP, asegurando que los datos fluyan correctamente desde las fuentes hasta los modelos y capacidades analíticas.
Entre tus responsabilidades:
  • Desarrollar y optimizar consultas SQL avanzadas (PostgreSQL, MySQL).
  • Implementar procesos ETL/ELT usando Airflow, dbt y servicios de orquestación/ingesta como Dataflow y Pub/Sub.
  • Programar en Python para automatizar transformaciones e integraciones.
  • Trabajar con servicios y prácticas de GCP para construir soluciones mantenibles.
  • Desplegar y gestionar componentes mediante Docker y Kubernetes, garantizando robustez y escalabilidad.
Nos enfocamos en colaborar estrechamente con el equipo para entender requerimientos del negocio, proponer mejoras y asegurar calidad, eficiencia y confiabilidad en todo el ciclo de vida de la plataforma de datos.

Requisitos excluyentes

Buscamos un Ingeniero de Datos con experiencia práctica para integrarse a proyectos regionales y con impacto real en la transformación tecnológica, especialmente en el sector financiero.
Requisitos excluyentes:
  • SQL avanzado (PostgreSQL, MySQL).
  • BigQuery.
  • ETL/ELT: Airflow, dbt, Dataflow, Pub/Sub.
  • Python.
  • Experiencia en GCP.
  • Docker y Kubernetes.
Además, valoramos:
  • Capacidad para analizar problemas, depurar y mejorar pipelines existentes.
  • Orientación a la calidad y a la confiabilidad de los datos.
  • Buena comunicación y trabajo colaborativo para alinear soluciones con necesidades del negocio.
  • Mentalidad de aprendizaje continuo y adaptación a tecnologías emergentes.
Nos importa que seas proactivo, que puedas proponer mejoras y que mantengas un enfoque responsable en la operación y evolución de la plataforma de datos.

Deseable

Sumará puntos si cuentas con:
  • Streaming (Kafka, Flink).
  • Java o Scala.
  • Experiencia con herramientas BI (Looker, Power BI, Tableau).
Estas habilidades nos ayudan a ampliar la capacidad de análisis, habilitar casos en tiempo real y facilitar la integración con productos y consumo de datos.
Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal.
Vas a formar parte de un ambiente colaborativo, dinámico y con tecnologías de última generación que impulsan el crecimiento profesional y la innovación tecnológica.
Contarás con un paquete salarial competitivo, acorde a la experiencia y perfil, e integrado a una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo.
Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve la innovación y el desarrollo profesional continuo.

Source: GetOnBoard | Main Category: Other