Gross salary $4000 - 6000 Full time
Python C# Docker CI/CD

Vequity is building the world’s most robust, contextualized buyer intelligence network for investment banks, private equity firms, and strategic acquirers — a platform with over 2.1 million buyer profiles, each containing ~100 structured and inferred data fields. Our proprietary AI agents continuously enrich, infer, and structure buyer intelligence at scale.

We need a fullstack engineer who ships product features end-to-end, brings real fluency with AI development tooling, and will take ownership of deployment pipelines that currently lack a dedicated owner.

This is a two-sided role: half building features that users see, half making the engineering team faster and more reliable. If you’ve actually built with Claude Code, Cursor, GitHub Copilot, or similar tools — not just experimented — and you can prove it with real output, we want to talk.

Apply exclusively at getonbrd.com.

What you’ll own

  • Fullstack product development. Build and ship features across the Angular frontend and C# / Python backend. Translate product requirements into production-ready code. Write clean, tested, maintainable code with solid PR practices.
  • AI-augmented development. Actively use AI coding tools (Claude Code, Cursor, GitHub Copilot, Windsurf, Aider) to accelerate your own development velocity. Improve team patterns and best practices for AI-assisted workflows. Evaluate and integrate new AI development tools as they emerge.
  • Deployment and operations. Own and improve CI/CD pipelines, deployment automation, and infrastructure-as-code. Build monitoring, alerting, and incident response capabilities. Manage cloud infrastructure (GCP) including cost optimization and scaling. Create and maintain runbooks for operational procedures.
  • Developer experience and tooling. Reduce friction in the development-to-deployment cycle. Improve local development environments, testing infrastructure, and developer workflows. Standardize build, lint, and test tooling across the codebase.
  • Cross-functional collaboration. Work across product, engineering, and sales operations teams. Bridge feature development and infrastructure reliability. Participate in code reviews and mentor team members.

What success looks like in year one

  • Shipping 2–3 features per sprint while maintaining code quality.
  • Continuous deployment implemented within your first month.
  • At least one improvement to the team’s AI-assisted workflow per week.
  • Deployment pipeline has a clear owner with documented runbooks and <15 minute rollback capability within 3 months.
  • Zero unplanned downtime from deployment issues within 6 months.
  • Your teammates are measurably faster because of the tooling and patterns you’ve introduced.

What we’re looking for

Core requirements

  • 4+ years fullstack development experience with Angular + Python or C# backends.
  • Demonstrated production use of AI coding tools (Claude Code, Cursor, GitHub Copilot) — must be able to show concrete examples of how these tools changed your workflow and output.
  • Experience with CI/CD pipelines, containerization (Docker), and cloud deployment (GCP preferred, AWS acceptable).
  • Solid understanding of DevOps practices: infrastructure-as-code, monitoring, logging, alerting.
  • Strong written English — this is a remote, async-heavy role with a US-based team.
  • Comfort working in a fast-paced startup where priorities shift and ownership is expected.

Nice to have

  • Github Actions experience is a big plus
  • Experience owning deployment pipelines end-to-end in a startup environment.
  • Terraform or Pulumi for infrastructure-as-code.
  • Kubernetes or Cloud Run experience on GCP.
  • Background in B2B SaaS or data-intensive platforms.
  • Experience with PostgreSQL and data-heavy applications.
  • Familiarity with the Python data tooling ecosystem (even if not a data engineer).
  • Contributions to open source or public examples of AI-augmented development work.

Compensation and benefits

We pay competitively for the LATAM market and we’re transparent about it.

  • Time off: Manage your own schedule. We trust you.
  • Health: $150/month health and wellness stipend.
  • Engagement: B2B contract. 30-day mutual notice.

How we work

  • Fully remote. We are based in Denver, Colorado (MT, UTC-7). You can work from Mexico, Colombia, Argentina, Brazil, Chile, or anywhere in the Americas with strong overlap.
  • Same time zone. We expect significant daily overlap with Central Standard Time (CT). LATAM time zones are ideal — this is a key reason we’re hiring in the region.
  • Async-first. We write things down. Docs, Loom videos, and thoughtful PR descriptions are the norm. Meetings happen when they’re the fastest path to clarity, not by default.
  • Small team, direct access. You will work directly with the Head of Engineering and the founder. No middle management. Your work ships fast.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Vequity pays or copays health insurance for employees.
Computer provided Vequity provides a computer for your work.
$$$ Full time
Customer Success Project Management API Integration Account Management

OMNIX desarrolla una plataforma PaaS de automatización y orquestación de disrupciones en operaciones complejas, integrándose con sistemas core como ERP, WMS, CRM e IoT. Trabajamos con empresas enterprise en industrias como telecomunicaciones, retail, logística y manufactura, donde la continuidad operacional es crítica.
El Customer Success Manager se incorpora al equipo de Delivery & Customer Success, trabajando en estrecha colaboración con Forward Deployed Engineers (FDE), Ventas y Producto. Su rol es asegurar que las implementaciones generen impacto real y sostenido en el negocio del cliente. Es responsable de transformar proyectos en adopción profunda, expansión de uso y valor operativo tangible, contribuyendo directamente a la retención y crecimiento de cuentas estratégicas.

Apply directly on the original site at Get on Board.

Funciones del cargo

El Customer Success Manager es responsable de la gestión integral de cuentas enterprise post-implementación, asegurando que OMNIX se convierta en un sistema crítico dentro de la operación del cliente. Lidera la relación estratégica con stakeholders, define junto al cliente los casos de uso prioritarios y construye un roadmap de expansión basado en impacto operativo.
Trabaja coordinadamente con el FDE, quien ejecuta técnicamente las soluciones, mientras el CSM asegura su adopción, continuidad y valor en producción. Tiene autonomía para priorizar iniciativas, detectar oportunidades de expansión y escalar decisiones. Lidera instancias ejecutivas como QBRs y es responsable de sostener una narrativa clara de valor. El éxito del rol se mide por la profundidad de uso de la plataforma, la expansión de la cuenta y la capacidad de convertir soluciones en resultados concretos dentro de la operación.

Requerimientos del cargo

Experiencia mínima de 5 años en roles de Customer Success, consultoría o gestión de cuentas en contextos B2B enterprise.

Experiencia demostrable trabajando con clientes complejos en industrias como logística, telecomunicaciones, retail o manufactura.

Capacidad de interactuar con stakeholders técnicos y ejecutivos (C-level), sosteniendo conversaciones de negocio y tecnología.

Experiencia gestionando implementaciones o proyectos con múltiples integraciones (ERP, APIs, sistemas core).

Fuerte orientación a resultados, con capacidad de estructurar problemas, priorizar iniciativas y ejecutar con autonomía.

Inglés avanzado (oral y escrito) para interacción con equipos y clientes internacionales.

Alta disciplina operativa, capacidad de seguimiento y accountability bajo entornos exigentes.

Opcionales

Experiencia previa en empresas tipo SaaS/PaaS o plataformas de datos y automatización operacional.

Conocimiento en herramientas de integración, data workflows o automatización (ej: n8n, Zapier, APIs, ETL).

Experiencia en consultoría estratégica o implementación de transformación digital en grandes empresas.

Familiaridad con metodologías de gestión como EOS o frameworks de ejecución disciplinada.

Conocimiento en analítica de datos, detección de anomalías o modelos de inteligencia artificial aplicados a operaciones.

Experiencia en entornos de alto crecimiento o compañías tecnológicas con foco enterprise.

Condiciones

enefits of working at OMNIX
  • Be part of an agile, high-impact team where everyone contributes and makes a difference.
  • Mostly remote work, with flexibility and objective-based management.
  • Performance and company results bonuses.
  • Fast professional growth, with the possibility to expand roles and responsibilities.
  • We operate using the EOS (Entrepreneurial Operating System), which provides:
    • clarity of goals,
    • strong prioritization,
    • clear metrics,
    • a culture of accountability.
  • Opportunity to work with teams in Chile, Peru, Colombia, and the United States.
  • Participation in cutting-edge AI and automation projects with real impact on enterprises and governments.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage OMNIX AI Corp pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal OMNIX AI Corp gives you paid vacations over the legal minimum.
Gross salary $2200 - 2400 Full time
JavaScript Android iOS Git
Somos 3IT ¡Innovación y talento que marcan la diferencia!
Para nosotros, la innovación es un proceso colaborativo y el crecimiento una meta compartida. Nos guiamos por valores como el trabajo en equipo, la confiabilidad, la empatía, el compromiso, la honestidad y la calidad, porque sabemos que los buenos resultados parten de buenas relaciones.
Además, valoramos la diversidad y promovemos espacios de trabajo inclusivos. Por eso nos sumamos activamente al cumplimiento de la Ley 21.015, asegurando procesos accesibles y con igualdad de oportunidades.
Si estás buscando un lugar donde seguir aprendiendo, aportar con lo que sabes y crecer en un ambiente cercano y colaborativo, esta puede ser tu próxima oportunidad.

This job is published by getonbrd.com.

📝 ¿Cuál sería tu trabajo?

Desarrollar interfaces de usuario eficientes, asegurando la funcionalidad y la calidad visual del software en cumplimiento con los requisitos del proyecto.

🌟Herramientas

  • React Native
  • JavaScript
  • Typescript
  • Servicio Rest
  • Marco de trabajo ágil: Scrum
  • Versionamiento de código (Git)
  • Desarrollo nativo en iOS o Android
  • Herramientas de Suite Atlassian: Jira, TM4J, Bamboo
  • Experiencia en banca
  • Contar con al menos 4 años de experiencia trabajando con las tecnologías mencionadas
📍 ¿Dónde y cómo trabajarás?
  • Ubicación oficina: Santiago
  • Modalidad: Híbrida

✋ Algunas consideraciones antes de postular

  • Debes tener disponibilidad para trabajar en modalidad híbrida y asistir de forma presencial a las oficinas de cliente.
  • Si estás en situación de discapacidad, cuéntanos si necesitas algún requerimiento especial para tu entrevista.

✌️ Beneficios Tritianoa

💰 Bono anual
🦷 Seguro dental
📚 Capacitaciones
📅 Días administrativos
🍽️ Tarjeta Pluxxe + $80.000
👕 Código de vestimenta informal
🚀 Programas de upskilling y reskilling
🏥 Seguro complementario de salud MetLife
💊 Descuentos en farmacias y centros de salud
🐾 Descuento en seguros y tiendas de mascotas
🎄 Aguinaldo en Fiestas Patrias y Navidad
👶 Días adicionales al postnatal masculino
🎂 Medio día libre por tu cumpleaños
🏦 Caja de Compensación Los Andes
🌍 Descuento Mundo ACHS
🎁 Regalo por nacimiento
🛍️ Descuentos Buk

Health coverage Banchile pays or copays health insurance for employees.
Computer provided Banchile provides a computer for your work.
Gross salary $2000 - 2200 Full time
Product Owner TI
  • 3IT
  • Santiago (Hybrid)
Agile Scrum Jira OKR

Somos 3IT ¡Innovación y talento que marcan la diferencia!

Para nosotros, la innovación es un proceso colaborativo y el crecimiento una meta compartida. Nos guiamos por valores como el trabajo en equipo, la confiabilidad, la empatía, el compromiso, la honestidad y la calidad, porque sabemos que los buenos resultados parten de buenas relaciones.

Además, valoramos la diversidad y promovemos espacios de trabajo inclusivos. Por eso nos sumamos activamente al cumplimiento de la Ley 21.015, asegurando procesos accesibles y con igualdad de oportunidades.

Si estás buscando un lugar donde seguir aprendiendo, aportar con lo que sabes y crecer en un ambiente cercano y colaborativo, esta puede ser tu próxima oportunidad.

Apply to this job at getonbrd.com.

📝 ¿Cuál sería tu trabajo?

Maximizar el valor del producto definiendo la visión, priorizando el backlog y asegurando que el equipo entregue soluciones alineadas con las necesidades del negocio, los usuarios y los objetivos estratégicos.

🎯 ¿Qué necesitamos para sumarte a nuestro equipo?

  • Uso de Jira
  • Práctica en marcos ágiles y Scrum
  • Gestión de stakeholders del producto
  • Experiencia en sector financiero o banca
  • Conocimientos en OKR y KPI del producto
  • Trayectoria en equipos ágiles de 2 a 3 años
  • Dominio funcional de desarrollo, UX y tecnología
  • Manejo de historias de usuario bajo criterios INVEST y 3C
  • Capacidad para validar incrementos por sprint y maximizar valor
  • Competencia en explicación de historias de usuario e incorporación de feedback
  • Liderazgo en backlog de producto, refinamiento, priorización y User Story Mapping

📍 ¿Dónde y cómo trabajarás?

  • Ubicación oficina: Santiago
  • Modalidad: Hibrida

✋ Algunas consideraciones antes de postular:

  • Debes tener disponibilidad para trabajar en modalidad híbrida y asistir de forma presencial a nuestra oficina
  • Si estás en situación de discapacidad, cuéntanos si necesitas algún requerimiento especial para tu entrevista

Beneficios que tendrás si te unes a nuestro team:

💰 Bono anual
🦷 Seguro dental
📚 Capacitaciones
📅 Días administrativos
🍽️ Tarjeta Sodexo + $80.000
👕 Código de vestimenta informal
🚀 Programas de upskilling y reskilling
🏥 Seguro complementario de salud MetLife
💊 Descuentos en farmacias y centros de salud
🐾 Descuento en seguros y tiendas de mascotas
🎄 Aguinaldo en Fiestas Patrias y Navidad
👶 Días adicionales al postnatal masculino
🎂 Medio día libre por tu cumpleaños
🏦 Caja de Compensación Los Andes
🌍 Descuento Mundo ACHS
🎁 Regalo por nacimiento
🛍️ Descuentos Buk

Wellness program Banco de Chile offers or subsidies mental and/or physical health activities.
Life insurance Banco de Chile pays or copays life insurance for employees.
Digital library Access to digital books or subscriptions.
Health coverage Banco de Chile pays or copays health insurance for employees.
Dental insurance Banco de Chile pays or copays dental insurance for employees.
Computer provided Banco de Chile provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks Banco de Chile offers beverages and snacks for free consumption.
Parental leave over legal Banco de Chile offers paid parental leave over the legal minimum.
Gross salary $2200 - 2800 Full time
Agile Project Management Budgeting Financial Services

Somos 3IT ¡Innovación y talento que marcan la diferencia!

Para nosotros, la innovación es un proceso colaborativo y el crecimiento una meta compartida. Nos guiamos por valores como el trabajo en equipo, la confiabilidad, la empatía, el compromiso, la honestidad y la calidad, porque sabemos que los buenos resultados parten de buenas relaciones.

Además, valoramos la diversidad y promovemos espacios de trabajo inclusivos. Por eso nos sumamos activamente al cumplimiento de la Ley 21.015, asegurando procesos accesibles y con igualdad de oportunidades.

Si estás buscando un lugar donde seguir aprendiendo, aportar con lo que sabes y crecer en un ambiente cercano y colaborativo, esta puede ser tu próxima oportunidad.

Originally published on getonbrd.com.

📝 ¿Cuál sería tu trabajo?

Definir, estandarizar, establecer y llevar a cabo la planificación estratégica y los procesos operativos de los proyectos de Desarrollo. Además, se encarga de monitorear las actividades, asignar tareas, recursos y presupuesto a los proyectos.

🎯 ¿Qué necesitamos para sumarte a nuestro equipo?

  • Orientación a resultados
  • Uso de metodologías PMI y Agile
  • Dominio en proyectos normativos y regulatorios
  • Capacidad para reportar avances a alta gerencia
  • Experiencia senior en gestión de proyectos de desarrollo
  • Trayectoria en banca, servicios financieros o industrias similares
  • Habilidades en coordinación transversal con múltiples stakeholders
  • Implementación y mantenimiento de marcos de gestión como CMMI
  • Competencia en planificación estratégica, asignación de recursos y presupuesto

📍 ¿Dónde y cómo trabajarás?

  • Ubicación oficina: Santiago
  • Modalidad: Hibrida

✋ Algunas consideraciones antes de postular:

  • Debes tener disponibilidad para trabajar en modalidad híbrida y asistir de forma presencial a nuestra oficina
  • Si estás en situación de discapacidad, cuéntanos si necesitas algún requerimiento especial para tu entrevista

Beneficios que tendrás si te unes a nuestro team:

💰 Bono anual
🦷 Seguro dental
📚 Capacitaciones
📅 Días administrativos
🍽️ Tarjeta Pluxee + $80.000
👕 Código de vestimenta informal
🚀 Programas de upskilling y reskilling
🏥 Seguro complementario de salud MetLife
💊 Descuentos en farmacias y centros de salud
🐾 Descuento en seguros y tiendas de mascotas
🎄 Aguinaldo en Fiestas Patrias y Navidad
👶 Días adicionales al postnatal masculino
🎂 Medio día libre por tu cumpleaños
🏦 Caja de Compensación Los Andes
🌍 Descuento Mundo ACHS
🎁 Regalo por nacimiento
🛍️ Descuentos Buk

Wellness program Banco de Chile offers or subsidies mental and/or physical health activities.
Life insurance Banco de Chile pays or copays life insurance for employees.
Digital library Access to digital books or subscriptions.
Health coverage Banco de Chile pays or copays health insurance for employees.
Dental insurance Banco de Chile pays or copays dental insurance for employees.
Computer provided Banco de Chile provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks Banco de Chile offers beverages and snacks for free consumption.
Parental leave over legal Banco de Chile offers paid parental leave over the legal minimum.
Gross salary $2500 - 3000 Full time
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python SQL Docker

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

Apply directly from Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Git Data Analysis SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Official source: getonbrd.com.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $1500 - 2000 Full time
Analytics Engineer
  • Artefact LatAm
SQL Business Intelligence ETL Power BI

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Send CV through Get on Board.

Tus responsabilidades serán:

  • Recolectar y analizar datos de diversas fuentes para identificar patrones y tendencias. Extraer insights significativos para comprender el rendimiento presente y futuro del negocio.
  • Crear modelos de datos adaptados a distintos proyectos y sectores.
  • Crear y optimizar informes, paneles y cuadros de mando para una presentación efectiva de la información, utilizando herramientas de BI como Tableau, Power BI o QlikView.
  • Identificar oportunidades de mejora de procesos mediante análisis de datos.
  • Mantener y actualizar bases de datos para garantizar su integridad y calidad.
  • Brindar formación y soporte al equipo en el uso de herramientas de Business Intelligence. Colaborar con equipos diversos para crear soluciones integrales. Entender las necesidades del cliente y proponer mejoras y soluciones proactivas.
  • Monitorear modelos de data science y machine learning. Mantener la calidad de datos en flujos de información. Gestionar la seguridad y la escalabilidad de entornos cloud de BI.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, o carrera afín
  • 1 a 2 años de experiencia laboral en:
    • Proyectos BI
    • Herramientas de visualización como PowerBI, Tableau, QikView u otros
    • Soluciones de BI en entornos cloud (ejemplo, Azure y Power BI Service)
    • Fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
    • Desarrollo de queries en SQL
    • Desarrollo de modelos de datos para usos analíticos y programación de ETLs
  • Inglés profesional

Algunos deseables no excluyentes:

  • Conocimiento de Python o R
  • Manejo de Big Data en miras de establecer reportería

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Kubernetes CI/CD
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply at the original job on getonbrd.com.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $2500 - 3700 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Kubernetes CI/CD

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This job is original from Get on Board.

Responsabilidades del Cargo

    • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
    • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
    • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
    • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
    • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Requisitos del Cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Consideración

Favor considerar adjuntar cv en Ingles actualizado al momento de postular

Beneficios

    • Un entorno de colaboración y rápido movimiento
    • Formar parte de una empresa internacional con sede en Estados Unidos
    • Asignación de reembolso por aprendizaje y desarrollo
    • Remuneración competitiva y oportunidades de promoción profesional y personal
    • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
    • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $3200 - 4100 Full time
Python Git Data Analysis SQL

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Scientist es un profesional altamente experimentado en el análisis de datos, con profundos conocimientos en técnicas estadísticas, de programación y de aprendizaje automático. Su rol principal es utilizar estas habilidades para extraer conocimientos significativos y tomar decisiones estratégicas basadas en datos dentro de la organización.

Además de desarrollar modelos analíticos avanzados, el Data Scientist Senior ejerce un rol importante dentro del equipo asignado al cliente, aportando con su conocimiento técnico para poder tomar decisiones concretas que ayuden al desarrollo del proyecto. Su experiencia ayuda en la conceptualización hasta la implementación, y asegura la entrega de soluciones prácticas y detallistas que cumplan con las necesitas del cliente.

Apply through Get on Board.

Tus responsabilidades serán:

  • Análisis de Datos: Aplicar técnicas avanzadas de análisis exploratorio para comprender la estructura y características de grandes volúmenes datos, provenientes de diversas fuentes.
  • Desarrollo de Modelos Predictivos Avanzados: utilizar técnicas avanzadas de aprendizaje automático y estadística para desarrollar modelos predictivos robustos que permitan predecir tendencias, identificar patrones y realizar pronósticos precisos.
  • Optimización de Algoritmos y Modelos: dirigir la optimización de algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad.
  • Visualización y Comunicación de Datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados de manera efectiva al cliente y a otros stakeholders clave.
  • Desarrollo de Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguajes de programación como Python, R o SQL.
  • Gestión de Proyectos: liderar frentes de un proyecto relacionados al análisis de datos complejos, desde la conceptualización hasta la implementación, planificando estratégicamente los hitos y entregables acordados con los clientes.
  • Investigación y Desarrollo Continuo: mantenerse actualizado en las últimas tendencias y avances en análisis de datos, inteligencia artificial y metodologías relacionadas. Compartir conocimientos y experiencias con el equipo para fomentar un ambiente de aprendizaje continuo.
  • Contribución a Propuestas y Desarrollo de Negocios: colaborar en el desarrollo de propuestas internas para potenciales clientes, utilizando su experiencia y conocimientos para identificar oportunidades y diseñar soluciones innovadoras.
  • Apoyar al equipo desde un rol de mentor, traspasando conocimientos y buenas prácticas, proporcionándole capacitación personalizada según las necesidades individuales de los miembros.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o experiencia equivalente en análisis avanzado de datos.
  • Experiencia laboral de al menos 4 años en roles de análisis de datos, preferiblemente en industrias relevantes.
  • Experto en Python, SQL y Git, con habilidades demostradas en el desarrollo de modelos analíticos y aplicaciones.
  • Amplio conocimiento de bases de datos relacionales y no relacionales, así como experiencia en procesamiento de datos (ETL).
  • Profundo conocimiento en machine learning, feature engineering, reducción de dimensiones, estadística avanzada y optimización.
  • Inglés avanzado.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $1100 - 1700 Full time
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Excel SQL ETL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Applications at getonbrd.com.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data Data lake Data Architecture

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

This company only accepts applications on Get on Board.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
$$$ Full time
Java Python Node.js ETL
En <Devaid> nos apasionan los desafíos tecnológicos y nuestros clientes lo saben. Por lo anterior, nos plantean problemáticas que nos obligan a estar constantemente probando e implementando nuevas tecnologías.
Trabajamos fuertemente en la nube ya que somos Partner Premier de Google Cloud en Chile, por lo que tendrás la oportunidad de formarte como un profesional cloud.
Dependiendo de las necesidades del cliente, <Devaid> ofrece soluciones web, móviles, integración de sistemas, entre otros. Esto permite acceder a la herramienta sin importar el dispositivo ni el lugar dónde se encuentra. Permitimos el trabajo colaborativo entre múltiples usuarios manteniendo una base centralizada de información.

Apply directly at getonbrd.com.

Funciones del cargo

Esperamos que puedas desempeñarte en las siguientes actividades:
  • Creación de pipelines de carga y transformación de datos.
  • Modelamiento de datos y creación de Data Warehouse y Data Lakes.
  • Integración de sistemas.
  • Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.

Requerimientos del cargo

Los requisitos para un buen desempeño de las funciones son:
  • 1 año de experiencia como Data Engineer.
  • Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
  • Conocimiento de soluciones de Data Warehouse y ETL.
  • Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
  • Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.

Deseables

Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
  • Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
  • Experiencia en plataformas de deployment de infraestructura como Terraform.
  • Experiencia utilizando la herramienta de consola gcloud.

Beneficios

Prometemos un ambiente muy grato de trabajo, lleno de desafíos y donde podrás ver los proyectos en los que estas involucrada/o siendo utilizados en un corto tiempo activamente por nuestros clientes, lo que siempre es muy gratificante.
Otras actividades:
  • Actividades mensuales (Cupones de Food delivery, juegos en línea, actividades grupales).
  • Actividad paseo anual: La empresa se junta por 2 días en algún lugar turístico para realizar actividades grupales y unir al equipo.
  • Día libre flexible en tu cumpleaños.
  • Capacitaciones en lo que más te guste.
  • Certificaciones Google Cloud: Programa de certificación en distintas ramas profesionales de GCP, gracias a que somos Partner Premier de Google Cloud en Chile.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Devaid pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Education stipend Devaid covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Excel SQL ETL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Applications are only received at getonbrd.com.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
Gross salary $2100 - 2500 Full time
Data Engineer (ETL y Datos)
  • Equifax Chile
  • Santiago (Hybrid)
Java Python Scala ETL
En Equifax Chile transformamos datos en oportunidades. Como parte de una compañía global de data, analítica y tecnología, trabajamos para ayudar a instituciones financieras, empleadores y agencias gubernamentales a tomar decisiones críticas con mayor confianza. En este rol de Data Engineer, nos enfocamos en el ciclo de vida del dato: desde que las fuentes ingresan a la compañía, pasando por el diseño e implementación de la solución, hasta el uso final por distintos clientes internos y externos. Integrar, modelar y poner en producción procesos de ETL y atributos analíticos es clave para habilitar consumo confiable, escalable y listo para analítica.

Apply directly on the original site at Get on Board.

¿Qué harás?

Como Data Engineer, seremos responsables del análisis constante de las fuentes, del diseño y la implementación del ciclo de vida del dato: desde que llega a la compañía hasta el uso final por los distintos clientes internos como externos.
  • Análisis de Requerimientos de negocio.
  • Diseño de Datos y Solución.
  • Implementación y Mejora de procesos de ETL.
Además, trabajaremos con tecnologías de modelamiento y manejo de datos, con conocimientos del área estadística y conocimientos básicos de modelamiento para la puesta en producción de modelos y atributos analíticos.

¿Qué experiencia necesitas?

Buscamos que cuentes con al menos 2 años de experiencia con alguna herramienta de ETL, por ejemplo: SSIS, Pentaho, Data Factory u otras. También requerimos al menos 2 años de experiencia con desarrollo de ETL en alguno de los siguientes lenguajes: Java, Scala o Python.
Adicionalmente, necesitamos que tengas al menos 2 años de experiencia con motores de bases de datos.
Valoraremos conocimientos relacionados a tecnologías de modelamiento y manejo de datos, conocimientos del área estadística y conocimientos básicos de modelamiento para la puesta en producción de modelos y atributos analíticos.
En el día a día, esperamos que seas una persona analítica, orientada a la mejora continua y con foco en entregar soluciones confiables para clientes internos y externos. Te moverás entre requerimientos de negocio y la implementación técnica, manteniendo claridad en el diseño de la solución y en la evolución de los procesos de ETL.
Requisito adicional: inglés intermedio.

¿Qué podría diferenciarte?

  • Al menos un año con experiencia en la nube (deseable, no excluyente).
  • Al menos un año con experiencia en herramientas CI/CD a nivel usuario (no desarrollo), por ejemplo: GoCD, Jenkins, Azure DevOps u otra.
  • Experiencia y criterio para apoyar la puesta en producción de modelos y atributos analíticos, considerando buenas prácticas de datos y continuidad operativa.

¿Qué ofrecemos?

Ofrecemos modalidad de trabajo híbrido con horarios flexibles para un balance saludable entre vida personal y laboral, además de días libres adicionales para fomentar el bienestar. Nuestro paquete de compensación integral incluye seguro médico complementario y convenio con gimnasio para promover un estilo de vida saludable. También contamos con beneficios específicos para madres y padres en la organización. Podrás acceder a una plataforma de aprendizaje en línea para desarrollo profesional continuo, junto con programas de reconocimiento que valoran el aporte de cada integrante del equipo, en un entorno diverso, multicultural y orientado al crecimiento de carrera.

Wellness program Equifax Chile offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Equifax Chile offers space for internal talks or presentations during working hours.
Life insurance Equifax Chile pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage Equifax Chile pays or copays health insurance for employees.
Mobile phone provided Equifax Chile provides a mobile phone for work use.
Company retreats Team-building activities outside the premises.
Computer repairs Equifax Chile covers some computer repair expenses.
Dental insurance Equifax Chile pays or copays dental insurance for employees.
Computer provided Equifax Chile provides a computer for your work.
Education stipend Equifax Chile covers some educational expenses related to the position.
Fitness subsidies Equifax Chile offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Equifax Chile covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Equifax Chile gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Equifax Chile offers paid parental leave over the legal minimum.
$$$ Full time
Ingeniero de Datos
  • Factor IT
  • Santiago (Hybrid)
Python SQL BigQuery Docker
En Factor IT trabajamos para impulsar la transformación digital en grandes empresas de la región, con foco en Data & Analytics, automatización e inteligencia artificial. Dentro de nuestros proyectos, participamos en iniciativas que construyen y evolucionan plataformas de datos sobre Google Cloud (GCP), integrando servicios, pipelines y automatización para habilitar analítica avanzada y toma de decisiones basada en datos. Te unirás a un equipo que diseña soluciones robustas y escalables, con tecnologías modernas, alto expertise técnico y una cultura de colaboración y aprendizaje continuo.

This posting is original from the Get on Board platform.

Ingeniero de Datos

Como Ingeniero de Datos, nuestro objetivo es diseñar, construir y mantener pipelines de datos confiables y escalables en entornos de GCP, asegurando que los datos fluyan correctamente desde las fuentes hasta los modelos y capacidades analíticas.
Entre tus responsabilidades:
  • Desarrollar y optimizar consultas SQL avanzadas (PostgreSQL, MySQL).
  • Implementar procesos ETL/ELT usando Airflow, dbt y servicios de orquestación/ingesta como Dataflow y Pub/Sub.
  • Programar en Python para automatizar transformaciones e integraciones.
  • Trabajar con servicios y prácticas de GCP para construir soluciones mantenibles.
  • Desplegar y gestionar componentes mediante Docker y Kubernetes, garantizando robustez y escalabilidad.
Nos enfocamos en colaborar estrechamente con el equipo para entender requerimientos del negocio, proponer mejoras y asegurar calidad, eficiencia y confiabilidad en todo el ciclo de vida de la plataforma de datos.

Requisitos excluyentes

Buscamos un Ingeniero de Datos con experiencia práctica para integrarse a proyectos regionales y con impacto real en la transformación tecnológica, especialmente en el sector financiero.
Requisitos excluyentes:
  • SQL avanzado (PostgreSQL, MySQL).
  • BigQuery.
  • ETL/ELT: Airflow, dbt, Dataflow, Pub/Sub.
  • Python.
  • Experiencia en GCP.
  • Docker y Kubernetes.
Además, valoramos:
  • Capacidad para analizar problemas, depurar y mejorar pipelines existentes.
  • Orientación a la calidad y a la confiabilidad de los datos.
  • Buena comunicación y trabajo colaborativo para alinear soluciones con necesidades del negocio.
  • Mentalidad de aprendizaje continuo y adaptación a tecnologías emergentes.
Nos importa que seas proactivo, que puedas proponer mejoras y que mantengas un enfoque responsable en la operación y evolución de la plataforma de datos.

Deseable

Sumará puntos si cuentas con:
  • Streaming (Kafka, Flink).
  • Java o Scala.
  • Experiencia con herramientas BI (Looker, Power BI, Tableau).
Estas habilidades nos ayudan a ampliar la capacidad de análisis, habilitar casos en tiempo real y facilitar la integración con productos y consumo de datos.
Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal.
Vas a formar parte de un ambiente colaborativo, dinámico y con tecnologías de última generación que impulsan el crecimiento profesional y la innovación tecnológica.
Contarás con un paquete salarial competitivo, acorde a la experiencia y perfil, e integrado a una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo.
Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve la innovación y el desarrollo profesional continuo.

$$$ Full time
Arquitecto de Datos
  • Factor IT
  • Santiago (Hybrid)
SQL BigQuery CI/CD Cloud Architecture
En Factor IT impulsamos la transformación digital con foco en Data & Analytics, IA, automatización y consultoría estratégica. Buscamos un/una Arquitecto(a) de Datos para integrarse a proyectos regionales con impacto real en grandes empresas, incluyendo el sector financiero. En este rol, contribuiremos al diseño y evolución de plataformas de datos sobre Google Cloud, asegurando escalabilidad, confiabilidad y gobernanza. El objetivo es habilitar analítica avanzada y consumo eficiente de datos para distintos equipos de negocio, integrando prácticas modernas de modelado, orquestación y gobierno a lo largo del ciclo de vida de la información.

Find this vacancy on Get on Board.

Funciones

Como Arquitecto(a) de Datos en Factor IT, nuestro objetivo es diseñar y estandarizar soluciones de datos en Google Cloud que permitan transformar datos en decisiones confiables y oportunas. Sus principales responsabilidades serán:
  • Diseñar la arquitectura de datos end-to-end considerando ingestión, almacenamiento, procesamiento, modelado y consumo.
  • Desarrollar y optimizar pipelines usando BigQuery y orquestadores como Airflow, además de automatizaciones con Dataflow cuando aplique.
  • Implementar y mantener modelado de datos (por ejemplo, capas analíticas y/o modelos dimensionales) asegurando performance y consistencia semántica.
  • Crear y mantener automatizaciones con dbt, definiendo transformaciones, pruebas y documentación de datos.
  • Gestionar la gobernanza de datos: estándares, accesos, calidad, linaje y buenas prácticas para el uso responsable de la información.
  • Promover patrones de ingeniería (CI/CD, versionado, pruebas y monitoreo) para asegurar estabilidad operativa en ambientes productivos.
  • Coordinar con equipos de negocio y técnicos para traducir requerimientos a soluciones escalables y medibles.

Requisitos y experiencia

Buscamos un/una Arquitecto(a) de Datos con experiencia sólida para liderar el diseño y la evolución de soluciones modernas de datos en entornos cloud. Necesitamos que tengas un nivel avanzado de SQL y que puedas aplicar ese conocimiento para optimizar rendimiento, asegurar calidad y resolver problemas complejos.
Requisitos excluyentes
  • SQL avanzado.
  • BigQuery.
  • Airflow, dbt y Dataflow.
  • Modelado de datos.
  • Gobierno de datos.
Experiencia esperada
  • Participación en la construcción y/o mejora de plataformas de datos orientadas a analítica y toma de decisiones.
  • Capacidad para definir estándares y guías de ingeniería para equipos que consumen y desarrollan sobre la plataforma.
  • Experiencia trabajando con prácticas de calidad de datos, estandarización y controles de acceso.
Competencias y habilidades clave
  • Enfoque analítico y mentalidad de mejora continua.
  • Comunicación clara para alinear stakeholders técnicos y de negocio.
  • Proactividad para anticipar riesgos (performance, costos, calidad, disponibilidad) y proponer mitigaciones.
  • Orientación al trabajo colaborativo y a la transferencia de conocimiento dentro del equipo.
En Factor IT valoramos una cultura basada en la conversación y el entendimiento profundo de los requerimientos del negocio. Por eso, buscamos a alguien que pueda traducir necesidades reales en soluciones técnicas robustas, escalables y gobernables.

Deseable

  • Certificación GCP Data Engineer.
  • Experiencia adicional con diseño de arquitecturas de datos escalables y optimización de costos en BigQuery.
  • Conocimiento en patrones de gobierno de datos (catálogo/metadata, linaje, políticas de acceso) y prácticas de calidad medibles.
  • Experiencia liderando iniciativas end-to-end (desde la definición de arquitectura hasta la puesta en producción y el soporte evolutivo).

Beneficios

Ofrecemos modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre la vida profesional y personal.
Además, en Factor IT contamos con un ambiente colaborativo, dinámico y con tecnologías de última generación que impulsan el crecimiento profesional, la innovación y el aprendizaje continuo.
Tu paquete salarial será competitivo y acorde a la experiencia y perfil, sumado a una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo. Trabajarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero.
Si te interesa construir soluciones de datos con alto impacto, únete a Factor IT y sé parte de un equipo que transforma el futuro de la tecnología.

Gross salary $1500 - 2200 Full time
Data Engineer
  • GUX Technologies
  • Santiago (Hybrid)
DevOps ETL Power BI Qlik Sense

En Proyectum Chile, impulsamos la excelencia en Dirección de Proyectos a través de servicios de consultoría, capacitación y outsourcing especializado. Somos una organización internacional presente en 12 países de Latinoamérica, compartiendo conocimiento, metodologías y activos de alto valor. Además, somos el principal Authorized Training Partner (ATP) del PMI en la región, liderando la transformación en gestión de proyectos y agilidad.

Nos encontramos en búsqueda un Data Engineer para integrarse a un servicio en el dominio de plataforma de datos, participando en el desarrollo de soluciones modernas en entornos cloud, con foco en generación de valor a partir de datos. Responsable de generar activos tecnológicos y productos de datos, traduciendo los requerimientos de negocio en información relevante.

Apply to this job directly at getonbrd.com.

Descripción del rol

Funciones principales:

  • Desarrollar procesos ETL / ELT en Snowflake y AWS
  • Desarrollar visualizaciones en Qlik Sense y Power BI
  • Traducir requerimientos de negocio en activos tecnológicos y productos de datos
  • Generar historias de usuario y documentación de análisis
  • Participar en la definición de blueprints y soluciones tecnológicas
  • Colaborar en el desarrollo de soluciones de datos en entornos cloud

Requisitos del cargo

Educación:

  • Título profesional de Ingeniería Informática o carrera afín

Requisitos excluyentes:

  • Experiencia en industrias: Financiera, Medios de Pago, Fintech o Retail
  • Experiencia con Snowflake
  • Manejo de AWS Suite
  • Conocimientos en prácticas DevOps
  • Experiencia en visualización de datos (Qlik Sense / Power BI)

Requisitos deseables:

  • Experiencia en infraestructura cloud
  • Experiencia en Datawarehouse

Habilidades clave

  • Orientación a resultados y generación de valor
  • Pensamiento analítico y estructurado
  • Proactividad y autonomía
  • Trabajo colaborativo
  • Comunicación efectiva entre áreas técnicas y de negocio

Conditions

Computer provided GUX Technologies provides a computer for your work.
Gross salary $1900 - 2100 Full time
Ingeniero de Datos
  • VTI-UChile
  • Santiago (Hybrid)
Python Git SQL Linux

El trabajo se enmarca en el desarrollo proyecto FONDEF, titulado “¿Cómo progreso en mi aprendizaje?:
Sistema inteligente para fortalecer la autorregulación del aprendizaje en línea en estudiantes de educación superior”.

Esta iniciativa da continuidad a un proyecto previo orientado al desarrollo de modelos predictivos y explicativos del aprendizaje autorregulado mediante analítica de aprendizaje. En esta nueva etapa, el foco está en el diseño e implementación de soluciones que permitan fortalecer activamente la autorregulación de estudiantes en entornos digitales, entendida como la capacidad de planificar, monitorear y evaluar su propio proceso de aprendizaje.

El trabajo considera el uso intensivo de datos educativos y el desarrollo de herramientas basadas en evidencia para mejorar la experiencia y resultados de aprendizaje en educación superior.

© getonbrd.com.

Funciones del cargo

Responsable de diseñar, completar y optimizar el modelo de datos que soporta las métricas de
aprendizaje de las plataformas LMS administradas por la Oficina EOL, implementadas sobre Open edX.

El cargo tiene como objetivo integrar múltiples fuentes de datos (logs de eventos, bases de datos
relacionales y no relacionales) para estructurar un sistema consistente de eventos, acciones de
aprendizaje y métricas por usuario y curso, así como habilitar el acceso a esta información mediante APIs
para su consumo en interfaces y sistemas externos.

Se espera que el candidato sea capaz de comprender rápidamente arquitecturas de datos existentes,
trabajar sobre sistemas en desarrollo y completar tanto el modelamiento como la capa de exposición de
datos.

Responsabilidades Claves

Modelamiento de Datos Analíticos:

Diseñar, completar y mantener el modelo de datos; analítico (eventos, métricas, dimensiones).; Definir estructuras de datos orientadas a analítica (tablas de hechos, dimensiones, relaciones); Asegurar consistencia, trazabilidad y calidad de los datos.; Documentar modelos y definiciones de métricas.

Integración de Fuentes de Datos

Integrar datos provenientes de: o logs de eventos de la plataforma o bases de datos relacionales (SQL) o bases de datos no relacionales (MongoDB) Diseñar procesos de transformación de datos (ETL/ELT). Resolver problemas de integración, duplicidad y calidad de datos.

Análisis y Estructuración de Eventos

o Interpretar y estructurar eventos de interacción de usuarios. o Modelar acciones de aprendizaje y comportamiento dentro de la plataforma. o Definir métricas clave a partir de eventos (engagement, progreso, uso, etc.).

Desarrollo de APIs de Datos

o Diseñar y desarrollar APIs para exponer métricas y datos analíticos. o Implementar endpoints eficientes para consumo por interfaces y sistemas externos. o Asegurar buenas prácticas de diseño (performance, versionado, consistencia).

Optimización y Soporte Analítico

o Optimizar consultas y estructuras para análisis eficiente. o Apoyar la generación de reportes y visualizaciones. o Colaborar con equipos técnicos y funcionales.

Requisitos técnicos.

Bases de datos relacionales (PostgreSQL/MySQL) Avanzado
Bases de datos no relacionales (MongoDB) Avanzado
SQL avanzado (consultas complejas, optimización) Avanzado
Modelamiento de datos analíticos (eventos, hechos, dimensiones) Avanzado
Python (procesamiento de datos y desarrollo backend) Avanzado
Uso de ORMs en Python Medio
Manejo de migraciones Medio
Desarrollo de APIs REST Avanzado

Frameworks backend (FastAPI y/o Django) Avanzado
Procesos ETL/ELT Medio
Sistemas basados en eventos / tracking de usuarios Medio
Git Medio
Linux / Docker Medio

Condiciones

  • Viernes cortos.
  • Días administrativos.

Partially remote You can work from your home some days a week.
Informal dress code No dress code is enforced.
Gross salary $2000 - 2200 Full time
Python BigQuery Apache Spark CI/CD

Equifax es mucho más que una empresa de informes; es una compañía global líder en datos, analítica y tecnología con presencia en 24 países. En Chile, operan desde 1979 entregando soluciones críticas de ciberseguridad, identidad y riesgo a más de 14.000 empresas.

El Hub Tecnológico (SDC) Lo que hace única a esta oportunidad es que Chile alberga el Santiago Development Center (SDC). Este centro lidera la transformación digital de Equifax a nivel mundial, concentrando cerca del 60% de sus desarrollos tecnológicos globales.

Cultura y Visión Equifax promueve un entorno de colaboración y excelencia técnica, donde el talento local tiene el desafío de crear soluciones de impacto mundial. Su visión es clara: usar la data y la tecnología para potenciar la toma de decisiones financieras en todo el mundo.

Apply directly on the original site at Get on Board.

Funciones del cargo

¿Qué harás en tu día a día?

  • Fuerte enfoque en el desarrollo y procesamiento de datos en la nube.
  • Automatización de procesos y manipulación de datos
  • Consultas y manejo de grandes volúmenes de datos
  • Procesamiento distribuido de datos en tiempo real y por lotes.

Skills

Técnicas

  • 2+ años de conocimiento en Python
  • 2+ años de conocimientos en BigQuery
  • 2+ años de conocimientos en Apache beam / Apache Spark
  • Inglés A2 (conversacional)

Personales

  • Capacidad de autogestión
  • Buenos skills de comunicación
  • Fortaleza en trabajo en equipo
  • Adaptación al cambio (trabajarán en distintas geos de Latam)
  • Título académico en Ingeniería Informática, Sistemas o carreras afines.

Contrato indefinido desde el inicio con 23people - Tiempo del proyecto 6 meses con posible extensión

  • Modalidad: Home Office con residencia en Chile.
  • Experiencia: Desde 2 años en adelante
  • Horario: Lu - Ju 08:30 a 18:30 / Vi 08:30 a 17:30

Deseables

  • Perfil analítico
  • Unit test
  • Airflow
  • PySparck
  • CI/CD
  • Postman
  • Jmeter

Beneficios

Algunos de nuestros beneficios

  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $1800 - 2400 Full time
QA Automatizador Mobile
  • 3IT
  • Santiago (Hybrid)
Java Docker Selenium CI/CD
Somos 3IT ¡Innovación y talento que marcan la diferencia!
Para nosotros, la innovación es un proceso colaborativo y el crecimiento una meta compartida. Nos guiamos por valores como el trabajo en equipo, la confiabilidad, la empatía, el compromiso, la honestidad y la calidad, porque sabemos que los buenos resultados parten de buenas relaciones.
Además, valoramos la diversidad y promovemos espacios de trabajo inclusivos. Por eso nos sumamos activamente al cumplimiento de la Ley 21.015, asegurando procesos accesibles y con igualdad de oportunidades.
Si estás buscando un lugar donde seguir aprendiendo, aportar con lo que sabes y crecer en un ambiente cercano y colaborativo, esta puede ser tu próxima oportunidad.

This offer is exclusive to getonbrd.com.

📝 ¿Cuál sería tu trabajo?

Asegurar la calidad del software mediante la implementación de pruebas automatizadas, supervisando todas las etapas del desarrollo para prevenir defectos y garantizar el funcionamiento óptimo del producto.

🎯 ¿Qué necesitamos para sumarte a nuestro equipo?

  • Uso de Git.
  • Manejo de Docker.
  • Experiencia en sector bancario.
  • Práctica en testing de software.
  • Aplicación de BDD con Gherkin y Cucumber.
  • Capacidad para pruebas cloud en AWS y OCI.
  • Monitoreo con Dynatrace, Elastic y Grafana.
  • Dominio de metodología ágil, Scrum y Kanban.
  • Trayectoria en automatización de pruebas con Java.
  • Familiaridad con despliegues mediante DA y CloudBees.
  • Administración de granjas de dispositivos móviles y web.
  • Competencia en integración continua con Jenkins y Bamboo.
  • Recorrido mínimo de 3 años con las tecnologías requeridas.
  • Conocimientos en pruebas de estrés con JMeter y LoadRunner.
  • Habilidades en pruebas técnicas sobre logs, servicios y bases de datos.
  • Gestión de herramientas de calidad como Jira, Confluence, Xray y GitHub.
  • Experiencia con Selenium, Appium y frameworks BDD bajo arquitectura Gradle.
  • Implementación de validaciones de servicios REST y SOAP con Postman o SoapUI.

⭐ Plus para este rol

  • Certificación ISTQB.
  • Manejo de BrowserStack.
  • Conocimientos en inteligencia artificial aplicada a QA.
📍 ¿Dónde y cómo trabajarás?
  • Ubicación oficina: Comuna de Santiago
  • Modalidad: Híbrido
✋ Algunas consideraciones antes de postular:
  • Debes tener disponibilidad para trabajar en modalidad híbrida y asistir de forma presencial a las oficinas de cliente.
  • Si estás en situación de discapacidad, cuéntanos si necesitas algún requerimiento especial para tu entrevista.

Beneficios que tendrás si te unes a nuestro team:

💰 Bono anual
🦷 Seguro dental
📚 Capacitaciones
📅 Días administrativos
🍽️ Tarjeta Sodexo + $80.000
👕 Código de vestimenta informal
🚀 Programas de upskilling y reskilling
🏥 Seguro complementario de salud MetLife
💊 Descuentos en farmacias y centros de salud
🐾 Descuento en seguros y tiendas de mascotas
🎄 Aguinaldo en Fiestas Patrias y Navidad
👶 Días adicionales al postnatal masculino
🎂 Medio día libre por tu cumpleaños
🏦 Caja de Compensación Los Andes
🌍 Descuento Mundo ACHS
🎁 Regalo por nacimiento
🛍️ Descuentos Buk

Wellness program Banco de Chile offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance Banco de Chile pays or copays life insurance for employees.
Digital library Access to digital books or subscriptions.
Health coverage Banco de Chile pays or copays health insurance for employees.
Dental insurance Banco de Chile pays or copays dental insurance for employees.
Computer provided Banco de Chile provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks Banco de Chile offers beverages and snacks for free consumption.
Parental leave over legal Banco de Chile offers paid parental leave over the legal minimum.
Gross salary $4800 - 5700 Full time
Tech Manager
  • Artefact LatAm
  • Ciudad de México (Hybrid)
Business Intelligence Data Architecture Problem Solving Data Modeling

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo

Como Tech Manager, liderarás la visión técnica y ejecución estratégica de soluciones avanzadas en Data Engineering, BI e IA, garantizando arquitecturas escalables y de alto impacto. Serás el catalizador de transformaciones digitales complejas, gestionando equipos multidisciplinarios y actuando como el puente crítico entre los objetivos de negocio de los clientes y la innovación tecnológica. Tu enfoque integrará la excelencia en el delivery, la gobernanza de datos y el desarrollo de talento, consolidando estándares globales que posicionen a la compañía como un referente técnico en el mercado.

© Get on Board.

Funciones del cargo

Capacidades de Datos y Tecnología: Diseñar, implementar y escalar soluciones robustas (modelos predictivos, segmentación IA y BI en tiempo real) garantizando excelencia técnica, escalabilidad y fiabilidad.

Liderazgo de Transformaciones: Actuar como líder técnico en iniciativas de datos e IA, guiando equipos en transformaciones complejas bajo mejores prácticas de ingeniería y arquitectura sólida.

Estrategia y Arquitectura: Definir la visión técnica de plataformas de datos y ecosistemas de BI, alineando decisiones de infraestructura, nube, gobernanza y seguridad con los objetivos del negocio.

Excelencia en Proyectos: Responsable de la ejecución integral, calidad y rendimiento. Anticipar riesgos técnicos y gestionar dependencias para asegurar entregas a tiempo y en alcance.

Gestión de Equipos y Clientes: Dirigir y asesorar equipos multidisciplinarios fomentando una cultura de ingeniería. Actuar como contacto técnico principal para clientes, traduciendo necesidades de negocio en soluciones escalables.

Innovación Continua: Evaluar nuevas tecnologías y herramientas en datos e IA, impulsando la experimentación y validación de conceptos.

Requerimientos del cargo

  • 8 años de experiencia liderazgo proyectos relacionados a data
  • Liderazgo técnico demostrado: amplia experiencia en la dirección de proyectos de datos, BI o IA en entornos complejos.
  • Mentalidad ingenieril: sólidos conocimientos de arquitecturas de datos, plataformas en la nube, canalizaciones de datos y ciclos de vida de IA/ML.
  • Capacidad analítica y de resolución de problemas: pasión por resolver problemas complejos utilizando datos y tecnología.

Sumas puntos si...

  • Innovador: curioso y con visión de futuro, siempre explorando nuevas herramientas y enfoques para mejorar las soluciones y la eficiencia.
  • Autónomo y responsable: capaz de impulsar iniciativas técnicas de forma independiente y asumir la plena responsabilidad de los resultados.
  • Buen comunicador: capaz de tender puentes entre los equipos técnicos y las partes interesadas no técnicas.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $3700 - 5800 Full time
AI / Machine Learning Lead
  • Krunchbox
  • Santiago (Hybrid)
Python Analytics Artificial Intelligence Machine Learning
Krunchbox is a retail analytics SaaS platform helping brands increase sell-through, prevent stockouts, and uncover lost revenue across major retailers. We are launching Krunchbox Reimagined — a modern, AI-enabled platform that moves beyond dashboards into predictive, prescriptive, and agent-driven decision support. Our AI/ML function is central to this transformation. As AI/ML Lead, you will shape and scale the applied AI strategy, guiding production-grade ML systems that directly drive customer value, including predictive analytics, agentic AI workflows, and customer-facing AI experiences (agents, chatbots, insights engines). You will collaborate with Product, Data Engineering, and the executive team to deliver measurable business impact.

Apply directly from Get on Board.

AI & ML Strategy

  • Define and execute Krunchbox’s applied AI roadmap aligned to commercial outcomes (sell-through lift, lost-sales recovery, forecast accuracy).
  • Identify where traditional ML, time-series forecasting, and LLM-based agents create value, and translate customer problems into scalable ML solutions embedded in the product.
  • Lead the design and deployment of predictive analytics, agentic AI workflows, and customer-facing AI experiences (agents, chatbots, insights engines).
  • Collaborate with Product, Data Engineering, and leadership to ensure AI initiatives drive measurable business results.

What you’ll own

  • Own end-to-end ML lifecycle: feature engineering, model training, evaluation, deployment, monitoring, and governance to ensure reliability and explainability.
  • Build production-grade models for demand forecasting, lost-sales estimation, stockout risk, inventory optimization, and anomaly detection, incorporating external signals (weather, promotions, calendar effects).
  • Design and implement agentic AI workflows that monitor data conditions, generate proactive insights, and recommend actions (e.g., reorder, rebalancing, investigation).
  • Develop internal and customer-facing AI agents that reason over Krunchbox data, metadata, and business rules; build conversational AI experiences for insights and self-service analytics, plus internal support tooling.
  • Ensure safe integration of LLMs with structured retail data (POS, inventory, product/store master) and collaborate with Data Engineering on scalable pipelines (ClickHouse, Spark, cloud data stacks).
  • Provide technical leadership and mentorship to engineers and analysts as the AI function scales; shape AI-driven features and roadmap decisions in partnership with Product.

What we value

6+ years in applied machine learning / data science with a strong background in time-series forecasting, statistical modeling, feature engineering at scale, and deploying ML models to production. Proficiency in Python for ML and data pipelines, plus experience with large, messy real-world datasets. Ability to explain complex models to non-technical stakeholders. Desirable: experience with retail, supply chain, or POS data; building LLM-powered systems or chatbots; familiarity with modern data stacks (ClickHouse, Spark, cloud data warehouses); exposure to MLOps, monitoring, model governance, and cloud orchestration. Startup or SaaS scale-up experience is a plus.

Benefits

  • Competitive compensation package and comprehensive health benefits.
  • Opportunity to lead and scale AI for a global SaaS platform.
  • Hybrid work model with a Chilean engineering hub; collaborative, in-person teamwork emphasis.
  • Direct, impactful role shaping the future of AI-powered retail analytics and supplier-retailer collaboration.
  • Supportive environment to own AI at the core of a revenue-driving product; potential for leadership growth within Krunchbox.

Relocation offered If you are moving in from another country, Krunchbox helps you with your relocation.
Partially remote You can work from your home some days a week.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
C English Back-end Customer Success

OMNIX desarrolla una plataforma PaaS de automatización y orquestación de disrupciones en operaciones complejas, integrándose con sistemas core como ERP, WMS, CRM e IoT. Trabajamos con empresas enterprise en industrias como telecomunicaciones, retail, logística y manufactura, donde la continuidad operacional es crítica.
El Customer Success Manager se incorpora al equipo de Delivery & Customer Success, trabajando en estrecha colaboración con Forward Deployed Engineers (FDE), Ventas y Producto. Su rol es asegurar que las implementaciones generen impacto real y sostenido en el negocio del cliente. Es responsable de transformar proyectos en adopción profunda, expansión de uso y valor operativo tangible, contribuyendo directamente a la retención y crecimiento de cuentas estratégicas.

Find this job on getonbrd.com.

Funciones del cargo

El Customer Success Manager es responsable de la gestión integral de cuentas enterprise post-implementación, asegurando que OMNIX se convierta en un sistema crítico dentro de la operación del cliente. Lidera la relación estratégica con stakeholders, define junto al cliente los casos de uso prioritarios y construye un roadmap de expansión basado en impacto operativo.
Trabaja coordinadamente con el FDE, quien ejecuta técnicamente las soluciones, mientras el CSM asegura su adopción, continuidad y valor en producción. Tiene autonomía para priorizar iniciativas, detectar oportunidades de expansión y escalar decisiones. Lidera instancias ejecutivas como QBRs y es responsable de sostener una narrativa clara de valor. El éxito del rol se mide por la profundidad de uso de la plataforma, la expansión de la cuenta y la capacidad de convertir soluciones en resultados concretos dentro de la operación.

Requerimientos del cargo

Experiencia mínima de 5 años en roles de Customer Success, consultoría o gestión de cuentas en contextos B2B enterprise.

Experiencia demostrable trabajando con clientes complejos en industrias como logística, telecomunicaciones, retail o manufactura.

Capacidad de interactuar con stakeholders técnicos y ejecutivos (C-level), sosteniendo conversaciones de negocio y tecnología.

Experiencia gestionando implementaciones o proyectos con múltiples integraciones (ERP, APIs, sistemas core).

Fuerte orientación a resultados, con capacidad de estructurar problemas, priorizar iniciativas y ejecutar con autonomía.

Inglés avanzado (oral y escrito) para interacción con equipos y clientes internacionales.

Alta disciplina operativa, capacidad de seguimiento y accountability bajo entornos exigentes.

Opcionales

Experiencia previa en empresas tipo SaaS/PaaS o plataformas de datos y automatización operacional.

Conocimiento en herramientas de integración, data workflows o automatización (ej: n8n, Zapier, APIs, ETL).

Experiencia en consultoría estratégica o implementación de transformación digital en grandes empresas.

Familiaridad con metodologías de gestión como EOS o frameworks de ejecución disciplinada.

Conocimiento en analítica de datos, detección de anomalías o modelos de inteligencia artificial aplicados a operaciones.

Experiencia en entornos de alto crecimiento o compañías tecnológicas con foco enterprise.

Condiciones

enefits of working at OMNIX
  • Be part of an agile, high-impact team where everyone contributes and makes a difference.
  • Mostly remote work, with flexibility and objective-based management.
  • Performance and company results bonuses.
  • Fast professional growth, with the possibility to expand roles and responsibilities.
  • We operate using the EOS (Entrepreneurial Operating System), which provides:
    • clarity of goals,
    • strong prioritization,
    • clear metrics,
    • a culture of accountability.
  • Opportunity to work with teams in Chile, Peru, Colombia, and the United States.
  • Participation in cutting-edge AI and automation projects with real impact on enterprises and governments.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage OMNIX AI Corp pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal OMNIX AI Corp gives you paid vacations over the legal minimum.
Gross salary $2500 - 3000 Full time
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python Analytics SQL

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

This company only accepts applications on Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Analytics Git Data Analysis

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this job without intermediaries on Get on Board.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $1500 - 2000 Full time
Analytics Engineer
  • Artefact LatAm
Analytics MySQL SQL Business Intelligence

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply at the original job on getonbrd.com.

Tus responsabilidades serán:

  • Recolectar y analizar datos de diversas fuentes para identificar patrones y tendencias. Extraer insights significativos para comprender el rendimiento presente y futuro del negocio.
  • Crear modelos de datos adaptados a distintos proyectos y sectores.
  • Crear y optimizar informes, paneles y cuadros de mando para una presentación efectiva de la información, utilizando herramientas de BI como Tableau, Power BI o QlikView.
  • Identificar oportunidades de mejora de procesos mediante análisis de datos.
  • Mantener y actualizar bases de datos para garantizar su integridad y calidad.
  • Brindar formación y soporte al equipo en el uso de herramientas de Business Intelligence. Colaborar con equipos diversos para crear soluciones integrales. Entender las necesidades del cliente y proponer mejoras y soluciones proactivas.
  • Monitorear modelos de data science y machine learning. Mantener la calidad de datos en flujos de información. Gestionar la seguridad y la escalabilidad de entornos cloud de BI.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, o carrera afín
  • 1 a 2 años de experiencia laboral en:
    • Proyectos BI
    • Herramientas de visualización como PowerBI, Tableau, QikView u otros
    • Soluciones de BI en entornos cloud (ejemplo, Azure y Power BI Service)
    • Fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
    • Desarrollo de queries en SQL
    • Desarrollo de modelos de datos para usos analíticos y programación de ETLs
  • Inglés profesional

Algunos deseables no excluyentes:

  • Conocimiento de Python o R
  • Manejo de Big Data en miras de establecer reportería

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Apply without intermediaries from Get on Board.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This posting is original from the Get on Board platform.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $2500 - 3700 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply from getonbrd.com.

Responsabilidades del Cargo

    • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
    • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
    • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
    • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
    • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Requisitos del Cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Consideración

Favor considerar adjuntar cv en Ingles actualizado al momento de postular

Beneficios

    • Un entorno de colaboración y rápido movimiento
    • Formar parte de una empresa internacional con sede en Estados Unidos
    • Asignación de reembolso por aprendizaje y desarrollo
    • Remuneración competitiva y oportunidades de promoción profesional y personal
    • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
    • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $3200 - 4100 Full time
Python Git Data Analysis SQL

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Scientist es un profesional altamente experimentado en el análisis de datos, con profundos conocimientos en técnicas estadísticas, de programación y de aprendizaje automático. Su rol principal es utilizar estas habilidades para extraer conocimientos significativos y tomar decisiones estratégicas basadas en datos dentro de la organización.

Además de desarrollar modelos analíticos avanzados, el Data Scientist Senior ejerce un rol importante dentro del equipo asignado al cliente, aportando con su conocimiento técnico para poder tomar decisiones concretas que ayuden al desarrollo del proyecto. Su experiencia ayuda en la conceptualización hasta la implementación, y asegura la entrega de soluciones prácticas y detallistas que cumplan con las necesitas del cliente.

Apply exclusively at getonbrd.com.

Tus responsabilidades serán:

  • Análisis de Datos: Aplicar técnicas avanzadas de análisis exploratorio para comprender la estructura y características de grandes volúmenes datos, provenientes de diversas fuentes.
  • Desarrollo de Modelos Predictivos Avanzados: utilizar técnicas avanzadas de aprendizaje automático y estadística para desarrollar modelos predictivos robustos que permitan predecir tendencias, identificar patrones y realizar pronósticos precisos.
  • Optimización de Algoritmos y Modelos: dirigir la optimización de algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad.
  • Visualización y Comunicación de Datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados de manera efectiva al cliente y a otros stakeholders clave.
  • Desarrollo de Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguajes de programación como Python, R o SQL.
  • Gestión de Proyectos: liderar frentes de un proyecto relacionados al análisis de datos complejos, desde la conceptualización hasta la implementación, planificando estratégicamente los hitos y entregables acordados con los clientes.
  • Investigación y Desarrollo Continuo: mantenerse actualizado en las últimas tendencias y avances en análisis de datos, inteligencia artificial y metodologías relacionadas. Compartir conocimientos y experiencias con el equipo para fomentar un ambiente de aprendizaje continuo.
  • Contribución a Propuestas y Desarrollo de Negocios: colaborar en el desarrollo de propuestas internas para potenciales clientes, utilizando su experiencia y conocimientos para identificar oportunidades y diseñar soluciones innovadoras.
  • Apoyar al equipo desde un rol de mentor, traspasando conocimientos y buenas prácticas, proporcionándole capacitación personalizada según las necesidades individuales de los miembros.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o experiencia equivalente en análisis avanzado de datos.
  • Experiencia laboral de al menos 4 años en roles de análisis de datos, preferiblemente en industrias relevantes.
  • Experto en Python, SQL y Git, con habilidades demostradas en el desarrollo de modelos analíticos y aplicaciones.
  • Amplio conocimiento de bases de datos relacionales y no relacionales, así como experiencia en procesamiento de datos (ETL).
  • Profundo conocimiento en machine learning, feature engineering, reducción de dimensiones, estadística avanzada y optimización.
  • Inglés avanzado.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $1100 - 1700 Full time
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python SQL Artificial Intelligence Machine Learning
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply directly on Get on Board.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Virtualization

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 2 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Data Engineer (Híbrido) – Santiago
  • Factor IT
  • Santiago (Hybrid)
Python Data Science Back-end Data Engineer
FactorIT es una empresa líder en soluciones de Data & Analytics, Transformación Digital e IA, con presencia en 8 países de Latinoamérica. Buscamos sumar a nuestro equipo a un Data Engineer para trabajar en proyectos de alto impacto en clientes corporativos, especialmente en el sector financiero y en iniciativas regionales de transformación tecnológica. El rol participará en la definición y ejecución de soluciones modernas de datos, automatización e inteligencia artificial, con enfoque en la entrega de valor real para los negocios y la mejora de procesos a través de pipelines escalables y soluciones basadas en IA.
En FactorIT fomentamos un entorno de aprendizaje continuo, colaboración y uso de tecnologías de vanguardia. El/la candidata trabajará en un entorno híbrido desde Santiago, colaborando con equipos multidisciplinarios para impulsar la gobernanza de datos, la calidad y la innovación tecnológica en la región.

Apply to this posting directly on Get on Board.

Qué harás

  • Diseñar, desarrollar y mantener pipelines de datos escalables en entornos modernos, asegurando rendimiento, fiabilidad y trazabilidad.
  • Implementar soluciones en Databricks para procesamiento y transformación de datos, optimizando cargas y costos.
  • Desarrollar integraciones mediante APIs para consumo y exposición de servicios, facilitando el acceso a datos para aplicaciones y usuarios.
  • Automatizar flujos de trabajo y procesos de datos, idealmente utilizando herramientas como n8n, para mejorar la eficiencia operativa.
  • Participar en la implementación de soluciones basadas en IA (OpenAI, Gemini) para casos de negocio y automatización inteligente.
  • Colaborar en iniciativas de arquitectura de datos, diseño de modelos y buenas prácticas de ingeniería de datos.
  • Apoyar en la gestión, calidad y gobierno de datos; experiencia deseable con herramientas de gobierno como Purview.
  • Trabajar de forma colaborativa con equipos técnicos y de negocio para garantizar alineación con objetivos estratégicos.

Requisitos y perfil

Buscamos un perfil con experiencia en ingeniería de datos y/o arquitectura de datos, acostumbrado a trabajar en proyectos complejos y con capacidad de aprender de forma continua. Requisitos clave:
  • Dominio de Python para procesamiento y manipulación de datos.
  • Experiencia práctica con Databricks y entornos de nube, con enfoque en pipelines y transformación de datos.
  • Experiencia en integración y consumo de APIs para exposición de servicios y datos.
  • Conocimientos en automatización de flujos de trabajo (idealmente con n8n).
  • Interés o experiencia en el uso de modelos y servicios de IA (OpenAI, Gemini u otros).
  • Conocimientos en gobierno de datos (opcional: Purview u otras herramientas).
  • Habilidades analíticas, proactividad, autonomía y capacidad de aprendizaje continuo en tecnologías emergentes.
  • Buenas habilidades de comunicación y trabajo en equipo, orientación a resultados y capacidad para colaborar en contextos multidisciplinarios.

Deseables

Se valorará experiencia previa en entornos financieros, conocimiento de herramientas de orquestación y experiencia trabajando con datos estructurados y no estructurados, así como experiencia en proyectos de IA aplicados a negocio y en conformidad con marcos de gobernanza de datos.

Qué ofrecemos

Modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal. Ambiente colaborativo y dinámico con oportunidades de crecimiento y aprendizaje continuo. Equipo y proyectos innovadores de datos e IA, exposición a tecnologías modernas y clientes de alto nivel. Paquete salarial competitivo acorde a experiencia, cultura inclusiva, diversidad y trabajo en equipo. Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero.

Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data English Back-end

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

Job source: getonbrd.com.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
$$$ Full time
Python Analytics Virtualization Amazon Web Services
FactorIT, una empresa líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica, busca ampliar su equipo con un Arquitecto de Datos. Serás parte de proyectos regionales de transformación digital, trabajando en entornos Cloud para una cartera diversificada, especialmente en el sector financiero. Participarás en iniciativas que combinan analítica avanzada, automatización e IA, enfocados en entregar soluciones escalables y seguras que generan valor real para nuestros clientes. Formarás parte de un equipo colaborativo, orientado a la innovación, con oportunidades de desarrollo profesional y exposición a tecnologías de última generación.

Job source: getonbrd.com.

Principales responsabilidades

  • Diseñar arquitecturas de datos en entornos cloud que sean escalables, seguras y alineadas con las necesidades del negocio.
  • Definir e implementar pipelines de datos (ETL/ELT) para ingesta, procesamiento y distribución eficiente de datos.
  • Modelar datos para analítica avanzada y consumo por herramientas de BI y ciencia de datos.
  • Asegurar la calidad, gobernanza y disponibilidad de los datos mediante prácticas de Data governance y data quality.
  • Colaborar con equipos de ingeniería, analítica y negocio para convertir requerimientos en soluciones técnicas efectivas.
  • Evaluar e incorporar tecnologías y herramientas de datos emergentes (data lake/warehouse, data catalog, data virtualization).
  • Participar en la definición de estrategias de DataOps y MLOps cuando aplique, para operaciones de datos y modelos de ML.

Descripción

Buscamos un profesional con experiencia sólida en Arquitectura de Datos para liderar la definición de soluciones de datos en un entorno cloud. El/la candidato/a ideal tendrá habilidad para traducir requerimientos de negocio en arquitecturas eficientes, con foco en gobernanza, calidad y seguridad de los datos. Deberá colaborar estrechamente con equipos de ingeniería, analítica y negocio para garantizar que las soluciones soporten analítica avanzada, reporting y modelos de ML. Se valorará experiencia en entornos financieros y capacidad para trabajar en proyectos regionales con impacto real.
Requerimos dominio de procesos ETL/ELT, experiencia en modelamiento de datos relacional y no relacional, y experiencia en diseño de data lakes y/o data warehouses. Se espera manejo de Python para procesamiento de datos, y experiencia con herramientas nativas de AWS, Azure o GCP. Será clave una mentalidad de Data Governance, calidad de datos y prácticas de seguridad para evitar riesgos de cumplimiento y expose a datos sensibles. Buscamos perfiles orientados a resultados, con capacidad de comunicar complejas soluciones técnicas a stakeholders de negocio y con ganas de aprender y adaptarse a tecnologías emergentes.

Deseables

Experiencia con herramientas como Spark, Databricks o similares. Conocimiento en DataOps y/o MLOps. Experiencia en arquitecturas modernas (Lakehouse, Data Mesh). Inglés intermedio o superior.

Beneficios

Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre la vida profesional y personal. Ambiente colaborativo, dinámico y con tecnologías de última generación que facilitan el crecimiento profesional y la innovación tecnológica. Paquete salarial competitivo acorde a experiencia y perfil, y una cultura inclusiva que valora la diversidad y el trabajo en equipo. Al unirte, participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y el sector financiero, dentro de una organización que fomenta la innovación y el desarrollo profesional continuo.

$$$ Full time
JavaScript Java Python Node.js
En <Devaid> nos apasionan los desafíos tecnológicos y nuestros clientes lo saben. Por lo anterior, nos plantean problemáticas que nos obligan a estar constantemente probando e implementando nuevas tecnologías.
Trabajamos fuertemente en la nube ya que somos Partner Premier de Google Cloud en Chile, por lo que tendrás la oportunidad de formarte como un profesional cloud.
Dependiendo de las necesidades del cliente, <Devaid> ofrece soluciones web, móviles, integración de sistemas, entre otros. Esto permite acceder a la herramienta sin importar el dispositivo ni el lugar dónde se encuentra. Permitimos el trabajo colaborativo entre múltiples usuarios manteniendo una base centralizada de información.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Esperamos que puedas desempeñarte en las siguientes actividades:
  • Creación de pipelines de carga y transformación de datos.
  • Modelamiento de datos y creación de Data Warehouse y Data Lakes.
  • Integración de sistemas.
  • Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.

Requerimientos del cargo

Los requisitos para un buen desempeño de las funciones son:
  • 1 año de experiencia como Data Engineer.
  • Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
  • Conocimiento de soluciones de Data Warehouse y ETL.
  • Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
  • Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.

Deseables

Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
  • Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
  • Experiencia en plataformas de deployment de infraestructura como Terraform.
  • Experiencia utilizando la herramienta de consola gcloud.

Beneficios

Prometemos un ambiente muy grato de trabajo, lleno de desafíos y donde podrás ver los proyectos en los que estas involucrada/o siendo utilizados en un corto tiempo activamente por nuestros clientes, lo que siempre es muy gratificante.
Otras actividades:
  • Actividades mensuales (Cupones de Food delivery, juegos en línea, actividades grupales).
  • Actividad paseo anual: La empresa se junta por 2 días en algún lugar turístico para realizar actividades grupales y unir al equipo.
  • Día libre flexible en tu cumpleaños.
  • Capacitaciones en lo que más te guste.
  • Certificaciones Google Cloud: Programa de certificación en distintas ramas profesionales de GCP, gracias a que somos Partner Premier de Google Cloud en Chile.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Devaid pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Education stipend Devaid covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $4800 - 5700 Full time
Tech Manager
  • Artefact LatAm
  • Ciudad de México (Hybrid)
Analytics Business Intelligence Machine Learning Cloud

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo

Como Tech Manager, liderarás la visión técnica y ejecución estratégica de soluciones avanzadas en Data Engineering, BI e IA, garantizando arquitecturas escalables y de alto impacto. Serás el catalizador de transformaciones digitales complejas, gestionando equipos multidisciplinarios y actuando como el puente crítico entre los objetivos de negocio de los clientes y la innovación tecnológica. Tu enfoque integrará la excelencia en el delivery, la gobernanza de datos y el desarrollo de talento, consolidando estándares globales que posicionen a la compañía como un referente técnico en el mercado.

Apply to this posting directly on Get on Board.

Funciones del cargo

Capacidades de Datos y Tecnología: Diseñar, implementar y escalar soluciones robustas (modelos predictivos, segmentación IA y BI en tiempo real) garantizando excelencia técnica, escalabilidad y fiabilidad.

Liderazgo de Transformaciones: Actuar como líder técnico en iniciativas de datos e IA, guiando equipos en transformaciones complejas bajo mejores prácticas de ingeniería y arquitectura sólida.

Estrategia y Arquitectura: Definir la visión técnica de plataformas de datos y ecosistemas de BI, alineando decisiones de infraestructura, nube, gobernanza y seguridad con los objetivos del negocio.

Excelencia en Proyectos: Responsable de la ejecución integral, calidad y rendimiento. Anticipar riesgos técnicos y gestionar dependencias para asegurar entregas a tiempo y en alcance.

Gestión de Equipos y Clientes: Dirigir y asesorar equipos multidisciplinarios fomentando una cultura de ingeniería. Actuar como contacto técnico principal para clientes, traduciendo necesidades de negocio en soluciones escalables.

Innovación Continua: Evaluar nuevas tecnologías y herramientas en datos e IA, impulsando la experimentación y validación de conceptos.

Requerimientos del cargo

  • 8 años de experiencia liderazgo proyectos relacionados a data
  • Liderazgo técnico demostrado: amplia experiencia en la dirección de proyectos de datos, BI o IA en entornos complejos.
  • Mentalidad ingenieril: sólidos conocimientos de arquitecturas de datos, plataformas en la nube, canalizaciones de datos y ciclos de vida de IA/ML.
  • Capacidad analítica y de resolución de problemas: pasión por resolver problemas complejos utilizando datos y tecnología.

Sumas puntos si...

  • Innovador: curioso y con visión de futuro, siempre explorando nuevas herramientas y enfoques para mejorar las soluciones y la eficiencia.
  • Autónomo y responsable: capaz de impulsar iniciativas técnicas de forma independiente y asumir la plena responsabilidad de los resultados.
  • Buen comunicador: capaz de tender puentes entre los equipos técnicos y las partes interesadas no técnicas.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.

🇨🇱 Remote Data Engineering jobs from Chile: 2026 overview

The remote Data Engineering job market for professionals in Chile has grown steadily since 2020 and is today one of the most concrete paths to earn in USD from Santiago, Valparaíso or any city in the country. The typical salary range is $4,000 - $11,000 USD/mes, several times above the equivalent salary in the local market. Companies like Mercado Libre, Globant, Auth0, Nubank regularly hire Data Engineering profiles from Chile, either as contractors or employees through platforms like Deel or Remote.com. The most in-demand stack combines Data Engineering with Python, Sql, Spark. On the operational side, the most used payment methods are Wise, Deel, Payoneer, and the Chile timezone (GMT-4) offers natural overlap with the US East Coast and European morning hours, making it one of the most attractive regions for US and EU companies looking to hire nearshore talent. For professionals just starting in remote, the most profitable path is usually to begin with agencies like Toptal or Crossover (demanding technical filters but stable contracts) and later migrate to a full-time role at a product company. This page updates daily the active Data Engineering offers available for Chile, filtered so you only see 100% remote roles compatible with your location.

Salario

$4,000 - $11,000 USD/mes

Zona horaria

GMT-4

Posiciones

39

Pago

USD (cobro internacional)

Chile es un hub tecnologico reconocido en LATAM, con una comunidad activa de profesionales en Data Engineering.

How much a remote Data Engineering earns in Chile by seniority

Estimated ranges in USD/month. In Chile these amounts are typically 2x to 4x an equivalent local salary, depending on tax regime.

Level Experience Range USD/month
Junior 0-2 yrs $4,000 - $5,750
Mid-level 2-4 yrs $5,400 - $7,850
Senior 4-7 yrs $7,500 - $9,950
Lead/Staff 7+ yrs $9,250 - $11,000

How to get paid as a Data Engineering from Chile

Most used payment methods

  • Wise
  • Deel
  • Payoneer

Tax regime

You issue electronic professional invoices (10.75% withholding in 2024) or register as Empresa Individual. Service exports can be VAT-exempt.

Companies hiring remote Data Engineering from Chile

Mercado Libre Globant Auth0 Nubank Cloudwalk Stripe GitLab Crossover Toptal

FAQs about remote Data Engineering in Chile

Data Engineering professionals in Chile working for international companies earn $4,000 - $11,000 USD/mes. Paid in USD, this is typically 2x to 4x an equivalent local salary in the traditional market.

The most used methods are Wise, Deel, Payoneer. Most combine two to reduce fees: e.g. Wise for US clients and Deel when the company signs an employee contract.

You issue electronic professional invoices (10.75% withholding in 2024) or register as Empresa Individual. Service exports can be VAT-exempt.

Some that historically hire this profile from Chile: Mercado Libre, Globant, Auth0, Nubank. Beyond these, any company with a remote-friendly policy can hire from here if your English and portfolio are at the level.

Chile is in GMT-4, which gives a natural overlap of 4 to 6 hours with the US East Coast and 2 to 4 hours with UK. For Asian or Australian companies the overlap is minimal — look for "async-first" roles.