We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

Gross salary $1700 - 2500 Full time
Desarrollador Back-end Nestjs
  • CyD Tecnología
Python REST API NoSQL DevOps
CyD Tecnología es una empresa innovadora en el sector de la tecnología, especializada en el desarrollo de plataformas web personalizadas. Su enfoque principal es crear soluciones a medida que se ajusten perfectamente a las necesidades específicas de cada cliente. Utilizando las últimas tecnologías y tendencias en el diseño web, CyD Tecnología garantiza interfaces de usuario intuitivas, sistemas robustos y una experiencia de usuario óptima. Nos destacamos por nuestra capacidad para integrar diversas funcionalidades, desde sistemas de comercio electrónico hasta plataformas interactivas y dinámicas en ambientes web y móviles.

Apply directly on the original site at Get on Board.

Funciones del cargo

Trabajarás como programador de APIs REST utilizando el framework NestJS. Te integrarás a un célula de desarrollo, pero serás el responsable de generar los endpoints para una nueva plataforma web comenzaremos a desarrollar. Se requiere conocimientos en Mongoose (MongoDB).

Requerimientos del cargo

Debes tener experiencia demostrable desarrollando utilizando la plataforma NestJS. Debes tener conocimiento de base de datos MongoDB y su conector mongoose.
Debes poder diseñar desde cero interfaces API para generar el esqueleto de nuestras plataformas web y ser capaz de trabajar de forma fluida en un equipo de trabajo.
Debes ser responsable y empático con los tiempos de los demás, ser puntual y ordenado, y estar disponible para ayudar y construir de forma colaborativa.
Sería genial si también tuvieras experiencia en GCP y Kubernetes para apoyar al proceso de DevOps.

Opcionales

Nos gustaría que también tuvieras conocimiento de Kubernetes para apoyar en la configuración de los ambientes de desarrollo de la empresa. Conocimientos en Gitlab CI/CD, JIRA. Sería también deseable, aunque no requerido, que conocieras algo de Python y que tuvieras interés en sistemas de inteligencia artificial LLM.

Condiciones

Ofrecemos seguro complementario de salud y jornada 100% remota.

Health coverage CyD Tecnología pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3700 - 5000 Full time
Tech Lead & Solutions Architect Rubro Retail
  • Coderslab.io
JavaScript Java .Net HTML5

Coderslab.io es una empresa global que impulsa a las organizaciones a través de soluciones tecnológicas innovadoras. Formamos parte de un grupo en expansión con más de 3,000 empleados a nivel mundial, con oficinas en América Latina y Estados Unidos. Trabajarás en equipos diversos, integrados por el top 1% del talento tecnológico, involucrados en proyectos desafiantes e innovadores que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y trabajar con tecnologías de vanguardia en un entorno que prioriza la excelencia. El rol se orienta a liderar iniciativas de arquitectura de soluciones empresariales, gestión de órdenes y servicios para telecomunicaciones, y la implementación de estándares y marcos de referencia para fábricas de software.

This company only accepts applications on Get on Board.

Funciones principales

PROPÓSITO DEL CARGO
Liderar la transformación digital de las plataformas core de retail, diseñando y ejecutando arquitecturas escalables que optimicen la gestión de órdenes, cadena de suministro y experiencia omnicanal del cliente. Garantizar la evolución tecnológica de los sistemas enterprise, alineando las capacidades técnicas con los objetivos de negocio del retail.

RESPONSABILIDADES ESTRATÉGICAS
🔄 Liderazgo de Arquitectura Retail:

  • Diseñar y evolucionar la arquitectura de plataformas core de retail (gestión de órdenes, inventario, pricing, catálogos)
  • Definir la estrategia tecnológica para sistemas de fulfillment y supply chain
  • Establecer estándares de arquitectura y patrones de diseño para el ecosistema retail

🛒 Especialización en Soluciones Retail:

  • Arquitectura de sistemas de gestión de catálogos de productos y pricing dinámico
  • Diseño de plataformas omnicanal (online, físico, móvil)
  • Implementación de sistemas de gestión de inventario en tiempo real
  • Optimización de procesos Order-to-Cash y Supply Chain

👥 Liderazgo Técnico y Gestión de Equipos:

  • Liderar equipos multidisciplinarios de 8-15 desarrolladores
  • Establecer y supervisar las prácticas de ingeniería (code reviews, testing, CI/CD)
  • Mentoría y desarrollo de talento técnico interno
  • Gestión técnica de vendors y partners tecnológicos

Requisitos y perfil

  • Requisitos técnicos obligatorios: Oracle OSM 7.2+ (Certificado Implementation Specialist & Trainer), arquitecturas SOA/ESB (Oracle ESB, WebLogic, JBoss EAP), lenguajes Java/J2EE, Python, .NET, XQuery; bases de datos Oracle, MySQL, PostgreSQL, SQL Server; frontend (HTML5, CSS, JavaScript, jQuery); cloud y containers (Docker, Kubernetes, VMware).
  • EXPERIENCIA EN RUBRO RETAIL, EXCLUYENTE
  • Habilidades blandas: liderazgo técnico, pensamiento estratégico, comunicación ejecutiva, mentoría y capacitación, gestión de proyectos complejos y experiencia en proyectos multi-país.

Más deseable

  • Experiencia en gestión de proyectos internacionales y equipos distribuidos.
  • Certificaciones adicionales en TMForum, TOGAF, ITIL, PMI.
  • Conocimiento de integraciones con plataformas SAP/Oracle y herramientas de automatización adicionales.

Beneficios y condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

  • Trabajo con un equipo de élite y proyectos de gran escala en telecomunicaciones.
  • Acceso a tecnologías de vanguardia y formación continua.
  • Oportunidad de colaborar con oficinas en LATAM y EE. UU., y crecimiento profesional acelerado.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
IA Engineer
  • Improving South America
Python Virtualization Amazon Web Services Artificial Intelligence

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

This job is original from Get on Board.

Functions

Actualmente, estamos en la búsqueda de un IA Engineer, El objetivo principal se encuentra:

Integrar soluciones de IA en la nube, aprovechando servicios de AWS (idealmente Bedrock) u otras plataformas escalables, asegurando eficiencia, seguridad y rendimiento.

Desarrollar pipelines de datos y entrenamiento que permitan la automatización de procesos de modelado, versionamiento y monitoreo de modelos.

Crear y administrar embeddings para búsquedas semánticas, sistemas de recomendación y análisis de lenguaje natural, utilizando herramientas como FAISS, Pinecone o bases de datos vectoriales equivalentes.

Colaborar con equipos multidisciplinarios (data engineers, product managers, software developers) para integrar modelos de IA en aplicaciones de negocio.

Evaluar, documentar y presentar resultados técnicos a públicos técnicos y no técnicos, en inglés y español.

Investigar y aplicar nuevas metodologías y frameworks de IA generativa, contribuyendo a la innovación continua de la organización.

Optimizar modelos existentes para mejorar su desempeño, costo computacional y escalabilidad.

Velar por el cumplimiento de buenas prácticas en codificación, control de versiones, reproducibilidad y gestión de modelos (MLflow u otras herramientas).

Skill

  • Nivel de inglés intermedio/avanzado o avanzado - B2/C1 - (indispensable).
  • 5+ años de experiencia en proyectos de inteligencia artificial y aprendizaje automático.
  • Experiencia en la implementación y optimización de soluciones de IA en entornos empresariales.
  • Práctica con modelos de lenguaje grandes (LLM), que incluye capacitación, ajuste e implementación.
  • Experiencia con AWS Bedrock, incluida la integración de modelos fundamentales y el aprovechamiento de sus servicios de IA para aplicaciones escalables. (Deseable)
  • Competencia en la creación y utilización de incrustaciones para tareas como búsqueda semántica, sistemas de recomendación y procesamiento del lenguaje natural.
  • Sólida comprensión de los LLM y sus aplicaciones en escenarios del mundo real.
  • Habilidades avanzadas de programación en Python u otro lenguaje y familiaridad con bibliotecas como TensorFlow, PyTorch y Hugging Face Transformers.
  • Conocimiento de herramientas para el manejo de incrustaciones, incluidas FAISS, Pinecone o bases de datos vectoriales similares.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Senior Full-Stack Developer (Python & JavaScript)
  • Niuro
JavaScript Python Front-end Vue.js
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply to this job opportunity at getonbrd.com.

Responsibilities

  • Collaborate as a Senior Full-Stack Engineer with a focus on Python and JavaScript to build scalable web applications.
  • Design, implement, and maintain robust backend services and responsive frontend components using modern frameworks.
  • Lead technical decisions, establish coding standards, and mentor junior teammates to promote a culture of technical excellence.
  • Ensure code quality through reviews, automated tests, and adherence to best practices for clean, maintainable architectures.
  • Architect and optimize APIs, data models, and system integrations to support high availability and performance.
  • Collaborate with cross-functional teams across time zones, translating requirements into practical solutions.
  • Contribute to continuous improvement initiatives, focusing on delivery speed, quality, and reliability.

What you bring

We are seeking a Senior Full-Stack Developer proficient in Python and JavaScript with strong engineering fundamentals and leadership abilities. You should have hands-on experience building scalable, production-grade applications, and a solid understanding of modern frontend frameworks (e.g., Vue.js and/or Svelte is a plus). You’ll thrive in a fast-paced, collaborative environment and be comfortable mentoring peers while driving technical excellence and delivery focus.
Key skills include: clean code practices, scalable architecture, test-driven development, and a proactive, autonomous mindset. Excellent communication and teamwork are essential as you collaborate with global teams to deliver high-impact projects.

Nice-to-have

Experience with Vue.js and/or Svelte frameworks, strong leadership and mentorship capabilities, track record of delivering complex projects on time, and familiarity with industrial data projects. Fluency in English and ability to collaborate effectively with international teams.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Desarrollador Full-Stack Senior (Solution Developer Senior)
  • CoyanServices
Python Agile MySQL Node.js

CoyanServices busca incorporar a un Desarrollador Full Stack Senior para trabajar en un proyecto estratégico para un cliente regional a través de una empresa tecnológica privada. La posición es 100% remota y freelance, abierta a profesionales de cualquier país de Latinoamérica. El proyecto implica desarrollo de soluciones serverless y nativas en la nube, con foco en rendimiento, seguridad y capacidad de escalar. El candidato trabajará en un entorno colaborativo, con equipos multidisciplinarios, para entregar una solución integral que soporte las necesidades del negocio y defina arquitecturas prácticas para operaciones.

This job is published by getonbrd.com.

Objetivos del rol

  • Desarrollar aplicaciones serverless y nativas cloud tanto en front-end como en back-end.
  • Asegurar desarrollos performantes, responsivos y con altos estándares de seguridad.
  • Participar en definiciones funcionales, de negocio y de arquitectura para garantizar su aplicabilidad práctica.
  • Anticipar riesgos y comunicar a líderes y equipos sobre posibles problemas que afecten la entrega de proyectos.

Responsabilidades

  • Desarrollo full stack (front y back) con foco en rendimiento y seguridad.
  • Implementación de arquitecturas de microservicios y APIs.
  • Desarrollo en entornos serverless sobre AWS.
  • Participación en definiciones de especificaciones, funcionalidades y reglas de negocio.
  • Colaboración en diseño de arquitecturas prácticas para operaciones.
  • Comunicación de riesgos y bloqueos en células ágiles.

Requisitos Técnicos & Habilidades blandas

  • Requisitos Técnicos:
    • Formación universitaria en Informática, Computación, Electrónica, Ingeniería Industrial o carreras afines.
    • Mínimo 3 años de experiencia en desarrollo de soluciones (front y back).
    • Conocimientos y experiencia en Angular, Node.js y MySQL.
    • Experiencia en arquitectura de microservicios, APIficación y AWS serverless.
    • Deseable: Python, Aurora y bases de datos NoSQL.
    • Experiencia trabajando con usuarios de negocio (key users y process owners).
    • Conocimiento en metodologías ágiles (células, ceremonias, entregables).
  • Habilidades blandas:
    • Colaboración con equipos multidisciplinarios.
    • Comunicación efectiva con usuarios de negocio.
    • Adaptabilidad a metodologías ágiles.
    • Autonomía y orientación a resultados.

Beneficios

  • Freelancer

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Senior Full-Stack Engineer (Python + React/Vue)
  • Devups
JavaScript Python Front-end REST API
Devups es una empresa de desarrollo y servicios de personal (staff augmentation) orientada a acelerar el crecimiento de nuestros clientes mediante la incorporación de desarrolladores y equipos de ingeniería sin las cargas tradicionales de reclutamiento y contratación. El proyecto principal de este rol es para una startup de ciberseguridad en rápido crecimiento que busca un Full-Stack Engineer con foco en Python para diseñar y construir herramientas de validación de automatización y sistemas web de orquestación. El objetivo es crear una plataforma que permita validar automáticamente flujos de trabajo, orquestar APIs y entregar portales web seguros para iniciar validaciones, monitorear resultados y revisar historial. El candidato trabajará en un equipo técnico multidisciplinario, colaborando con ingenieros de integración y líderes técnicos para definir escenarios y criterios de aceptación, y aportando a mejoras continuas en procesos y arquitectura.

Apply through Get on Board.

Funciones principales

  • Diseñar, construir y mantener un sistema de validación de automatizaciones con backend en Python y frontend en React/Vue/Next.js.
  • Desarrollar portales web seguros para iniciar validaciones, monitorear resultados y revisar history de ejecuciones.
  • Implementar lógica de orquestación de APIs, con integraciones como JIRA y otros SaaS.
  • Crear reglas de validación y servicios API que soporten pipelines CI/CD y monitoreo.
  • Desarrollar interfaces responsivas y usables para usuarios técnicos.
  • Colaborar con ingenieros de integración y líderes técnicos para definir escenarios y criterios de aceptación.
  • Participar en revisiones de código, diseño arquitectónico y mejoras de procesos.

Requisitos y perfil

Buscamos un ingeniero de software senior con al menos 5 años de experiencia, con énfasis en backend en Python. Se valorará experiencia probada en desarrollo full-stack con React, Vue o Next.js, así como dominio de REST APIs, OAuth/JWT, orquestación y autenticación. Se requiere experiencia en integraciones con APIs de terceros (p. ej., JIRA, proveedores de identidad), familiaridad con automatización de flujos de trabajo, RPA o orquestación de trabajos, y experiencia en CI/CD, Docker y servicios en la nube (AWS, GCP o Azure). Excelentes habilidades de comunicación en entornos distribuidos y nivel avanzado de inglés. Se valora experiencia previa en ciberseguridad o seguridad/identity operations.

Competencias deseables

Experiencia previa trabajando en entornos de ciberseguridad, conocimiento en seguridad de APIs, prácticas de desarrollo seguro, y capacidad para trabajar en equipos multifuncionales distribuidos. Interés en aprender y adaptar nuevas tecnologías, proactividad, orientación a resultados y capacidad para gestionar prioridades en un entorno dinámico.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1800 Full time
Desarrollador Angular
  • Defontana
JavaScript Front-end Git AngularJS
DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.
En Defontana somos apasionados en ayudar a nuestros clientes a crecer, entregando herramientas para que gestionen sus sueños, por lo que valoramos el trabajo en equipo, el deseo irrenunciable por satisfacer las necesidades de nuestros clientes y la pasión por realizar una gestión de excelencia. Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

© Get on Board. All rights reserved.

Funciones del cargo

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.
El desarrollador a contratar formará parte del equipo de Integraciones de Defontana: sus tareas inicialmente estarán enfocadas en el desarrollo de interfaces web, utilizando Angular 16 o superior.

Requerimientos y Conocimientos esperados

Se requiere un desarrollador (Ingeniero en Computación, Informática o carrera afín) sin experiencia requerida, pero con conocimientos en Angular 16 o superior.
Se espera principalmente que el desarrollador a integrarse al equipo tenga muchas ganas de aprender y aumentar sus conocimientos, desarrollando y colaborando, en los nuevos proyectos a realizar.
  • Conocimiento medio/avanzado en Angular 16 o superior
  • Conocimiento en Herramienta de control de fuentes (idealmente GIT)

Conocimientos opcionales

Los siguientes conocimientos se considerarán un plus al momento de la evaluación del postulante:
- Conocimientos en AWS
- SQL Server avanzado
- Conocimientos de Ingeniería de Software.
- Conocimientos básicos de contabilidad, facturación, ventas, compras, etc.

Beneficios

100% remoto
Se entrega máquina virtual de trabajo y equipo físico a desarrolladores de Chile.
Bono trimestral, según resultados de la empresa.

Fully remote You can work from anywhere in the world.
Computer provided Defontana provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4500 Full time
Staff Software Engineer
  • Checkr
  • Santiago (Hybrid)
Python Agile PostgreSQL Git

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.

Como uno de los mayores proveedores de recursos de datos de antecedentes en los Estados Unidos, Checkr permite a las agencias de informes de los consumidores y a las empresas tomar decisiones bien informadas que protegen a sus organizaciones, empleados y clientes.

Apply to this job from Get on Board.

Responsabilidades del cargo

  • Dirigir el desarrollo del producto desde la ideación, el diseño y la implementación hasta el lanzamiento.
  • Colaborar con otros ingenieros y con el jefe de producto en el diseño y la arquitectura de nuevos sistemas.
  • Diseñar, desarrollar, probar, desplegar, mantener y mejorar el software
  • Gestionar las prioridades, los plazos y los resultados de cada proyecto.
  • Entregar código de alto rendimiento, fiable, escalable y seguro.

Calificaciones y Requisitos del cargo

  • Más de 10 años de experiencia en la industria como ingeniero de software, y experiencia significativa trabajando con Python
  • Capacidad de liderazgo, y una pasión por la tutoría de los ingenieros más jóvenes
  • Experiencia en la ejecución de rituales Scrum (planificación de sprints, standup diario, revisión de sprints y retrospectiva)
  • Experiencia práctica con AWS
  • Gran conocimiento de la infraestructura de arquitectura de microservicios, incluida la familiaridad con Kubernetes
  • Experiencia diseñando e implementando APIs REST
  • Experiencia con CI/CD
  • Experiencia trabajando con almacenes de datos como Postgres, MongoDB
  • Experiencia con Git, GitLab o Github y proceso de revisión PR/MR
  • Pasión por la optimización de servicios para escala y velocidad
  • Muchas ganas de aprender, colaborar, mejorar e innovar
  • Manejo de Ingles verbal a nivel avanzado

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

VIEW JOB APPLY VIA WEB
$$$ Full time
Desarrollador Back-end (Python, Fastapi)
  • CyD Tecnología
Python SQL Docker Microservices

En CyD Tecnología buscamos un Desarrollador Backend para liderar la implementación de APIs de comunicación utilizando Python y FastAPI. El enfoque principal será desarrollar servicios robustos, escalables y bien documentados que faciliten la interacción entre sistemas y módulos internos. Trabajarás en un equipo ágil para convertir requerimientos de negocio en soluciones API eficientes, seguras y de alto rendimiento. Nuestro objetivo es crear una plataforma web personalizada que simplifique procesos para nuestros clientes, con especial énfasis en integraciones REST y comunicación entre microservicios.

Apply at getonbrd.com without intermediaries.

Funciones principales

  • Diseñar, implementar y mantener APIs RESTful con foco en rendimiento, escalabilidad y seguridad.
  • Desarrollar endpoints utilizando FastAPI, gestionando validaciones, autenticación y manejo de errores.
  • Colaborar con el equipo de Producto y Frontend para entender requerimientos y traducirlos en soluciones técnicas efectivas.
  • Escribir pruebas unitarias e integraciones, y participar en revisiones de código para garantizar calidad.
  • Proporcionar documentación clara y actualizada de las APIs, contratos y flujos de datos.
  • Trabajar con bases de datos, migraciones y consumo de servicios externos, asegurando logs y trazabilidad.
  • Participar en despliegues y prácticas DevOps, monitorización y resolución de incidentes.

Descripción

Buscamos un Desarrollador Backend con experiencia en Python y FastAPI para unirse a nuestro equipo y liderar la implementación de APIs de comunicación. El candidato ideal tiene sólido conocimiento en lectura e implementación de interfaces REST, experiencia práctica en desarrollo de microservicios y un enfoque orientado a calidad, pruebas y documentación. Se valorará experiencia en áreas de RRHH o manejo de API Talana, así como capacidad para colaborar en proyectos multidisciplinarios y entregar soluciones escalables y mantenibles.

Requisitos deseables

  • Experiencia con Talana o plataformas de remuneraciones y nómina (remuneraciones)
  • Conocimiento avanzado de Python, FastAPI, SQL y manejo de ORMs (p. ej., SQLAlchemy).
  • Experiencia con pruebas automatizadas, CI/CD y contenedores (Docker) y orquestación (Kubernetes) es una ventaja.
  • Capacidad para comunicarse de forma efectiva, trabajar en equipo ágil y adaptarse a cambios de negocio.
  • Conocimiento de buenas prácticas de seguridad, rendimiento y observabilidad.

Beneficios

Ofrecemos seguro complementario de salud y jornada 100% remota.

VIEW JOB APPLY VIA WEB
$$$ Full time
Software Engineer I
  • Wherex
  • Santiago (Hybrid)
JavaScript Python PHP Redis

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Apply directly on Get on Board.

Job functions

Desarrollador de software con fuerte interés en construir soluciones tecnológicas basadas en IA. Serás parte del equipo de Sourcing, participando en el desarrollo de nuevas funcionalidades, resolución de issues en producción y mejora continua del sistema.

Funciones principales:

  • Diseñar, desarrollar y mantener funcionalidades de la plataforma.
  • Atender y dar solución a incidencias operativas.
  • Colaborar en la revisión de código y decisiones técnicas.
  • Participar activamente en ceremonias ágiles y trabajo colaborativo.

Qualifications and requirements

Requisitos técnicos:

  • Titulo universitario de Ingeniero Civil en Informática, Ingeniero en Informática. 
  • 1 a 2 años de experiencia en desarrollo de software (incluye prácticas profesionales de alta exigencia).
  • Experiencia práctica con al menos 2 de los siguientes lenguajes: PHP, Python, Go, JavaScript, React.
  • Conocimientos en bases de datos relacionales (PostgreSQL, MySQL) y no relacionales (MongoDB, Redis, etc.).
  • Manejo de control de versiones con Git.
  • Experiencia con contenedores Docker.
  • Conocimientos en metodologías ágiles (Scrum, Kanban).
  • Interés o experiencia en desarrollo asistido por Inteligencia Artificial (IA).

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana 

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Desarrollador/a Full-Stack MEAN/MERN
  • Devups
JavaScript Python Agile Front-end

Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador/a aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.

DevUps nace de la famosa frase de Barney Stinson, Suit Up.

This company only accepts applications on Get on Board.

Job functions

  • Definir y diseñar aplicaciones junto al PM asignado.
  • Trabajar junto a otros ingenieros en el testing de las tareas asignadas.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Requirements

El perfil que buscamos deberá comprender la arquitectura de aplicaciones basadas en stacks JavaScript (MEAN/MERN) y aplicar patrones comunes y probados. Deberá tener experiencia optimizando el rendimiento de interfaces y servidores, así como habilidad para comunicar claramente desafíos técnicos complejos a distintos stakeholders. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.

Nivel de inglés: B2+.

Se debe cumplir con al menos (1) lenguaje de Front y (1) de Back:

Front-end (elige uno):

  • React.js
  • Angular
  • Vue.js

Back-end (elige uno):

  • Node.js (Express)
  • Python (Django / FastAPI / Flask)

Desirable skills

  • Construir APIs GraphQL con Node.js y MongoDB
  • Desarrollar microservicios con Node.js y GraphQL.
  • Conocer AWS Services (S3, Fargate, EC2, Lambda).
  • Bases de datos: MongoDB, MySQL.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Full-Stack Developer React Node.js Python
  • SONDA
  • Santiago (Hybrid)
JavaScript Ruby Ruby on Rails HTML5

SONDA es una empresa líder en transformación digital en Latinoamérica, comprometida con el desarrollo tecnológico y social en las comunidades donde opera. Nuestra misión es mejorar la calidad de vida de las personas mediante la innovación y soluciones tecnológicas que transforman negocios y procesos. Actualmente, buscamos un Desarrollador Full Stack para integrarse al proyecto Fonasa, donde se desarrollan aplicaciones orientadas a optimizar y modernizar sistemas y procesos de información en el sector público, aportando valor al cliente final mediante tecnología de punta y trabajo colaborativo.

Find this vacancy on Get on Board.

Responsabilidades y funciones principales

  • Desarrollar aplicaciones siguiendo los diseños técnicos y funcionales definidos.
  • Generar soluciones innovadoras y efectivas frente a los problemas técnicos o de negocio detectados.
  • Realizar la mantención y mejora continua de aplicaciones existentes para asegurar su operatividad y calidad.
  • Analizar los requisitos del sistema y procesos de negocio existentes para identificar oportunidades de mejora y asegurar la alineación con las necesidades del cliente.
  • Diseñar y construir pruebas unitarias robustas que garanticen la calidad de las soluciones desarrolladas.
  • Contribuir activamente a la elaboración técnica global de las soluciones, colaborando con los equipos multidisciplinarios.

Perfil requerido y conocimientos técnicos

  • Buscamos un profesional con título en Ingeniería en Informática, Sistemas o carreras afines, quien cuente con un mínimo de 2 años de experiencia directa en roles similares de desarrollo Full Stack y al menos 5 años en el ámbito tecnológico, demostrando un sólido conocimiento del ciclo completo de desarrollo de software.
  • Es fundamental poseer habilidades técnicas en frontend, con experiencia en HTML, CSS, JavaScript y el manejo de frameworks o librerías populares como React o Angular. En el backend, se requiere conocimiento en programación con lenguajes como Node.js, Python y frameworks asociados como FastAPI, Express, Django o Rails.
  • Además, debe contar con experiencia en la gestión y manejo de bases de datos tanto relacionales (MySQL, PostgreSQL, Oracle DB) como NoSQL (MongoDB), para garantizar el adecuado almacenamiento y consulta de la información.
  • Se valorará el conocimiento en herramientas de integración y entrega continua (CI/CD), uso de contenedores como Docker, y experiencia con servicios en la nube, especialmente AWS, aportando a la modernización y automatización de los entornos de desarrollo y producción.
  • Además de las habilidades técnicas, buscamos una persona con capacidad analítica, orientación a la solución de problemas, y aptitudes para trabajar en equipo dentro de un ambiente colaborativo y diverso, siempre promoviendo la innovación y la mejora continua.

Conocimientos adicionales valorados

  • Es deseable contar con experiencia práctica en proyectos que impliquen despliegue en entornos cloud y microservicios, así como manejo avanzado en técnicas de testing automatizado e infraestructura como código.
  • Se valorará también la habilidad para adaptarse rápidamente a nuevas tecnologías y metodologías ágiles, junto a una fuerte orientación al cliente y comunicación efectiva con stakeholders técnicos y no técnicos.


Beneficios y cultura organizacional

  • En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.
  • Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.
  • Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.
  • El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.
  • Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.
  • Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

VIEW JOB APPLY VIA WEB
Gross salary $1100 - 1300 Full time
Desarrollador Web Full-Stack Semi Senior
  • Defontana
JavaScript HTML5 CSS Front-end

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Find this vacancy on Get on Board.

Funciones del cargo

Buscamos un desarrollador web Full Stack Semi Senior con experiencia NodeJs/ Netcore-Net 6+, React /Angular, SQL. Experiencia en AWS (opcional). Sus funciones serán implementar nuevos productos y dar soporte a las aplicaciones solicitadas por clientes de Defontana.

Las tareas de ejecutar son las siguientes:
- Mantenimiento a productos existentes.
- Desarrollo de productos según las necesidades de la empresa.
- Desarrollo de nuevas funcionalidades.
- Comunicación con equipos de internos y externos a la empresa, según corresponda a cada proyecto.

Para el trabajo remoto, se requiere tenga una buena conexión a Internet para conectarse a reuniones junto a sus compañeros de equipo.

Requerimientos del cargo

Requerimos que el postulante al cargo tenga los siguientes conocimientos:

  • NodeJs
  • Desarrollo y Administración en AWS (Lambda, API Gateway, DynamoDB, S3) (opcional)
  • CDK/Serverless Framework.
  • React
  • TypeScript, JavaScript
  • .Net Core 3.1 o superior
  • Net Framework
  • Net6+
  • Entity Framework
  • SQL
  • Angular 2+
  • Conceptos de Desarrollo Web (Frontend, Backend, HTML, CSS, API RESTful, Autenticación, Requests, CORS, etc)
  • SQL Server
  • Git

Opcionales

Conocimiento sobre Scrum y otras metodologías de trabajo en desarrollo de software.

Beneficios

Trabajo remoto.
La empresa entrega un PC de trabajo remoto al desarrollador, por lo que solo se solicita poseer un PC a través del cual se pueda conectar al mismo en forma remota.
Bono trimestral de medio sueldo, según resultados de la empresa y tiempo de permanencia en la misma.

Fully remote You can work from anywhere in the world.
Computer provided Defontana provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Defontana offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2100 Full time
Especialista en Seguridad Ofensiva
  • QuePlan.cl
  • Santiago (Hybrid)
JavaScript Java Python PHP

En QuePlan.cl estamos revolucionando la forma de elegir Isapres y haciendo más fácil la decisión para miles de personas en Chile, con presencia en Chile, Perú y Colombia. Buscamos impulsar nuestra ciberseguridad desde una perspectiva ofensiva para fortalecer nuestra postura y mantener la innovación en un entorno 100% digital. El/la candidato/a ideal se unirá a un equipo enfocado en seguridad de software y sistemas, apoyando prácticas de seguridad desde el diseño, desarrollo y operaciones, con impacto directo en la experiencia del usuario y la transparencia de nuestra oferta de planes de Isapres.

Job opportunity on getonbrd.com.

Funciones

  • Ejecutar pruebas de penetración en aplicaciones web, APIs REST/SOAP y servicios cloud para identificar vulnerabilidades críticas y proponer planes de remediación.
  • Evaluar la seguridad con metodologías reconocidas como OWASP Top 10, OWASP Testing Guide y PTES, documentando hallazgos y niveles de riesgo.
  • Elaborar informes técnicos y ejecutivos con evidencias, impacto y recomendaciones de mitigación.
  • Colaborar con desarrollo y operaciones para revisión de código seguro e implementación de prácticas SDLC seguras.
  • Participar en ejercicios de Red Team y simulaciones de ataques para fortalecer la postura de seguridad.
  • Mantenerse actualizado sobre vulnerabilidades, exploits y herramientas de seguridad ofensiva.

Requisitos y experiencia

Formación en Ingeniería en Informática, Ciberseguridad o carreras afines (deseable diplomado en Seguridad de la Información).

Al menos 2 años de experiencia en seguridad ofensiva o pentesting web (blackbox, greybox y whitebox).

Dominio de OWASP Top 10 y experiencia con herramientas como Burp Suite Pro, OWASP ZAP, Nmap, SQLMap, Metasploit, Nuclei, ffuf, dirb, entre otras.

Conocimientos en Python o Bash; preferible manejo de JavaScript, PHP o Java para revisión de código. Entendimiento de redes y protocolos (TCP/IP, HTTP/HTTPS, DNS, TLS/SSL, OAuth, JWT, SAML).

Certificaciones como CEH, OSCP, eWPT o experiencia en ISO 27001 son deseables. Capacidad analítica, atención al detalle, proactividad, pensamiento crítico y buen trabajo en equipo. Ética profesional y alto estándar de confidencialidad.

Deseables

Certificaciones en seguridad ofensiva (CEH, OSCP, eWPT) y experiencia en entornos ISO 27001.

Experiencia trabajando en entornos Agile/SDLC y colaboración con equipos multifuncionales. Capacidad para comunicar riesgos de forma clara a stakeholders técnicos y no técnicos. Idioma inglés técnico es un plus.

Beneficios

Todas las herramientas necesarias para trabajar, computador y otros insumos.

Horario flexible con cierre de viernes a las 16:00 y 09:00-18:30 resto de la semana.

Vacaciones administrativas de libre uso, seguro complementario de salud catastrófico y dental, beneficios de Caja Los Andes, bonos por festividades y temporada navideña, y permisos por matrimonio o cumpleaños. Vestimenta semiformal y modalidad híbrida.

Ubicación en Santiago, oficina en Providencia (Metro Pedro de Valdivia).

Health coverage QuePlan.cl pays or copays health insurance for employees.
Computer provided QuePlan.cl provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal QuePlan.cl gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $1000 - 1300 Full time
Administrador Linux (Debian)
  • TREM Group
JavaScript Python PHP MySQL
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

This company only accepts applications on Get on Board.

Funciones del Puesto

Buscamos un Administrador Linux con experiencia en Debian para unirse a nuestro equipo de infraestructura y desarrollo. Serás responsable de administrar servidores, desplegar aplicaciones y asegurar la disponibilidad de nuestros sistemas en la nube.
Entre tus responsabilidades principales estarán:
  • Administración de servidores Linux (principalmente Debian).
  • Despliegue y mantenimiento de aplicaciones en PHP, Python y Node.js.
  • Instalación, configuración y administración de bases de datos:
    • MySQL y PostgreSQL, incluyendo clústeres y esquemas master + slave.
  • Despliegue y optimización de aplicaciones PHP, principalmente:
    • WordPress.
    • Symfony.
  • Administración y operación en entornos cloud, principalmente en Vultr.
  • Implementación y gestión de respaldos en buckets S3.
  • Manejo de secretos y credenciales con HashiCorp Vault.

Requisitos y Habilidades

  • Experiencia demostrable en administración de sistemas Linux (Debian).
  • Conocimientos en despliegue de aplicaciones web (PHP, Python, Node.js).
  • Experiencia con bases de datos relacionales (MySQL, PostgreSQL).
  • Conocimientos en alta disponibilidad (clusters, replicación).
  • Experiencia en servidores web Nginx y PHP-FPM.
  • Experiencia en respaldos de datos en entornos productivos.
  • Conocimiento de herramientas de seguridad y gestión de secretos.
  • Experiencia con contenedores Docker y Kubernetes.

Conocimientos y Experiencia Deseable

  • Automatización con Ansible, Terraform u otras herramientas IaC.
  • Experiencia en monitoreo y logging (Prometheus, Grafana, Loki, etc.).
  • Buenas prácticas de seguridad y hardening en servidores Linux.

Beneficios

  • Modalidad de trabajo remoto.
  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
  • Participar en proyectos de alto impacto con tecnologías modernas.
  • Equipo colaborativo y enfocado en buenas prácticas DevOps.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Dynamic Devs
  • Santiago (Hybrid)
JavaScript Java Python PHP

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente.

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 Buscamos DevOps Engineer para formar parte de nuestro #DynamicTeam🚀

This job offer is on Get on Board.

Funciones del cargo

  • Colaborar con equipos de desarrollo y operaciones para implementar, gestionar y optimizar pipelines de CI/CD usando AzureDevops y GitHub Actions.
  • Gestionar la infraestructura en la nube, configurando y administrando clusters Kubernetes y utilizando servicios de AWS como EKS, Lambda, API Gateway, CloudFront, EC2, S3 y Dynamo DB para asegurar la escalabilidad y alta disponibilidad de las aplicaciones.
  • Automatizar la infraestructura y despliegue en la nube utilizando Terraform, Serverless framework y SAM AWS.
  • Monitorear y optimizar el rendimiento de sistemas y aplicaciones utilizando herramientas de observabilidad como Prometheus, Grafana o Datadog, y resolver problemas proactivamente.
  • Documentar procesos, soluciones y buenas prácticas para facilitar la colaboración dentro del equipo y entre áreas técnicas y no técnicas.
  • Fomentar la mejora continua en la infraestructura y procesos, aplicando metodologías ágiles para asegurar entregas rápidas y seguras.
  • Apoyar al equipo en la creación de soluciones automatizadas que permitan la eficiencia en el desarrollo y operaciones.

Requerimientos del cargo

  • 3 años de experiencia como DevOps Engineer o en un rol similar.
  • Experiencia avanzada en AzureDevops, GitHub Actions y GIT.
  • Conocimiento avanzado de CI/CD y experiencia en la implementación y optimización de pipelines.
  • Experiencia gestionando y configurando Kubernetes y servicios de AWS como EKS, Lambda, API Gateway, CloudFront, EC2, S3 y Dynamo DB.
  • Experiencia con Terraform, Serverless framework, SAM AWS para la automatización de infraestructuras en la nube.
  • Conocimientos en lenguajes de programación como JS, Java, Python y/o PHP.
  • Habilidades en monitoreo y solución de problemas utilizando herramientas de observabilidad como Prometheus, Grafana, o Datadog.
  • Excelentes habilidades de comunicación y colaboración en entornos multifuncionales.
  • Experiencia trabajando en entornos ágiles.

Opcionales

  • Conocimiento y experiencia con Docker y Kubernetes en entornos empresariales.
  • Certificaciones en AWS, Azure o Google Cloud.
  • Familiaridad con Jenkins, CircleCI, u otras herramientas CI/CD.
  • Experiencia en prácticas de Site Reliability Engineering (SRE).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Health coverage Dynamic Devs pays or copays health insurance for employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer Junior
  • Healthatom
  • Santiago (Hybrid)
JavaScript Python Linux DevOps
En Healthatom estamos revolucionando la industria de la salud, usando la tecnología como una herramienta poderosa. Nuestro objetivo es facilitar la gestión diaria de clínicas, consultas y centros médicos a través de soluciones en la nube.
El/la DevOps Engineer Junior formará parte del equipo de infraestructura y coloborará estrechamente con desarrollo, seguridad y operaciones para garantizar la escalabilidad, confiabilidad y eficiencia de nuestras plataformas.
El rol se enfoca en apoyar la administración de la infraestructura en la nube (AWS), diseñar e implementar pipelines CI/CD, y contribuir a la automatización de procesos para mejorar la entrega de software y la observabilidad de sistemas en producción.
Buscamos a alguien con ganas de aprender, colaborar y crecer dentro de una empresa en crecimiento con presencia en más de 20 países y más de 14 mil clientes.

Apply exclusively at getonbrd.com.

¿Qué harás?

  • Apoyar en la administración y mantención de la infraestructura en la nube (AWS) bajo supervisión, asegurando disponibilidad y rendimiento.
  • Colaborar en el diseño, desarrollo y mantenimiento de scripts y procesos de automatización para acelerar despliegues y reducir errores.
  • Contribuir a la elaboración y mantención de pipelines de CI/CD (integración y entrega continua) para proyectos de software y servicios.
  • Programar soluciones básicas en scripting (Python, Bash, JavaScript) para tareas de automatización y tooling interno.
  • Apoyar en tareas de administración de bases de datos y en la ejecución de tareas de respaldo, recuperación y optimización bajo supervisión.
  • Participar en despliegues a producción siguiendo procedimientos establecidos y buenas prácticas de implementación.
  • Colaborar en la implementación de infraestructura como código (IaC).
  • Participar en testing, revisión de código y creación de pull requests.
  • Contribuir al seguimiento de directrices de seguridad de la información y cumplimiento normativo (compliance).
  • Monitorear servicios, aplicar mejoras y escalar incidencias cuando sea necesario.

¿Qué buscamos?

• Conocimientos básicos de infraestructura en la nube (AWS, GCP o Azure).
• Familiaridad con tecnologías de automatización y scripting.
• Conocimientos básicos de Python y/o Javascript.
• Comprensión de conceptos fundamentales de DevOps y CI/CD.
• Conocimiento básico de Linux y línea de comandos.
• Actitud proactiva para aprender nuevas tecnologías y herramientas.

Deseable (no excluyente)

• Conocimiento básico de Bash scripting.
• Familiaridad con contenedores (Docker) y orquestación básica.
• Conocimiento de Git y control de versiones.
• Experiencia académica con bases de datos (SQL y/o NoSQL).
• Comprensión básica de buenas prácticas de seguridad en DevOps.
• Conocimiento de herramientas de IA con buenas prácticas para acelerar desarrollo y documentación.

¿Qué tenemos para ti?

  • Aguinaldos, regalos por años de servicio, por la llegada de tu hijo/a, y en Navidad para tus pequeñ@s.
  • Queremos celebrar tus logros y momentos especiales contigo.
  • Días extra de vacaciones, para que recargues energías y aproveches al máximo tus momentos de descanso.
  • Porque sabemos que hay que celebrar la vida en grande, disfruta de tu cumpleaños con un merecido día libre.
  • Tendrás la posibilidad de trabajar de forma remota.
  • Para nuestros/as Healthatomers en Chile, ofrecemos un seguro complementario de salud

Partially remote You can work from your home some days a week.
Health coverage Healthatom pays or copays health insurance for employees.
Dental insurance Healthatom pays or copays dental insurance for employees.
Computer provided Healthatom provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Healthatom offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3200 Full time
Product Engineer DevOps
  • Ria Money Transfer
  • Santiago (Hybrid)
Python Linux DevOps Continuous Integration

Ria Money Transfer, a business segment of Euronet Worldwide, Inc. (NASDAQ: EEFT), delivers innovative financial services including fast, secure, and affordable global money transfers to millions of customers along with currency exchange, mobile top-up, bill payment and check cashing services, offering a reliable omnichannel experience. With over 600,000 locations in nearly 200 countries and territories, our purpose remains to open ways for a better everyday life.

We are looking for a Product Engineer focused on CI/CD, Delivery Acceleration, and AI-Augmented Engineering Workflows to improve how fast, safely, and reliably our digital products reach customers. You will integrate AI-powered tooling across the delivery lifecycle — from code authoring and review through testing, deployment, and observability — while maintaining the quality and compliance standards required in financial services.

© Get on Board. All rights reserved.

Roles & Responsibilities

  • Design, implement, and optimize CI/CD pipelines to reduce build times, increase deployment frequency, and improve release reliability across mobile and web platforms.
  • Build and maintain infrastructure-as-code for automated testing, staging, and production environments.
  • Improve environment consistency and deployment automation, including configuration, secrets management, and release orchestration.
  • Standardize CI/CD patterns across squads while allowing flexibility for product-specific needs.
  • Evaluate and integrate AI-assisted development tools (e.g., GitHub Copilot, Cursor, CodeWhisperer) across engineering teams, ensuring responsible usage aligned with security and compliance policies.
  • Implement AI-powered code review and security scanning tools (e.g., CodeRabbit, Snyk AI, SonarQube AI) into PR workflows to catch vulnerabilities and quality issues before code enters the pipeline.
  • Introduce AI-driven test optimization tools (e.g., Diffblue, Launchable, Qodo) to auto-generate test cases and intelligently prioritize test execution based on code change impact.
  • Leverage AI-powered observability platforms (e.g., PagerDuty AIOps, Datadog AI) for faster anomaly detection and reduced mean time to recovery (MTTR).
  • Explore and prototype LLM-based automation for build failure triage, release note generation, and intelligent rollback recommendations.
  • Establish delivery performance dashboards (DORA metrics: deployment frequency, lead time, change failure rate, MTTR).
  • Enable progressive delivery strategies such as feature flags, staged rollouts, and trunk-based development.
  • Develop self-service tooling and templates that empower teams to deploy safely with minimal manual intervention.
  • Collaborate with QA and UAT stakeholders to embed automated testing into pipelines.
  • Document delivery workflows, best practices, and AI tooling guidance for engineering teams

Position Requirements

  • 1+ years of experience in software engineering, platform engineering, or DevOps roles.
  • Experience designing and maintaining CI/CD pipelines using tools such as GitHub Actions, GitLab CI, Jenkins, CircleCI, or similar.
  • Familiarity with containerization technologies (Docker, Kubernetes).
  • Familiarity with at least one major cloud platform (AWS, GCP, or Azure).
  • Experience with infrastructure-as-code tools such as Terraform, Pulumi, or CloudFormation.
  • Scripting skills (Bash, Python, or similar) to automate workflows and tooling.
  • Understanding of testing strategies (unit, integration, end-to-end) and how they integrate into automated pipelines.
  • Familiarity with AI-assisted development tools and an interest in embedding them responsibly into engineering workflows.
  • Strong communication skills and ability to work across product, engineering, QA, and operations teams.

Nice to have

  • Experience with feature flag platforms (PostHog, Split, LaunchDarkly).
  • Familiarity with GitOps workflows (ArgoCD, Flux).
  • Experience with observability platforms, especially those with AI-driven anomaly detection.
  • Background supporting mobile CI/CD pipelines (iOS/Android).
  • Experience building or integrating LLM-based agents into developer toolchains.
  • Familiarity with prompt engineering or RAG patterns for internal developer productivity tooling.
  • Experience in regulated or financial services environments.

Benefits

  • 💰 Annual Salary Review
  • 🎄 Year-End Bonus
  • 📈 15% Off EEFT Stock
  • 🥳 Birthday Day Off
  • 🩻 Health, Cancer, Dental & Life Insurance
  • 💸 Free Money Transfers with Ria
  • 🏋️‍♂️ SmartFit Gym Partnership

Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ria Money Transfer pays or copays health insurance for employees.
Computer provided Ria Money Transfer provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Ria Money Transfer offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
SRE / DevOps Engineer
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología es una consultora de TI enfocada en Servicios IT, con experiencia en administrar portafolios, desarrollar proyectos, realizar outsourcing y selección de profesionales para equipos ágiles en Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio. Trabajamos con clientes de servicios financieros, seguros, retail y gobierno, promoviendo un enfoque centrado en el cliente, metodologías ágiles y desarrollo de productos. Buscamos integrar a nuestro equipo a un/a SRE/DevOps Junior para apoyar en la implementación, automatización y operación de infraestructuras críticas para servicios digitales, asegurando disponibilidad, estabilidad y observabilidad.
En BC Tecnología participarás en proyectos innovadores con clientes de alto nivel, colaborando con equipos de Desarrollo y Arquitectura para impulsar infraestructura como código, despliegue continuo y soporte a plataformas productivas en un entorno de crecimiento y aprendizaje profesional.

Apply only from getonbrd.com.

Funciones

  • Implementación de Infraestructura como Código (IaC) con Terraform para entornos de desarrollo, pruebas y producción.
  • Automatización de entornos y despliegues para acelerar entregas y mejorar la consistencia entre entornos.
  • Operación de servicios en la nube (ideal AWS) y optimización de costos y rendimiento.
  • Soporte en monitoreo, alertamiento e incidentes (RCA) para garantizar disponibilidad y respuesta oportuna.
  • Mantenimiento de pipelines CI/CD y documentación técnica para equipos de desarrollo y operaciones.

Requisitos

• 1 a 3 años en roles SRE o DevOps.
• Nube (AWS / GCP / Azure) – Nivel intermedio.
• Terraform – Nivel intermedio.
• Docker y Linux – Nivel intermedio.
• CI/CD y automatización (Bash o Python).
• Conocimientos en observabilidad y resolución de problemas en producción.

Desirable

• Experiencia en entornos de alta disponibilidad y resiliencia.
• Conocimientos en herramientas de monitoreo (Prometheus, Grafana, CloudWatch) y logging (ELK/EFK).
• Certificaciones en AWS/GCP/Azure o en DevOps (upskilling continuo).

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2200 Full time
SRE / DevOps Engineer Junior
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología es una consultora de TI con personal experto en diversas áreas tecnológicas. Administramos portafolio, desarrollamos proyectos, realizamos outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, en clientes de servicios financieros, seguros, retail y gobierno. Contamos con 6 años diseñando soluciones a las necesidades de nuestros clientes, con foco en consultoría, formación de equipos, desarrollo de proyectos y servicios de soporte/administración IT. Buscamos participar en proyectos innovadores con clientes de alto nivel, promoviendo un ambiente colaborativo, aprendizaje continuo y crecimiento profesional.

Apply only from getonbrd.com.

Responsabilidades

  • Implementación de Infraestructura como Código (IaC) con Terraform para entornos de producción y staging.
  • Automatización de entornos y despliegues para garantizar entregas rápidas y confiables.
  • Operación de servicios en la nube (principalmente AWS) y gestión de incidentes/operaciones 24x7.
  • Soporte en monitoreo, alertamiento e RCA de incidentes; mejora continua de la observabilidad.
  • Mantenimiento de pipelines de CI/CD y documentación técnica actualizada.

Requisitos y habilidades

Buscamos un/a SRE / DevOps Engineer Junior con 1 a 3 años de experiencia en roles de SRE o DevOps. Requisitos técnicos: experiencia intermedia en Cloud (AWS, GCP o Azure), Terraform intermedio, Docker y Linux intermedios. Conocimientos en CI/CD y automatización (Bash o Python). Deseable experiencia en observabilidad y resolución de problemas en producción. Competencias blandas: proactividad, orientación a resultados, trabajo en equipo y capacidad de aprendizaje continuo. Se valorarán certificaciones en nube y herramientas de automatización.

Deseable

Experiencia práctica con Kubernetes, herramientas de monitoreo (Prometheus, Grafana, CloudWatch), scripting avanzado (Python), y conocimientos en seguridad en nube. Capacidad de trabajar en entornos dinámicos y con clientes de diversos sectores.

Beneficios y próximo pasos

En BC Tecnología promovemos un entorno de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura impulsa el crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Modalidad híbrida ubicada en Las Condes, que facilita combinar trabajo remoto y presencial para un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero QA Automatizador
  • Agilistik
  • Santiago (Hybrid)
JavaScript Java Python Agile

En Agilistik, somos especialistas en agilidad y desarrollo de software, certificados como SAFe Bronze Partners y ICAgile Partners. Trabajamos con los clientes más grandes de Chile y LATAM, impulsando proyectos desafiantes y de alto impacto. Buscamos incorporar un Ingeniero QA Automatizador con perfil de ejecutor y experiencia comprobable, para unirse a importante cliente del área Retail y que sea comprometido con la excelencia, la colaboración y la mejora continua en entornos ágiles.

Apply directly through getonbrd.com.

Funciones

  • Diseñar, desarrollar y mantener pruebas automatizadas para software web y API, asegurando cobertura de funcionalidades críticas.
  • Crear y mantener frameworks de automatización, scripts de prueba, y pipelines de CI/CD para entregas rápidas y fiables.
  • Colaborar con equipos de desarrollo, producto y operaciones para definir estrategias de calidad y criterios de aceptación.
  • Ejecutar pruebas repetibles y obtener métricas de calidad para identificar riesgos y áreas de mejora.
  • Participar en revisiones de código y diseño para prevenir defectos y promover prácticas de pruebas avanzadas.
  • Investigar y resolver fallos de automatización, manteniendo documentación clara y actualizada.
  • Apoyar iniciativas de automatización con foco en escalabilidad y mantenimiento a largo plazo.

Requisitos y perfil

  • Experiencia comprobable en pruebas funcionales y en automatización de pruebas. Estos son requisitos excluyentes. El(la) postulante debe contar con al menos 2 o 3 años de experiencia en ello.
  • Experiencia en automatización con RestAssured, Selenium, WebDriver o Playwright y conocimientos en lenguaje de scripting/Programación (Java, Python, o JavaScript).
  • Experiencia con Jira para gestión de casos de prueba, seguimiento de defectos y trazabilidad.
  • Conocimiento de pruebas de API (Postman, REST Assured, o similares) y validación de contratos.
  • Experiencia con frameworks de pruebas, herramientas de gestión de pruebas y CI/CD (Jenkins, GitLab CI, o similares).
  • Comprensión de metodologías ágiles (SAFe, Agile) y trabajo en equipos multifuncionales.
  • Inglés: lectura y escritura, con capacidad para entender y hacerse entender en un entorno técnico.
  • Habilidad para diseñar casos de prueba, definir criterios de aceptación y reportar resultados de forma clara.
  • Buenas habilidades de comunicación, proactividad y orientación a la calidad.
  • Residir en Chile para trabajo remoto con disponibilidad de asistir 2 veces a la semana presencialmente.

Perfil deseable

Inglés medio-avanzado para interacción con stakeholders y documentación técnica. Experiencia previa con Playwright y conocimiento de integración continua con herramientas de pipeline. Familiaridad con entornos de nube, plataformas y prácticas de DevOps para pruebas automatizadas. Capacidad de analizar riesgos de calidad y proponer mejoras en procesos de pruebas en equipos ágiles.

Beneficios

En Agilistik, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:

  • Seguro complementario de salud y seguro de vida para tu tranquilidad y la de tu familia.
  • Bonos especiales por aguinaldos en septiembre y Navidad, cada uno por CLP $100.000, además de una bonificación adicional por tu cumpleaños de CLP $50.000.
  • Oportunidades constantes de capacitación y certificaciones ágiles, fomentando un desarrollo profesional continuo y de alto impacto.

Estamos comprometidos con crear un entorno de trabajo que priorice tanto tu bienestar como tu crecimiento profesional. Únete a nuestro equipo para ser parte de proyectos desafiantes y un ambiente colaborativo y dinámico.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Agilistik pays or copays health insurance for employees.
Computer provided Agilistik provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Observability Engineer
  • Improving South America
Virtualization Amazon Web Services Docker Azure

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply to this job opportunity at getonbrd.com.

Responsabilidades del puesto

En Improving South America buscamos un/a Senior Observability Engineer para diseñar y escalar una plataforma que procesa billions de logs, métricas y traces en entornos híbridos y multi-cloud.

Responsabilidades del rol:

  • Diseñar y operar servicios core de la plataforma (Go / Java / Python / Node).
  • Liderar la estrategia de OpenTelemetry (Collector, OTLP, semantic conventions).
  • Arquitecturar pipelines fault-tolerant de alto throughput.
  • Definir estándares de instrumentación a nivel enterprise.
  • Optimizar performance y costos (sampling, retención, agregación).
  • Definir SLIs, SLOs, error budgets y prácticas de incident response.
  • Operar sistemas 24x7 y participar en on-call.
  • Colaborar con SRE, CI/CD, Cloud, Security y Platform Engineering.
  • Diseñar pipelines seguros (mTLS, zero-trust patterns).
  • Influir en la dirección técnica de la plataforma junto a Principal Engineers.

Requerimientos indispensables

  • 8+ años en Software Engineering, Platform Engineering o SRE.
  • Nivel de inglés intermedio/ avanzado requerido para comunicación diaria con equipos globales.
  • Experiencia sólida en observabilidad a nivel arquitectura.
  • Dominio práctico de OpenTelemetry (Collector, pipelines, OTLP).
  • Experiencia diseñando sistemas distribuidos de alto throughput.
  • Experiencia real en Docker, Kubernetesy plataformas cloud-native (AWS, GCP o Azure).
  • Experiencia en ArgoCD.
  • Experiencia con Grafana stack (Grafana, Loki, Tempo, Mimir) o similar.
  • Service Mesh (Envoy / Istio).
  • Buen criterio técnico y capacidad de influencia transversal.

Plus relevante

  • Kafka / Pulsar o sistemas de streaming.
  • Infraestructura como Código (Terraform / CloudFormation).
  • Optimización de costos en telemetría.
  • Entornos regulados (healthcare, finance).

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Git DevOps Virtualization Docker
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Nuestro equipo trabaja en proyectos de alto impacto, con enfoque en infraestructura, desarrollo y operaciones, adoptando metodologías ágiles y prácticas de DevOps para entregar valor de manera continua. El/la profesional se integrará a un proyecto relevante en entorno web para un cliente del sector financiero, con posibilidades de crecimiento y aprendizaje en un entorno colaborativo y orientado a resultados.

This job offer is on Get on Board.

Funciones

  • Implementar y mantener procesos CI/CD para entornos de desarrollo, pruebas y producción.
  • Definir estrategias de despliegue y release management según entorno.
  • Gestionar monitoreo, observabilidad y respuesta ante incidentes (desarrollo, testing y producción).
  • Analizar métricas de rendimiento y optimizar el ciclo de despliegue para eficiencia y estabilidad.
  • Apoyar en resolución de incidentes y brindar soporte técnico al equipo.
  • Trabajar con Google Cloud Platform (GCP), Docker y Kubernetes, así como Terraform (IaC).
  • Colaborar con equipos de desarrollo, seguridad y operaciones para entregar software de alta calidad.

Descripción

Buscamos un DevOps Engineer con al menos 3 años de experiencia para unirse a un proyecto en un entorno web de un cliente del sector financiero. Deberá poseer experiencia práctica en GCP e IaaS, manejo de contenedores con Docker y Kubernetes, y gestión de Infraestructura como Código con Terraform. Se valorará conocimiento de herramientas de observabilidad (Grafana, Loki u otras) y experiencia con GitHub/Git. Se requiere capacidad de análisis, proactividad y enfoque en mejora continua, con habilidad para trabajar en equipo en un entorno ágil y orientado a la entrega de valor al cliente. El lugar de trabajo es híbrido, con presencia en Santiago Centro, y combinará trabajo remoto y colaborativo en oficina según las necesidades del proyecto.

Requisitos deseables

Experiencia adicional con otros proveedores de nube, lenguajes de scripting como Python y/o Go, y conocimiento de prácticas de seguridad en DevOps. Certificaciones en GCP, Kubernetes o Terraform serán valoradas. Capacidad de comunicación efectiva en español (y/o inglés técnico) para colaborar con equipos multifuncionales. Enfoque en la mejora continua, habilidades de resolución de problemas y capacidad para gestionar prioridades en un entorno dinámico.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Linux Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Opportunity published on Get on Board.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Infraestructura
  • BC Tecnología
  • Santiago (In-office)
PHP PostgreSQL Linux Web server
BC Tecnología es una consultora de TI con personal experto en diversas áreas. Nos enfocamos en servicios IT que abarcan administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando para clientes de servicios financieros, seguros, retail y gobierno. Con más de 6 años diseñando soluciones a la medida, nuestras áreas de negocio abarcan consultoría y diseño de soluciones, formación y outsourcing de personal, desarrollo de proyectos y servicios de soporte IT. Nuestro enfoque está en el cliente, metodologías ágiles, cambios organizacionales y desarrollo de productos.

Official source: getonbrd.com.

Funciones del cargo

  • Administrar, configurar y mantener la infraestructura IT de la organización, con enfoque en entornos virtualizados y plataformas de alto rendimiento.
  • Gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox), asegurando disponibilidad, rendimiento y seguridad.
  • Administrar y optimizar sistemas Linux (Debian, CentOS u otros) y Windows 10 o superiores, incluyendo SSH, servicios web, bases de datos y pila de aplicaciones.
  • Gestionar servicios web (Apache, Nginx), certificados SSL, proxies inversos y optimización de rendimiento; administrar bases de datos (PostgreSQL) y aplicaciones PHP.
  • Monitoreo, respaldo, recuperación ante desastres y gestión de cambios; documentación completa de toda la operativa para continuidad futura.
  • Implementar buenas prácticas de ciberseguridad y mantener la documentación actualizada.
  • Trabajar con equipo de soporte, automatización y desarrollo para garantizar soluciones escalables y sostenibles.

Requisitos y perfil

Formación: Ingeniero en Informática, Ingeniería de Sistemas, Computación u otra formación relacionada.
Experiencia: trayectoria comprobable en gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox).
Conocimientos técnicos: Linux avanzado; SSH; servidores web Apache y Nginx; gestión de bases de datos PostgreSQL; experiencia con aplicaciones PHP; gestión de entornos virtualizados; conocimiento de ciberseguridad de servidores y versiones de sistemas operativos.
Certificaciones: Certificación VMware y certificación en Linux.
Capacidades: documentación detallada de las actividades, capacidad de trabajo en equipo, orientación a resultados, resiliencia ante incidentes y buena comunicación técnica.

Competencias deseables

Conocimientos en Proxmox avanzado, scripting y automatización ( Bash, Python), herramientas de gestión de configuración (Ansible, Puppet), experiencia con Docker/Kubernetes, cloud (AWS, Azure) y técnicas de migración y consolidación de infraestructuras. Se valorará experiencia en ITIL, gestión de proyectos y capacidad para liderar pequeños equipos o proyectos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3300 Full time
QA Automation Engineer
  • Coderslab.io
JavaScript C Python Agile

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.

En esta ocasion estamos buscando incorporar un/a QA Automation Engineer con amplia experiencia en entornos productivos, capaz de diseñar, modificar y mantener integraciones y modelos de datos críticos con total seguridad y control del impacto, garantizando la continuidad operativa, la calidad de la información y cero impacto al negocio.

Find this vacancy on Get on Board.

Funciones del cargo

• Diseñar, desarrollar y mantener scripts y marcos de prueba automatizados para aplicaciones web y/o móviles.

• Colaborar con desarrolladores, propietarios de productos e ingenieros de control de calidad manuales para definir estrategias de prueba y garantizar su cobertura.

• Ejecutar conjuntos de pruebas automatizadas, analizar resultados e informar defectos de forma clara y concisa.

• Participar en revisiones de código, proporcionar retroalimentación sobre estrategias de automatización y garantizar el cumplimiento de las mejores prácticas de control de calidad.

• Integrar pruebas automatizadas en los procesos de CI/CD para una ejecución de pruebas eficiente y escalable.

• Contribuir a la mejora de los procesos, herramientas y metodologías de control de calidad para optimizar la calidad del producto.

Requerimientos del cargo

• Más de 3 años de experiencia en ingeniería de control de calidad (QA) con especialización en automatización de pruebas.

• Sólida experiencia práctica con frameworks de automatización Playwright (se requiere Selenium, Cypress o similares son un plus).

• Experiencia con lenguajes de programación/scripting como JavaScript, Python o C#.

• Experiencia con pruebas de API (Postman, REST Assured o herramientas similares).

• Experiencia práctica con herramientas de CI/CD (Jenkins, GitHub Actions, Azure DevOps o similares).

• Sólidos conocimientos de técnicas de diseño de pruebas, metodologías de QA y SDLC.

• Experiencia trabajando en entornos Agile/Scrum.

Inglés avanzado (obligatorio).

Deseable:

• Experiencia con entornos en la nube (AWS, Azure, GCP).

• Conocimiento de pruebas de rendimiento y herramientas relacionadas (JMeter, Gatling).

• Certificaciones de QA ISTQB o similares.

Condiciones

Modalidad: 100% Remoto
Duración del proyecto: 4 meses con posibilidad de extensión

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior AWS Cloud Engineer
  • Merapar
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Cloud Computing
Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

This company only accepts applications on Get on Board.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developers

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Merapar pays or copays health insurance for employees.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $800 - 1200 Full time
Cloud Engineer
  • Guinea Mobile SAC (Cuy Móvil)
Continuous Integration Big Data BigQuery Continuous Deployment

Guinea Mobile SAC es una startup latinoamericana de tecnología en telecomunicaciones, fundada en 2019, con sede en Lima, Perú. Nos especializamos en desarrollar soluciones innovadoras que transforman y optimizan la experiencia móvil.

Los impulsores estratégicos clave de nuestro éxito son nuestra tecnología única, tanto en lo que respecta a las interfaces de usuario y el análisis de datos de última generación como la plataforma de tecnología operativa que se maneja.

Se encuentra en la búsqueda de 1 Cloud Engineer

Find this vacancy on Get on Board.

Funciones del cargo

  1. Administrar la Infraestructura en GCP: Diseñar, desplegar y mantener una infraestructura escalable, eficiente y segura en la nube de Google.
  2. Optimización de Costos: Identificar áreas de oportunidad para reducir gastos y crear estrategias efectivas de monitoreo y control de costos.
  3. Gestión de Permisos: Implementar políticas de acceso claras y seguras, manteniendo un control estricto con IAM.
  4. Automatización de Infraestructura: Utilizar IaC para garantizar que los despliegues sean consistentes y replicables.
  5. Monitorización y Resolución de Incidencias: Configurar alertas proactivas y sistemas de monitoreo para minimizar el impacto de problemas en la operación.
  6. Mejoras en CI/CD: Desarrollar pipelines que aceleren despliegues seguros y confiables, garantizando alta disponibilidad.

Requerimientos del cargo

  • Mentalidad Resolutiva: Profesionales que piensen en soluciones prácticas y sostenibles, no solo en cumplir con tareas.
  • Balance entre Velocidad y Estabilidad: Habilidad para entregar resultados rápidos sin sacrificar la estabilidad operativa.
  • Curiosidad Técnica: Personas que vean los desafíos como oportunidades para aprender y mejorar.
  • Gestión en GCP:
    • Experiencia administrando servicios clave como Compute Engine, Kubernetes, Cloud Storage y BigQuery.
    • Configuración y mantenimiento de entornos productivos con enfoque en alta disponibilidad y eficiencia.
  • Control de Accesos (IAM):
    • Conocimiento avanzado en Identity and Access Management (IAM) para definir roles personalizados y aplicar el principio de menor privilegio.
    • Auditoría y control de accesos con enfoque en seguridad y trazabilidad.
  • Infraestructura como Código (IaC):
    • Uso de Terraform o Google Deployment Manager para automatizar el aprovisionamiento de infraestructura reproducible y versionada.
    • Organización modular del código IaC para facilitar mantenibilidad y escalabilidad.
  • CI/CD y Automatización:
    • Implementación de pipelines de integración y despliegue continuo con Cloud Build, Jenkins o GitLab CI.
    • Automatización de procesos de testing, linting y despliegue en múltiples entornos.
  • Optimización y Costos:
    • Análisis detallado de uso de recursos en GCP con foco en reducción de costos sin perder capacidad operativa.
    • Aplicación de políticas de autoescalado, apagado programado y reservas para eficiencia financiera.
  • Monitorización y Alertas:
    • Configuración de Google Cloud Monitoring y Cloud Logging para supervisión en tiempo real.
    • Diseño de dashboards e implementación de alertas para detección temprana de incidentes.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2600 Full time
Ingeniero QA
  • MetroMuv
  • Santiago (Hybrid)
UI Design Python Git Usabilidad

En MetroMuv nos esforzamos por conectar a las personas con un mundo en movimiento, simplificando y haciendo más accesibles las transacciones relacionadas con el transporte urbano. Nuestro proyecto se centra en desarrollar soluciones tecnológicas innovadoras que permitan movilizarse libremente, promoviendo ciudades más conectadas, eficientes y sostenibles. En MetroMuv impulsamos una cultura colaborativa, ágil y transparente, dándole a cada integrante la oportunidad de liderar y aportar activamente para la transformación del sistema de transporte y pago.

Applications: getonbrd.com.

Responsabilidades principales

Abrimos un espacio en nuestro equipo para quien lidere la calidad de nuestras soluciones tecnológicas, definiendo y ejecutando pruebas, automatizando controles y asegurando entregas estables y confiables. Este rol trabaja de forma directa con desarrollo, producto y operaciones, con autonomía y foco en resultados, y tiene un impacto clave en la experiencia de movilidad de miles de personas que usan MetroMuv cada día.

  • Diseñar, implementar y mantener planes de prueba para validar las funcionalidades de las aplicaciones y sistemas de MetroMuv.
  • Ejecutar pruebas manuales y automáticas para identificar defectos, inconsistencias o brechas en los requisitos.
  • Colaborar con los desarrolladores y el equipo de producto para garantizar que los problemas detectados sean corregidos y validados de manera eficiente.
  • Automatizar flujos de pruebas clave utilizando herramientas y frameworks apropiados para reducir tiempos de validación.
  • Participar en revisiones de Requerimientos y reglas de negocio para asegurar que los requisitos sean claros y comprobables.
  • Generar reportes de calidad y KPI’s relacionados con el desempeño de las pruebas, proponiendo iniciativas de mejora continua.

Requisitos y competencias técnicas esperadas

🧠 Experiencia y conocimientos técnicos esperados

  • Experiencia en técnicas y tipos de pruebas funcionales en aplicaciones móviles.
  • Experiencia en pruebas de backend, incluyendo APIs, tareas programadas y servicios de procesos internos.
  • Experiencia en diseño y ejecución de casos de prueba, tanto manuales como automatizados.
  • Experiencia en técnicas y tipos de pruebas: funcionales, integración, API, E2E, seguridad, compatibilidad, usabilidad y automatizadas.
  • Experiencia en automatización de pruebas funcionales para App y APIs.
  • Conocimiento y experiencia en herramientas y frameworks de automatización y reporting como Selenium, Appium, Playwright, Allure Report, Behave o Cucumber, incluyendo algún lenguaje de programación (esperable Python).
  • Experiencia en el uso de herramientas para pruebas de APIs como Postman o Swagger.
  • Experiencia en gestión de pruebas y defectos usando Xray, qAlity, Zephyr o ALM.
  • Familiaridad con procesos y herramientas de integración continua (CI/CD) para la integración de set de pruebas.
  • Experiencia práctica en sistemas de control de versiones (Git con Azure Repos, GitLab o GitHub).
  • Experiencia en el uso de bases de datos relacionales y no relacionales para realizar consultas.
  • Familiaridad con pruebas de performance, incluyendo estrés y volumen.

⭐ Certificaciones y conocimientos deseables

  • Certificación ISTQB Foundation Level.

Conocimientos y habilidades deseables

  • Experiencia asegurando la calidad de productos digitales mediante pruebas manuales y automatizadas, con foco en la experiencia del usuario y la estabilidad de la solución.
  • Pensamiento analítico y crítico.
  • Capacidad para identificar, documentar y comunicar defectos de manera efectiva.
  • Atención al detalle y al impacto en el negocio.
  • Trabajo colaborativo en entornos ágiles (Scrum, Kanban), incluyendo documentación en Confluence.
  • Comunicación efectiva, colaboración y trabajo en equipo.
  • Adaptabilidad, autonomía y aprendizaje continuo.

Beneficios:

  • Modelo híbrido de trabajo, con flexibilidad y reducción de jornada los viernes hasta las 14 horas.
  • Seguro Complementario Full para el equipo.
  • Vacaciones+: hasta 6 días extras según antigüedad, además de días especiales para momentos importantes.
  • MetroPass: tarjeta para acceder a la Red Metro — nuestra propia Bip!
  • Aguinaldos, Giftcards y beneficios adicionales exclusivos de MetroMuv

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MetroMuv offers space for internal talks or presentations during working hours.
Life insurance MetroMuv pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage MetroMuv pays or copays health insurance for employees.
Dental insurance MetroMuv pays or copays dental insurance for employees.
Computer provided MetroMuv provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Shopping discounts MetroMuv provides some discounts or deals in certain stores.
Vacation over legal MetroMuv gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal MetroMuv offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer
  • Dynamic Devs
  • Lima (Hybrid)
REST API SQL QA Soporte técnico

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

📢 En Dynamic Devs buscamos QA Engineer. Debe ser apasionado/a en liderar e innovar en proyectos y productos tecnológicos enfocados a canales online y backoffice para diversas industrias.

Find this job and more on Get on Board.

Responsabilidades

  • Crear un plan de pruebas y definir objetivos claros para todos los aspectos de la prueba de un producto y desarrollar pasos para su correcta ejecución
  • Analizar las tecnologías y desarrollar pasos y procesos para mejorar los procedimientos de prueba
  • Velar por la calidad de todo lo nuevo que se desarrolle
  • Identificar errores de funcionalidad y riesgos potenciales
  • Realizar testings manuales y pruebas end-to-end en conjunto con el equipo de desarrollo
  • Crear, mantener y ejecutar planes de prueba robustos, para registrar y rastrear errores en cada etapa de desarrollo y sus respectivas puestas en producción
  • Abordar y garantizar el cumplimiento de los requisitos funcionales y no funcionales
  • Mantener una comunicación directa con el equipo para indicar qué casos deben automatizarse
  • Documentar y monitorear los resultados de las pruebas y establecer pasos para solucionar los problemas
  • Ayudar a otros ingenieros del equipo a crear demostraciones prácticas de las soluciones propuestas y demostrarlas a otros miembros del equipo

Requerimientos del cargo

  • Estudios en Ciencias de la Computación, Ingeniería de Software o campo relacionado
  • Experiencia en diseño y ejecución de casos de prueba
  • Experiencia en desarrollo y pruebas de software
  • Experiencia en pruebas end-to-end
  • Fuertes habilidades analíticas y de liderazgo que puedan asegurar la calidad de nuestro trabajo
  • Habilidades de comunicación orales y escritas, y la capacidad de colaborar con partes internas y externas, incluyendo control de calidad, soporte a ingenieros de desarrollo, y clientes
  • Comprensión de las mejores prácticas con respecto a las medidas de seguridad del sistema
  • Conocimiento llevando a cabo Queries con SQL
  • Conocimiento en el funcionamiento de API Rest y cómo probarlos

Opcionales

Interés y apertura para aprender y profundizar en herramientas y soluciones de automatización orientadas a QA (por ejemplo, automatización de pruebas funcionales, regresión, performance, CI/CD y/o testing pipelines). La experiencia previa en automatización de pruebas será ampliamente valorada.

Beneficios

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Life insurance Dynamic Devs pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Education stipend Dynamic Devs covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero DevOps / SRE en Oci
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux Go DevOps
BC Tecnología es una consultora de TI con enfoque en entregar soluciones integrales a clientes de servicios financieros, seguros, retail y gobierno. El proyecto principal es la Diseñar, implementar y operar una plataforma cloud para clientes, asegurando disponibilidad, rendimiento, seguridad y escalabilidad. Se busca un especialista que actúe como referente técnico en automatización, contenedores y prácticas SRE, habilitando a los equipos de desarrollo para entregar software de forma rápida, segura y confiable. El rol abarca la gestión de infraestructuras en Oracle Cloud Infrastructure (OCI), orquestación con Kubernetes (OKE u otras soluciones), gobernanza, costos (FinOps) y desarrollo de pipelines CI/CD, con un enfoque de mejora continua y excelencia operativa en entornos multi-ambiente (dev, qa, prod).

Job opportunity on getonbrd.com.

Funciones

  • Diseñar y operar la infraestructura en OCI: VCNs, subredes, security lists/NSG, balanceadores, gateways, DNS, WAF y similares, asegurando alta disponibilidad y seguridad.
  • Configurar y administrar clústeres Kubernetes en OCI/Opaque Kubernetes Engine (OKE) o alternativas, incluyendo RBAC, NetworkPolicies, namespaces, quotas, ingress y gestión de imágenes.
  • Estandarizar despliegues de aplicaciones con herramientas como Helm, Kustomize y prácticas GitOps (Argo CD, etc.).
  • Gestionar el ciclo de vida de imágenes (Docker/Podman) y repositorios (OCI Registry, Artifactory, Harbor), con buenas prácticas de seguridad y hardening.
  • Definir y aplicar estándares de etiquetado, gobernanza y FinOps (costos, right-sizing, apagado automático, monitorización de gastos).
  • Automatizar infraestructura como código (Terraform preferente) y orquestación de aprovisionamiento end-to-end; diseñar y mantener pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins) para build, test y despliegue continuo.
  • Automatizar tareas operativas (backups, parches, checks de salud, rotación de credenciales) mediante scripts (Python/Bash) y herramientas de configuración (Ansible, Chef, etc.).
  • Definir y gestionar SLO/SLI, monitorización y observabilidad (Prometheus, Grafana, ELK/OCI Logging, Jaeger/Tempo); liderar gestión de incidentes, guardias on-call y continuidad operativa (DR/BCP).
  • Seguridad, gestión de secretos y cumplimiento: IAM, Vault/KMS, escaneo de imágenes, políticas de hardening; colaborar con equipos de Seguridad y Riesgo (CIS, PCI-DSS u otros marcos).

Conocimientos y experiencia

Formación: Ingeniero en Informática, Computación o carrera afín. Mínimo 4 años de experiencia en roles DevOps/Plataforma/SRE. Experiencia demostrable con Oracle Cloud Infrastructure (OCI) y Kubernetes en entornos productivos (preferible OKE). Conocimientos profundos de Linux (Oracle Linux, RHEL) y networking (TCP/IP, DNS, HTTP(S), VPN, balanceo).
Habilidades técnicas: Terraform para Infraestructura como Código; experiencia con CI/CD (GitLab CI u otra herramienta); scripting en Bash y al menos un lenguaje adicional (Python, Go, etc.); monitoreo, logging y trazas distribuidas (Prometheus, Grafana, ELK, OCI Observability); gestión de secretos (Vault, OCI Vault, K8s Secrets); prácticas de seguridad y hardening; conocimientos de API Gateway/Service Mesh (Kong, Istio) y enfoque GitOps (Argo CD).
Habilidades personales: mentalidad SRE, orientación a la confiabilidad, automatización y mejora continua; excelente servicio y trabajo colaborativo con desarrollo, seguridad y negocio; capacidad de documentar, estandarizar procesos y liderar iniciativas técnicas de plataforma; experiencia en entornos regulados (financiero, retail, PCI-DSS) es valorado.

Deseables

Certificaciones OCI y Kubernetes (CKA/CKAD/CKS) u otros similares. Experiencia con herramientas de API Gateway / service mesh (Kong, Istio) y GitOps (Argo CD).

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante, con crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Modalidad híbrida ubicada en Las Condes, que combina flexibilidad de trabajo remoto con la colaboración presencial para un equilibrio y dinamismo laboral.
Participación en proyectos innovadores con clientes de alto nivel en sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior QA Engineer
  • Improving South America
JavaScript Ruby Ruby on Rails Python

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Official source: getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
SRE
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps
About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Opportunity published on Get on Board.

Funciones del cargo

Cross-Functional Collaboration

  • Partner with engineering teams to improve system reliability and deployment practices
  • Engage with Openloop teams on SRE guidelines and best practices about automation and infrastructure
  • Work with security teams to implement secure, compliant infrastructure

Operational Excellence

  • Ensure 24/7 system availability and rapid incident response
  • Implement and maintain disaster recovery and business continuity plans
  • Skilled at performance tuning — identifying bottlenecks at infra, app, and database layers.

Security

  • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
  • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.

Cultural

  • Advocate for blameless culture and continuous improvement.
  • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requerimientos del cargo

  • 2 - 3 years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Good background in AWS, particularly with serverless architectures
  • Understanding of observability and incident management
  • Strong knowledge in at least one programming language (Typescript, Python, Go, etc.). Previous experience as a Developer is a plus
  • Knowledge of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Experience managing monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, GitLab CI, etc)
  • Understanding of database systems and performance optimization
  • Leadership & Communication
  • English (C1) fluency
  • Excellent verbal and written communication skills
  • Ability to translate technical concepts to non-technical audiences
  • Good problem-solving and decision-making capabilities
  • Experience with agile methodologies

Condiciones

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer Senior
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Analytics
En BC Tecnología operamos como una consultora de TI con foco en servicios IT, desarrollo de proyectos y outsourcing. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, apoyando la entrega de soluciones de calidad desde la definición de requisitos hasta la validación y mejora continua de procesos. Nuestro objetivo es integrar soluciones que respondan a las necesidades del cliente, con énfasis en metodologías ágiles, crecimiento profesional y desarrollo de productos, manteniendo un enfoque claro en la experiencia del usuario y la eficiencia operativa.

Apply without intermediaries from Get on Board.

Funciones principales

Participar en la definición de requisitos, flujos de trabajo y procesos de control de calidad. Colaborar activamente en ceremonias ágiles (Scrum, Kanban). Diseñar, documentar y ejecutar planes y casos de prueba. Ejecutar pruebas funcionales y no funcionales (usabilidad, compatibilidad, rendimiento, seguridad). Realizar testing frontend, backend, APIs y mobile. Reportar, gestionar y dar seguimiento a bugs, defectos e incidencias. Analizar logs, servicios y data de prueba para identificar causas raíz. Evaluar el impacto de cambios en el producto. Monitorear métricas de calidad y estabilidad (Grafana, Kibana u otras). Participar en la ejecución y análisis de procesos de CI/CD. Ejecutar y analizar procesos automatizados de prueba. Detectar oportunidades de mejora en el proceso de desarrollo. Apoyar la gestión de calidad de uno o más equipos de desarrollo.

Requisitos y perfil

Más de 3 años de experiencia en roles de QA / Quality Assurance. Experiencia sólida en QA manual avanzado. Experiencia en pruebas de aplicaciones web, mobile y web services. Experiencia en pruebas de API (Postman, SoapUI). Conocimiento del ciclo de vida del desarrollo de software (SDLC). Experiencia trabajando con metodologías ágiles. Manejo de herramientas de gestión de pruebas e incidencias (Jira, TestLink, Zephyr u otras). Capacidad de documentación técnica clara (casos de prueba, resultados, defectos). Habilidad analítica, atención al detalle y orientación a la mejora continua.
Conocimientos técnicos valorados: lenguajes orientados a objetos (Python, Java o JavaScript). Buenas prácticas de desarrollo (encapsulamiento, escalabilidad). Automatización de pruebas (web, servicios, mobile o scripting). Revisión de código (peer review). Herramientas de debugging (IDE, navegador). Patrones arquitectónicos (MVC, arquitectura en capas, event-driven). CI/CD (Pipelines, Jenkins, Bitrise). Infraestructura y cloud (Docker, AWS, Azure). Control de versiones (GitHub, GitLab, Bitbucket).
“Para avanzar en el proceso, es necesario cumplir con los requisitos técnicos y de experiencia señalados.”

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer (Web) – Part Time
  • Niuro
Python Agile QA Scrum
Niuro connects projects with elite tech teams, empowering collaborative work with leading U.S. companies. As a QA Engineer, you will contribute to impactful industrial data projects that emphasize technical excellence and continuous innovation. You will join a globally distributed team focused on delivering high-quality web applications and robust testing practices. This role supports our mission to simplify global talent acquisition by providing autonomous, high-performance teams and strong administrative support so you can focus on delivering exceptional results.

This job is original from Get on Board.

Role goals and responsibilities

  • Review, test, and validate features delivered by developers in each sprint to ensure quality from requirements to release.
  • Perform functional, regression, exploratory, and edge-case testing across web applications.
  • Identify risks early and provide clear, actionable feedback to the development team.
  • Design, implement, and maintain Playwright automation scripts for UI and API tests.
  • Create and maintain comprehensive technical documentation, including end-to-end system flows.
  • Independently validate features from requirements through production readiness, ensuring reliability and performance.
  • Collaborate with cross-functional teams in an Agile/Scrum environment to improve product quality and testing processes.
  • Contribute to test strategy, test case design, and CI/CD integration for automated testing within pipelines.

Required skills and experience

We are seeking a QA Engineer with a minimum of 4+ years of web-focused QA experience. You should have strong manual testing capabilities and hands-on automation experience using Playwright (UI and API testing) or equivalent tools. A solid understanding of RESTful APIs, HTTP methods, and status codes is essential. Proficiency in scripting with TypeScript and/or Python is required. You will be comfortable testing complex systems and workflows, and have experience working in Agile/Scrum environments. Excellent analytical, problem-solving, documentation, and communication skills are necessary, along with the ability to communicate effectively in English with international teams.

Nice-to-have attributes

Familiarity with additional test automation frameworks and tools, experience with performance testing, and exposure to containerized environments (Docker/Kubernetes) are advantageous. Prior experience in data-heavy or industrial data projects, and a track record of driving quality improvements in cross-functional teams will be highly valued. Strong collaborative mindset and ability to adapt to evolving project requirements in a remote global setting are desirable.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps/SRE (Oci Azure GCP)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Azure
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales. Buscamos un DevOps/SRE para diseñar, implementar y operar una plataforma en la nube Oracle Cloud (OCI), asegurando disponibilidad, seguridad y escalabilidad. Participarás en proyectos con clientes de alto nivel en sectores como servicios financieros, seguros, retail y gobierno, aplicando prácticas SRE, automatización y observabilidad para entregar soluciones robustas y seguras.

This job is published by getonbrd.com.

Responsabilidades y tareas

  • Operar infraestructura en OCI (redes, balanceadores, WAF, bases de datos y almacenamiento).
  • Administrar Kubernetes/OKE, contenedores, Helm y GitOps (Argo CD).
  • Automatizar despliegues y procesos con Terraform, CI/CD (GitLab/Jenkins/GitHub Actions) y scripting (Bash/Python).
  • Implementar observabilidad con Prometheus, Grafana y ELK/OCI Logging; aplicar prácticas SRE.
  • Gestión de seguridad: IAM, Policies, Vault/KMS, escaneo de imágenes y cumplimiento de estándares.
  • Colaborar con equipos de desarrollo y operaciones para garantizar alta disponibilidad y rendimiento.
  • Documentar arquitectura, cambios y procedimientos operativos; participar en revisiones de diseño.

Requisitos y perfil buscado

Formación en Informática o áreas afines. Mínimo 3 años de experiencia en DevOps, SRE o Gestión de plataformas. Experiencia operativa en OCI y Kubernetes en entorno productivo. Sólidos conocimientos de Linux, redes, infraestructura como código (IaC), CI/CD y monitoreo de sistemas.

Competencias deseables

Certificaciones OCI o K8s (CKA/CKAD/CKS) y experiencia en entornos regulados.
Conocimiento de seguridad en la nube, gestión de identidades y claves, y experiencia con herramientas de seguridad como escaneo de imágenes y cumplimiento de normas.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Plataforma
  • 2BRAINS
Python Linux Continuous Integration Continuous Deployment
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.
Contamos con un nutrido equipo de más de 480 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.
En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This offer is exclusive to getonbrd.com.

El/La Ingeniero/a de Plataforma de 2Brains debe

El rol del Ingeniero de plataforma se encargara de diseñar y mantener infraestructuras seguras y escalables que impulsan la velocidad y eficiencia de los equipos de desarrollo. Se apoya en prácticas de Infraestructura como Código (Terraform, Ansible) para automatizar el aprovisionamiento y asegurar entornos consistentes y reproducibles.
Además, incorpora observabilidad y monitoreo para optimizar desempeño y costos, y gestiona la plataforma como un producto, con foco en el Developer Experience (DevEx). También lidera iniciativas de AI-Enhanced Operations, habilitando detección temprana de anomalías, auto-remediación y escalamiento predictivo.

¿Qué desafíos tendrá el/la Ingeniero/a de Plataforma?

  • Evolución de CI/CD: Diseñar, mantener y mejorar pipelines de integración y despliegue continuo, asegurando releases rápidos, seguros y confiables.
  • Colaboración y consultoría interna: Trabajar estrechamente con los equipos de desarrollo, entendiendo sus flujos de trabajo y transformando sus necesidades en soluciones de infraestructura efectivas.
  • Soporte operativo y resolución de bloqueos: Atender incidencias y brindar apoyo técnico en el día a día del ciclo de desarrollo, garantizando que los equipos puedan entregar valor sin fricciones.
  • Definición de estándares y documentación: Crear y mantener lineamientos claros que mejoren la calidad del proceso de despliegue y fomenten la autonomía de los desarrolladores.
  • Automatización: Detectar tareas repetitivas o complejas dentro del ciclo de vida del software y desarrollar scripts o herramientas que simplifiquen y automaticen estos procesos.

¿Qué conocimientos buscamos en el/la Ingeniero/a de Plataforma?

  • Experiencia en CI/CD: Manejo sólido de herramientas como GitLab CI (ideal), Jenkins o GitHub Actions.
  • Experiencia en Cloud Computing: Preferentemente en Google Cloud Platform (GCP).
  • Kubernetes (nivel usuario): Capacidad para desplegar aplicaciones, gestionar manifiestos y realizar troubleshooting de servicios (no se requiere experiencia avanzada en administración del clúster).
  • Programación y scripting: Conocimientos prácticos en Python o Bash para automatización y desarrollo de herramientas internas.
  • Infraestructura como Código: Experiencia con Terraform será considerada una ventaja.
  • Deseable: Conocimientos en autoescalado con KEDA, Service Mesh (Istio) o Cloud Functions en GCP.
  • Orientación al servicio y empatía: Habilidad para comunicarse de forma efectiva con equipos de desarrollo, comprender sus desafíos y priorizar soluciones que mejoren su experiencia diaria.

¿Qué competencias buscamos en el/la Ingeniero/a de Plataforma?

  • Colaboración
  • Orientación a resultados
  • Aprendizaje continuo
  • Pensamiento sistémico
  • Apertura al cambio
  • Comunicación
  • Mentoría
  • Pensamiento estratégico
  • Dar y recibir feedback
  • Influencia y persuasión

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 3200 Full time
Cloud Engineer AWS + Python
  • CoyanServices
Python Agile SQL Virtualization

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Apply to this job at getonbrd.com.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3600 Full time
Technical Lead – Cloud Computing & Infrastructure AWS / GCP
  • Coderslab.io
Virtualization Amazon Web Services Docker Kubernetes

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Technical Lead – Cloud Computing & Infrastructure (AWS / GCP) to join our team and help drive our mission forward.

Official job site: Get on Board.

Funciones del cargo

General Purpose:
Lead the multi-cloud (AWS and GCP) computing strategy at Payless, optimizing infrastructure and enabling new capabilities for the omnichannel vision. The role aims to enhance customer centricity and improve the experience across both physical stores and e-commerce, ensuring resilience, cost efficiency, and business acceleration.

Key Responsibilities:

  • Design and evolve cloud-native architectures in AWS and GCP.
  • Implement best practices for cost optimization, security, and performance.
  • Enable new cloud capabilities to support the omnichannel strategy.
  • Lead the adoption of cloud-native development and deployment models (DevOps, Infrastructure as Code).
  • Collaborate with business, product, and IT teams to align infrastructure with corporate objectives.

Requerimientos del cargo

Technical Requirements:

  • Proven experience with AWS and GCP.
  • Knowledge of Kubernetes, Docker, Terraform/CloudFormation, and Infrastructure as Code (IaC).
  • Experience designing scalable, secure, and highly available architectures.
  • Advanced English proficiency.

Key Competencies:

  • Strategic thinking with a strong business vision.
  • Technical leadership and team management.
  • Clear and effective communication skills.

Condiciones

Location: Remote LATAM
Working Hours: Miami time
Language Requirements: Advanced English and Spanish
Service Type: Service Provision – 160 hours/month, Monday to Friday

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 3000 Full time
QA Automation (Cypress) Hibrido (Sector Oriente Chile)
  • Vita solutions SPA
  • Santiago (Hybrid)
JavaScript Java Python Git

Vita Wallet es una de las principales empresas de latinoamérica en el segmento de pagos cross border y crypto. Nuestra misión es permitir que empresas y personas puedan enviar y recibir pagos entre países de forma rápida, económica y segura.

Desde nuestra fundación en 2019, nos hemos enfocado en crear valor para nuestros clientes y consolidarnos regionalmente en LatAm. Desde entonces, miles de empresas y decenas de miles de personas han usado nuestros servicios. En este momento, nos encontramos en fase de escalamiento, no solo comercial, sino también a nivel tecnológico.

This posting is original from the Get on Board platform.

Job functions

Se busca QA con al menos 3 años de experiencia, con el objetivo de garantizar la calidad del software mediante la ejecución de pruebas manuales y automatizadas utilizando Cypress, participando activamente en el ciclo de desarrollo para detectar y prevenir errores desde etapas tempranas.

️ Responsabilidades

● Diseñar, documentar y ejecutar pruebas manuales en aplicaciones web.

● Crear y mantener casos de prueba y reportes de resultados.

● Reportar errores de manera clara y estructurada.

● Automatizar pruebas E2E (end-to-end) usando Cypress.

● Automatizar pruebas mobile usando Appium.

● Automatizar pruebas API.

● Mantener y actualizar suites de pruebas automatizadas.

● Trabajar junto al equipo de desarrollo, product owners y QA en ciclos ágiles

● Participar en revisiones de historias de usuario y criterios de aceptación.

Qualifications and requirements

● Experiencia en pruebas manuales en aplicaciones web y móviles.

● Conocimientos sólidos en automatización con Cypress.

● Experiencia en pruebas móviles con Appium(Java/Python).

● Conocimientos en pruebas de servicios/API

● Conocimientos en lenguaje JavaScript.

● Conocimiento en herramientas de control de versiones (Git).

Habilidades blandas

● Atención al detalle y pensamiento analítico.

● Capacidad de trabajar en equipo y comunicar hallazgos de forma efectiva.

● Proactividad para proponer mejoras en procesos de testing.

● Adaptabilidad a cambios y aprendizaje continuo.

Desirable skills

Experiencia en el sector financiero

Conditions

Día de cumpleaños libre.
Oportunidades de capacitación

Computer provided Vita solutions SPA provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
DevOps Semi Senior
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Git DevOps Virtualization Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa de desarrollo de software y servicios TI con más de 30 años de experiencia en el mercado latinoamericano. Nuestro objetivo es acompañar a las empresas en su Transformación Digital, brindando soluciones en desarrollo de software, monitoreo y mantenimiento de plataformas, IA, QA y servicios de outsourcing. Buscamos incorporar un Ingeniero DevOps Semi Senior para fortalecer nuestro equipo técnico en un entorno híbrido entre Concepción y Santiago, enfocado en garantizar la disponibilidad y rendimiento de nuestra plataforma web, APIs y servicios asociados, a través de prácticas de monitoreo, automatización y mejora continua.

© getonbrd.com.

Principales funciones

  • Implementar, configurar y mantener herramientas de monitoreo y alertas para todos los componentes de la plataforma web.
  • Monitorear el rendimiento de la infraestructura en la nube (AWS), APIs, servicios backend y aplicaciones frontend para garantizar alta disponibilidad y rendimiento.
  • Detectar, diagnosticar y resolver incidentes de disponibilidad o rendimiento de forma oportuna.
  • Colaborar con equipos de desarrollo, infraestructura y soporte para optimizar entornos de despliegue y operación.
  • Automatizar tareas de monitoreo, despliegue y gestión de incidentes cuando sea posible, promoviendo prácticas CI/CD.

Requisitos y perfil deseado

Buscamos un Ingeniero DevOps Semi Senior con al menos 2-3 años de experiencia en roles DevOps. Se valora sólida experiencia en servicios Cloud AWS y en monitoreo de plataformas web (Grafana, Prometheus, Datadog, New Relic u otras herramientas similares). Debe poseer conocimientos en CI/CD, Docker y control de versiones (Git). Capacidad para trabajar de forma colaborativa con equipos multidisciplinarios y para resolver problemas con pensamiento crítico y enfoque en la calidad.
Competencias clave: compromiso con la excelencia operativa, proactividad, buenas habilidades de comunicación, capacidad de trabajar en entornos dinámicos, orientación a la resolución de problemas y capacidad para gestionar múltiples prioridades. Se valorará experiencia en automatización de pipelines y experiencia en entornos híbridos o multi-nube.

Perfil deseable

Conocimientos adicionales en orquestación (Kubernetes), scripting (Python, Bash) y experiencia trabajando en proyectos de fábrica de software o outsourcing. Familiaridad con herramientas de gestión de incidentes, gestión de cambios y buenas prácticas de seguridad en la nube. Disponibilidad para operar en un entorno con matriz y coordinación entre sedes en Concepción y Santiago.

Beneficios

Ofrecemos contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico y colaborativo, enfocado en desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica, con más de tres décadas de experiencia y un equipo multidisciplinario. Contamos con comunicación diaria con nuestra matriz y otras operaciones, lo que facilita la colaboración y el apoyo técnico. En Genesys, valoramos el talento y la innovación, y te acompañamos en tu crecimiento profesional. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Automatizador – Latam (, Proyecto)
  • BC Tecnología
JavaScript Java Python Git
En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos y brindar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un QA Automatizador para LATAM, orientado a liderar iniciativas de automatización, promover cultura Shift Left y participar en pipelines CI/CD para garantizar QA continua en ecosistemas modernos. Colaborarás con equipos multidisciplinarios para entregar soluciones de software de alta calidad y mejorar procesos de pruebas a lo largo del ciclo de desarrollo.

Find this vacancy on Get on Board.

QA Automatizador – LATAM (Remoto, Proyecto)

  • Diseñar e implementar frameworks de automatización robustos para pruebas funcionales, de regresión, smoke y end-to-end (E2E).
  • Automatizar pruebas sobre microservicios, APIs y UI, asegurando cobertura adecuada y mantenimiento de las suites en pipelines CI/CD.
  • Gestionar ambientes con Docker y Kubernetes para entornos de pruebas consistentes y escalables.
  • Coaching al equipo de QA, revisión de pull requests y promoción de prácticas de calidad desde etapas tempranas (Shift Left).
  • Colaborar con equipos de desarrollo y DevOps para optimizar pipelines de integración y entrega continua (CI/CD) y mejorar la calidad del producto.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas y un historial comprobable en entornos modernos. Debe dominar herramientas como Playwright, Cypress, Selenium, Postman y frameworks como Robot Framework o similares. Experiencia con REST APIs, pruebas en contenedores (Docker) y orquestación (Kubernetes) es imprescindible. Conocimientos en Java, JavaScript, TypeScript, Python o Bash para scripting y mantenimiento de pruebas. Familiaridad con herramientas de CI/CD (GitHub Actions, Jenkins, GitLab CI, Bitbucket) y gestión de código en repositorios (Git). Capacidad para comunicarse efectivamente en español e inglés técnico, y habilidades para trabajar en entornos dinámicos y orientados a resultados. Se valorarán experiencia en AWS o tecnologías cloud y capacidad de liderazgo técnico dentro de equipos de QA.

Requisitos deseables

Conocimientos en herramientas de testing de rendimiento y seguridad, experiencia en automatización en entornos multi-nube, certificaciones en calidad de software y familiaridad con metodologías ágiles. Capacidad para adaptar frameworks a nuevas tecnologías y promover una cultura de calidad y mejora continua. Se valorará experiencia en equipos que trabajan en sectores regulados y con alta exigencia de cumplimiento.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer / Cloud Engineer (Latam)
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología, una consultora de TI con experiencia en servicios, outsourcing y selección de profesionales, busca ampliar su equipo con un DevOps Engineer / Cloud Engineer para un proyecto inicial de 6 meses con posibilidad de extensión. El rol contribuirá a la estabilidad y rendimiento de plataformas en producción, trabajando en colaboración con Desarrollo y Seguridad, en un entorno de clientes de alto nivel y diversos sectores (finanzas, seguros, retail y gobierno).

Send CV through Get on Board.

Funciones

  • Garantizar la disponibilidad, estabilidad y rendimiento de sistemas productivos.
  • Gestionar infraestructura como código y automatizar despliegues.
  • Administrar contenedores y clusters Kubernetes.
  • Implementar monitoreo y alertas (Prometheus, CloudWatch, Grafana).
  • Organizar respuestas a incidentes y participar en post-mortems para mejora continua.
  • Trabajar estrechamente con Desarrollo y Seguridad para optimizar la arquitectura.
  • Documentar runbooks y procedimientos operativos para soporte y escalamiento.

Requisitos y perfil

Ingeniería en Informática, Sistemas o similar. Mínimo 3 años en roles DevOps, Cloud u Operations. Sólido dominio de Linux/UNIX, redes y conceptos de seguridad. Experiencia en arquitecturas de alta disponibilidad y gestión de incidentes. Se valora experiencia con entornos en la nube (AWS, Azure, GCP) y herramientas IaC (Terraform, CloudFormation, Ansible). Conocimientos en contenedores (Docker) y orquestación (Kubernetes). Habilidades de scripting (Bash, Python; PowerShell deseable). Capacidad para trabajar de forma proactiva, con buena comunicación y enfoque colaborativo.

Deseables

Certificaciones relevantes en nube (AWS/Azure/GCP) y DevOps; experiencia en entornos regulados; experiencia en monitoreo avanzado (ELK, Datadog) y gestión de costos en la nube. Orientación a soluciones y capacidades de análisis para resolver incidentes de manera eficiente; habilidades de documentación y entrega de runbooks claros.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 2900 Full time
DevOps Engineer / Platform Engineer
  • Coderslab.io
Python DevOps Virtualization Docker

Coderslab.io es una firma de tecnología que ayuda a las empresas a transformar y hacer crecer sus negocios mediante soluciones innovadoras. Formamos parte de una organización en rápida expansión, con más de 3,000 empleados globalmente y presencia en América Latina y Estados Unidos. Trabajarás en equipos diversos compuestos por los mejores talentos tecnológicos, participando en proyectos desafiantes que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno dinámico y orientado a resultados.

© Get on Board. All rights reserved.

Funciones

  • Implementar infraestructura reproducible y versionada en OCI utilizando Terraform.
  • Automatizar despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en GitLab.
  • Diseñar y operar arquitecturas basadas en contenedores con Kubernetes y Helm.
  • Gestionar la seguridad de la plataforma con HashiCorp Vault e políticas de OCI IAM.
  • Realizar hardening, tuning y troubleshooting de sistemas Oracle Linux.
  • Integrar servicios mediante Kong API Gateway y políticas personalizadas.
  • Garantizar el cumplimiento de estándares como PCI-DSS y prácticas de ciberseguridad.
  • Desarrollar scripts de automatización en Bash y Python (integración con APIs REST).
  • Colaborar con equipos de seguridad, desarrollo y operaciones para entregar soluciones robustas y escalables.

Requisitos

  • Más de 5 años de experiencia en roles de DevOps/Platform Engineering.
  • Experiencia demostrable en Oracle Cloud Infrastructure (OCI).
  • Dominio avanzado de Oracle Linux y administración de contenedores (Docker, Kubernetes).
  • Conocimiento sólido en seguridad de infraestructura y gestión de secretos.
  • Experiencia en entornos regulados o bancarios (deseable).
  • Capacidad para trabajar en entornos con alta disponibilidad y resiliencia.

Fortalezas Valoradas

Experiencia en implementación de infraestructura como código, automatización de despliegues mediante GitOps, y gestión de secretos en entornos sensibles. Conocimiento en PCI-DSS y prácticas de ciberseguridad, así como habilidades de scripting y resolución de incidentes en entornos críticos.

Beneficios

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps / SRE – Plataforma Cloud (Oci)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Kubernetes
BC Tecnología es una consultora de TI con experiencia en diseñar soluciones y formar equipos para servicios financieros, seguros, retail y gobierno. Buscamos un DevOps/SRE para diseñar, implementar y operar una plataforma Cloud en Oracle Cloud (OCI), asegurando disponibilidad, seguridad y escalabilidad. El candidato trabajará en un entorno híbrido, con foco en infraestructura OCI, orquestación con Kubernetes/OKE, automatización con Terraform e IaC, pipelines de CI/CD y observabilidad. Participará en proyectos innovadores, con equipos multidisciplinarios, para entregar soluciones robustas y escalables.

© getonbrd.com.

Funciones

  • Operación de infraestructura en OCI (redes, balanceadores de carga, WAF, bases de datos y almacenamiento).
  • Administración de Kubernetes/OKE, contenedores, Helm y GitOps (Argo CD).
  • Automatización de infraestructura y despliegues con Terraform, CI/CD (GitLab/Jenkins/GitHub Actions) y scripting (Bash/Python).
  • Gestión de observabilidad (Prometheus, Grafana, ELK/OCI Logging) y prácticas SRE para disponibilidad y rendimiento.
  • Gestión de seguridad: IAM, políticas, Vault/KMS, escaneo de imágenes y cumplimiento de estándares.
  • Colaboración con equipos de Infraestructura, Seguridad y Desarrollo para entrega continuada.
  • Documentación técnica y transferencia de conocimiento a equipos internos.

Descripción

Buscamos un profesional con al menos 3 años de experiencia en DevOps/SRE/Plataforma, con experiencia práctica en OCI y Kubernetes productivo. Debe dominar Linux, networking, IaC, CI/CD y monitoreo. Se valorarán certificaciones OCI o Kubernetes (CKA/CKAD/CKS) y experiencia en entornos regulados. El rol implica diseñar y operar una plataforma Cloud confiable, segura y escalable, enfocada en la entrega de servicios de alto rendimiento para clientes de servicios IT y finanzas.

Deseables

Certificaciones OCI o Kubernetes (CKA/CKAD/CKS). Experiencia en entornos regulados y auditorías de seguridad. Conocimiento adicional en seguridad de contenedores, gestión de secretos y cumplimiento normativo. Capacidad de trabajo en equipo, proactividad y orientación a resultados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
Senior AWS Engineer (Night Shift)
  • Niuro
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply to this posting directly on Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior en Automatización de Pruebas
  • CoyanServices
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

Applications are only received at getonbrd.com.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2500 Full time
DevOps Senior Freelance
  • CoyanServices
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply to this job at getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Apply to this posting directly on Get on Board.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
DevOps AWS Opensearch/Elasticsearch & Containers Engineer
  • Coderslab.io
DevOps Virtualization Amazon Web Services Microservices

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Devops - AWS OpenSearch/ElasticSearch & Containers Engineer to join our team and help drive our mission forward.

Exclusive to Get on Board.

Funciones del cargo

Role Purpose

Design, implement, and optimize AWS-based solutions focused on OpenSearch/ElasticSearch and containers (ECS/EKS) to support Payless’ omnichannel operations in retail and e-commerce. The role ensures efficient data pipelines, scalable microservices, and robust search capabilities integrating SAP HANA, Retail Pro, e-commerce, POS, and the AWS ecosystem.

Key Responsibilities

  • Deploy, manage, and optimize AWS OpenSearch/ElasticSearch clusters, ensuring performance and high availability.
  • Design and maintain data pipelines for log processing, analytics, and search-driven applications.
  • Manage workloads in Amazon ECS/EKS, ensuring deployment, scaling, and resilience of microservices.
  • Integrate search and container solutions with critical platforms: SAP HANA, Retail Pro, e-commerce, WMS, and CRM.
  • Implement monitoring, alerting, and automated recovery mechanisms for production environments.
  • Optimize costs, performance, and scalability across AWS architectures.
  • Collaborate closely with cloud architects, data engineers, and developers to ensure reliable and scalable digital services.

Requerimientos del cargo

  • Bachelor’s degree in Computer Science, Systems Engineering, or related fields (or equivalent experience).
  • 5+ years of experience in DevOps/Cloud roles with production projects in AWS.
  • Proven experience with OpenSearch/ElasticSearch and ECS/EKS implementations.
  • Strong ability to optimize performance and costs in enterprise cloud environments.
  • Advanced English (spoken and written) and fluent Spanish.

Opcionales

  • Experience integrating cloud architectures with retail and e-commerce systems.
  • Familiarity with SAP HANA, Retail Pro, POS, and inventory/CRM platforms.
  • Knowledge of IaC (Infrastructure as Code) and automation in AWS.
  • Proficiency with monitoring and logging tools (CloudWatch, Prometheus, Grafana, Kibana).

Condiciones

Location: Remote (LATAM)
Schedule: Miami time (Monday to Friday, 160 hours/month)
Contract: 12 months – Service contract
Languages: Advanced English & Spanish

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Semi Senior Data Engineer Python
  • 23people
Python Erlang Web server Big Data

Equifax es mucho más que una empresa de informes; es una compañía global líder en datos, analítica y tecnología con presencia en 24 países. En Chile, operan desde 1979 entregando soluciones críticas de ciberseguridad, identidad y riesgo a más de 14.000 empresas.

El Hub Tecnológico (SDC) Lo que hace única a esta oportunidad es que Chile alberga el Santiago Development Center (SDC). Este centro lidera la transformación digital de Equifax a nivel mundial, concentrando cerca del 60% de sus desarrollos tecnológicos globales.

Cultura y Visión Equifax promueve un entorno de colaboración y excelencia técnica, donde el talento local tiene el desafío de crear soluciones de impacto mundial. Su visión es clara: usar la data y la tecnología para potenciar la toma de decisiones financieras en todo el mundo.

Find this job and more on Get on Board.

Funciones del cargo

¿Qué harás en tu día a día?

  • Fuerte enfoque en el desarrollo y procesamiento de datos en la nube.
  • Automatización de procesos y manipulación de datos
  • Consultas y manejo de grandes volúmenes de datos
  • Procesamiento distribuido de datos en tiempo real y por lotes.

Skills

Técnicas

  • 2+ años de conocimiento en Python
  • 2+ años de conocimientos en BigQuery
  • 2+ años de conocimientos en Apache beam / Apache Spark
  • Inglés A2 (conversacional)

Personales

  • Capacidad de autogestión
  • Buenos skills de comunicación
  • Fortaleza en trabajo en equipo
  • Adaptación al cambio (trabajarán en distintas geos de Latam)
  • Título académico en Ingeniería Informática, Sistemas o carreras afines.

Contrato indefinido desde el inicio con 23people - Tiempo del proyecto 6 meses con posible extensión

  • Modalidad: Home Office con residencia en Chile.
  • Experiencia: Desde 2 años en adelante
  • Horario: Lu - Ju 08:30 a 18:30 / Vi 08:30 a 17:30

Deseables

  • Perfil analítico
  • Unit test
  • Airflow
  • PySparck
  • CI/CD
  • Postman
  • Jmeter

Beneficios

Algunos de nuestros beneficios

  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

Apply to this job without intermediaries on Get on Board.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos robustos y escalables utilizando Python y tecnologías de datos en la nube.
  • Desarrollar procesos ETL/ELT, modelado de datos y soluciones de almacenamiento (data lake/warehouse) en plataformas cloud.
  • Colaborar con equipos de datos, BI y producto para entender requerimientos, traducirlos en soluciones técnicas y garantizar la calidad de los datos.
  • Implementar soluciones de monitoring, logging y alerting; asegurar la confiabilidad, rendimiento y seguridad de los datos.
  • Automatizar despliegues y mantener pipelines mediante CI/CD; aplicar prácticas de versionado y pruebas de datos.
  • Participar en la mejora continua de procesos y en la migración hacia arquitecturas basadas en la nube.

Requisitos y perfil

Buscamos un Data Engineer con fuerte dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.
Requisitos técnicos:
  • Experiencia sólida desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Experiencia en Google Cloud Platform (GCP) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Conocimientos de SQL avanzado y modelado de datos; experiencia con almacenes de datos y data lakes.
  • Conocimientos de contenedores (Docker), CI/CD y herramientas de observabilidad (Prometheus, Grafana, etc.).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.
Habilidades blandas:
  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).
Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.
Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2200 - 2500 Full time
Data & BI Engineer
  • Lythium
  • Puerto Varas (Hybrid)
Python Data Analysis SQL Business Intelligence

Estamos optimizando la industria de alimentos mediante Visión Artificial, lo que nos permite capturar millones de datos críticos en el ciclo productivo. Nuestro gran desafío hoy es la escalabilidad y la autonomía técnica de datos. Actualmente, necesitamos migrar procesos manuales antiguos hacia flujos automáticos y centralizar toda nuestra arquitectura de datos en Google Cloud (BigQuery) para asegurar que la información sea íntegra y confiable antes de que llegue al cliente.

Apply to this posting directly on Get on Board.

Funciones del cargo

Ingeniería y Gestión de Datos:

  1. Centralizar y modelar nuestros datos en GCP (BigQuery).
  2. Crear y mantener scripts (Python/SQL) para automatizar la extracción y limpieza de datos (ETL) desde nuestros sistemas de visión artificial.
  3. Asegurar que la data sea íntegra y confiable (si hay un error, tú lo detectas antes que el cliente).
  4. Migrar procesos manuales antiguos a flujos automáticos y escalables.

Visualización y Negocio:

  1. Desarrollar dashboards dinámicos (Power BI, excluyente) que consuman directamente de tu base de datos optimizada.
  2. Traducir la data técnica en valor: ayudar a clientes y al área comercial a entender qué está pasando en sus procesos productivos.
  3. Apoyar al equipo comercial validando la data para nuevos features o cobros por consumo.

Requerimientos del cargo

  • Experiencia: De 1 a 3 años trabajando con datos ( Es el rol ideal para un Data Engineer, Analista BI Técnico , o rol afín).
  • Técnico (Excluyente):
    • SQL Sólido: Sabes hacer consultas complejas, y entiendes cómo estructurar una tabla optimizada.
    • Python: Eres capaz de escribir scripts para mover datos de un API/Archivo a una base de datos bajo una arquitectura sólida.
  • Nube: Conocimiento y muchas ganas de seguir aprendiendo a fondo GCP (BigQuery). Si vienes de Azure o AWS también eres bienvenido. (En la generalidad del proceso usamos las tres).
  • Perfil: Autogestión total. No necesitas que te digan qué hacer cada mañana; ves un problema de datos y lo solucionas.

Opcionales

Para destacar en este proceso, valoraremos positivamente que cuentes con:

  • Dominio avanzado de Google Cloud Platform (GCP): Aunque aceptamos experiencia en otras nubes , el manejo fluido de BigQuery y el ecosistema de datos de Google nos permitirá acelerar la migración.
  • Análisis de modelos de IA: Experiencia comprobable analizando y validando datos provenientes de modelos de Inteligencia Artificial o Visión Artificial, asegurando que los resultados técnicos se traduzcan en valor de negocio.
  • Visualización avanzada: Además del manejo excluyente de Power BI, se valorará el conocimiento en herramientas como Grafana para el monitoreo de datos en tiempo real.
  • Metodologías Ágiles: Experiencia trabajando bajo el marco de Scrum, ideal para integrarte a nuestra cultura horizontal y de ejecución rápida.
  • Mentalidad de Startup: Haber trabajado previamente en entornos de crecimiento rápido o startups, donde la autogestión total y la proactividad para resolver problemas de datos son fundamentales.

Beneficios

  • Modalidad de trabajo: Híbrida, con base en Puerto Varas. Si bien la presencialidad es siempre opcional, creemos en el crecimiento que da la presencialidad las primeras semanas.
  • Autonomía Radical: Horario basado en objetivos. Tienes la libertad de manejar tus propios tiempos y días libres con responsabilidad.
  • Bienestar Total: Seguro complementario de salud y dental (incluye cobertura para pareja e hijos).
  • Vida Saludable: Convenio de acceso a cadenas de gimnasios y apps de salud. Además sesiones con expertos en salud mental, guía financiera y nutricional.
  • Ambiente: Oficina con snacks, equipo joven y línea directa con gerencias y fundadores para proponer ideas y ejecutar rápido.
  • Compromiso Mutuo: Ofrecemos indemnización a todo evento. Esto significa que, si decides emprender un nuevo camino o sientes que ya no hay match, te vas con tu indemnización correspondiente. Valoramos la honestidad y queremos que tu permanencia sea siempre una elección voluntaria y motivada.

VIEW JOB APPLY VIA WEB
Gross salary $3200 - 3700 Full time
Senior Data Engineer (Databricks)
  • INTEGRATZ
Python SQL Web server Azure
Integratz is driving digital transformation for B2B customers through intelligent automation with AI, systems integration, and innovative solutions. As part of our global delivery efforts, this project focuses on building scalable data platforms and pipelines that empower analytics, reporting, and data-driven decision-making across US-based and international stakeholders. You will contribute to architectural decisions, establish best practices, and collaborate with cross-functional teams in a multicultural environment to deliver production-grade data solutions that are reliable, scalable, and cost-efficient.

Applications at getonbrd.com.

KEY RESPONSIBILITIES

  • Design, develop, and maintain scalable data pipelines using Databricks and Apache Spark.
  • Define data architectures that support batch and streaming processing.
  • Integrate data from multiple sources, including databases, APIs, and cloud storage.
  • Optimize data solutions for performance, reliability, and cost efficiency.
  • Collaborate closely with data science, analytics, and business teams.
  • Provide technical leadership and guidance on data engineering best practices.
  • Translate complex Databricks architectures and data solutions into clear, business-friendly explanations for technical and non-technical audiences.
  • Document data architectures, pipelines, and technical decisions.
  • Support production systems and troubleshoot data-related issues as needed.

REQUIRED SKILLS & EXPERIENCE

Minimum of 5 years of experience as a Data Engineer or in a similar role. Strong hands-on experience with Databricks and Apache Spark. Advanced SQL and Python skills. Experience working in cloud environments (Azure preferred). Solid understanding of data modeling, ETL/ELT processes, and data architecture concepts. Ability to work independently while collaborating with distributed teams. Advanced English proficiency (spoken and written).

DESIRABLE SKILLS

Experience designing enterprise-scale data platforms. Experience building, supporting, and scaling production-grade data pipelines in enterprise environments. Exposure to analytics, BI, or data science workloads. Familiarity with CI/CD practices for data engineering. Strong communication skills with both technical and non-technical stakeholders. Any certifications for Databricks or Apache are a plus.

BENEFITS

• Competitive salary and benefits
• Flexible work environment
• Opportunities for growth and certifications
• Inclusive and collaborative team culture
• Access to cutting-edge tools and technologies





Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Data Scientist
  • Cordada
  • Santiago (Hybrid)
Python Analytics SQL Artificial Intelligence

Cordada es una fintech de alto crecimiento dedicada a financiar a PyMEs en LatAm. Nuestro área de Risk and Data Analytics (RDA) desarrolla procesos para crear productos de datos en todas las áreas de la empresa, con foco especial en gestión y evaluación de riesgos de crédito. Buscamos un Data Scientist que transforme datos en información de valor y participe en proyectos de diseño, construcción y gestión de modelos de machine learning para propósitos de riesgo, analítica y negocio. El candidato trabajará colaborando estrechamente con negocio, tecnología y producto para entender requerimientos y entregar insights accionables que impulsen decisiones estratégicas y mejoras operativas.

Apply directly at getonbrd.com.

Funciones del cargo

Gestionar modelos de machine learning existentes (reentrenamientos y mejoras) e implementar nuevos modelos.

Realizar análisis exploratorios profundos para obtener insights en nuestras fuentes de datos (enfocado en negocio, análisis riguroso y trazable).

Colaborar con áreas de negocio, tecnología y producto para capturar requerimientos y priorizar iniciativas.

Proponer y desarrollar mejoras internas que optimicen el trabajo en Risk & Data Analytics, asegurando claridad, trazabilidad y calidad de código.

Descripción general

El área de Risk and Data Analytics (RDA) es responsable de desarrollar procesos para crear productos de datos para todas las áreas de Cordada, con énfasis en la gestión y evaluación de riesgos de crédito. Es fundamental para nosotros usar los datos en la toma de decisiones y respaldar nuestras metas. Buscamos un Data Scientist capaz de transformar datos en información de valor, trabajando en proyectos de diseño, construcción y gestión de modelos de machine learning para riesgos y analítica de negocio.

Requisitos técnicos incluyen dominio intermedio/avanzado de Python y librerías de data science, SQL y herramientas de control de versiones. Se valora experiencia con stack GCP. Se espera pensamiento analítico, capacidad de comunicar resultados complejos de forma simple, independencia y trabajo en equipo multidisciplinario. Se prioriza rigor, precisión y atención al detalle, así como la habilidad para investigar problemas y entender mecanismos subyacentes que expliquen el comportamiento de los datos.

Competencias y perfiles deseables

Conocimientos en estadística avanzada, econometría y estadística causal (variables instrumentales, diferencias en diferencias, regresión discontinua, etc.).

Experiencia en procesamiento de datos, construcción de features y representaciones adecuadas para modelos, así como manejo de backtesting y monitoreo de data drift. Capacidad para explicar sesgos potenciales y manejar situaciones con información incompleta o sesgada.

Conocimientos de modelos de regresión, ML supervisado/no supervisado, modelamiento probabilístico y métodos para interpretabilidad de probabilidades. Se valoran habilidades de comunicación y capacidad para presentar resultados a stakeholders no técnicos.

Beneficios

Beneficios: opciones de trabajo híbrido algunos días de la semana, días libres por cumpleaños, seguro de salud ampliado, horario de verano, salidas tempranas los viernes, día de mudanza, licencia parental extendida, y acceso a snack machine. Únete a nosotros para tener un impacto duradero en nuestra misión de impulsar a las PyMEs de América Latina. 🌟

VIEW JOB APPLY VIA WEB
$$$ Full time
Database Lead Architect – Clinical Trial Systems (Azure/aWS)
  • Signant Health
Python Linux Virtualization Amazon Web Services

Want to do the Best Work of Your Life?

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations and reimagining the path to proof.

Where do you fit in?
We are seeking a highly experienced Lead Cloud OperationsDatabase Architect to design, implement, and govern our enterprise data architecture that supports regulated clinical research systems. This role is responsible for all database-related aspects across Microsoft Azure and AWS cloud environments, ensuring performance, security, and compliance with GxP, FDA 21 CFR Part 11, and ICH-GCP regulations. The ideal candidate combines deep technical expertise in MS SQL, Azure SQL, AWS RDS, and Cloud SQL platforms in high volume production environment with strong leadership in data governance, architecture design, and lifecycle management.

Apply without intermediaries from Get on Board.

Job functions

  • Architecture & Design:
    Develop and maintain enterprise-scale data architectures supporting clinical trial systems, ensuring high availability, scalability, and security across Azure and AWS environments.
  • Database Administration & Operations:
    Oversee all aspects of database setup, configuration, backup/recovery, replication, and performance optimization for MS SQL, Azure SQL, Cloud SQL, and RDS instances.
  • Regulatory Compliance:
    Establish and enforce database procedures aligned with clinical and regulatory frameworks (e.g., GxP, 21 CFR Part 11). Partner with QA/Compliance to support audits and validation activities.
  • Security & Data Integrity:
    Implement robust access controls, encryption, monitoring, and logging mechanisms to safeguard sensitive clinical and patient data.
  • Automation & DevOps Integration:
    Automate database provisioning, patching, and schema deployments via CI/CD pipelines and Infrastructure as Code (IaC) tools (e.g., Terraform, OpenTofu, ARM templates, AWS CloudFormation).
  • Cross-Functional Leadership:
    Collaborate closely with Engineering, Project Management and Compliance teams to align data strategies across the enterprise.
  • Monitoring & Optimization:
    Design and implement proactive alerting, capacity planning, and performance tuning to maintain system reliability and speed.
  • Documentation & Standards:
    Maintain detailed architecture diagrams, SOPs, and technical documentation to support validation and internal audits.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Systems, or related field (Master’s preferred).
  • 10+ years in database architecture/administration, including 5+ years in cloud environments (Azure/AWS).
  • Expertise with MS SQL Server, Azure SQL Database and AWS RDS including strong proficiency in SQL queries and stored procedures
  • Proven experience supporting regulated (GxP/FDA) environments.
  • Strong understanding of data security, governance, and compliance in life sciences or healthcare settings.
  • Proficiency with IaC tools, monitoring platforms (CloudWatch, Azure Monitor), and automation scripting (PowerShell, Python, or Bash).
  • Strong communication skills and experience engaging with cross-functional technical and clinical teams.

Desirable skills

  • Experience integrating with clinical data systems (CDMS, EDC, LIMS).
  • Familiarity with Snowflakedatalake architectures and ETL/ELT pipelines.
  • Certifications in Azure Database Administrator, AWS Database Specialty, or equivalent cloud credentials.

Conditions

Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Data Engineer
  • Coderslab.io
Python SQL NoSQL Azure
Coderslab.io es una empresa global líder en soluciones tecnológicas con más de 3,000 colaboradores en todo el mundo, incluyendo oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos compuestos por talento de alto desempeño para proyectos desafiantes de automatización y transformación digital. Colaborarás con profesionales experimentados y trabajarás con tecnologías de vanguardia para impulsar la toma de decisiones y la eficiencia operativa a nivel corporativo.

Send CV through getonbrd.com.

Funciones del cargo

-Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.
-Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.
-Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.
-Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.
-Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).
-Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.
-Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.
-Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.
-Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

-Microsoft Certified: Azure Data Engineer Associate
-Databricks Certified: Data Engineer Associate
-Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.
-Conocimiento avanzado en bases de datos NoSql.
-Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.
-Conocimiento en procesamiento de datos batch, streaming, API.
-Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.
-Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.
-Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.
-Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

Condiciones

Modalidad de contratación: Prestación de servicio, Contractor.
Duración del proyecto: Indefinido.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer – Sas/SQL Migration
  • WiTi
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS.
El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SAS y SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.
Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Applications at getonbrd.com.

Funciones del cargo

  • Analizar programas existentes en SAS, incluyendo SAS SQL no estándar y estructuras propias del entorno (macros, data steps, librerías, jobs).
  • Convertir y reescribir lógica desde SAS a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre SAS y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Perfil y requisitos

Buscamos un Data Engineer con experiencia sólida en migraciones de SAS hacia entornos cloud, especialmente Amazon Redshift, y con fuerte capacidad para optimizar consultas, diseñar estrategias de conversión y liderar iniciativas de calidad de datos. Deberás combinar habilidades técnicas avanzadas con capacidad de trabajo colaborativo en un entorno enterprise.
  • SQL avanzado (queries complejas, optimización de performance, joins pesados, window functions/CTEs), lectura e interpretación de planes de ejecución.
  • Experiencia demostrada trabajando con SAS (lectura y mantención de programas, entendimiento de SAS SQL y su lógica de procesamiento).
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
migraciones desde SAS u otras tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery), automatización de migraciones, Python u otros lenguajes de scripting para tooling, gobernanza de datos (naming conventions, documentación funcional/técnica, data quality checks) y monitoreo.

Requisitos deseables

Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses (SAS, otros) y participación en automatización de migraciones. Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:
  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.
Modalidad híbrida en Las Condes, Santiago, con flexibilidad para coordinar con equipos y stakeholders. Participación en un proyecto estratégico de transformación de datos con alta visibilidad interna y contacto directo con equipos de data, BI y tecnología. Política de trabajo remoto Híbrido; se combine trabajo remoto y días en oficina.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Excel
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply to this job through Get on Board.

Funciones del cargo

  • Manage large datasets using most recent technologies
  • Partner with project leads to understand business briefs and execute analysis
  • Develop and enhance statistical model with best-in-class modelling techniques
  • Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.
  • Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)
  • Deliver informative and well-organized deliverables.Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with team and the Client is daily
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next leve
  • Proactively seek opportunities to help team members by sharing knowledge and expanding skills

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Beneficios

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $1100 - 1700 Full time
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Excel SQL Artificial Intelligence
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

This job offer is available on Get on Board.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Excel SQL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply at the original job on getonbrd.com.

Funciones del cargo

▪ Design and develop analytical solutions to address a spectrum of business challenges, focusing on user acquisition and engagement for state-of-the-art digital offerings.

▪ Collaborate with multidisciplinary teams to structure and analyze business questions through a hypothesis-driven approach.

▪ Perform cohort studies and event impact assessments to analyze outcomes of event interventions using statistical methods.

▪ Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.

▪ Designing data models and schemas that optimize performance and scalability ensuring efficient data retrieval

▪ Partner with consultants /project leads to understand business briefs and execute analyses ensuring high quality, on-time delivery

▪ Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)

▪ Deliver informative and well-organized deliverables.

▪ Develop and enhance statistical model with best-in-class modelling techniques

▪ Evaluate new data sources, conduct research to assist in solving business problems

▪ Multi country / companies’ interactions with team and the Client is daily

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organization to the next level

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1900 Full time
Data Scientist
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Marketing
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply to this job directly at getonbrd.com.

Funciones del cargo

▪ Utilize advanced Python programming skills to design, develop, and deploy machine learning models and algorithms for various business use cases.

▪ Develop Machine Learning techniques such as regression, classification, clustering, and deep learning

▪ Ensure the availability, quality, and security of data used for analysis and modeling

▪ Investigate and interpret data to identify actionable insights and opportunities for improvement

▪ Work with cross-functional teams to implement data-driven solutions and drive business growth

▪ Manage client relationships effectively, including conducting meetings, understanding client requirements, and delivering solutions that meet or exceed expectations.

▪ Lead efforts to expand business opportunities by identifying new avenues for data-driven insights and solutions.

▪ Research and devise innovative statistical models for data analysis

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organzation to the next level

Requerimientos del cargo

▪ Bachelor's degree in Computer Science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred

▪ Minimum of 1+years of experience in a data science domain or related role.

▪ Proficiency in Python for data manipulation, analysis, and model development.

▪ Data Science libraries (such as NumPy, Pandas, Scikit-Learn, TensorFlow, or PyTorch)

▪ Advanced SQL skills for data extraction, transformation, and analysis.

▪ Strong experience in Lifecycle of a Data Science Modelling project

▪ Strong knowledge and practical experience in Machine Learning techniques and frameworks such as such as regression, classification, clustering, and deep learning.

▪ Strong knowledge in Statistics, ML and LLM/Gen AI

▪ Proven track record of successfully managing client relationships and delivering value-added solutions

▪ Experience in building Reporting Dashboards in any of the BI Tools is good to have: Power BI, Tableau, Looker

▪ Familiarity with any could platform such as Azure, AWS, GPC

▪ Expert in Analytics solutions such as Marketing, Predictive Order, Segmentation, Promotion, Hyper-personalization, forecasting, Pricing Analytics development is a plus

▪ Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

▪ Excellent Stakeholder communication and proactive problem-solving

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Engineer (AWS, Power Apps/Power BI)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams to accelerate delivery for leading U.S. companies. We are building out an internal data initiative focused on data delivery and pipeline development to empower digital products and decision-making tools. Our data engineering team operates under a demand-based model, delivering end-to-end data workflows that ingestion data from multiple sources, transform and unify it on AWS-based platforms, and make high-quality data accessible to business applications and reporting tools. This project emphasizes autonomous, high-quality data pipelines, cross-functional collaboration with product and business teams, and alignment with internal data strategy to enable operational efficiency and timely insights across the organization.

Apply to this job through Get on Board.

Key Responsibilities

  • Ingest, process, and transform data from multiple source systems into existing AWS-based data platforms (e.g., Lambda, S3, Glue).
  • Design and maintain data integration flows for movement between source and target systems, following established standards and frameworks.
  • Ensure data delivered to Power Apps applications and Power BI reports meets quality, consistency, and timeliness requirements.
  • Collaborate with product and business teams to identify data needs, evaluate source systems, and assess constraints (update frequency, known issues).
  • Build data engineering solutions aligned with internal data strategy while maintaining autonomy and meeting timelines.
  • Work with dbt for data modeling and transformations; utilize Airflow for workflow orchestration; leverage Snowflake in production environments.

Role Overview

We are seeking a seasoned Data Engineer to join a data engineering team that supports a new internal initiative focused on data delivery and pipeline development. The ideal candidate will own end-to-end data workflows from source ingestion to consumption by Power Apps and Power BI, operating with minimal supervision. You will contribute to the reliability and scalability of AWS-based data platforms, ensure data quality for business applications, and partner with product and business teams to translate data needs into robust data pipelines. This role requires strong hands-on experience with AWS services, advanced SQL, Python for data processing, and experience with modern data tooling (dbt, Airflow, Snowflake).

Desirable Qualifications

  • Experience with data governance and data quality frameworks.
  • Experience with other cloud data platforms (e.g., Redshift, BigQuery) and data visualization patterns.
  • Strong communication skills and ability to translate technical concepts for non-technical stakeholders.
  • Familiarity with Power Apps customization and Power BI advanced features.

Benefits & Collaboration

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Científico de Datos
  • Vemo México
  • Ciudad de México (In-office)
Python Excel SQL Business Intelligence

En VEMO México estamos impulsando la movilidad limpia combinando tecnología, datos y energía sostenible. Construimos productos digitales y plataformas que soportan toda la operación de electromovilidad en LATAM. Somos una empresa en crecimiento que trabaja con metodologías ágiles, prioriza la innovación y fomenta una cultura de aprendizaje continuo y mentalidad de producto. El rol del Científico de Datos consiste en transformar datos complejos en insights accionables, desarrollando modelos predictivos y algoritmos avanzados que impulsen la toma de decisiones estratégicas, optimicen procesos y generen ventajas competitivas para la organización.

Apply exclusively at getonbrd.com.

Responsabilidades clave

  • Análisis y procesamiento de datos: recolectar, limpiar y preparar grandes volúmenes de datos estructurados y no estructurados; realizar análisis exploratorio para identificar patrones y anomalías; diseñar, automatizar y mantener flujos de datos end-to-end; asegurar actualización, escalabilidad y calidad de la información; implementar soluciones de almacenamiento y recuperación eficientes.
  • Modelado y aprendizaje automático: desarrollar, entrenar y validar modelos predictivos, de clasificación, segmentación y recomendación; aplicar técnicas de ML supervisado, no supervisado y aprendizaje profundo; optimizar modelos mediante selección de variables y ajuste de parámetros; poner modelos en producción y hacer seguimiento de su rendimiento.
  • Visualización y comunicación de resultados: elaborar tableros interactivos e informes ejecutivos; presentar resultados a audiencias técnicas y no técnicas; documentar metodologías, resultados y recomendaciones; garantizar consistencia entre modelos y métricas en tableros.
  • Automatización y orquestación de flujos de datos: diseñar y mantener ETL/ELT para extraer, transformar y cargar datos desde sistemas de origen hacia modelos y tableros; asegurar trazabilidad y confiabilidad de la información.
  • Colaboración estratégica: trabajar con equipos de negocio, ingeniería y producto para definir problemas y métricas de éxito; identificar oportunidades para el uso de datos; proponer nuevas metodologías, herramientas y buenas prácticas.

Perfil y experiencia

Formación: Licenciatura en Sistemas Computacionales, Informática, Ingeniería en Software o afín.
Experiencia: 4+ años en análisis de sistemas, desarrollo de software o roles similares. Deseable experiencia en ERP, CRM o herramientas BI.
Conocimientos técnicos clave: Python o R; SQL Server; Power BI o herramientas BI equivalentes; Microsoft Dynamics (modulos gerenciales); diseño de bases de datos, ETL y modelado dimensional; Office medio; entornos cloud (AWS, GCP o Azure); Excel.
Competencias: análisis y pensamiento estratégico; capacidad de traducir requerimientos técnicos a lenguaje empresarial; orientación a resultados; proactividad; trabajo en equipo; adaptabilidad y aprendizaje continuo; gestión del tiempo; resolución de problemas; apertura al feedback y mejora continua; precisión en manejo de información crítica.

Requisitos deseables

Experiencia en implementación de sistemas ERP, CRM o herramientas BI; familiaridad con métricas de negocio y KPIs; experiencia en entornos ágiles; habilidades de comunicación para presentar resultados a dirección y negocio.

Beneficios y condiciones

💼 Beneficio del puesto: 100% nómina
💰 Contrato indefinido
Prestaciones de ley:

  • 12 días de vacaciones desde el primer año
  • 15 días de aguinaldo
  • 25% de prima vacacional

✨ Prestaciones superiores:

  • vales de despensa
  • bono anual de desempeño
  • seguro de gastos médicos mayores para el personal y familiares directos
  • plataforma de telemedicina
  • TotalPass para gimnasios
  • descuentos corporativos en salud, educación, bienestar, consumo y entretenimiento.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • Vemo México
  • Ciudad de México (In-office)
Python Git SQL Big Data

Acerca de VEMO: Somos una empresa de electromovilidad en expansión que impulsa la movilidad limpia combinando tecnología, datos y energía sostenible para LATAM. Construimos productos digitales y plataformas que soportan la operación de electromovilidad y trabajamos con metodologías ágiles, priorizando innovación y una cultura de aprendizaje continuo. El rol de Senior Data Engineer contribuirá a consolidar y modernizar nuestra infraestructura de datos para acelerar la toma de decisiones a través de prácticas modernas de ingeniería de datos.

Exclusive to Get on Board.

Responsibilities and Goals

  • Diseñar, construir y operar soluciones de datos escalables y robustas alineadas a las necesidades del negocio.
  • Consolidar y modernizar la infraestructura en Microsoft Fabric y Azure (Lakehouse, Warehouse, Data Factory).
  • Construir y mantener pipelines de ingestión y transformación de datos, incluyendo procesos incrementales y estrategias de CDC.
  • Modelar y operar data marts y productos de datos para distintas áreas de negocio.
  • Optimizar el rendimiento de consultas, pipelines y almacenamiento, asegurando eficiencia de recursos.
  • Implementar estándares de data governance: versionamiento, linaje, seguridad y buenas prácticas de codificación.
  • Colaborar con analistas, científicos de datos y equipos de negocio para traducir necesidades en soluciones técnicas sólidas.
  • Automatizar procesos, mejorar observabilidad y asegurar confiabilidad mediante monitoreo y alertas.
  • Documentar arquitectura, procesos y reglas de negocio de forma clara y mantenible.
  • Participar en revisiones técnicas, definir estándares y mentoría a miembros del equipo.

Perfil y habilidades

Formación académica en Ingeniería en Sistemas, Computación, TI, Matemáticas Aplicadas o campo afín. Se valora maestría o diplomado en ingeniería de datos, big data o nube. Experiencia de 5 a 8 años en puestos de datos o ingeniería de software, con al menos 3 años en ingeniería de datos y 2 años trabajando con Azure Data Platform (ADF, Synapse, Databricks o Fabric). Se requiere experiencia operando pipelines de datos en producción con altos volúmenes y diseño de modelos de datos y arquitecturas escalables en entornos cloud. Conocimientos clave: SQL avanzado, Azure Data Lake/OneLake, Lakehouse, Data Warehouse; orquestación con Data Factory, Synapse Pipelines o Fabric Pipelines; patrones de ingesta incremental y CDC; modelado de datos (dimensiones, hechos, SCDs, star schema); Python o PySpark (deseable); Git, CI/CD y buenas prácticas; observabilidad (logs, métricas, alertas). Certificaciones DP-700, DP-600, DP-203, DP-500, AZ-900 son valoradas.

Requisitos y cualidades deseables

Mentalidad de producto enfocada en escalabilidad y mantenibilidad. Capacidad de trabajar de forma colaborativa con Analytics, Data Science, Operaciones y Tecnología. Habilidad para comunicar ideas técnicas a audiencias no técnicas y mantener enfoque en calidad, confiabilidad y documentación rigurosa. Capacidad de aprender y adaptarse a un entorno dinámico y de prioridades cambiantes.

Ofrecemos

En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Oportunidades de desarrollo profesional en tecnología y negocio. Prestaciones de ley y superiores, con contratación indefinida.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Science Lead
  • Grupo Mariposa
Python Analytics Big Data Azure
Grupo Mariposa es una corporación multinacional de bebidas y alimentos fundada en 1885, con presencia en más de 14 países y un equipo de más de 15,000 colaboradores. Nuestro portafolio de bebidas es el más extenso de la región, y contamos con socios estratégicos como PepsiCo y AB InBev. En el último año, hemos experimentado una expansión global que nos ha permitido estructurarnos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Con una estrategia dinámica de crecimiento, buscamos talentos que se unan a nuestras ambiciones de llevar alegría y desarrollo más lejos.

This job offer is available on Get on Board.

Funciones del cargo

El Data Science Lead será responsable de definir, liderar y escalar la estrategia de ciencia de datos y machine learning para la región, garantizando el diseño, desarrollo e industrialización de modelos analíticos avanzados que generen impacto medible en el negocio. Este rol combina liderazgo técnico en Data Science, visión de producto, entendimiento profundo del negocio y gestión de equipos, actuando como socio estratégico de producto, comercial y tecnología dentro de la organización.
Responsabilidades Clave:
1. Estrategia de Ciencia de Datos y Analítica Avanzada:
  • Definir y evolucionar la estrategia regional de Data Science, alineada con los objetivos comerciales, de producto y Go To Market.
  • Identificar, evaluar y priorizar casos de uso de alto impacto (ML, optimización,forecasting, simulación, analítica avanzada).
  • Diseñar frameworks reutilizables de modelado analítico para su adopción en múltiples países.
2. Desarrollo de Modelos Avanzados y Calidad Analítica:
  • Liderar el diseño y revisión de modelos de machine learning y analítica avanzada,
    tales como: modelos predictivos y de clasificación, optimización y simulación, forecasting de demanda y ventas
3. Industrialización, MLOps y Producción
  • Trabajar de forma estrecha con Data Engineering y MLOps para asegurar: Versionado de modelos, Automatización de entrenamiento y despliegue, Monitoreo de performance y drift y Retraining controlado
  • Asegurar la correcta operación de modelos en entornos productivos sobre Databricks
    y cloud.
4. Gobierno Analítico, Datos y Explicabilidad
  • Garantizar el uso correcto de datos confiables y gobernados para los modelos.
  • Alinear los desarrollos analíticos con prácticas de:
    o Data Governance
    o Data Quality
    o Seguridad y privacidad de datos
5. Liderazgo:
  • Liderar y mentorizar equipos regionales de Data Scientists
  • Actuar como punto de enlace entre: Producto, Data Engineering, BI, DevOps y Áreas comerciales
  • Definir estándares técnicos, metodológicos y de documentación.

Requerimientos del cargo

Formación:
  • Licenciatura o Maestría en Ciencias de la Computación, Estadística, Matemática, Economía, Ingeniería, Data Science o carreras afines.
Experiencia:
  • +7 años de experiencia en Ciencia de Datos, Machine Learning o Analítica Avanzada.
  • Experiencia liderando equipos de Data Science a nivel regional o multi-país.
  • Experiencia comprobada llevando modelos a producción.
  • Dominio de entornos de Big Data y analítica distribuida.
Conocimientos técnicos:
  • Python y Pyspark avanzado.
  • Frameworks de ML (scikit-learn, TensorFlow, PyTorch).
  • Databricks como plataforma analítica.
  • Fundamentos sólidos de estadística, optimización y modelado.
  • Conocimiento práctico de MLOps.
  • Experiencia en cloud, preferentemente Azure.

Opcionales

  • Experiencia en Azure / GCP / Retail / Consumo Masivo.
  • Experiencia en entornos multi-país.

Condiciones

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst (Proyecto)
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis
BC Tecnología, una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales, busca incorporar un/a Data Analyst para un proyecto estratégico. El rol apoya la toma de decisiones basada en datos y la optimización de iniciativas digitales en un entorno con clientes de alto nivel y sector financiero. El/la profesional trabajará en un equipo ágil, colaborando con Product Owner y stakeholders para definir indicadores, priorizar iniciativas y generar insights accionables que impulsen el negocio.
La misión del proyecto es asegurar que las iniciativas digitales cuenten con métricas claras y dashboards ejecutivos para respaldar decisiones estratégicas, optimizando procesos y resultados. Se trabajará en un entorno híbrido, con foco en entrega de valor y mejora continua, y la posibilidad de involucrarse en otras áreas de la consultora según necesidades y desempeño.

This posting is original from the Get on Board platform.

Funciones

  • Definir y monitorear KPIs del negocio, asegurando que las métricas estén alineadas con los objetivos estratégicos.
  • Construcción y análisis de dashboards ejecutivos con Power BI, incorporando visualizaciones efectivas y análisis de tendencias.
  • Apoyar en la priorización del backlog junto al Product Owner, traduciendo requerimientos de negocio en historias y métricas.
  • Analizar el impacto de funcionalidades digitales, identificando oportunidades de mejora y priorizando acciones con base en datos.
  • Generar insights accionables para el negocio y presentar hallazgos a equipos multifuncionales y alta dirección.

Descripción

Buscamos un/una Data Analyst con al menos 2–3 años de experiencia en análisis de datos, SQL, Python y Power BI. Se valorará experiencia en entornos cloud (Azure o AWS) y en Databricks. Se trabaja bajo metodologías ágiles (Scrum/Kanban). Requisitos: capacidad analítica, atención al detalle, comunicación efectiva y orientación a resultados. El/la candidato/a ideal debe poder transformar datos en insights accionables, trabajar de forma colaborativa y gestionar prioridades en un entorno dinámico.

Perfil deseable

Conocimientos en Databricks, experiencia en construcción de dashboards para ejecutivos, familiaridad con procesos de datos en la nube y capacidad de trabajar en proyectos con plazos ajustados. Se valora proactividad, pensamiento crítico y habilidad para explicar complejidades técnicas a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $3200 - 4100 Full time
Senior Data Scientist
  • Artefact LatAm
Python Git Data Analysis SQL

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Scientist es un profesional altamente experimentado en el análisis de datos, con profundos conocimientos en técnicas estadísticas, de programación y de aprendizaje automático. Su rol principal es utilizar estas habilidades para extraer conocimientos significativos y tomar decisiones estratégicas basadas en datos dentro de la organización.

Además de desarrollar modelos analíticos avanzados, el Data Scientist Senior ejerce un rol importante dentro del equipo asignado al cliente, aportando con su conocimiento técnico para poder tomar decisiones concretas que ayuden al desarrollo del proyecto. Su experiencia ayuda en la conceptualización hasta la implementación, y asegura la entrega de soluciones prácticas y detallistas que cumplan con las necesitas del cliente.

Apply without intermediaries from Get on Board.

Tus responsabilidades serán:

  • Análisis de Datos: Aplicar técnicas avanzadas de análisis exploratorio para comprender la estructura y características de grandes volúmenes datos, provenientes de diversas fuentes.
  • Desarrollo de Modelos Predictivos Avanzados: utilizar técnicas avanzadas de aprendizaje automático y estadística para desarrollar modelos predictivos robustos que permitan predecir tendencias, identificar patrones y realizar pronósticos precisos.
  • Optimización de Algoritmos y Modelos: dirigir la optimización de algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad.
  • Visualización y Comunicación de Datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados de manera efectiva al cliente y a otros stakeholders clave.
  • Desarrollo de Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguajes de programación como Python, R o SQL.
  • Gestión de Proyectos: liderar frentes de un proyecto relacionados al análisis de datos complejos, desde la conceptualización hasta la implementación, planificando estratégicamente los hitos y entregables acordados con los clientes.
  • Investigación y Desarrollo Continuo: mantenerse actualizado en las últimas tendencias y avances en análisis de datos, inteligencia artificial y metodologías relacionadas. Compartir conocimientos y experiencias con el equipo para fomentar un ambiente de aprendizaje continuo.
  • Contribución a Propuestas y Desarrollo de Negocios: colaborar en el desarrollo de propuestas internas para potenciales clientes, utilizando su experiencia y conocimientos para identificar oportunidades y diseñar soluciones innovadoras.
  • Apoyar al equipo desde un rol de mentor, traspasando conocimientos y buenas prácticas, proporcionándole capacitación personalizada según las necesidades individuales de los miembros.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o experiencia equivalente en análisis avanzado de datos.
  • Experiencia laboral de al menos 4 años en roles de análisis de datos, preferiblemente en industrias relevantes.
  • Experto en Python, SQL y Git, con habilidades demostradas en el desarrollo de modelos analíticos y aplicaciones.
  • Amplio conocimiento de bases de datos relacionales y no relacionales, así como experiencia en procesamiento de datos (ETL).
  • Profundo conocimiento en machine learning, feature engineering, reducción de dimensiones, estadística avanzada y optimización.
  • Inglés avanzado.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Send CV through getonbrd.com.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3700 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply directly on the original site at Get on Board.

Responsabilidades del Cargo

    • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
    • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
    • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
    • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
    • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Requisitos del Cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Consideración

Favor considerar adjuntar cv en Ingles actualizado al momento de postular

Beneficios

    • Un entorno de colaboración y rápido movimiento
    • Formar parte de una empresa internacional con sede en Estados Unidos
    • Asignación de reembolso por aprendizaje y desarrollo
    • Remuneración competitiva y oportunidades de promoción profesional y personal
    • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
    • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst – Digital Analytics & BI
  • WiTi
  • Montevideo &nbsp Santiago (Hybrid)
JavaScript Python Analytics SQL

WiTi es una empresa chilena de tecnología con presencia en Chile, Uruguay y Colombia, dedicada a la innovación en software y soluciones tecnológicas. Formamos parte de un equipo que presta servicios a clientes de primer nivel y trabajamos con un enfoque ágil para impulsar soluciones de analítica digital y BI en grandes retailers con operaciones en múltiples países de Latinoamérica. El proyecto actual se centra en analizar el comportamiento de usuarios en canales digitales (Web y App) para optimizar la experiencia de compra de millones de clientes a través de e-commerce. El Business Analyst reporta al equipo de Digital Analytics & BI y colabora con equipos de desarrollo, marketing y producto para asegurar que las estrategias de medición sean correctas, que el tagging y los pixeles se implementen adecuadamente y que existan dashboards útiles y accionables.

Job source: getonbrd.com.

Funciones y responsabilidades

  • Generar documentos de marcaje basados en estrategias de medición para equipos de desarrollo.
  • Gestionar y hacer seguimiento del tagging con equipos técnicos y proveedores externos cuando aplique.
  • Implementar tagging y píxeles usando Google Tag Manager (GTM) para Web y App.
  • Analizar datos para identificar quiebres en la experiencia y proponer mejoras concretas.
  • Crear dashboards y visualizaciones sobre el comportamiento de usuarios en Web y App para soportar la toma de decisiones.
  • Realizar seguimiento al embudo de compra en distintos e-commerce y monitorizar KPIs de conversión y retención.
  • Buscar proactivamente oportunidades de mejora y priorizar iniciativas en colaboración con stakeholders.
  • Realizar QA continuo del marcaje para garantizar datos precisos y confiables.

Descripción y requisitos

Buscamos un Business Analyst con al menos 1 año de experiencia en roles similares, orientado a análisis de experiencia de usuario y medición de datos en entornos de retail y e-commerce. Requerimos conocimiento intermedio de Google Analytics, Google Tag Manager, BigQuery y Looker, además de SQL a nivel intermedio, todo lo anterior es EXCLUYENTE. Se valora un nivel de Inglés avanzado. Es deseable disponer de experiencia con JavaScript para GTM y Python.

El perfil ideal posee habilidad para trabajar de forma proactiva en un entorno ágil, capacidad de comunicar hallazgos de negocio a distintas audiencias y una mentalidad orientada a la mejora continua. Si te apasiona la analítica, la toma de decisiones basada en datos y quieres formar parte de un equipo dinámico, te invitamos a postularte.

Requisitos deseables

Conocimientos prácticos de JavaScript para GTM y Python para soporte de scripts de análisis y automatización de datos. Experiencia en creación de dashboards avanzados y storytelling de datos para stakeholders de negocio. Capacidad de trabajar con datasets grandes y complejos, optimización de consultas en BigQuery y comprensión de modelos de atribución. Buenas habilidades de comunicación en español e inglés, y experiencia previa trabajando en contextos multicanal (Web, App, Marketing).

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Git SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años liderando proyectos de desarrollo de software y servicios TI en Latinoamérica, busca incorporar un/a Data Engineer para trabajar en un proyecto de alto nivel tecnológico. El equipo participa en una fábrica de desarrollo de software y servicios de outsourcing para clientes de primer nivel. El rol ofrece la oportunidad de diseñar, construir y escalar soluciones de datos dentro de una organización consolidada, con presencia en Concepción y Santiago, y colaboración estrecha con equipos multidisciplinarios para impulsar la transformación digital.

Apply to this posting directly on Get on Board.

Qué harás

  • Participar en el diseño y mantención de pipelines de datos (ETL / ELT).
  • Trabajar con bases de datos relacionales y no relacionales.
  • Asegurar la ingesta y transformación de datos en batch y tiempo real.
  • Colaborar con equipos de negocio y tecnología para resolver problemas reales.
  • Aprender buenas prácticas de cloud, automatización y CI/CD.
  • Documentar, reportar avances y proponer mejoras continuas.

Requisitos y perfil

Formación en Ingeniería, Computación, Informática o carrera afín. Inglés avanzado (oral y escrito). Conocimientos base en SQL y bases de datos; Python para procesamiento de datos; conceptos de Data Warehouse y pipelines. Interés en herramientas como Airflow, DBT, AWS/Cloud, Git y CI/CD. Actitud proactiva, pensamiento analítico y ganas de crecer. No es requisito dominar todas las herramientas; valoramos el potencial y el compromiso con el aprendizaje. Altamente motivados por aprender en un entorno exigente pero formativo.

Deseables pero no requeridos

Experiencia previa en entornos de datos y proyectos de ingesta/transformación de datos; conocimientos de grandes volúmenes de información; exposición a arquitecturas en producción. Familiaridad con prácticas de seguridad y gobernanza de datos, así como metodologías ágiles. Disponibilidad para colaborar en un entorno híbrido y multicultural.

Qué ofrecemos

Proyecto estable en cliente de alto nivel tecnológico. Modalidad híbrida. Horario flexible: Lunes a jueves 08:30-18:00, Viernes 08:30-17:30. Aprendizaje continuo y crecimiento profesional real. Trabajo con tecnologías modernas y desafíos reales de negocio. Formación y desarrollo dentro de una empresa consolidada en Latinoamérica con más de 30 años de experiencia. Equipo multidisciplinario y apoyo técnico continuo desde la matriz en Santiago y otras operaciones. 😊

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data English Back-end

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

This job is exclusive to getonbrd.com.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Lead Cloud Data Engineer
  • Signant Health
Python SQL DevOps Virtualization

About Signant Health

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations, and reimagining the path to proof.

Where do you fit in?

As a Lead Cloud Data Engineer at Signant Health, you will play a pivotal role in architecting and optimizing our data infrastructure to drive innovative analytics and data products.

This job is exclusive to getonbrd.com.

Job functions

-Designing and developing high-level technical architectures for both streaming and batch processing systems to ensure scalability and efficiency.
-Creating reusable components, frameworks, and libraries at scale to empower analytics data products and accelerate development.
-Conducting proof-of-concepts (POCs) on emerging technologies and architectural patterns to stay ahead of industry trends.
-Collaborating with business and technology stakeholders to design and implement product features that align with strategic goals.
-Proactively identifying and resolving data management issues to enhance data quality and reliability.
-Cleaning, preparing, and optimizing large-scale data for seamless ingestion and consumption across platforms.
-Leading the implementation of new data management projects and restructuring existing data architectures for improved performance.
-Developing complex automated workflows and routines using advanced workflow scheduling tools.
-Establishing continuous integration, test-driven development, and production deployment frameworks to streamline delivery.
-Conducting collaborative reviews of designs, code, test plans, and dataset implementations to uphold data engineering best practices.
-Analyzing and profiling data to inform the design of scalable, high-performance solutions.
-Troubleshooting complex data issues through root cause analysis to resolve product and operational challenges preemptively.
-Partnering closely with product management to translate business requirements into actionable epics and deliverables.

Qualifications and requirements

-Proven experience leading development efforts and mentoring junior developers.
-Hands-on experience with AWS or Azure cloud platforms.
-Proficiency in Python for data processing and automation.
-Advanced SQL skills for querying and manipulating large datasets.
-A DevOps mindset with expertise in end-to-end software development practices.
-Experience with data movement using serverless technologies.

Desirable skills

-Familiarity with Snowflake for cloud data warehousing.
-Knowledge of Kafka for real-time data streaming.
-Experience with AWS Glue for ETL processes.
-Proficiency in Oracle or SQL Server databases.
-Background in API integration for seamless data connectivity.
-Hands-on experience with CI/CD automation tools like Jenkins.

Conditions

Pet-friendly Pets are welcome at the premises.
Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Software Engineer I (DataOps)
  • Wherex
  • Santiago (Hybrid)
Python SQL NoSQL Virtualization

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Aporta valor real en una célula de alto rendimiento con herramientas de vanguardia. Crece con profesionales especializados y conviértete en un profesional más completo en un entorno desafiante.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!

Apply without intermediaries from Get on Board.

Job functions

- Diseñar, construir y mantener pipelines de datos robustos y eficientes, que permitan la recolección, transformación y carga de datos desde múltiples fuentes internas y externas.
- Facilitar la generación de insights accionables mediante la entrega oportuna de datos confiables y enriquecidos para análisis de negocio.
- Implementar y optimizar modelos de almacenamiento (data lakes, data warehouses, bases relacionales y no relacionales), asegurando un balance entre performance, costo y escalabilidad.
- Monitorear continuamente los flujos y procesos automatizados, detectando y comunicando incidencias oportunamente para mantener una operación confiable.
- Garantizar la calidad de los datos, diseñando validaciones, controles y tests automáticos que aseguren la integridad, completitud y consistencia de la información.
- Aplicar estándares técnicos y de gobierno de datos, velando por la trazabilidad, documentación y cumplimiento de políticas de seguridad y privacidad.
- Colaborar activamente con analistas, científicos de datos y otras áreas de producto, entendiendo sus necesidades y generando soluciones que faciliten la toma de decisiones.
- Participar en ceremonias ágiles y espacios de coordinación técnica, asegurando el alineamiento con stakeholders y contribuyendo al trabajo colaborativo.
- Buscar continuamente oportunidades de mejora en herramientas, procesos y performance, priorizando soluciones reutilizables, escalables y orientadas a la eficiencia del equipo.
- Documentar de forma clara los pipelines, estructuras y decisiones técnicas, promoviendo la transferencia de conocimiento y mantención futura.

Qualifications and requirements

- Ingeniero Civil Industrial, Ingeniero Civil Informático o Ingeniero en Computación.
- Al menos 1 año de experiencia en roles de ingeniero de datos.
- Experiencia en: Python, bases de datos SQL y no relacionales (Mongo).
- Deseable experiencia trabajando con AWS o Azure.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
SQL Business Intelligence Virtualization Amazon Web Services
BC Tecnología, una consultora de TI especializada en servicios IT y soluciones de negocio, busca un Data Engineer para un proyecto híbrido ubicado en Las Condes, Santiago. El/la profesional se integrará a un equipo de BI/Analytics para desarrollar, optimizar y mantener soluciones de datos en entornos analíticos, trabajando con clientes de alto nivel en sectores como finanzas, seguros, retail y gobierno. El proyecto implica colaborar con equipos de BI, Analytics y TI, contribuuyendo a la implementación de pipelines de datos, modelado y generación de reports y dashboards de valor estratégico.

This job offer is available on Get on Board.

Funciones del rol

  • Desarrollar y optimizar consultas y modelos en SQL Server para soportar reporting analítico.
  • Diseñar, implementar y mantener pipelines de datos, integrando fuentes en plataformas en la nube (AWS, Azure o GCP).
  • Desarrollar y mantener reportes y dashboards en MicroStrategy para usuarios de negocio.
  • Colaborar con equipos de BI, Analytics y TI para entender requerimientos y entregar soluciones eficientes.
  • Identificar mejoras de rendimiento, escalabilidad y calidad de datos; aplicar buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Al menos 3 años de experiencia como Data Engineer o BI Engineer.
  • Experiencia comprobable en SQL Server y MicroStrategy.
  • Experiencia trabajando con alguna nube (AWS, Azure o GCP).
  • Capacidad para trabajar en entornos colaborativos, orientado a resultados y con buena comunicación con stakeholders.
  • Conocimiento en conceptos de modelado de datos, extracción, transformación y carga (ETL/ELT) y buenas prácticas de calidad de datos.

Skills and assets

  • Certificaciones en SQL Server, Data Platform o tecnologías de nube asociadas.
  • Con experiencia en herramientas de visualización y dashboards además de MicroStrategy.
  • Conocimientos de Python o lenguajes de scripting para transformaciones de datos.
  • Actitud proactiva, pensamiento analítico y capacidad para trabajar de forma autónoma en entornos dinámicos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • Talana
  • Santiago (Hybrid)
Java Python SQL Erlang

En Talana, buscamos un Data Engineer que diseñe, implemente y optimice una arquitectura de datos escalable, segura y de alta disponibilidad para transformar datos crudos en insights confiables. El objetivo fundamental es transformar datos crudos provenientes de diversas fuentes en activos de datos listos para el análisis, asegurando la excelencia operativa y la automatización total del ciclo de vida del dato mediante prácticas de DataOps.

Apply from getonbrd.com.

Funciones y responsabilidades

  • Diseñar y desplegar pipelines ETL/ELT robustos en GCP para centralizar datos de toda la organización.
  • Gestionar Infraestructura como Código (IaC) con Terraform para reproducibilidad, trazabilidad y control de costos.
  • Optimizar BigQuery mediante particionamiento, modelos de datos y técnicas de costo-efectividad para maximizar ROI por consulta.
  • Configurar orquestación de flujos con Dataflow y garantizar la frescura de los datos para tableros de control listos para las reuniones matutinas.
  • Implementar políticas de IAM, cifrado y gobernanza para mantener un Data Lake seguro y conforme a estándares internacionales.
  • Configurar monitoreo proactivo y alertas para detección de anomalías y mejora de la confiabilidad en tiempo real.
  • Colaborar con SRE y equipos de negocio para entregar soluciones que añadan valor inmediato.

Requisitos y perfil buscado

  • Formación: Ingeniería Civil/Informática o carreras afines.
  • Experiencia: mayor a 3 años en roles de ingeniería de datos, con al menos 1 año en nivel semi senior.
  • Conocimientos técnicos: SQL y Python a nivel avanzado; experiencia con Terraform; conocimiento de GCP (preferible) o AWS. Deseables: Apache Kafka, Apache Beam, Apache Iceberg. Inglés técnico suficiente para lectura de textos técnicos.
  • Competencias: pensamiento analítico, enfoque en calidad de datos, capacidad para trabajar en entornos colaborativos y orientados a resultados.

Deseables

Experiencia en migraciones de datos a Data Lakehouse, experiencia con orquestación avanzada, y habilidades para diseñar arquitecturas de datos que soporten dashboards y métricas en tiempo real. Conocimiento práctico de seguridad de datos, gobernanza y cumplimiento de normativas.

Beneficios

  • 💸 Ajuste de renta por UF cada 3 meses, sin tope
  • 🏝️ 5 Talana Days: te regalamos 5 días libres al año
  • 🏡 Trabajo híbrido
  • 🏥 Seguro complementario de salud y dental
  • 💰 Aguinaldos fiestas patrias y Navidad
  • 💻 Te pasamos todos los implementos de trabajo
  • 😎 Dress Code 100% flexible
  • 👨🏻‍🍼 Postnatal paternal extendido

¡¡Muchas sorpresas más!!

"Todas las contrataciones están sujetas a la ley 21015. En Talana creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas"

Health coverage Talana pays or copays health insurance for employees.
Computer provided Talana provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Talana gives you paid vacations over the legal minimum.
Beverages and snacks Talana offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • TIMINING
  • Santiago (Hybrid)
Python SQL ETL API
En TIMining, nos proponemos ser el cerebro de centros de control minero, asegurando la disponibilidad y calidad de datos para nuestros productos. El/la profesional se integrará en proyectos orientados a la extracción, transformación y carga (ETL) de datos desde diversas fuentes hacia las bases de datos de TIMining. Su trabajo permitirá calibrar algoritmos y desarrollar automatizaciones internas que optimicen procesos, aportando valor tanto al cliente como al equipo interno. El objetivo es entregar soluciones de datos confiables y escalables que respalden operaciones mineras autónomas y remotas.

Send CV through Get on Board.

Principales funciones

  • Desarrollar, mantener y documentar scripts en Python y SQL (conectores) enfocados en ETL hacia las bases de datos de los productos TIMining.
  • Asistir y presentar en reuniones técnicas con clientes para solicitudes de accesos a fuentes de información y resolver dudas técnicas.
  • Calibrar algoritmos de los softwares de la empresa y proponer mejoras basadas en resultados de pruebas.
  • Desarrollar proyectos internos para automatizar tareas rutinarias y simplificar el día a día del equipo.
  • Validar resultados de pipelines ETL de forma cualitativa y cuantitativa, comparando con reportes operacionales de faenas.
  • Analizar y documentar fuentes de información por sistemas de gestión de flota (FMS), sistemas de navegación (MGS) y otras fuentes.
  • Identificar, evaluar y mitigar riesgos al diseñar pipelines ETL, considerando calidad de datos y contingencias.
  • Implementar estrategias proactivas para manejo de problemas y contingencias en entornos de datos.

Requisitos y perfil

Formación: Ingeniería en ciencia de datos, Ingeniería Civil o carrera afín, Ingeniería en computación o similar.
Experiencia: Mínimo 2 años en cargos similares y experiencia comprobable en implementación de pipelines ETL.
Habilidades técnicas: Python y SQL avanzado; experiencia en consultas a APIs; dominio de bases de datos y herramientas de Google Suite y Office.
Idiomas: Español nativo. Inglés upper-intermediate deseable.
Perfil: Capacidad para trabajar de forma autónoma y en equipo, con habilidades analíticas y de resolución de problemas. Interés en proyectos tecnológicos y conocimiento de la industria minera a cielo abierto y sus desafíos operativos es deseable. Conocimientos en arquitecturas en la nube son valorados.

Requisitos deseables

Experiencia adicional en implementación de proyectos tecnológicos, conocimiento de la industria minera y sus operaciones, y experiencia con arquitecturas cloud.

Beneficios y cuándo aplicar

Ofrecemos un entorno enfocado a innovación en la industria minera, con oportunidades de desarrollo profesional y trabajo en equipo multidisciplinario. Si cumples con el perfil, te invitamos a formar parte de TIMining y contribuir a la transformación digital de operaciones mineras.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

© Get on Board.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Apply to this job through Get on Board.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

VIEW JOB APPLY VIA WEB
Gross salary $3500 - 5200 Full time
Senior Data Engineer – AI Data Infrastructure
  • Vequity
Python SQL JSON Cloud Computing

Vequity is building the world’s most robust, contextualized buyer intelligence network for investment banks, private equity firms, and strategic acquirers. Our platform currently houses over 1.5 million buyer profiles with approximately 100 structured and inferred data fields per profile. We leverage proprietary AI agents to continuously enrich, infer, and structure buyer intelligence at scale. As a Senior Data Engineer, you will own the architecture, quality, and scalability of our data ecosystem—from ingestion and cleaning to inference and output generation. You will partner with AI, product, and engineering teams to deliver data APIs and feeds that power our platform's decision-support capabilities. Your work will directly impact data reliability, operational efficiency, and the precision of buyer attributes used across our customers.

Apply to this job opportunity at getonbrd.com.

Key Responsibilities

Multi-Source Data Architecture

  • Work with systems handling multiple write paths: external providers, LLM hygiene agents, and customer-claimed edits
  • Define standards for data versioning, lineage, and observability across pipelines


Entity Lifecycle & Master Data Management

  • Handle entity lifecycle complexity: mergers, acquisitions, spin-offs, rebranding, and temporal relationship changes
  • Design entity resolution systems using deterministic blocking (fuzzy matching, location) combined with LLM-based evaluation for match decisions
  • Build confidence scoring models and surface low-confidence cases for human review

Machine Learning & Matching Systems

  • Work with embeddings infrastructure: vector generation, retrieval optimization, and quality measurement
  • Optimize semantic search pipelines including embedding strategies, namespace design, and reranking
  • Establish evaluation frameworks to measure model performance against human judgment

Collaboration & Team Development

  • Educate and mentor the engineering team on data best practices, patterns, and common pitfalls
  • Lead continuous improvement of the data infrastructure roadmap

Relationship & Graph Modeling

  • Design data models for complex relationships: parent/subsidiary hierarchies, PE firm → portfolio company chains
  • Evaluate and implement graph query capabilities (Apache AGE, Neo4j, or optimized Postgres patterns) for relationship traversal that semantic search cannot address

Data Quality, Testing & Operations

  • Build quality-control layers including confidence scoring, human-in-the-loop validation, and automated anomaly detection
  • Implement testing strategies including data contracts, pipeline unit tests, and integration testing
  • Build proactive monitoring, alerting, and runbooks for data health issues
  • Ensure compliance with data governance, privacy, and security standards

Description

  • 5+ years in data engineering with strong Python (Pydantic a bonus), SQL, and cloud data stacks (including GCP)
  • Experience with orchestration frameworks (Airflow, Dagster, Prefect) and/or data platforms (Databricks)
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of embedding-based retrieval
  • Excellent communication and cross-team collaboration skills

Desirable

  • Prior experience with Machine Learning algorithms / semantic search
  • Prior experience with entity resolution or master data management — you understand why matching company records is fundamentally hard
  • Familiarity with graph databases or graph query patterns (Neo4j, Apache AGE, recursive CTEs) for complex entity relationships
  • Experience with event sourcing or append-only architectures for audit trails and data replay
  • Background in investment data, market intelligence, or deal sourcing platforms
  • Familiarity with agent orchestration tools (LangChain, LlamaIndex) and data quality frameworks (dbt, Great Expectations)
  • Experience as an early/first data hire at a startup
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of prompt engineering, MCP Servers, function calling, and embedding-based retrieval

Benefits

Competitive compensation and Paid Time Off (PTO).

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Applications: getonbrd.com.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3200 - 3500 Full time
Ingeniero/a de Datos Inglés Avanzado
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Agile SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años en el mercado latinoamericano, busca un/a Ingeniero/a de Datos con inglés avanzado para planificar, ejecutar y reportar proyectos de datos de diverso alcance. El rol implica trabajar de forma autónoma con información compleja, proponiendo soluciones sólidas a problemas de negocio. La posición forma parte de nuestro equipo de ingeniería de datos, colaborando con clientes de alto perfil y con una visión de transformación digital que integra tecnologías de nube, analítica y automatización.

Apply directly on Get on Board.

Funciones y Responsabilidades

  • Diseñar, construir y mantener pipelines de datos utilizando SQL, NoSQL (MySQL, PostgreSQL, MongoDB, Redshift, SQL Server) y herramientas de orquestación.
  • Desarrollar procesos de ETL/ELT y soluciones de Data Warehouse para ingesta y transformación de datos a escala empresarial.
  • Desarrollar y mantener código en Python para procesamiento y automatización de datos.
  • Orquestar flujos de datos con herramientas como Apache Airflow y DBT.
  • Gestión de ingesta en tiempo real, incluyendo etiquetado web y plataformas de datos en tiempo real (p. ej., Snowplow, Google Tag Manager).
  • Definir y mantener pipelines CI/CD con herramientas como Bitbucket y Jenkins.
  • Aplicar metodologías ágiles: gestión de backlog, seguimiento de proyectos e informes (idealmente con Jira).
  • Trabajar en entornos cloud (AWS) y big data, con experiencia en PySpark u otras tecnologías para ingeniería y despliegue de datos.
  • Conocimiento de herramientas complementarias (deseables): Digdag, Embulk, Presto.
  • Capacidad para comprender el negocio y aportar en analítica de marketing/Martech y/o Adtech como valor agregado.
  • Aplicación de modelos de machine learning en plataformas de datos de clientes (deseable).
  • Conocimientos de publicidad programática como plus.
  • Gestión de bloques de datos y calidad de datos, asegurando trazabilidad y gobernanza.
  • Colaboración con equipos multidisciplinarios y apoyo a stakeholders internos y externos.

Requisitos y Perfil

Buscamos un/a Ingeniero/a de Datos con experiencia sólida en desarrollo e implementación de soluciones de datos complejas. Debe demostrar capacidad para planificar, ejecutar y comunicar avances de proyectos de datos en entornos dinámicos, con especial atención a la calidad de datos, escalabilidad y rendimiento. Se valorará experiencia en proyectos de Martech/Adtech y en entornos de nube. Se requiere habilidad para trabajar de forma autónoma, resolver problemas y colaborar de manera efectiva con equipos multifuncionales.
Habilidades técnicas esenciales: dominio de SQL y NoSQL, experiencia con Data Warehouse y ETL/ELT, Python para procesamiento, herramientas de orquestación (Airflow, DBT), ingestas en tiempo real, CI/CD (Bitbucket, Jenkins), metodologías ágiles (Jira), y experiencia en AWS o plataformas similares. Se valora conocimiento en herramientas como Snowplow, Google Tag Manager, Digdag, Embulk y Presto, así como experiencia en marketing analytics y/o ML en datos de clientes.
Habilidades blandas: mentalidad de ingeniero/a, capacidad de resolución de problemas, buen colaborador/a en equipo, orientación al aprendizaje continuo y crecimiento profesional, comunicación clara y capacidad para gestionar prioridades en entornos con información parcial.

Competencias Deseables

  • Experiencia en publicidad programática y plataformas de publicidad digital.
  • Conocimientos avanzados en ML aplicado a datos de clientes y casos de uso de marketing automation.
  • Experiencia con Digdag, Embulk o Presto; familiaridad con pipelines complejos y orquestación multicampo.
  • Conocimiento de gobernanza de datos y buenas prácticas de seguridad y cumplimiento.

Beneficios y Condiciones

Ofrecemos contrato por proyecto con posibilidad de continuidad, en una empresa consolidada en Latinoamérica con más de tres décadas de experiencia. Forma parte de un equipo multidisciplinario, con comunicación directa con la matriz y operaciones en Santiago y otras ciudades, fomentando desarrollo profesional y crecimiento. Modalidad de trabajo híbrida con proyección a 100% presencial, horario habitual de lunes a jueves, con viernes reducido, y posibilidad de ajuste según proyecto. Ubicaciones en Concepción y Santiago, con oportunidades de desarrollo y aprendizaje continuo. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

Applications are only received at getonbrd.com.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Puerto Montt (In-office)
Python Data Analysis Business Intelligence Artificial Intelligence

Duoc UC Sede Puerto Montt, perteneciente a la Escuela de Informática y Telecomunicaciones, busca incorporar docentes para la asignatura de Minería de Datos. El objetivo es liderar el proceso de enseñanza y aprendizaje siguiendo el modelo educativo institucional, alineado a sus valores y marco disciplinar. El rol requiere aprovechar la formación y experiencia profesional para impactar positivamente en el aprendizaje de los estudiantes, contribuyendo al desarrollo de técnicas de análisis de datos y a la generación de insights relevantes a partir de grandes conjuntos de datos.

El/la docente trabajará en un entorno colaborativo, con equipos multidisciplinarios, y participará en procesos de desarrollo docente y actualización tecnológica para fortalecer las competencias de los estudiantes en Minería de Datos, Business Intelligence y análisis para toma de decisiones.

Find this job and more on Get on Board.

Funciones

  • Planificar, impartir y evaluar cursos y módulos relacionados con Minería de Datos, análisis de datos y herramientas de data science.
  • Diseñar actividades prácticas, proyectos y casos de negocio que conecten la teoría con la solución de problemas reales.
  • Guiar a los estudiantes en la explotación de grandes volúmenes de datos y en la generación de observaciones e insights accionables.
  • Participar en iniciativas de desarrollo docente, actualización tecnológica y mejora continua de la asignatura.
  • Dirigir, supervisar y evaluar trabajos de curso, proyectos finales y prácticas profesionales, promoviendo buenas prácticas de análisis de datos y ética.
  • Asesorar y orientar a estudiantes en su progreso académico y en el desarrollo de habilidades técnicas y blandas relevantes para la industria.

Descripción

Se requiere un/a Ingeniero/a en Informática, Ejecución Informática o afín, con al menos 2 años de experiencia en análisis y diseño de software, manejo de modelos de datos y experiencia en técnicas de Minería de Datos e Inteligencia de Negocios. Debe haber trabajado con grandes volúmenes de datos y ser capaz de documentar observaciones e indiciar insights relevantes. Disponibilidad para jornada diurna y vespertina.

Conocimientos deseables incluyen manejo de Python para análisis de datos, experiencia en machine learning y minería de datos. Se valorará formación complementaria (diplomados o cursos) en estas áreas. Disposición para revisar previamente materiales institucionales y videos requeridos como parte del proceso de incorporación.

Requisitos deseables

  • Formación: Se requiere un Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en: Análisis y diseño de software, empleando modelos de datos. Experiencia con técnicas de Minería de Datos. Experiencia en áreas de Inteligencia de Negocio. Que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Lunes: 19:01 a 21:10 Miércoles: 16:41 a 18:50/ Jueves: 11:31 a 13:40, 16:41 a 18:50 &20:31 a 22:30 Viernes: 11:31 a 13:40.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Beneficios

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Santiago (In-office)
Python Data Analysis SQL Artificial Intelligence
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. Nos enfocamos en formar técnicos y profesionales a través de 9 escuelas y más de 70 carreras vigentes, presentes en 18 sedes regionales. Nuestro equipo docente colabora en entornos multicisciplinarios y con enfoque en valores institucionales, buscando aportar al desarrollo económico de Chile mediante una educación de calidad y actualizada.

Exclusive offer from getonbrd.com.

Funciones y responsabilidades

  • Liderar el proceso de enseñanza/aprendizaje en la asignatura de Minería de Datos, alineada al modelo educativo y al marco valórico institucional.
  • Desarrollar unidades didácticas, planificaciones y recursos pedagógicos que favorezcan el aprendizaje activo (ABP) y proyectos aplicados.
  • Evaluar y retroalimentar a los estudiantes, contextualizando contenidos al mundo laboral y simulando entornos empresariales.
  • Trabajar en colaboración con equipos multidisciplinarios, integrando herramientas de análisis de datos, inteligencia de negocio y desarrollo de software.
  • Integrar tecnologías y prácticas actuales de minería de datos, analítica y visualización para generar insights relevantes.
  • Contribuir a la mejora continua de la calidad de la enseñanza y del desempeño estudiantil.

Requisitos y perfil buscado

Requisitos del perfil:

  • Formación: Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en Análisis y diseño de software, empleando modelos de datos, aplicación de técnicas de Minería de Datos, experiencia en áreas de Inteligencia de Negocio, que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Martes: 16:01 a 17:20/ Miércoles: 16:01 a 18:50/ Jueves: 19:01 a 21:10/ Viernes: 20:31 a 22:30.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Debe poseer competencias profesionales tales como:

  • Conocimiento en estadística para minería de datos.
  • Conocimientos en lenguaje de programación Python, librerías: numpy, pandas, sckit learn.
  • Habilidad y experiencia en análisis y diseño, empleando modelos de datos.
  • Experiencia con técnicas de Minería de Datos basado en metodología CRISP-DM.
  • Experiencia en áreas de Inteligencia de Negocio.
  • Conocimiento en estadística descriptiva e inferencial para minería de datos.

Competencias deseables

Conocimiento avanzado de Python y sus ecosistemas para ciencia de datos; experiencia adicional en SQL, bases de datos y visualización (por ejemplo, Power BI o Tableau). Certificaciones o cursos en ML/IA y minería de datos, así como experiencia de enseñanza en entornos universitarios o técnicos.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3400 Full time
Senior Data Engineer
  • Forest
  • Santiago (Hybrid)
Python PostgreSQL Git SQL

What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all customers free cycling minutes daily.

We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.

If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.

Please note: our company is based in the UK and has Chilean Founders.

*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

This job offer is on Get on Board.

About the Role

We are looking for a SeniorData Engineer with strong experience in database migrations, specifically moving large-scale datasets and pipelines from Postgres to Snowflake. You will design, build, and optimize migration workflows using Mage as our orchestration platform, while leveraging both AWS and GCP infrastructure.

This role is ideal for someone who knows how to work with complex schemas, high-volume data, and performance tuning, and who can drive a seamless migration with minimal downtime.

Migration & Pipeline Development

  • Lead the end-to-end migration of datasets, ETL jobs, and schemas from Postgres to Snowflake.
  • Design, build, and maintain data ingestion and transformation pipelines using Mage.
  • Ensure data quality, consistency, and performance across the migrated ecosystem.

Architecture & Optimization

  • Optimize query performance and warehouse usage in Snowflake (clustering, micro-partitioning, caching, etc.).
  • Work with cloud infrastructure on AWS and GCP, integrating pipelines with storage (S3/GCS), compute, IAM, networking, and secret management.
  • Create scalable, cost-efficient data models and workflows.

Tableau Integration & Support

  • Support the migration of Tableau data sources from Postgres connections to Snowflake connections.
  • Work with the Data team to validate Tableau dashboards after migration.
  • Optimize Snowflake models and queries used by Tableau to ensure performance and cost efficiency.
  • Help redesign or refactor extracts, live connections, and published data sources to align with best practices.

Collaboration & Delivery

  • Partner with Data, Product, and Engineering to understand data needs and ensure smooth transition.
  • Document migration steps, architecture decisions, and pipeline designs.
  • Troubleshoot and resolve issues related to performance, data inconsistencies, and pipeline failures.

Requirements

Technical Skills

  • 5+ years of experience in Data Engineering or similar roles.
  • Strong expertise with Postgres (schema design, query tuning, replication strategies).
  • Hands-on experience with Snowflake (Snowpipe, Tasks, Streams, Warehouses).
  • Solid experience orchestrating pipelines using Mage (or Airflow/Prefect with willingness to learn Mage).
  • Strong SQL skills and Python.
  • Experience working with AWS and GCP
  • Familiarity with CI/CD pipelines and Git-based workflows.

Optionals

  • Experience migrating large datasets or re platforming data stacks.
  • Experience implementing security and governance frameworks.
  • Strong communication and documentation habits.
  • Ability to work independently and drive projects from start to finish.
  • Problem-solver with a focus on reliability and scalability.
  • Comfortable working in a fast-paced, cloud-native, multi-cloud environment.

What we offer

  • Opportunity to design and influence the core data architecture.
  • Flexibility, learning resources, and ownership over high-impact projects.
  • Play a key role in the transformation of sustainable urban mobility in our cities.
  • Competitive compensation plan with plenty of development opportunities.
  • Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.
  • Private Health Insurance plan.
  • 20 days holiday plus your birthday.
  • Work for an international company that has a link between Chile and the UK.
  • Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Forest pays or copays life insurance for employees.
Meals provided Forest provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Forest pays or copays health insurance for employees.
Dental insurance Forest pays or copays dental insurance for employees.
Computer provided Forest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Forest gives you paid vacations over the legal minimum.
Beverages and snacks Forest offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $3600 - 4500 Full time
Senior Data Scientist (Santiago)
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Machine Learning
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply exclusively at getonbrd.com.

Lo que harás

  • Diseñar e implementar estrategias para optimizar el motor de verificación de antecedentes a gran escala, gestionando costo, tiempo de respuesta y precisión.
  • Desarrollar modelos de detección de anomalías y antifraude para garantizar la integridad de la plataforma antes de generar informes.
  • Definir la hoja de ruta técnica del producto principal, traduciendo objetivos empresariales en problemas matemáticos y soluciones en código.
  • Aplicar GenAI y LLMs para acelerar la exploración de datos, prototipar modelos y automatizar flujos de trabajo repetitivos.
  • Colaborar con equipos de ingeniería y producto en EE. UU. para alinear requisitos y entregar mejoras a escala global.
  • Participar en discusiones técnicas con partes interesadas de nivel VP, comunicando conceptos complejos de manera clara.

Qué debes traer

  • Inglés fluido (stakeholders en USA y todas las entrevistas técnicas serán en inglés)
  • Más de 5 años de experiencia en Data Science, Data Analytics o ML, preferentemente en entornos B2B SaaS o de rápido crecimiento.
  • Formación en Informática, Ingeniería o Ciencia de Datos; equivalente bienvenido.
  • Dominio sólido de Python y SQL; conocimiento de prácticas modernas de MLOps y CI/CD de datos.
  • Capacidad para comunicar ideas técnicas complejas en inglés y español.
  • Experiencia práctica con GenAI para exploración de datos y automatización de flujos de trabajo. Independencia, orientación a resultados, y habilidad para trabajar en entornos colaborativos y dinámicos.

Desirable

  • Valorable experiencia trabajando en centros de innovación, aceleración de proyectos a través de técnicas de optimización, y exposición a sistemas de verificación de identidad a gran escala.
  • Se apreciará formación adicional en ciencia de datos aplicada a ambientes regulados y cumplimiento.
  • Fuerte capacidad analítica, curiosidad técnica, y enfoque proactivo para resolver problemas complejos.

Beneficios

  • Trabajo híbrido en Santiago: 3 días en oficina (metro Tobalaba) y 2 días desde casa.
  • Contrato indefinido y salario competitivo en CLP.
  • Seguro médico, de vida y dental para ti y tu familia.
  • Bonificación anual de 3,000 USD para formación y desarrollo.
  • RSU
  • 5 días adicionales de vacaciones.
  • Beneficios de oficina, snacks y bebidas, y un entorno de crecimiento internacional.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $4000 - 4500 Full time
Data Engineering Lead
  • Grupo Mariposa
Python Analytics SQL Erlang
Sobre la empresa
Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos, fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y alianzas estratégicas con PepsiCo y AB InBev. Nos organizamos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos que se sumen a nuestra estrategia de expansión y crecimiento, compartiendo nuestros anhelos y aportando su visión para lograr grandes resultados.
Buscamos el "Data Engineering Lead" que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco en Azure y soporte en Google Cloud Platform (GCP). Este rol define, lidera y escala la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable para analítica avanzada, BI y productos digitales en múltiples países.

Apply directly on the original site at Get on Board.

Objetivo del rol

Buscamos incorporar un Data Engineering Lead que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco principal en Azure y soportecomplementario en Google Cloud Platform (GCP).

Será responsable de definir, liderar y escalar la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable, capaz de soportar analítica avanzada, BI y productos digitales en múltiples países. Este rol combina liderazgo técnico, arquitectura de datos multi-cloud, gobierno, y gestión de equipos, actuando como habilitador clave de la estrategia data-driven de la organización.

Responsabilidades clave

1. Arquitectura de Datos Multi-Cloud (Azure 60% / GCP 40%)

  • Definir y evolucionar una arquitectura Lakehouse corporativa (Bronze / Silver / Gold) en entornos Azure y GCP.
  • Liderar el diseño e implementación de soluciones escalables utilizando principalmente Azure, incluyendo:
    • Azure Data Lake Storage Gen2 (Data Lake)
    • Azure Databricks (Spark / Lakehouse)
    • Azure Data Factory (ingesta y orquestación)
    • Azure Synapse / Azure SQL / Delta Lake (cuando aplique)
  • Integrar y operar soluciones complementarias en GCP, tales como:o Cloud Storage
    • BigQuery
    • Dataflow / Apache Beam
    • Dataproc (Spark administrado)
    • Vertex AI
  • Definir estándares de naming, particionamiento, versionado, performance y seguridad comunes entre nubes.

2. Gobierno, Calidad y Seguridad de Datos

  • Garantizar datos confiables, trazables y gobernados en toda la plataforma.
  • Diseñar e implementar prácticas de:
    • Data Quality (DQ)
    • Data Lineage
    • Data Catalog / Business Glossary
  • Implementar controles de seguridad y gobierno mediante:
    • Azure Purview / Microsoft Fabric governance (cuando aplique)
    • Unity Catalog (Databricks)
    • GCP Dataplex / Data Catalog
  • Asegurar cumplimiento de políticas de acceso, privacidad y auditoría.

3. Orquestación, Automatización y CI/CD

  • Liderar la orquestación de pipelines ETL/ELT usando:
    • Azure Data Factory
    • Azure Databricks Jobs
    • Cloud Composer (Airflow)
  • Garantizar pipelines:
    • Idempotentes
    • Reproducibles
    • Versionados
  • Implementar CI/CD para infraestructura y data pipelines usando:
    • Terraform / IaC
    • GitHub Actions / Azure DevOps
  • Supervisar despliegues seguros en ambientes dev / qa / prod.

4. Liderazgo de Equipos y Stakeholders

  • Liderar y mentorizar equipos de Data Engineers en distintos países.
  • Definir estándares de ingeniería y promover buenas prácticas de desarrollo (Python, SQL, Spark).
  • Actuar como punto de enlace entre:
    • Negocioo Analytics & Data Science
    • BI
    • Cloud & Security
    • Proveedores tecnológicos
  • Traducir necesidades de negocio en soluciones técnicas escalables y sostenibles.

5. Optimización de Costos y Performance

  • Optimizar costos y performance en:
    • Azure Databricks y ADLS
    • BigQuery y Dataflow
  • Diseñar estrategias de:
    • Particionado y clustering
    • Gestión de workloads
    • Control de consumo y costos
  • Promover mejora continua de la arquitectura y tooling.

Requisitos

Formación

  • Licenciatura o Maestría en Ingeniería, Sistemas, Computación, Data Science o carreras afines.

Experiencia

  • +7 años de experiencia en Ingeniería de Datos.
  • Experiencia liderando plataformas de datos en Azure (imprescindible).
  • Experiencia comprobada en GCP (deseablem y plus).
  • Dominio de arquitecturas Lakehouse / Medallion (Bronze / Silver / Gold).
  • Experiencia sólida en:
    • SQL avanzado
    • Python
    • Spark / Databricks
  • Experiencia liderando equipos técnicos.

Deseable

  • Experiencia en CPG / Retail / Consumo Masivo.
  • Conocimiento de Data Governance y Data Mesh (conceptual).
  • Experiencia en entornos multi-país y multi-negocio.

Retos del puesto

  • Escalar una plataforma de datos multi-cloud a nivel regional.
  • Estandarizar arquitectura y prácticas entre Azure y GCP.
  • Garantizar calidad, seguridad y gobierno en entornos complejos.
  • Balancear velocidad, performance y costos.
  • Habilitar datos confiables para analítica avanzada y productos digitales.

Health coverage Grupo Mariposa pays or copays health insurance for employees.
Computer provided Grupo Mariposa provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Grupo Mariposa gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Analytics Data Analysis Excel

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

This job is original from Get on Board.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel

BC Tecnología es una consultora de TI que diseña soluciones para clientes en sectores como finanzas, seguros, retail y gobierno. En este rol, te integrarás a un equipo de Risk Operations enfocado en generar y mantener un ecosistema de procesos de monitoreo y alertas para detectar conductas fraudulentas o riesgosas de Sellers activos en el Marketplace. Trabajarás en proyectos estratégicos de alto impacto, con coordinación de requerimientos a nivel local e internacional, buscando mitigar riesgos operacionales y reputacionales mediante soluciones basadas en datos y automatización de procesos.

Colaborarás con áreas de negocio para traducir necesidades en soluciones analíticas; levantarás, documentarás y mantendrás procesos automáticos; y contribuirás a la mejora continua de procesos operacionales a través de insights basados en datos y reportes periódicos. Tendrás la oportunidad de participar en un entorno colaborativo, con cultura de aprendizaje y enfoque en crecimiento profesional.

Apply to this job from Get on Board.

Funciones y responsabilidades clave

  • Generar y mantener un ecosistema de procesos de monitoreo y alertas para detección de incumplimientos y comportamientos riesgosos.
  • Analizar grandes volúmenes de datos para diseñar flujos automáticos de alertas, reportes y monitoreos orientados a la detección de riesgos.
  • Elaborar reportes periódicos y análisis ad-hoc que permitan identificar, priorizar y accionar casos de riesgo.
  • Generar insights y recomendaciones accionables para la mejora continua de procesos operacionales.
  • Levantar, documentar y mantener los procesos automáticos implementados.
  • Gestionar proyectos de analítica de principio a fin, coordinando requerimientos con stakeholders locales e internacionales.
  • Comprender cómo interactúan las distintas áreas del negocio dentro del ecosistema digital y traducir necesidades en soluciones basadas en datos.
  • Utilizar estructuras de almacenamiento y herramientas de explotación de datos para apoyar la toma de decisiones.

Descripción y requisitos del rol

Buscamos un/una Analista de Datos con 2 a 4 años de experiencia en roles similares (Analítica, BI, Operaciones, Marketing o afín). Se valorará experiencia en Ecommerce. Requerimos dominio avanzado de SQL y nivel intermedio–avanzado de inglés. Se espera manejo avanzado de al menos una herramienta de visualización/análisis de datos (Excel, Tableau, Power BI o Data Studio). Experiencia en al menos un lenguaje de programación para análisis de datos (preferible Python; R u otro también válido). Conocimientos en plataformas Cloud, idealmente Google Cloud Platform. Conocimientos en Prompt Engineering serán valorados. Se ofrece modalidad de trabajo híbrida y contrato a plazo fijo con proyección a indefinido según desempeño. Participarás en proyectos estratégicos y en un entorno orientado a la toma de decisiones basada en datos.

Requisitos deseables

Experiencia adicional en herramientas de analítica avanzada, experiencia en entornos fintech o marketplaces, capacidad de trabajar en entornos ágiles, habilidades de comunicación para colaborar con stakeholders diversos y experiencia en modelado de datos y gobernanza de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Ingeniero Gobierno de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Data Science Cloud Data governance
Genesys Tecnologías de Información SpA es una empresa regional con más de 30 años de experiencia en desarrollo de software y servicios TI. Nos especializamos en soluciones de privacidad, gestión de datos personales y gobernanza de datos dentro de entornos corporativos regulados. El/la candidato/a se integrará a un equipo enfocado en diseñar, implementar y operar soluciones de privacidad corporativas, asegurando su correcta integración con el ecosistema tecnológico, cumpliendo requerimientos regulatorios y de negocio, y colaborando con proveedores y áreas técnicas para garantizar la protección y gestión adecuada de datos personales.

Send CV through getonbrd.com.

Funciones principales

  • Gestión de datos personales y plataformas de privacidad, asegurando cumplimiento regulatorio y operación estable.
  • Configuración y administración de CAMP y matrices de riesgo (regulado y no regulado).
  • Implementación de búsqueda y detección de datos personales (InfoTypes) y mapeo de flujos de datos.
  • Integración de flujos para atención de derechos ARSOP (Acceso, Rectificación, Supresión, Portabilidad).
  • Gestión de puntos de captura de consentimiento (opt-in / opt-out) y modelado de datos técnicos.
  • Uso de SQL, Python y Google Cloud Platform (GCP); colaborar con equipos de datos y seguridad.
  • Conocimientos fundacionales en Gobierno de Datos y buenas prácticas de privacidad.

Requisitos y perfil

Buscamos un/a profesional proactivo/a y orientado/a a resultados, con experiencia en entornos corporativos y regulados. Se requiere capacidad para diseñar, configurar y operar soluciones de privacidad, así como para coordinar con proveedores y equipos internos. El/la candidato/a ideal posee experiencia en gestión de datos personales, herramientas de privacidad y gobernanza, y manejo técnico de bases de datos y plataformas en la nube. Se valorarán conocimientos en CDP Consent, gestión de incidentes en plataformas de privacidad y exposición previa a Warners. Se ofrece un contrato por proyecto con posibilidad de indefinido según desempeño, modalidad híbrida y horarios estandarizados.

Requisitos deseables

Experiencia con integración de plataformas de gestión de consentimientos (CDP Consent), manejo de incidentes en plataformas de privacidad y coordinación técnica con proveedores. Conocimiento inicial o exposición previa a Warners y experiencia en entornos corporativos regulados. Se valora autonomía, habilidades de comunicación, y capacidad para trabajar en equipos multidisciplinarios en un entorno dinámico.

Beneficios

Ofrecemos un contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con un equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el apoyo técnico. Jornada híbrida (horario de lunes a jueves 09:00-18:00 y viernes 09:00-16:00), con posibilidad de extensión según necesidades del negocio. Esperamos que te unas a nuestro equipo para crecer juntos! 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior de Data & Risk Ops
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel Marketing

En BC Tecnología, el rol se enfoca en diseñar y operar un ecosistema de alertas y monitoreo para detectar y mitigar de forma proactiva riesgos y fraudes en el Marketplace. Trabaja con datos multi-fuente para generar reportes, dashboards e insights accionables, apoyando la toma de decisiones del equipo de Risk Ops.
Incluye gestión end-to-end de proyectos, colaboración con equipos locales e internacionales, comunicación con stakeholders y documentación de procesos automatizados, con foco en analítica, automatización y gobernanza de datos para la mejora continua.

Find this job on getonbrd.com.

Principales funciones

  • Analizar datos y diseñar flujos automáticos que guíen la toma de decisiones entre áreas dentro de la empresa.
  • Gestionar proyectos de datos de principio a fin: levantamiento de requerimientos, desarrollo, validación y entrega de resultados.
  • Elaborar reportes y alertas que permitan monitorear casos de incumplimiento en el Marketplace y mitigar comportamientos de riesgo.
  • Generar insights y recomendaciones basadas en análisis ad-hoc para mejoras en procesos y herramientas.
  • Trabajar con distintas áreas para entender su interacción en el ecosistema digital y convertir insights en acciones de valor.
  • Conocer estructuras de almacenamiento de datos y herramientas disponibles para explotar la información y soportar la toma de decisiones.

Perfil y experiencia

Perfil profesional requerido:
  • Título de Ingeniería Civil Industrial, Ingeniería en Computación o Informática, o carrera afín.
  • 2-4 años de experiencia en roles similares (análisis en Operaciones, BI, Marketing, etc.).
  • Usuario avanzado en SQL (excluyente).
  • Inglés intermedio–avanzado (excluyente).
  • Usuario avanzado en al menos una herramienta de análisis/visualización: Excel, Tableau, Power BI, Data Studio (excluyente).
  • Experiencia en al menos un lenguaje para análisis de datos: Python (preferentemente), R, Julia, etc. (excluyente).
  • Conocimientos de plataformas Cloud, preferentemente Google Cloud Platform (no excluyente).
  • Conocimientos avanzados de Prompt Engineering (no excluyente).

Deseables

Se valorará experiencia en Ecommerce, capacidad para trabajar en entornos dinámicos de alto volumen de datos y habilidades de comunicación para interactuar con múltiples stakeholders a nivel internacional.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
Ingeniero de Datos
  • Coderslab.io
Python SQL Web server English
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
En esta ocasion estamos buscando incorporar un/a Ingeniero/a de Datos con experiencia en diseño, desarrollo y mantenimiento de pipelines de datos, capaz de trabajar con herramientas modernas del ecosistema analítico y de integración. El rol tendrá foco en la construcción de flujos de datos robustos, escalables y mantenibles, apoyando procesos de analítica, reporting y migraciones de datos

Send CV through getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener pipelines de datos utilizando Python, dbt y Airflow.
  • Implementar procesos de transformación y modelado de datos analíticos.
  • Orquestar flujos de datos asegurando confiabilidad y trazabilidad.
  • Colaborar en iniciativas de migración e integración de datos.
  • Asegurar calidad, consistencia y disponibilidad de la información.
  • Documentar procesos y buenas prácticas técnicas.

Requerimientos del cargo

  • Python para desarrollo de pipelines y lógica de transformación.
  • dbt para modelado, transformación y versionamiento de datos analíticos.
  • Apache Airflow para orquestación y scheduling de procesos de datos.
  • SQL avanzado para consultas, transformaciones y validaciones.
  • Inglés nivel B2 (capacidad para comunicación técnica).

Opcionales

  • Experiencia en migraciones de datos entre sistemas.
  • Experiencia en integraciones de datos desde múltiples fuentes.
  • Buen entendimiento de arquitecturas de datos modernas (ELT / Analytics Engineering).
  • Experiencia en entornos productivos y manejo responsable de cambios.

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Live Events Data Analyst (Latam)
  • JegyTix
Data Analysis Excel E-commerce Google Sheets

LOCATION: Remote - Latin America (LATAM) Only

IMPORTANT NOTE: This is a commercial decision-making role for a spreadsheet-heavy analyst. We have the data and the spreadsheets ready for you. We are looking for a “Human Algorithm” to interpret that data and take action on our investments.

Overview

We are a specialized secondary market ticketing company dedicated to data-driven inventory acquisition and long-term partnership development with teams and venues.

We are looking for a data-driven professional to lead our inventory acquisition strategy. The role consists in identifying market trends, analyzing historical demand, consumer behavior and scaling our footprint across the live events space.

This offer is exclusive to getonbrd.com.

Key Responsibilities

  • Market Analysis & Sourcing: Analyze historical sales data, venue seat maps and daily reports to identify buying opportunities and execute ticket purchases.
  • Investment Reporting: Calculate and report on key financial metrics including ROI, Net Profit Margins, and Break-Even Points for every potential ticket acquisition.
  • Portfolio Management: Monitor current inventory performance across secondary platforms and suggest price adjustments based on real-time supply changes.
  • Vendor Communication: Manage the 10% of the role focused on outreach (emailing/calling) sports teams or venues to execute wholesale ticket purchases and maintain professional partnerships.

Qualifications and Experience

We value analytical logic over specific industry experience. You are an ideal candidate if you possess:
  • Data Literacy & Navigation: Strong proficiency in Excel/Google Sheets. You can manipulate complex data sets to isolate high-ROI opportunities.
  • Financial Expertise: A strong grasp of key financial concepts including P&L, ROI, and Gross/Net Margins.
  • E-commerce/Product Background: You’ve worked in roles like Retail Buying, Category Management, or E-commerce Operations where you were responsible for choosing which products to stock.
  • Strategic Communication: You can build quick rapport with vendors and navigate wholesale discussions effectively.

Optional Skills

Prior experience in live events, sports, or ticketing domains is a plus but not required. Strong curiosity, self-motivation, and a bias toward action are highly valued.

Why Join Us?

  • Direct Partnership: No corporate layers; you work directly with the founder.
  • Flexible Paid Holidays: We offer a flexible holiday schedule based on your local calendar.
  • Performance-Based Bonus: This role includes an annual bonus structure tied directly to your performance.
  • 100% Remote: Work from anywhere with a fast internet connection.

Performance bonus Extra compensation is offered upon meeting performance goals.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

This job is exclusive to getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Official source: getonbrd.com.

Descripción del trabajo

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $3400 - 4000 Full time
Sr Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Python SQL NoSQL

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de evaluar a los solicitantes de empleo. Fundada en 2014, Checkr pone tecnología moderna impulsada por aprendizaje automático en manos de los equipos de contratación, ayudando a contratar talento con una experiencia rápida, fluida y segura.

Checkr cuenta con más de 100,000 clientes como DoorDash, Coinbase, Lyft, Instacart y Airtable. Trabajar en Checkr implica colaborar con mentes brillantes, revolucionar un sector y abrir oportunidades a candidatos que suelen pasar desapercibidos. Checkr es reconocida en la lista Forbes Cloud 200 2024 y es una empresa innovadora de Y Combinator 2023.

Apply through Get on Board.

Job functions

Acerca del equipo/puesto

Buscamos un SR Data Engineer con experiencia para incorporarse a nuestro equipo de Plataforma de Datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene plataformas de datos escalables para tomar decisiones de contratación justas y seguras.

Como ingeniero del equipo de la plataforma de datos, trabajarás en la plataforma de datos centralizada de Checkr, fundamental para la visión de la empresa. La plataforma de datos centralizada es el núcleo de todos los productos clave orientados al cliente. Trabajarás en proyectos de gran impacto que contribuyen directamente a los productos de próxima generación.

Qué harás:

  • Serás un colaborador independiente capaz de resolver problemas y ofrecer soluciones de alta calidad con una supervisión mínima/de alto nivel y un alto grado de responsabilidad.
  • Aportarás una mentalidad centrada en el cliente y orientada al producto: colaborarás con los clientes y las partes interesadas internas para resolver ambigüedades del producto y ofrecer funciones impactantes.
  • Te asociarás con ingeniería, producto, diseño y otras partes interesadas en el diseño y la arquitectura de nuevas funciones.
  • Mentalidad experimental: autonomía y empoderamiento para validar las necesidades de los clientes, conseguir la aceptación del equipo y lanzar rápidamente un MVP.
  • Mentalidad de calidad: insistes en la calidad como pilar fundamental de tus productos de software.
  • Mentalidad analítica: instrumenta y despliega nuevos experimentos de productos con un enfoque basado en datos.
  • Entrega código de alto rendimiento, confiable, escalable y seguro para una plataforma de datos altamente escalable.
  • Supervisa, investiga, clasifica y resuelve los problemas de producción que surjan en los servicios propiedad del equipo.

Qualifications and requirements

  • Inglés fluido (reporta a jefatura en USA y las entrevistas técnicas son 100% en inglés). Adjunta tu CV en inglés para postular.
  • Licenciatura en un campo relacionado con la informática o experiencia laboral equivalente.
  • Más de 6-7 años de experiencia en desarrollo en el campo de la ingeniería de datos (más de 5 años escribiendo PySpark).
  • Experiencia en la creación de canalizaciones de procesamiento de datos a gran escala (cientos de terabytes y petabytes), tanto por lotes como en flujo continuo.
  • Experiencia con ETL/ELT, procesamiento de datos en flujo y por lotes a gran escala.
  • Gran dominio de PySpark, Python y SQL.
  • Experiencia en la comprensión de sistemas de bases de datos, modelado de datos, bases de datos relacionales, NoSQL (como MongoDB).
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake y AWS stack (EKS, EMR, Serverless, Glue, Athena, S3, etc.).
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Gran capacidad para resolver problemas y atención al detalle.

Desirable skills

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.
  • Conocimiento de almacenes de datos gráficos y vectoriales (preferible).

Conditions

  • Trabajo híbrido, vamos a la oficina 3 días a la semana y 2 días desde casa.
  • Almuerzo los días que vayas a la oficina.
  • Un entorno colaborativo y dinámico.
  • Contrato indefinido
  • Formar parte de una empresa internacional con sede en Estados Unidos.
  • Bono de $3.000 USD al año para formación y desarrollo.
  • Remuneración competitiva y oportunidad de crecimiento profesional y personal.
  • Cobertura médica, dental y oftalmológica al 100 % para empleados y familiares a cargo.
  • 5 días extra de vacaciones
  • RSU

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Meals provided Checkr provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Data Analyst / Data Engineer/Solution Architect
  • MAS Analytics
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Originally published on getonbrd.com.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job is original from Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB