We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Software Engineer I
  • Wherex
  • Santiago (Hybrid)
JavaScript Python PHP Redis

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Find this job on getonbrd.com.

Job functions

Desarrollador de software con fuerte interés en construir soluciones tecnológicas basadas en IA. Serás parte del equipo de Sourcing, participando en el desarrollo de nuevas funcionalidades, resolución de issues en producción y mejora continua del sistema.

Funciones principales:

  • Diseñar, desarrollar y mantener funcionalidades de la plataforma.
  • Atender y dar solución a incidencias operativas.
  • Colaborar en la revisión de código y decisiones técnicas.
  • Participar activamente en ceremonias ágiles y trabajo colaborativo.

Qualifications and requirements

Requisitos técnicos:

  • Titulo universitario de Ingeniero Civil en Informática, Ingeniero en Informática. 
  • 1 a 2 años de experiencia en desarrollo de software (incluye prácticas profesionales de alta exigencia).
  • Experiencia práctica con al menos 2 de los siguientes lenguajes: PHP, Python, Go, JavaScript, React.
  • Conocimientos en bases de datos relacionales (PostgreSQL, MySQL) y no relacionales (MongoDB, Redis, etc.).
  • Manejo de control de versiones con Git.
  • Experiencia con contenedores Docker.
  • Conocimientos en metodologías ágiles (Scrum, Kanban).
  • Interés o experiencia en desarrollo asistido por Inteligencia Artificial (IA).

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana 

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

VIEW JOB APPLY VIA WEB
Gross salary $2300 - 2800 Full time
Full-Stack Software Engineer Senior
  • Adecco
JavaScript Agile Front-end Git

Somos parte de Adecco Chile, la empresa líder mundial en servicios de Recursos Humanos con más de 35 años en el país y presencia en las principales ciudades del territorio. Nuestro cliente en el sector retail busca potenciar su equipo tecnológico mediante proyectos que requieren innovación constante y desarrollo de productos escalables con tecnología de punta. A través de un entorno ágil y colaborativo, desarrollamos soluciones que impactan directamente en la experiencia de usuario y rendimiento del negocio, manteniéndonos a la vanguardia tecnológica para enfrentar los desafíos del mercado.

Apply to this job through Get on Board.

Responsabilidades principales

  • Diseñar y desarrollar aplicaciones web utilizando Next.js para el frontend y NestJS para el backend.
  • Liderar la construcción de soluciones escalables, robustas y seguras que impacten positivamente en los objetivos del cliente.
  • Resolver desafíos técnicos complejos trabajando en conjunto con equipos multidisciplinarios y colaborativos.
  • Garantizar la calidad del código mediante la aplicación de buenas prácticas como Test-driven Development (TDD), integración continua (CI/CD) y revisiones de código (code reviews).
  • Participar activamente en reuniones técnicas en inglés y colaborar con equipos internacionales para alinear objetivos y entregables.
  • Optimizar la seguridad, rendimiento y escalabilidad de las aplicaciones desarrolladas.
  • Investigar y evaluar nuevas tecnologías para mejorar continuamente el stack tecnológico y procesos.

Perfil requerido

Buscamos profesionales con al menos 3 años de experiencia comprobable en el desarrollo full stack, especialmente con Next.js y NestJS. Es indispensable contar con un dominio avanzado de JavaScript y TypeScript, así como experiencia sólida con React y consumo de APIs REST y GraphQL. Debe demostrar conocimientos prácticos de Docker y Git, además de manejar herramientas modernas de desarrollo colaborativo y control de versiones.

Es fundamental tener experiencia en metodologías ágiles, preferentemente Scrum o Kanban, para integrarse eficazmente al equipo de trabajo. La comunicación será en inglés técnico, por lo que se requiere un nivel intermedio o superior tanto oral como escrito. Además, se valorará experiencia previa trabajando con infraestructura cloud, idealmente AWS, y manejo de bases de datos relacionales y NoSQL para garantizar escalabilidad y robustez de las soluciones.

Además de las habilidades técnicas, buscamos un individuo proactivo, con capacidad de trabajo en equipo, orientación a resultados y adaptación a entornos dinámicos y de rápido cambio, que aporte innovación y liderazgo técnico.

Habilidades y conocimientos deseables

Se valorará experiencia en otras tecnologías modernas de frontend y backend relacionadas, como Redux, Apollo Client o GraphQL Server. Conocimiento en seguridad web avanzada, CI/CD específico con Jenkins o GitHub Actions, y manejo de contenedores a nivel avanzado con Kubernetes.

Además, la experiencia en colaboración internacional y gestión de proyectos con enfoque DevOps será un plus importante para integrarse y aportar en un ecosistema tecnológico global.

Beneficios que ofrecemos

Ofrecemos un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional y crecimiento continuo. Formarás parte de un equipo altamente cualificado y profesional, con acceso a formación constante para mantenerte actualizado en las últimas tecnologías.

La modalidad de trabajo es híbrida, combinando 2 días presencial en la comuna de Las Condes y 3 días remoto, con un horario de lunes a viernes de 09:00 a 18:00 hrs.

Contrato inicial a plazo fijo y luego indefinido con el cliente final, junto con un bono anual por desempeño. Contarás con seguro complementario de vida y salud para tu bienestar.

VIEW JOB APPLY VIA WEB
$$$ Full time
Desarrollador Full-Stack
  • Coderslab.io
JavaScript Python Agile REST API

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Fullstack Senior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This job is exclusive to getonbrd.com.

Funciones del cargo

1. Construir y mantener aplicaciones móviles cross-platform con React Native
utilizando TypeScript.
2. Implementar y gestionar gestores de estado en React Native (Zustand o Redux).
3. Desarrollar y optimizar APIs REST y GraphQL para la comunicación entre frontend y backend.
4. Diseñar, desarrollar y mantener scripts y funciones en AWS Lambda con Python y JavaScript.
5. Implementar monitoreo y logging efectivo utilizando AWS CloudWatch y Log Insights.
6. Escribir y ejecutar pruebas unitarias para garantizar la calidad del código en frontend y backend.
7. Colaborar con equipos multifuncionales para asegurar la integración y despliegue continuo.
8. Optimizar el rendimiento de las aplicaciones tanto en el backend como en el
cliente móvil.

Requerimientos del cargo

Backend
1. Experiencia comprobada en desarrollo con Python y JavaScript, especialmente
en el contexto de AWS Lambda.
2. Conocimiento sólido del SDK de AWS para Python (boto3).
3. Experiencia en el desarrollo y consumo de APIs REST y GraphQL.
4. Experiencia en el uso de servicios AWS como RDS, DynamoDB, CloudWatch y
Log Insights.
5. Experiencia con arquitecturas serverless y microservicios.
6. Implementación de pruebas unitarias en Python y JavaScript.

Frontend
1. Conocimiento sólido de React Native y desarrollo de aplicaciones móviles con
TypeScript.
2. Experiencia en el manejo de gestores de estado en React Native (Zustand o
Redux).
3. Experiencia en el desarrollo y consumo de consultas REST y GraphQL.
4. Optimización de rendimiento de aplicaciones móviles.
5. Implementación de pruebas unitarias en TypeScript o JavaScript.
DevOps y otras habilidades
1. Familiaridad con prácticas de CI/CD en GitHub.
2. Experiencia en metodologías ágiles (Scrum, Kanban) y uso de tableros Jira para
la gestión de tareas y sprints.
3. Habilidades sólidas de resolución de problemas y capacidad para trabajar de
manera autónoma y en equipo.
4. Habilidades de comunicación y documentación.

Deseables
• Certificaciones en AWS (ej. AWS Certified Developer - Associate).
• Experiencia en GraphQL.
• Experiencia en optimización de rendimiento en aplicaciones móviles.

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 3000 Full time
Developer Back-end
  • Coderslab.io
JavaScript Agile Node.js Virtualization

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Desarrollador Backend Sr

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Apply through Get on Board.

Estamos en la búsqueda de un Desarrollador backend en AWS con experiencia en Node.js y tecnologías serverless. El candidato ideal será responsable de diseñar, desarrollar, y mantener microservicios en AWS, utilizando una variedad de servicios y herramientas proporcionadas por la plataforma. Se valorará una sólida comprensión de arquitectura serverless y experiencia con pruebas unitarias.

I. Desarrollar y mantener APIs (REST y GraphQl) utilizando AWS Lambda y Node.js.
II. Implementar y gestionar microservicios utilizando AWS API Gateway y AppSync.
III. Administrar secretos y configuraciones seguras con AWS Secrets Manager.
IV. Consumir desde desarrollos bases de datos relacionales y no relacionales usando
AWS RDS y DynamoDB.
V. Implementar monitoreo y logging efectivo con AWS CloudWatch Logs.
VI. Escribir y ejecutar pruebas unitarias para asegurar la calidad del código.
VII. Colaborar con equipos multifuncionales para asegurar la integración y despliegue
continuo.

AWS- Nodejs -javascrit

I. Experiencia comprobada en desarrollo con Node.js, especialmente en el contexto de
AWS Lambda.
II. Conocimiento y experiencia en el uso de AWS API Gateway, AppSync, Secrets
Manager, Cognito, RDS, DynamoDB, CloudWatch y Log Insight.
III. Experiencia con arquitecturas serverless.
IV. Experiencia con herramientas y prácticas de pruebas unitarias (ej. Jest, Mocha).
V. Conocimiento de SDK de AWS en Node JS
VI. Familiaridad con prácticas de CI/CD y herramientas como GitHub Actions
VII. Habilidades sólidas de resolución de problemas y capacidad para trabajar de manera
autónoma y en equipo.
VIII. Excelentes habilidades de comunicación y documentación.
IX. Experiencia en entornos de trabajo ágiles con Scrum y herramientas como Jira

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Desarrollador/a Full-Stack MEAN/MERN
  • Devups
JavaScript Python Agile Front-end

Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador/a aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.

DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply at the original job on getonbrd.com.

Job functions

  • Definir y diseñar aplicaciones junto al PM asignado.
  • Trabajar junto a otros ingenieros en el testing de las tareas asignadas.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Requirements

El perfil que buscamos deberá comprender la arquitectura de aplicaciones basadas en stacks JavaScript (MEAN/MERN) y aplicar patrones comunes y probados. Deberá tener experiencia optimizando el rendimiento de interfaces y servidores, así como habilidad para comunicar claramente desafíos técnicos complejos a distintos stakeholders. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.

Nivel de inglés: B2+.

Se debe cumplir con al menos (1) lenguaje de Front y (1) de Back:

Front-end (elige uno):

  • React.js
  • Angular
  • Vue.js

Back-end (elige uno):

  • Node.js (Express)
  • Python (Django / FastAPI / Flask)

Desirable skills

  • Construir APIs GraphQL con Node.js y MongoDB
  • Desarrollar microservicios con Node.js y GraphQL.
  • Conocer AWS Services (S3, Fargate, EC2, Lambda).
  • Bases de datos: MongoDB, MySQL.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Full-Stack Developer React Node.js Python
  • SONDA
  • Santiago (Hybrid)
JavaScript Ruby Ruby on Rails HTML5

SONDA es una empresa líder en transformación digital en Latinoamérica, comprometida con el desarrollo tecnológico y social en las comunidades donde opera. Nuestra misión es mejorar la calidad de vida de las personas mediante la innovación y soluciones tecnológicas que transforman negocios y procesos. Actualmente, buscamos un Desarrollador Full Stack para integrarse al proyecto Fonasa, donde se desarrollan aplicaciones orientadas a optimizar y modernizar sistemas y procesos de información en el sector público, aportando valor al cliente final mediante tecnología de punta y trabajo colaborativo.

Apply directly through getonbrd.com.

Responsabilidades y funciones principales

  • Desarrollar aplicaciones siguiendo los diseños técnicos y funcionales definidos.
  • Generar soluciones innovadoras y efectivas frente a los problemas técnicos o de negocio detectados.
  • Realizar la mantención y mejora continua de aplicaciones existentes para asegurar su operatividad y calidad.
  • Analizar los requisitos del sistema y procesos de negocio existentes para identificar oportunidades de mejora y asegurar la alineación con las necesidades del cliente.
  • Diseñar y construir pruebas unitarias robustas que garanticen la calidad de las soluciones desarrolladas.
  • Contribuir activamente a la elaboración técnica global de las soluciones, colaborando con los equipos multidisciplinarios.

Perfil requerido y conocimientos técnicos

  • Buscamos un profesional con título en Ingeniería en Informática, Sistemas o carreras afines, quien cuente con un mínimo de 2 años de experiencia directa en roles similares de desarrollo Full Stack y al menos 5 años en el ámbito tecnológico, demostrando un sólido conocimiento del ciclo completo de desarrollo de software.
  • Es fundamental poseer habilidades técnicas en frontend, con experiencia en HTML, CSS, JavaScript y el manejo de frameworks o librerías populares como React o Angular. En el backend, se requiere conocimiento en programación con lenguajes como Node.js, Python y frameworks asociados como FastAPI, Express, Django o Rails.
  • Además, debe contar con experiencia en la gestión y manejo de bases de datos tanto relacionales (MySQL, PostgreSQL, Oracle DB) como NoSQL (MongoDB), para garantizar el adecuado almacenamiento y consulta de la información.
  • Se valorará el conocimiento en herramientas de integración y entrega continua (CI/CD), uso de contenedores como Docker, y experiencia con servicios en la nube, especialmente AWS, aportando a la modernización y automatización de los entornos de desarrollo y producción.
  • Además de las habilidades técnicas, buscamos una persona con capacidad analítica, orientación a la solución de problemas, y aptitudes para trabajar en equipo dentro de un ambiente colaborativo y diverso, siempre promoviendo la innovación y la mejora continua.

Conocimientos adicionales valorados

  • Es deseable contar con experiencia práctica en proyectos que impliquen despliegue en entornos cloud y microservicios, así como manejo avanzado en técnicas de testing automatizado e infraestructura como código.
  • Se valorará también la habilidad para adaptarse rápidamente a nuevas tecnologías y metodologías ágiles, junto a una fuerte orientación al cliente y comunicación efectiva con stakeholders técnicos y no técnicos.


Beneficios y cultura organizacional

  • En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.
  • Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.
  • Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.
  • El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.
  • Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.
  • Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

VIEW JOB APPLY VIA WEB
$$$ Full time
AI Software Automation Engineer
  • Signant Health
JavaScript Python Git REST API
Are you ready for the Most Impactful Work of Your Life?
Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations, and reimagining the path to proof.
Where do you fit in?
Signant Health is seeking an AI Pathway Engineer to manage, optimize, and expand our SHAI (AI Helpdesk Assistant) platform powered by Bland AI. SHAI operates across voice, chat, and email channels, handling thousands of clinical trial support inquiries monthly through integrations with Genesys contact center, ServiceNow ITSM, and production platforms like ID Portal. This role combines conversational AI design, API integration expertise, and automation engineering to ensure SHAI delivers accurate, efficient customer support while continuously improving through data-driven optimization.

Find this job and more on Get on Board.

Job functions

  • Design, build and maintain SHAI conversational pathways in the Bland AI platform across voice, chat and email.
  • Implement multi‑language logic and localization quality for 15+ languages.
  • Continuously optimize conversation flows using analytics, A/B testing and user feedback.
  • Implement complex conditional logic (multi‑step authentication, account unlocks, ticket creation).
  • Define escalation and transfer triggers that hand off to Genesys queues for human agents.
  • Curate, structure and maintain the SHAI knowledge base content.
  • Version, test and validate pathway releases in sandbox before production deployment.
  • Troubleshoot pathway failures, logic errors and unexpected branches; perform root‑cause analysis.
  • Maintain and extend API integrations with ServiceNow (validation, study lookups, ticketing).
  • Build/optimize API connections with ID Portal (account unlocks, password resets, invitation resends).
  • Configure SHAI↔Genesys integrations for call transfers, queue routing and metadata handoff.
  • Monitor API reliability (latency, rate limits, error rates) and manage auth (OAuth, API keys, webhooks).
  • Document integrations (endpoints, payloads, retry/timeout strategies and error handling).
  • Build automated QA using n8n/Make and scripts; implement synthetic testing across languages and scenarios.
  • Develop transcript analytics and quality scoring using LLM pipelines; publish dashboards and reports for stakeholders.
  • Research, prototype and deliver enhancements leveraging new Bland AI/LLM capabilities and internal platform needs.

Qualifications and requirements

  • Strong REST API skills: JSON, OAuth, webhooks; proficient with Postman/cURL and debugging.
  • Conversational AI design expertise: intents, entities, dialog policy, escalation design.
  • Workflow automation with n8n/Make/Zapier; building reliable, monitored jobs.
  • Scripting in Python or JavaScript for automation, ETL and QA.
  • Advanced Excel/spreadsheet analysis (pivots, formulas, charts) for operational reporting.
  • Dashboard/BI experience (e.g., Grafana/Tableau/Power BI) to visualize KPIs.
  • Git version control and structured documentation practices.
  • Data analysis of conversation logs to detect patterns, gaps and improvements.
  • Rigorous problem‑solving, attention to detail and bias for action.
  • Clear written and verbal communication; customer empathy and cross‑functional collaboration.

Desirable skills

  • Hands‑on with Bland AI (or Voiceflow/Dialogflow) for pathway design and deployment.
  • Experience using CURSOR or AI‑assisted IDEs (GitHub Copilot, Replit).
  • Working knowledge of Claude or similar LLMs for transcript scoring and analysis.
  • HTML/CSS/JavaScript for lightweight internal tools and dashboards.
  • Deeper BI tool proficiency (Power BI, Looker) and data modeling.
  • NLP concepts (sentiment, NER, semantic similarity, RAG, function calling).
  • Healthcare/clinical trial or other regulated industry experience.
  • Localization/translation workflows and quality evaluation for multilingual CX.
  • ServiceNow and Genesys API experience and contact‑center concepts.
  • Experience designing synthetic.

VIEW JOB APPLY VIA WEB
Gross salary $4200 - 5300 Full time
Líder Técnico de IA / MLOps
  • Norun SpA
C C++ Python Linux

Norun SpA es una empresa nacional líder en estudios de transporte y tránsito, enfocada en mejorar la movilidad con tecnología de punta. Nuestra área de I+D está desarrollando una plataforma para gestión de tráfico mediante visión computacional aplicada a video. El proyecto busca entrenar modelos de IA con pipelines de ML Ops, desplegarlos en edges, y desarrollar una plataforma web que entregue los resultados agregados a usuarios finales. El/la Líder Técnico de IA y ML Ops desarrolla y además es el referente técnico del equipo de desarrollo/data science, con responsabilidad sobre arquitectura, rendimiento y escalabilidad.

Apply directly at getonbrd.com.

Funciones principales

  • Liderazgo Técnico: Trabajar junto al Data Scientist para alinear experimentación con producción. Guiar a desarrolladores junior en la creación de una plataforma web para usuarios finales compatible con la infraestructura de IA. Garantizar código de alta calidad y buenas prácticas de ingeniería.
  • Arquitectura: Diseñar la arquitectura de sistema de punta a punta desde ingestión de datos hasta despliegue en hardware edge. Seleccionar el stack tecnológico óptimo (edge, librerías de optimización, plataformas cloud).
  • Productización y Optimización de Modelos: Tomar modelos entrenados por el Data Scientist y aplicar técnicas de optimización (cuantización, pruning, destilación). Realizar profiling y benchmarks para asegurar FPS y latencia requeridos en edge. Desarrollar la inferencia de alto rendimiento en Python y/o C++ para dispositivos edge.
  • Infraestructura y Automatización MLOps: Diseñar y construir pipelines CI/CD para entrenamiento, validación y despliegue. Implementar control de versiones de datos (DVC) y de modelos (MLflow). Configurar infraestructura en Cloud/local con Docker y Kubernetes para un entorno de producción escalable.

Descripción detallada

Buscamos un/a Líder Técnico/a de IA con fuerte experiencia en desarrollo de software y entrega de soluciones de IA en producción. El/la candidato/a ideal debe combinar habilidades técnicas profundas (ingeniería de software, optimización de modelos para inferencia en edge, pipelines de MLOps) con capacidad de liderazgo y visión de arquitectura de software. Será responsable de la gestión técnica del proyecto, desde la concepción de la arquitectura hasta la entrega de productos de software que cumplan con los KPIs establecidos.

Requisitos de entorno técnico incluyen Python y/o C++, herramientas de MLOps (ej. MLflow), contenedores Docker, y experiencia con servicios de IA/ML en AWS o GCP. Se valorará experiencia en edge computing, perfiles de hardware (CPU/GPU/VPU) y conocimientos en Linux. La persona deberá liderar técnicamente el equipo, promover buenas prácticas de desarrollo y garantizar la calidad del producto, además de actuar como traductor entre ciencia de datos y desarrollo de aplicaciones.

Deseable

  • Habilidades de liderazgo técnico, capacidad de mentoría, visión de arquitectura de software y propiedad de la infraestructura. Se espera proactividad, autonomía, y facilidad para adaptarse a cambios.
  • Experiencia comprobable de despliegue de modelos de IA para procesamiento de video en infraestructura edge.
  • Experiencia comprobable en ML Ops.
  • Idiomas: inglés técnico para lectura de documentación.

Beneficios y condiciones

  • Se prefiere presencialidad pero existe opción híbrida/remota para candidatos excepcionales.
  • Este cargo cuenta con opción part time, más enfocada en el liderazgo técnico.
  • Ofrecemos un entorno de crecimiento y respeto, con enfoque en desarrollo profesional dentro de una empresa líder en análisis de transporte y movilidad. Únete a un equipo que está transformando la movilidad en Chile y la región con tecnología de vanguardia.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Norun SpA provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior AWS Cloud Engineer
  • Merapar
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Cloud Computing
Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

Find this job on getonbrd.com.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developers

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Merapar pays or copays health insurance for employees.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1800 Full time
Escalation Engineer – Cloud & Infrastructure
  • Devups
Virtualization Amazon Web Services Azure Cloud Computing
En Devups, ofrecemos servicios de staff augmentation para clientes que buscan escalar sus equipos de IT sin las cargas administrativas tradicionales. Este rol de Escalation Engineer forma parte de nuestro equipo de ingeniería de infraestructura híbrida y cloud, orientado a gestionar incidentes complejos, migraciones y despliegues de alto impacto para clientes empresariales. Trabajarás directamente con entornos on-premise y en la nube (Azure, AWS, Google Cloud), apoyando a equipos de TI en proyectos críticos y asegurando la continuidad del negocio mediante soluciones robustas y documentadas. Nuestro objetivo es combinar la experiencia técnica con una ejecución ágil para entregar resultados de alta calidad y garantizar la seguridad y confidencialidad de la información.

This job offer is available on Get on Board.

Funciones principales

  • Gestionar escalaciones técnicas de nivel avanzado relacionadas con infraestructuras cloud y on-premise.
  • Diseñar, implementar y dar soporte a despliegues y migraciones en Microsoft Azure, AWS y Google Cloud Platform.
  • Administración, despliegue y migración de Microsoft 365 / Office 365.
  • Administrar servidores físicos y virtuales, tanto on-premise como en la nube, incluyendo VMware, Nutanix, Cisco HyperFlex y Hyper-V.
  • Diseñar e implementar soluciones de backup y disaster recovery (Datto y Veeam como tecnologías principales).
  • Soporte y mantenimiento de servicios críticos: Active Directory, DNS, Windows Servers.
  • Configuración y soporte de firewalls, switching y VPNs; gestión de incidentes y resolución proactiva de riesgos.
  • Identificación proactiva de peligros técnicos y mitigación a través de buenas prácticas de seguridad y gestión de cambios.
  • Documentación técnica detallada y participación activa en proyectos de infraestructura; coordinación con equipos y stakeholders.
  • Rotación de guardias (On-Call) y desplazamientos locales a instalaciones de clientes dentro de la región asignada.
  • Garantizar confidencialidad absoluta de datos, credenciales y sistemas.

Descripción

Buscamos un profesional con sólida experiencia en administración de infraestructuras híbridas y servicios en la nube para gestionar incidentes críticos, realizar migraciones y promover migraciones eficientes. Se requiere capacidad de trabajo autónomo, orientación a resultados y habilidades de comunicación técnica para documentar soluciones, gestionar escalaciones y colaborar con equipos multicisciplinarios. Se valorará experiencia previa en MSP o CSP, y certificaciones relevantes en Microsoft, AWS, VMware, Cisco u otras. El candidato ideal tiene un enfoque analítico, alta capacidad de resolución de problemas, y capacidad para trabajar bajo presión en entornos productivos y con clientes exigentes. Nivel de inglés mínimo intermedio para lectura técnica y comunicación básica.

Requisitos Deseables

Título universitario en Informática, Ingeniería o carrera afín. Certificaciones IT (Microsoft, AWS, VMware, Cisco u otras). Experiencia en gestión de proyectos IT. 5+ años de experiencia en roles similares. Perfil ideal: Ingeniero/a con fuerte criterio técnico, capacidad de análisis y enfoque en la calidad del servicio; experiencia manejando incidentes críticos y entornos productivos; excelente capacidad de documentación y comunicación técnica; capacidad para trabajar bajo presión y en contextos de escalación.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Semi Senior Data Engineer (Enfocado en Calidad de Datos)
  • 23people
Python SQL Business Intelligence Big Data
Equifax Chile es la filial local de Equifax Inc., compañía global de datos, analítica y tecnología presente en 24 países. Desde 1979 operamos en Chile, entregando soluciones en riesgo crediticio, análisis de datos, identidad y ciberseguridad a más de 14.000 empresas.Nuestro Centro de Desarrollo en Santiago (SDC) lidera la transformación digital de Equifax a nivel global, concentrando cerca del 60% de sus desarrollos tecnológicos. Promovemos una cultura de colaboración, innovación y excelencia técnica, donde el talento local crea soluciones de impacto mundial.

Apply through Get on Board.

Funciones del cargo

¿Qué harás en tu día a día?
Responsabilidades Clave:
  • QA de Migración a la Nube: Participar en la ejecución de pruebas para la migración de datos desde bases de datos on-premise (MySQL/Oracle) hacia BigQuery/GCP.
  • Validación Multinivel: Ejecutar y desarrollar casos de prueba que validen tres niveles críticos:
    1. Integridad del dato crudo (Source vs. Target).
    2. Correcta aplicación de la lógica de transformación ELT.
    3. Cumplimiento de las reglas de negocio definidas en la nueva arquitectura.
  • QA de Procesos Analíticos: Colaborar en la validación de resultados de procesos posteriores a la carga, como el cálculo de scores y segmentaciones, asegurando la coherencia de los datos con los resultados esperados de negocio.
  • Automatización de Pruebas: Evolucionar desde validaciones manuales hacia la automatización. Desarrollar scripts en Python para automatizar comparaciones de datos y aprender a crear/mantener DAGs en Apache Airflow para pipelines de validación de calidad de datos.
  • Monitoreo y Reportería: Utilizar Looker Studio para crear y mantener dashboards de control de calidad de datos que permitan visualizar discrepancias, métricas de salud del dato y el progreso de la migración para los stakeholders.

Requerimientos del cargo

Skills

  • Cloud: Airflow, Cloud Composer, Glue, Lambda u otros.
  • Lenguajes de Programación (al menos manejar uno nivel usuario intermedio):
    • Python
    • SQL/BigQuery
  • Experiencia en análisis y analitica.
  • Looker Studio / PowerBI / Tableau / otros.
  • Conocimiento sobre el manejo de datos: **Importante**
    • Conocimiento sobre los conceptos de ambientes de datos.
    • Conocimiento sobre los conceptos de calidad de datos.
    • Conocimiento de modelado de procesos y flujos de datos
Contrato indefinido desde el inicio con 23people - Tiempo del proyecto 6 meses con posible extensión
Modalidad: Home Office con residencia en Chile.
Experiencia: Desde 2 años en adelante
Horario: Lunes a viernes de 9:00 a 18:00 hrs

Deseables

  • Conocimientos en las tecnologías: Spark - DataProc / DataFlow
  • Experiencia en procesos de manejo de datos:
    • Procesamiento en lotes
    • Procesamientos distribuidos.

Beneficios

Algunos de nuestros beneficios
  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1000 - 1500 Full time
QA Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Agile SQL QA Scrum
Company: Coderslab.io es una empresa tecnológica en crecimiento que ayuda a las organizaciones a transformarse y crecer mediante soluciones innovadoras. Formarás parte de un equipo diverso compuesto por más de 3,000 empleados a nivel global, con oficinas en América Latina y Estados Unidos. Trabajarás con los mejores talentos del sector en proyectos desafiantes e innovadores que impulsarán tu carrera.
Proyecto: Participarás en un programa de aseguramiento de calidad (QA) para software en un entorno ágil. Colaborarás con equipos de desarrollo y producto para garantizar la entrega de software estable, confiable y de alta calidad, empleando prácticas modernas de pruebas y automatización según las necesidades del proyecto.

Apply without intermediaries from Get on Board.

Funciones principales

Como QA Semi Senior, serás responsable de apoyar la verificación y validación de software a lo largo del ciclo de vida del desarrollo. Tus tareas incluirán:
Experiencia de 2 años trabajando como QA / Analista de Pruebas.
Experiencia comprobable en:
Pruebas funcionales y de regresión sobre aplicaciones web.
Diseño y documentación básica de casos de prueba.
Conocimiento práctico de:
Uso de alguna herramienta para pruebas de APIs (Postman o similar).
SQL básico para consultar y validar datos.
Familiaridad trabajando en equipos ágiles (Scrum o Kanban) o ciclos iterativos de desarrollo.
Conocimiento básico de servicios y entornos en la nube (AWS), orientado a la comprensión de
ambientes de prueba, despliegues, endpoints y análisis de incidencias.
Habilidad para documentar hallazgos de forma clara y ordenada.

Perfil buscado

Buscamos un/a QA Semi Senior con actitud proactiva y enfoque en la calidad. Debes tener experiencia práctica en pruebas de software, capacidad para comprender requerimientos, y ganas de crecer en un entorno ágil y tecnológicamente avanzado. Valoramos la atención al detalle, habilidades de análisis y comunicación efectiva para trabajar con equipos distribuidos.
Requisitos técnicos y de experiencia:
  • Experiencia comprobable en pruebas de software (funcionales, de regresión, exploratorias).
  • Conocimiento de metodologías de QA y herramientas de gestión de pruebas y defectos.
  • Habilidad para diseñar y ejecutar casos de prueba y planes de prueba; creación de matrices de trazabilidad.
  • Familiaridad con conceptos de automatización de pruebas y frameworks relevantes (según el stack del proyecto).
  • Capacidad para trabajar en entornos ágiles (Scrum/Kanban) y colaborar con equipos de desarrollo y producto.
  • Buena capacidad de análisis, enfoque en calidad, organización y gestión del tiempo.
  • Espíritu de equipo, comunicación clara y proactividad para identificar mejoras de calidad.
  • Idioma: español e inglés técnico deseable para lectura de documentación y herramientas.
Nivel de experiencia: Semi Senior (aproximadamente 2-4 años en QA o rol similar).

Requisitos deseables

Experiencia en pruebas automatizadas o scripting para pruebas, conocimiento de herramientas de automatización, experiencia en entornos multinacionales, certificaciones en QA (por ejemplo, ISTQB) y habilidades para trabajar en un entorno remoto/global. Capacidad para adaptarse rápidamente a nuevas tecnologías y procesos, y para aportar ideas de mejora continua en QA y calidad de producto.
Experiencia de 2 años trabajando como QA / Analista de Pruebas.

Beneficios y entorno

La posición es de contratación a plazo fijo para un proyecto de 7 meses, con modalidad de trabajo en remoto global y oportunidades de crecimiento dentro de Coderslab.io. El equipo ofrece mentoría de profesionales experimentados, acceso a tecnologías de punta y un entorno que promueve el desarrollo profesional continuo. Comprometidos con un equilibrio entre vida personal y laboral, y con un enfoque en proyectos desafiantes en mercados internacionales. Si estás interesado, continúa investigando las oportunidades dentro de nuestra organización y prepárate para colaborar con especialistas de alto rendimiento.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior QA Engineer
  • Improving South America
JavaScript Ruby Ruby on Rails Python

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Exclusive offer from getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
SRE
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps
About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Applications at getonbrd.com.

Funciones del cargo

Cross-Functional Collaboration

  • Partner with engineering teams to improve system reliability and deployment practices
  • Engage with Openloop teams on SRE guidelines and best practices about automation and infrastructure
  • Work with security teams to implement secure, compliant infrastructure

Operational Excellence

  • Ensure 24/7 system availability and rapid incident response
  • Implement and maintain disaster recovery and business continuity plans
  • Skilled at performance tuning — identifying bottlenecks at infra, app, and database layers.

Security

  • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
  • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.

Cultural

  • Advocate for blameless culture and continuous improvement.
  • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requerimientos del cargo

  • 2 - 3 years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Good background in AWS, particularly with serverless architectures
  • Understanding of observability and incident management
  • Strong knowledge in at least one programming language (Typescript, Python, Go, etc.). Previous experience as a Developer is a plus
  • Knowledge of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Experience managing monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, GitLab CI, etc)
  • Understanding of database systems and performance optimization
  • Leadership & Communication
  • English (C1) fluency
  • Excellent verbal and written communication skills
  • Ability to translate technical concepts to non-technical audiences
  • Good problem-solving and decision-making capabilities
  • Experience with agile methodologies

Condiciones

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer Senior
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Analytics
En BC Tecnología operamos como una consultora de TI con foco en servicios IT, desarrollo de proyectos y outsourcing. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, apoyando la entrega de soluciones de calidad desde la definición de requisitos hasta la validación y mejora continua de procesos. Nuestro objetivo es integrar soluciones que respondan a las necesidades del cliente, con énfasis en metodologías ágiles, crecimiento profesional y desarrollo de productos, manteniendo un enfoque claro en la experiencia del usuario y la eficiencia operativa.

Apply to this job directly at getonbrd.com.

Funciones principales

Participar en la definición de requisitos, flujos de trabajo y procesos de control de calidad. Colaborar activamente en ceremonias ágiles (Scrum, Kanban). Diseñar, documentar y ejecutar planes y casos de prueba. Ejecutar pruebas funcionales y no funcionales (usabilidad, compatibilidad, rendimiento, seguridad). Realizar testing frontend, backend, APIs y mobile. Reportar, gestionar y dar seguimiento a bugs, defectos e incidencias. Analizar logs, servicios y data de prueba para identificar causas raíz. Evaluar el impacto de cambios en el producto. Monitorear métricas de calidad y estabilidad (Grafana, Kibana u otras). Participar en la ejecución y análisis de procesos de CI/CD. Ejecutar y analizar procesos automatizados de prueba. Detectar oportunidades de mejora en el proceso de desarrollo. Apoyar la gestión de calidad de uno o más equipos de desarrollo.

Requisitos y perfil

Más de 3 años de experiencia en roles de QA / Quality Assurance. Experiencia sólida en QA manual avanzado. Experiencia en pruebas de aplicaciones web, mobile y web services. Experiencia en pruebas de API (Postman, SoapUI). Conocimiento del ciclo de vida del desarrollo de software (SDLC). Experiencia trabajando con metodologías ágiles. Manejo de herramientas de gestión de pruebas e incidencias (Jira, TestLink, Zephyr u otras). Capacidad de documentación técnica clara (casos de prueba, resultados, defectos). Habilidad analítica, atención al detalle y orientación a la mejora continua.
Conocimientos técnicos valorados: lenguajes orientados a objetos (Python, Java o JavaScript). Buenas prácticas de desarrollo (encapsulamiento, escalabilidad). Automatización de pruebas (web, servicios, mobile o scripting). Revisión de código (peer review). Herramientas de debugging (IDE, navegador). Patrones arquitectónicos (MVC, arquitectura en capas, event-driven). CI/CD (Pipelines, Jenkins, Bitrise). Infraestructura y cloud (Docker, AWS, Azure). Control de versiones (GitHub, GitLab, Bitbucket).
“Para avanzar en el proceso, es necesario cumplir con los requisitos técnicos y de experiencia señalados.”

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

VIEW JOB APPLY VIA WEB
Gross salary $2900 - 3500 Full time
Platform Engineer Experienced
  • Coderslab.io
  • Santiago (Hybrid)
Redis Analytics PostgreSQL Git

Estamos buscando un Platform Engineer Experienced. El/la candidato/a se integrará a un equipo de tecnología que diseña y mantiene soluciones de software críticas para el negocio. El rol implica colaborar en un entorno híbrido, contribuir a la entrega continua con foco en escalabilidad, seguridad y rendimiento, y trabajar en proyectos de migración, optimización de pipelines y gobernanza de infraestructura en la nube.

El equipo opera dentro de una organización con presencia global, con una cultura de innovación y mejora continua, apoyando a clientes y usuarios internos a través de soluciones modernas y confiables.

Apply at the original job on getonbrd.com.

Funciones generales

  • Diseñar, implementar y mantener pipelines de CI/CD para mejorar la entrega de software.
  • Administrar y optimizar entornos de contenedores y Kubernetes.
  • Implementar prácticas de monitoreo, seguridad y alta disponibilidad.
  • Gestionar la infraestructura con IaC y herramientas de automatización (Terraform, Chef, Ansible).
  • Documentar y estandarizar procesos y arquitecturas.
  • Gestión de backlog de plataforma y requisitos de seguridad de TI; gestionar obsolescencia en la nube y migraciones.
  • Colaborar con clientes y equipos internos, diagnósticar y resolver problemas de configuración y rendimiento.
  • Generar reportes y mantener la trazabilidad de proyectos y cambios.

Descripción

Buscamos un/a Platform Engineer con al menos 3 años de experiencia en DevOps o administración de infraestructura, y 3+ años de experiencia en Linux. El/la candidato/a debe dominar Infraestructura como Código (Terraform), control de versiones (GIT/GitLab) y CI/CD (ArgoCD). Se requiere experiencia con contenedores y orquestación (Docker, Kubernetes – GKE/AKS), así como herramientas de automatización (Chef, Ansible). Es deseable experiencia en Azure o GCP, manejo de secretos (Vault), monitoreo (Prometheus, Grafana) y observabilidad (ELK, Datadog). Se valoran conocimientos en API Management, mensajería (RabbitMQ) y bases de datos (Postgres, Redis, Mongo). El rol requiere comunicación efectiva, capacidad analítica, trabajo en equipo y enfoque en resultados.

Conocimientos Deseables

API Management: Apigee, Kong; Mensajería con RabbitMQ; Bases de datos: Postgres, Redis, Mongo. Certificaciones en infraestructuras actuales. Familiaridad con entornos Cloud híbridos y metodologías ágiles. Se valora la capacidad para diseñar soluciones robustas, optimizar costos y liderar iniciativas de mejora continua.

Beneficios

Modalidad de contratación: Plazo fijo

Ubicación: Oficina en Las Condes, posibilidad de trabajo híbrido

Remoto: Opción de remoto en ciertos casos

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer (Web) – Part Time
  • Niuro
Python Agile QA Scrum
Niuro connects projects with elite tech teams, empowering collaborative work with leading U.S. companies. As a QA Engineer, you will contribute to impactful industrial data projects that emphasize technical excellence and continuous innovation. You will join a globally distributed team focused on delivering high-quality web applications and robust testing practices. This role supports our mission to simplify global talent acquisition by providing autonomous, high-performance teams and strong administrative support so you can focus on delivering exceptional results.

Originally published on getonbrd.com.

Role goals and responsibilities

  • Review, test, and validate features delivered by developers in each sprint to ensure quality from requirements to release.
  • Perform functional, regression, exploratory, and edge-case testing across web applications.
  • Identify risks early and provide clear, actionable feedback to the development team.
  • Design, implement, and maintain Playwright automation scripts for UI and API tests.
  • Create and maintain comprehensive technical documentation, including end-to-end system flows.
  • Independently validate features from requirements through production readiness, ensuring reliability and performance.
  • Collaborate with cross-functional teams in an Agile/Scrum environment to improve product quality and testing processes.
  • Contribute to test strategy, test case design, and CI/CD integration for automated testing within pipelines.

Required skills and experience

We are seeking a QA Engineer with a minimum of 4+ years of web-focused QA experience. You should have strong manual testing capabilities and hands-on automation experience using Playwright (UI and API testing) or equivalent tools. A solid understanding of RESTful APIs, HTTP methods, and status codes is essential. Proficiency in scripting with TypeScript and/or Python is required. You will be comfortable testing complex systems and workflows, and have experience working in Agile/Scrum environments. Excellent analytical, problem-solving, documentation, and communication skills are necessary, along with the ability to communicate effectively in English with international teams.

Nice-to-have attributes

Familiarity with additional test automation frameworks and tools, experience with performance testing, and exposure to containerized environments (Docker/Kubernetes) are advantageous. Prior experience in data-heavy or industrial data projects, and a track record of driving quality improvements in cross-functional teams will be highly valued. Strong collaborative mindset and ability to adapt to evolving project requirements in a remote global setting are desirable.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps/SRE (Oci Azure GCP)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Azure
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales. Buscamos un DevOps/SRE para diseñar, implementar y operar una plataforma en la nube Oracle Cloud (OCI), asegurando disponibilidad, seguridad y escalabilidad. Participarás en proyectos con clientes de alto nivel en sectores como servicios financieros, seguros, retail y gobierno, aplicando prácticas SRE, automatización y observabilidad para entregar soluciones robustas y seguras.

Job opportunity on getonbrd.com.

Responsabilidades y tareas

  • Operar infraestructura en OCI (redes, balanceadores, WAF, bases de datos y almacenamiento).
  • Administrar Kubernetes/OKE, contenedores, Helm y GitOps (Argo CD).
  • Automatizar despliegues y procesos con Terraform, CI/CD (GitLab/Jenkins/GitHub Actions) y scripting (Bash/Python).
  • Implementar observabilidad con Prometheus, Grafana y ELK/OCI Logging; aplicar prácticas SRE.
  • Gestión de seguridad: IAM, Policies, Vault/KMS, escaneo de imágenes y cumplimiento de estándares.
  • Colaborar con equipos de desarrollo y operaciones para garantizar alta disponibilidad y rendimiento.
  • Documentar arquitectura, cambios y procedimientos operativos; participar en revisiones de diseño.

Requisitos y perfil buscado

Formación en Informática o áreas afines. Mínimo 3 años de experiencia en DevOps, SRE o Gestión de plataformas. Experiencia operativa en OCI y Kubernetes en entorno productivo. Sólidos conocimientos de Linux, redes, infraestructura como código (IaC), CI/CD y monitoreo de sistemas.

Competencias deseables

Certificaciones OCI o K8s (CKA/CKAD/CKS) y experiencia en entornos regulados.
Conocimiento de seguridad en la nube, gestión de identidades y claves, y experiencia con herramientas de seguridad como escaneo de imágenes y cumplimiento de normas.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
AWS Cloud Engineer IA & Automation
  • WiTi
  • Santiago (Hybrid)
Python Analytics Virtualization Amazon Web Services

WiTi es una empresa chilena de tecnología enfocada en software de integración de sistemas y soluciones móviles, con presencia en Chile, Uruguay y Colombia. Buscamos fortalecer nuestro equipo con un AWS Cloud Engineer especializado en configuración de servicios cloud, automatización y herramientas de IA dentro del ecosistema AWS. El foco del rol es la orquestación de servicios, configuración de agentes inteligentes, bases de conocimiento y flujos automatizados para clientes enterprise. El candidato se integrará en proyectos de transformación digital, impulsando soluciones escalables de IA sin desarrollo extensivo de código y trabajando en estrecha colaboración con equipos de desarrollo y negocio para traducir requerimientos en arquitecturas cloud orientadas a IA y automatización.

Apply at the original job on getonbrd.com.

Funciones

Configurar y administrar servicios de IA dentro de la consola AWS (Bedrock, agentes, bases de conocimiento) para soluciones empresariales. Diseñar e implementar flujos automatizados y spaces para procesamiento inteligente de información. Orquestar servicios cloud para habilitar soluciones de IA aplicada sin necesidad de desarrollo extenso de código. Configurar y optimizar herramientas de analytics y visualización (QuickSight). Participar en la definición de arquitecturas cloud orientadas a IA y automatización. Colaborar con equipos de desarrollo y negocio para traducir requerimientos en soluciones cloud escalables. Mantener buenas prácticas de seguridad, gobernanza y cumplimiento. Identificar oportunidades de optimización de coste y rendimiento. Documentar procedimientos, guías y patrones de migración. Apoyar en la formación y transferencia de conocimiento a equipos internos.

Descripción

Buscamos un profesional con experiencia en el ecosistema AWS, enfocado en configuración de servicios de IA, agentes inteligentes y automatización de flujos. El foco principal es la orquestación y configuración de servicios dentro de la consola AWS, no desarrollo de código intensivo. Se valorará experiencia con AWS Bedrock, bases de conocimiento vectoriales, configuración de agentes y QuickSight. Se espera capacidad analítica, orientación a la resolución de problemas y habilidad para trabajar en equipos multidisciplinarios. Conocimiento de Python es un plus, pero no excluyente. Debes estar cómodo trabajando en entornos dinámicos y en colaboración con clientes y equipos internos para entregar soluciones robustas y escalables.

Requisitos Deseables

Experiencia con AWS Bedrock y servicios de IA de Amazon; familiaridad con RAG y bases de conocimiento; experiencia en configuración de pipelines de datos sin código; conocimientos de Python como complemento. Se valorará certificaciones relevantes de AWS y experiencia en entornos multiculturales y regionales. Capacidad de comunicar conceptos técnicos a audiencias no técnicas y de trabajar con stakeholders para alinear soluciones con objetivos de negocio.

Beneficios

En WiTi ofrecemos un entorno de trabajo híbrido (presencial los lunes en oficina, resto remoto). Promovemos una cultura de aprendizaje continuo y colaboración. Beneficios clave:

  • Plan de carrera personalizado para desarrollo profesional.
  • Certificaciones, para seguir creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, queremos conocerte.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
Gross salary $2200 - 3000 Full time
QA Automation Engineer
  • Ria Money Transfer
  • Santiago (Hybrid)
JavaScript Java C Agile
Ria Money Transfer, a business segment of Euronet Worldwide, Inc. (NASDAQ: EEFT), delivers innovative financial services including fast, secure, and affordable global money transfers to millions of customers along with currency exchange, mobile top-up, bill payment and check cashing services, offering a reliable omnichannel experience. With over 600,000 locations in nearly 200 countries and territories, our purpose remains to open ways for a better everyday life.
We believe we can create a world in which people are empowered to build the life they dream of, no matter who they are or where they are. One customer, one family, one community at a time.
We’re looking for a QA Engineer in Santiago, Chile, to help ensure the quality and reliability of our software through thorough testing and validation. Ideal candidates are detail-oriented, analytical, and passionate about delivering top-quality products.

Apply to this job through Get on Board.

Job functions

  • Design, develop, and maintain scalable automation frameworks for functional, regression, integration, and performance testing across web, mobile, and API layers.
  • Create robust, reusable test scripts using modern automation tools and languages (e.g., Selenium, Playwright, Cypress, REST-assured, etc.).
  • Integrate AI-powered testing tools (e.g., model-based testing, intelligent defect prediction, self-healing scripts) to enhance test coverage and reduce manual effort.
  • Implement CI/CD-integrated test pipelines using platforms like Azure DevOps, GitHub Actions, or Jenkins to enable continuous testing and rapid feedback loops.
  • Collaborate closely with developers, product owners, and data scientists to align test strategies with evolving product requirements and AI-driven features.
  • Perform intelligent defect triaging using bug tracking tools (e.g., Azure Boards, Jira) and link issues to test failures and root causes.
  • Continuously optimize test execution by applying parallelization, containerization (e.g., Docker), and cloud-based test environments.
  • Stay current with emerging trends in AI-assisted testing, autonomous QA, and DevTestOps to drive innovation in quality engineering practices.
  • Deliver actionable insights through detailed test reports, dashboards, and analytics to inform stakeholders and guide release decisions.

Position Requirements

  • Bachelor’s degree in Computer Science, Information Technology, or a related field.
  • Experience: You have proven work experience (min 3 years) in Mobile App Testing and Web Browser Testing.
  • Tech Stack: Ideally, you have knowledge of following points:
    • Programming Language & Frameworks: Basic knowledge in Java, JavaScript, C#, TestNG, Selenium.
    • Databases & OS used: MySQL, MariaDB, Windows, Linux, RedHat, CentOS
    • Tools & Utilities: Notepad++, Git, MySQL client, SoapUI and Postman
    • Debug & Test Programs: FinSim and PostMan
    • Protocols: JSON, SOAP and REST
  • Excellent analytical and problem-solving skills.
  • Strong attention to detail and a commitment to delivering high-quality software.
  • Good understanding of Agile/Scrum development methodologies.
  • Strong communication skills in both English and Spanish.

Benefits

  • Free Life Insurance
  • Supplemental Medical Insurance and Dental Insurance
  • Birthday day off
  • Various discounts as a member of Caja Los Andes
  • Euronet Stock Purchase Plan (NASDAQ)
  • Annual salary reviews
  • Agreement with Smart Fit (Gym)

Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ria Money Transfer pays or copays health insurance for employees.
Computer provided Ria Money Transfer provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer Bogotá
  • Servicio Latam
  • Bogotá (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

Apply exclusively at getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python).

Conditions

Compensation
Contratación Prestación de Servicios
Salario Abierto

VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4000 Full time
Generative AI Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Azure
Somos una empresa con 35 años en el mercado, con una fábrica de desarrollo de software y servicios de outsourcing. Nuestra matriz está en Concepción y operamos desde Santiago. Buscamos incorporar a un/una Generative AI Engineer para unirse a nuestro equipo de innovación y desarrollo de soluciones avanzadas de Inteligencia Artificial. El proyecto implica diseñar, desarrollar y desplegar soluciones de IA generativa, con foco en modelos de lenguaje de gran tamaño (LLMs), IA multimodal y pipelines escalables que se integren en entornos productivos. Colaborarás con equipos multidisciplinarios para identificar casos de uso, aplicar técnicas de ML y asegurar el cumplimiento de estándares éticos y de privacidad. Este rol te permitirá trabajar en proyectos desafiantes dentro de un entorno dinámico y orientado a la transformación digital de nuestros clientes en Latinoamérica.

Applications at getonbrd.com.

Funciones

Desarrollar, ajustar (fine-tuning) y optimizar modelos de IA generativa (LLMs, modelos de difusión, etc.) para distintos casos de uso. Implementar pipelines de IA escalables e integrar los modelos en entornos productivos. Colaborar con equipos multidisciplinarios para identificar casos de uso y entregar soluciones basadas en IA. Investigar tendencias emergentes en IA generativa y aplicar técnicas innovadoras para mejorar el rendimiento de los modelos. Asegurar el cumplimiento de principios éticos de IA y estándares de privacidad de datos. Participar en la definición de roadmaps tecnológicoss y participar en revisiones de código y pruebas de rendimiento.

Descripción

Requisitos y Habilidades: Título profesional o magíster en Computación, Inteligencia Artificial o carrera afín. 5 a 8 años de experiencia en desarrollo AI/ML, con al menos 2 años trabajando en IA generativa. Dominio de Python, TensorFlow y/o PyTorch. Experiencia con bases de datos vectoriales: Azure AI Search, OpenSearch, PgVector, ChromaDB, entre otras. Conocimiento de frameworks de IA agéntica como LangGraph, CrewAI, Autogen u otros. Manejo avanzado de herramientas de desarrollo asistido por IA como Cursor, Claude Code o GitHub Copilot. Fuerte comprensión de LLMs, transformers y modelos de difusión. Experiencia en plataformas cloud (AWS, Azure o GCP) y herramientas de MLOps. Buenas habilidades de comunicación y resolución de problemas. Deseable: experiencia en prompt engineering y RLHF. Conocimientos en IA multimodal (texto, imagen, audio).

Deseables

Experiencia en prompt engineering y RLHF (Reinforcement Learning from Human Feedback). Conocimientos en IA multimodal (texto, imagen, audio). Experiencia trabajando en entornos de desarrollo colaborativo y metodologías ágiles. Capacidad para aprender rápidamente y adaptarse a cambios en un entorno tecnológico en constante evolución.

Beneficios

Ofrecemos contratación por proyecto con condiciones claras en un ambiente laboral dinámico y orientado al desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el soporte técnico. Si te sumas a nuestro equipo, tendrás la oportunidad de crecer y contribuir al desarrollo de soluciones innovadoras en IA para nuestros clientes.

VIEW JOB APPLY VIA WEB
$$$ Full time
AI Engineer Jr
  • Improving South America
Python Artificial Intelligence Machine Learning Deep Learning
Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Official job site: Get on Board.

Funciones del cargo

En Improving South America, estamos en búsqueda de un Ingeniero de IA Junior que esté entusiasmado por unirse a nuestro equipo. Este rol es ideal para alguien que desea contribuir con sus conocimientos en inteligencia artificial y colaborar en proyectos innovadores que marcan la diferencia en diversas industrias.
Desarrollar y entrenar modelos de Machine Learning, asegurando su correcta implementación, validación y ajuste según los objetivos del negocio.
Aplicar técnicas de Procesamiento del Lenguaje Natural (NLP) para resolver problemas complejos, integrando LLMs, RAGs, embeddings y arquitecturas de agentes inteligentes.
Implementar buenas prácticas de observabilidad y monitoreo en modelos desplegados, incluyendo tracking de métricas clave, alertas y registros.
Realizar pruebas, mediciones de performance y mejoras continuas de accuracy en los modelos existentes.
Colaborar con equipos multidisciplinarios (científicos de datos, ingenieros, producto) para alinear soluciones técnicas con necesidades estratégicas.
Utilizar herramientas y librerías en Python como TensorFlow, PyTorch, Scikit-learn, entre otras, para el desarrollo de soluciones de inteligencia artificial.

Requerimientos del cargo

  • Nivel de inglés: Intermedio/avanzado (B2/C1).
  • Experiencia en Machine Learning, incluyendo desarrollo y entrenamiento de modelos.
  • Experiencia en AI Forecasting (excluyente), específicamente con:
    • Modelos de series temporales tradicionales (ARIMA, Prophet).
    • Redes neuronales recurrentes (RNN, LSTM).
    • Transformers aplicados a predicción.
    • Modelos multivariables para forecasting sobre grandes volúmenes de datos.
  • Experiencia en NLP (Procesamiento del Lenguaje Natural):
    • LLMs (Large Language Models).
    • RAGs (Retrieval-Augmented Generation).
    • Embeddings.
    • Arquitecturas de agentes inteligentes.
    • Buenas prácticas de observabilidad y monitoreo.
    • Medición de métricas, testing y mejora de accuracy.
    • Sólido manejo de Python y librerías como TensorFlow, PyTorch, Scikit-learn, entre otras.
    • Experiencia trabajando con grandes volúmenes de datos y construcción de pipelines de ML.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer México
  • Servicio Latam
  • Ciudad de México (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

© getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python)

Conditions

Condiciones
Contrato prestacion de servicios
Salario abierto

VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer Costa Rica
  • Servicio Latam
  • San José (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

© getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python).

Conditions

Condiciones
Contrato prestación de servicios
Salario abierto

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Plataforma
  • 2BRAINS
Python Linux Continuous Integration Continuous Deployment
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.
Contamos con un nutrido equipo de más de 480 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.
En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply directly through getonbrd.com.

El/La Ingeniero/a de Plataforma de 2Brains debe

El rol del Ingeniero de plataforma se encargara de diseñar y mantener infraestructuras seguras y escalables que impulsan la velocidad y eficiencia de los equipos de desarrollo. Se apoya en prácticas de Infraestructura como Código (Terraform, Ansible) para automatizar el aprovisionamiento y asegurar entornos consistentes y reproducibles.
Además, incorpora observabilidad y monitoreo para optimizar desempeño y costos, y gestiona la plataforma como un producto, con foco en el Developer Experience (DevEx). También lidera iniciativas de AI-Enhanced Operations, habilitando detección temprana de anomalías, auto-remediación y escalamiento predictivo.

¿Qué desafíos tendrá el/la Ingeniero/a de Plataforma?

  • Evolución de CI/CD: Diseñar, mantener y mejorar pipelines de integración y despliegue continuo, asegurando releases rápidos, seguros y confiables.
  • Colaboración y consultoría interna: Trabajar estrechamente con los equipos de desarrollo, entendiendo sus flujos de trabajo y transformando sus necesidades en soluciones de infraestructura efectivas.
  • Soporte operativo y resolución de bloqueos: Atender incidencias y brindar apoyo técnico en el día a día del ciclo de desarrollo, garantizando que los equipos puedan entregar valor sin fricciones.
  • Definición de estándares y documentación: Crear y mantener lineamientos claros que mejoren la calidad del proceso de despliegue y fomenten la autonomía de los desarrolladores.
  • Automatización: Detectar tareas repetitivas o complejas dentro del ciclo de vida del software y desarrollar scripts o herramientas que simplifiquen y automaticen estos procesos.

¿Qué conocimientos buscamos en el/la Ingeniero/a de Plataforma?

  • Experiencia en CI/CD: Manejo sólido de herramientas como GitLab CI (ideal), Jenkins o GitHub Actions.
  • Experiencia en Cloud Computing: Preferentemente en Google Cloud Platform (GCP).
  • Kubernetes (nivel usuario): Capacidad para desplegar aplicaciones, gestionar manifiestos y realizar troubleshooting de servicios (no se requiere experiencia avanzada en administración del clúster).
  • Programación y scripting: Conocimientos prácticos en Python o Bash para automatización y desarrollo de herramientas internas.
  • Infraestructura como Código: Experiencia con Terraform será considerada una ventaja.
  • Deseable: Conocimientos en autoescalado con KEDA, Service Mesh (Istio) o Cloud Functions en GCP.
  • Orientación al servicio y empatía: Habilidad para comunicarse de forma efectiva con equipos de desarrollo, comprender sus desafíos y priorizar soluciones que mejoren su experiencia diaria.

¿Qué competencias buscamos en el/la Ingeniero/a de Plataforma?

  • Colaboración
  • Orientación a resultados
  • Aprendizaje continuo
  • Pensamiento sistémico
  • Apertura al cambio
  • Comunicación
  • Mentoría
  • Pensamiento estratégico
  • Dar y recibir feedback
  • Influencia y persuasión

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps con AWS, Terraform y Github Actions
  • WiTi
DevOps Virtualization Amazon Web Services Continuous Deployment
WiTi es una empresa de software y soluciones tecnológicas dedicada a la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles. Nuestro objetivo es resolver problemas complejos mediante soluciones innovadoras y actuar como un partner estratégico para ayudar a nuestros clientes a tomar decisiones tecnológicas.
Este puesto forma parte de nuestro equipo de DevOps, trabajando en un entorno 100% remoto y multicultural, enfocado en la gestión de infraestructuras en la nube y en la automatización de procesos para mejorar la eficiencia operativa.

Apply through Get on Board.

Funciones del cargo

Buscamos un DevOps con experiencia en la gestión y optimización de infraestructura en la nube, especialmente en AWS. Será responsable de la implementación y gestión de IaC utilizando Terraform, así como de la automatización de flujos de trabajo con GitHub Actions. Sus funciones incluyen:
  • Administrar y mantener la infraestructura en AWS, asegurando disponibilidad, escalabilidad y seguridad.
  • Diseñar, implementar y mantener pipelines de CI/CD para liberar software de forma eficiente y segura.
  • Automatizar procesos para mejorar la eficiencia operativa y reducir tiempos de entrega.
  • Monitorear rendimiento, capacidad y costos; proponer mejoras basadas en métricas.
  • Colaborar estrechamente con equipos de desarrollo y operaciones para resolver incidencias y mejorar prácticas.
  • Aplicar buenas prácticas de seguridad y cumplimiento normativo en la infraestructura y procesos.
Buscamos proactividad, capacidad de comunicarse con diferentes equipos y orientación a resultados.

Descripción

Requerimos al menos 3 años de experiencia trabajando con Terraform para provisión y administración de infraestructuras en AWS. Se valorará experiencia en diseñar y mantener pipelines CI/CD con GitHub Actions y en prácticas de automatización y monitorización modernas. Debe demostrar capacidad para diseñar soluciones escalables, seguras y eficientes, y trabajar de forma colaborativa en equipos multidisciplinares. Se esperan habilidades de resolución de problemas, comunicación clara y enfoque en la mejora continua. Conocimientos en seguridad de la nube, cumplimiento normativo y gestión de costos son deseables.

Desirable

Certificaciones relevantes en AWS (por ejemplo, AWS Solutions Architect, DevOps Engineer) y/o Terraform Certified. Experiencia adicional con herramientas de orquestación, plataformas de observabilidad y scripting (Python, Bash). Capacidad para gestionar incidentes críticos y experiencia en entornos ágiles. Habilidades de mentoría y capacidad para compartir conocimientos dentro de un equipo remoto.

Beneficios

En WiTi, ofrecemos un entorno de trabajo 100% remoto, lo que permite una gran flexibilidad y autonomía. Además, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:
  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.
En WiTi, nuestro centro son las personas y la agilidad. Creemos en equipos 100% remotos y multiculturales, compartimos conocimientos entre todas las áreas y promovemos un ambiente de aprendizaje continuo. Horario flexible, posibilidad de formación y acompañamiento en tu desarrollo profesional. Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Fully remote You can work from anywhere in the world.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Linux Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply from getonbrd.com.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VIEW JOB APPLY VIA WEB
Gross salary $2400 - 3200 Full time
Cloud Engineer AWS + Python
  • CoyanServices
Python Agile SQL Virtualization

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Apply exclusively at getonbrd.com.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 3000 Full time
QA Automation (Cypress) Hibrido (Sector Oriente Chile)
  • Vita solutions SPA
  • Santiago (Hybrid)
JavaScript Java Python Git

Vita Wallet es una de las principales empresas de latinoamérica en el segmento de pagos cross border y crypto. Nuestra misión es permitir que empresas y personas puedan enviar y recibir pagos entre países de forma rápida, económica y segura.

Desde nuestra fundación en 2019, nos hemos enfocado en crear valor para nuestros clientes y consolidarnos regionalmente en LatAm. Desde entonces, miles de empresas y decenas de miles de personas han usado nuestros servicios. En este momento, nos encontramos en fase de escalamiento, no solo comercial, sino también a nivel tecnológico.

Job opportunity published on getonbrd.com.

Job functions

Se busca QA con al menos 3 años de experiencia, con el objetivo de garantizar la calidad del software mediante la ejecución de pruebas manuales y automatizadas utilizando Cypress, participando activamente en el ciclo de desarrollo para detectar y prevenir errores desde etapas tempranas.

️ Responsabilidades

● Diseñar, documentar y ejecutar pruebas manuales en aplicaciones web.

● Crear y mantener casos de prueba y reportes de resultados.

● Reportar errores de manera clara y estructurada.

● Automatizar pruebas E2E (end-to-end) usando Cypress.

● Automatizar pruebas mobile usando Appium.

● Automatizar pruebas API.

● Mantener y actualizar suites de pruebas automatizadas.

● Trabajar junto al equipo de desarrollo, product owners y QA en ciclos ágiles

● Participar en revisiones de historias de usuario y criterios de aceptación.

Qualifications and requirements

● Experiencia en pruebas manuales en aplicaciones web y móviles.

● Conocimientos sólidos en automatización con Cypress.

● Experiencia en pruebas móviles con Appium(Java/Python).

● Conocimientos en pruebas de servicios/API

● Conocimientos en lenguaje JavaScript.

● Conocimiento en herramientas de control de versiones (Git).

Habilidades blandas

● Atención al detalle y pensamiento analítico.

● Capacidad de trabajar en equipo y comunicar hallazgos de forma efectiva.

● Proactividad para proponer mejoras en procesos de testing.

● Adaptabilidad a cambios y aprendizaje continuo.

Desirable skills

Experiencia en el sector financiero

Conditions

Día de cumpleaños libre.
Oportunidades de capacitación

Computer provided Vita solutions SPA provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Senior (Automatización + AWS)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Python Agile QA

En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos, realizar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos integrar a un QA Senior especializado en automatización de pruebas y validación de plataformas en AWS, para trabajar en proyectos de alto impacto con clientes de primer nivel. El rol forma parte de un equipo ágil y dinámico, orientado a la entrega de soluciones confiables y escalables en entornos de Cloud y tecnología avanzada.

Applications: getonbrd.com.

Funciones

  • Definir e implementar estrategias de automatización de pruebas para aplicaciones web y APIs, utilizando herramientas como Playwright, Cypress, Puppeteer, Selenium o Pytest según el stack.
  • Diseñar, mantener y ejecutar planes de pruebas automatizadas, incluyendo pruebas de API, integración y regresión, con pipelines de CI/CD (Jenkins, GitHub Actions o GitLab).
  • Trabajar con AWS (ECS, Lambda, API Gateway, SQS, etc.) para validar despliegues, entornos y configuraciones, asegurando rendimiento y estabilidad.
  • Configurar y ejecutar pruebas de rendimiento (JMeter, k6, Gatling) y validar métricas con herramientas de monitoreo (CloudWatch, New Relic u otros).
  • Gestionar entornos contenedores Docker, ejecutando pruebas en entornos aislados y paralelos para acelerar la entrega.
  • Realizar pruebas de validación de interfaces, datos y flujos de negocio, asegurando la calidad de extremo a extremo.
  • Gestionar defectos y seguimientos en Jira, TestRail, Zephyr u otras herramientas de gestión de pruebas, proporcionando reportes claros y métricas de calidad.
  • Trabajar de forma colaborativa con equipos de desarrollo, seguridad y operaciones para promover prácticas de calidad y automatización.

Descripción

Buscamos un QA Senior con al menos 3 años de experiencia en automatización y validación de plataformas en AWS. El candidato ideal debe estar orientado a la entrega de soluciones de alta fiabilidad, con capacidad para diseñar e implementar estrategias de pruebas automatizadas y de rendimiento en entornos Cloud.
Requisitos clave incluyen experiencia en automatización con JavaScript/TypeScript (Playwright, Cypress, Puppeteer) o Python (Selenium, Pytest, Behave), pruebas de API (Postman/Newman) y BDD (Gherkin/Cucumber). Se valorará experiencia en CI/CD, contenedores Docker y monitoreo de aplicaciones en AWS, así como conocimiento de herramientas de gestión de pruebas (Jira, TestRail, Zephyr u similares). Se espera capacidad de trabajar en equipo, pensamiento analítico, atención al detalle y habilidades de comunicación para reportar hallazgos de forma clara.
Deseables conocimientos en fintech, medios de pago o retail, y experiencia previa en entornos ágiles, multiculturales y con clientes de alto perfil.

Requisitos deseables

Experiencia en entornos de servicios financieros, fintech o retail, con exposición a proyectos de integración de sistemas y plataformas de pago. Conocimiento adicional en seguridad de aplicaciones, pruebas de accesibilidad y cumplimientonormativo relacionado con regulaciones del sector. Habilidad para priorizar tareas, gestionar múltiples historias de usuario y trabajar de forma proactiva en un ambiente colaborativo. Certificaciones relacionadas con AWS, pruebas de software o metodologías ágiles serán valoradas positivamente.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
DevOps Semi Senior
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Git DevOps Virtualization Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa de desarrollo de software y servicios TI con más de 30 años de experiencia en el mercado latinoamericano. Nuestro objetivo es acompañar a las empresas en su Transformación Digital, brindando soluciones en desarrollo de software, monitoreo y mantenimiento de plataformas, IA, QA y servicios de outsourcing. Buscamos incorporar un Ingeniero DevOps Semi Senior para fortalecer nuestro equipo técnico en un entorno híbrido entre Concepción y Santiago, enfocado en garantizar la disponibilidad y rendimiento de nuestra plataforma web, APIs y servicios asociados, a través de prácticas de monitoreo, automatización y mejora continua.

This job is original from Get on Board.

Principales funciones

  • Implementar, configurar y mantener herramientas de monitoreo y alertas para todos los componentes de la plataforma web.
  • Monitorear el rendimiento de la infraestructura en la nube (AWS), APIs, servicios backend y aplicaciones frontend para garantizar alta disponibilidad y rendimiento.
  • Detectar, diagnosticar y resolver incidentes de disponibilidad o rendimiento de forma oportuna.
  • Colaborar con equipos de desarrollo, infraestructura y soporte para optimizar entornos de despliegue y operación.
  • Automatizar tareas de monitoreo, despliegue y gestión de incidentes cuando sea posible, promoviendo prácticas CI/CD.

Requisitos y perfil deseado

Buscamos un Ingeniero DevOps Semi Senior con al menos 2-3 años de experiencia en roles DevOps. Se valora sólida experiencia en servicios Cloud AWS y en monitoreo de plataformas web (Grafana, Prometheus, Datadog, New Relic u otras herramientas similares). Debe poseer conocimientos en CI/CD, Docker y control de versiones (Git). Capacidad para trabajar de forma colaborativa con equipos multidisciplinarios y para resolver problemas con pensamiento crítico y enfoque en la calidad.
Competencias clave: compromiso con la excelencia operativa, proactividad, buenas habilidades de comunicación, capacidad de trabajar en entornos dinámicos, orientación a la resolución de problemas y capacidad para gestionar múltiples prioridades. Se valorará experiencia en automatización de pipelines y experiencia en entornos híbridos o multi-nube.

Perfil deseable

Conocimientos adicionales en orquestación (Kubernetes), scripting (Python, Bash) y experiencia trabajando en proyectos de fábrica de software o outsourcing. Familiaridad con herramientas de gestión de incidentes, gestión de cambios y buenas prácticas de seguridad en la nube. Disponibilidad para operar en un entorno con matriz y coordinación entre sedes en Concepción y Santiago.

Beneficios

Ofrecemos contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico y colaborativo, enfocado en desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica, con más de tres décadas de experiencia y un equipo multidisciplinario. Contamos con comunicación diaria con nuestra matriz y otras operaciones, lo que facilita la colaboración y el apoyo técnico. En Genesys, valoramos el talento y la innovación, y te acompañamos en tu crecimiento profesional. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer – Proyecto (Híbrido)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Kubernetes
BC Tecnología es una consultora de TI que acompaña a clientes de servicios financieros, seguros, retail y gobierno en proyectos de infraestructura, desarrollo de software y outsourcing de personal. En este rol te incorporarás a un proyecto estratégico dentro de nuestra práctica de DevOps, trabajando con equipos multidisciplinarios para entregar soluciones escalables y seguras en entornos cloud. Nuestro foco es la excelencia técnica, la agilidad y la satisfacción del cliente, con un marco de trabajo colaborativo y oportunidades de crecimiento profesional.
Como parte del equipo, tendrás la oportunidad de contribuir a la automatización de infraestructuras, la gestión de entornos cloud y la madurez de pipelines de CI/CD, apoyando a clientes en su transformación digital y en la operación de entornos críticos.

This posting is original from the Get on Board platform.

Funciones y responsabilidades

  • Gestionar infraestructura en la nube (AWS, GCP u OCI) y redes virtuales, asegurando disponibilidad, escalabilidad y seguridad.
  • Diseñar, implementar y mantener pipelines de CI/CD con enfoque en automatización y reproducibilidad.
  • Configurar y administrar contenedores (Kubernetes) y entornos Linux, optimizando rendimiento y costos.
  • Trabajar con Terraform para aprovisionamiento de infraestructura multi-ambiente y gestión de estado.
  • Monitorear, registrar y automatizar respuestas a incidentes, garantizando alta disponibilidad y recuperación ante desastres.
  • Participar en revisiones de arquitectura y colaborar con equipos de desarrollo para entregar soluciones eficientes.
  • Apoyar en prácticas de seguridad, cumplimiento y gestión de cambios dentro de proyectos de clientes.

Requisitos y perfil deseado

Buscamos un profesional con al menos 3 años de experiencia comprobable en DevOps, capaz de gestionar infraestructuras en la nube y de liderar iniciativas de automatización. Debe demostrar dominio técnico en Terraform, Kubernetes y GitLab, así como experiencia sólida en automatización, CI/CD y despliegue de infraestructuras. Se valorarán conocimientos en contenedores, Linux y buenas prácticas de seguridad y monitoreo. Buscamos alguien proactivo, orientado a la entrega de valor, con habilidad para comunicarse de manera clara con equipos técnicos y de negocio. Se valorarán certificaciones relevantes y experiencia en entornos regulados o financieros.

Habilidades deseables

Experiencia en entornos multi-nube, herramientas de observabilidad (Prometheus, Grafana, ELK), experiencia en scripting (Bash, Python) y gestión de costos en la nube. Capacidad para trabajar de forma autónoma, con mentalidad de mejora continua, y habilidades de colaboración para trabajar en equipos ágiles y multiculturales.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Automatizador – Latam (, Proyecto)
  • BC Tecnología
JavaScript Java Python Git
En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos y brindar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un QA Automatizador para LATAM, orientado a liderar iniciativas de automatización, promover cultura Shift Left y participar en pipelines CI/CD para garantizar QA continua en ecosistemas modernos. Colaborarás con equipos multidisciplinarios para entregar soluciones de software de alta calidad y mejorar procesos de pruebas a lo largo del ciclo de desarrollo.

Apply directly through getonbrd.com.

QA Automatizador – LATAM (Remoto, Proyecto)

  • Diseñar e implementar frameworks de automatización robustos para pruebas funcionales, de regresión, smoke y end-to-end (E2E).
  • Automatizar pruebas sobre microservicios, APIs y UI, asegurando cobertura adecuada y mantenimiento de las suites en pipelines CI/CD.
  • Gestionar ambientes con Docker y Kubernetes para entornos de pruebas consistentes y escalables.
  • Coaching al equipo de QA, revisión de pull requests y promoción de prácticas de calidad desde etapas tempranas (Shift Left).
  • Colaborar con equipos de desarrollo y DevOps para optimizar pipelines de integración y entrega continua (CI/CD) y mejorar la calidad del producto.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas y un historial comprobable en entornos modernos. Debe dominar herramientas como Playwright, Cypress, Selenium, Postman y frameworks como Robot Framework o similares. Experiencia con REST APIs, pruebas en contenedores (Docker) y orquestación (Kubernetes) es imprescindible. Conocimientos en Java, JavaScript, TypeScript, Python o Bash para scripting y mantenimiento de pruebas. Familiaridad con herramientas de CI/CD (GitHub Actions, Jenkins, GitLab CI, Bitbucket) y gestión de código en repositorios (Git). Capacidad para comunicarse efectivamente en español e inglés técnico, y habilidades para trabajar en entornos dinámicos y orientados a resultados. Se valorarán experiencia en AWS o tecnologías cloud y capacidad de liderazgo técnico dentro de equipos de QA.

Requisitos deseables

Conocimientos en herramientas de testing de rendimiento y seguridad, experiencia en automatización en entornos multi-nube, certificaciones en calidad de software y familiaridad con metodologías ágiles. Capacidad para adaptar frameworks a nuevas tecnologías y promover una cultura de calidad y mejora continua. Se valorará experiencia en equipos que trabajan en sectores regulados y con alta exigencia de cumplimiento.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer / Cloud Engineer (Latam)
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología, una consultora de TI con experiencia en servicios, outsourcing y selección de profesionales, busca ampliar su equipo con un DevOps Engineer / Cloud Engineer para un proyecto inicial de 6 meses con posibilidad de extensión. El rol contribuirá a la estabilidad y rendimiento de plataformas en producción, trabajando en colaboración con Desarrollo y Seguridad, en un entorno de clientes de alto nivel y diversos sectores (finanzas, seguros, retail y gobierno).

Job opportunity published on getonbrd.com.

Funciones

  • Garantizar la disponibilidad, estabilidad y rendimiento de sistemas productivos.
  • Gestionar infraestructura como código y automatizar despliegues.
  • Administrar contenedores y clusters Kubernetes.
  • Implementar monitoreo y alertas (Prometheus, CloudWatch, Grafana).
  • Organizar respuestas a incidentes y participar en post-mortems para mejora continua.
  • Trabajar estrechamente con Desarrollo y Seguridad para optimizar la arquitectura.
  • Documentar runbooks y procedimientos operativos para soporte y escalamiento.

Requisitos y perfil

Ingeniería en Informática, Sistemas o similar. Mínimo 3 años en roles DevOps, Cloud u Operations. Sólido dominio de Linux/UNIX, redes y conceptos de seguridad. Experiencia en arquitecturas de alta disponibilidad y gestión de incidentes. Se valora experiencia con entornos en la nube (AWS, Azure, GCP) y herramientas IaC (Terraform, CloudFormation, Ansible). Conocimientos en contenedores (Docker) y orquestación (Kubernetes). Habilidades de scripting (Bash, Python; PowerShell deseable). Capacidad para trabajar de forma proactiva, con buena comunicación y enfoque colaborativo.

Deseables

Certificaciones relevantes en nube (AWS/Azure/GCP) y DevOps; experiencia en entornos regulados; experiencia en monitoreo avanzado (ELK, Datadog) y gestión de costos en la nube. Orientación a soluciones y capacidades de análisis para resolver incidentes de manera eficiente; habilidades de documentación y entrega de runbooks claros.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps / SRE – Plataforma Cloud (Oci)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Kubernetes
BC Tecnología es una consultora de TI con experiencia en diseñar soluciones y formar equipos para servicios financieros, seguros, retail y gobierno. Buscamos un DevOps/SRE para diseñar, implementar y operar una plataforma Cloud en Oracle Cloud (OCI), asegurando disponibilidad, seguridad y escalabilidad. El candidato trabajará en un entorno híbrido, con foco en infraestructura OCI, orquestación con Kubernetes/OKE, automatización con Terraform e IaC, pipelines de CI/CD y observabilidad. Participará en proyectos innovadores, con equipos multidisciplinarios, para entregar soluciones robustas y escalables.

Apply to this job at getonbrd.com.

Funciones

  • Operación de infraestructura en OCI (redes, balanceadores de carga, WAF, bases de datos y almacenamiento).
  • Administración de Kubernetes/OKE, contenedores, Helm y GitOps (Argo CD).
  • Automatización de infraestructura y despliegues con Terraform, CI/CD (GitLab/Jenkins/GitHub Actions) y scripting (Bash/Python).
  • Gestión de observabilidad (Prometheus, Grafana, ELK/OCI Logging) y prácticas SRE para disponibilidad y rendimiento.
  • Gestión de seguridad: IAM, políticas, Vault/KMS, escaneo de imágenes y cumplimiento de estándares.
  • Colaboración con equipos de Infraestructura, Seguridad y Desarrollo para entrega continuada.
  • Documentación técnica y transferencia de conocimiento a equipos internos.

Descripción

Buscamos un profesional con al menos 3 años de experiencia en DevOps/SRE/Plataforma, con experiencia práctica en OCI y Kubernetes productivo. Debe dominar Linux, networking, IaC, CI/CD y monitoreo. Se valorarán certificaciones OCI o Kubernetes (CKA/CKAD/CKS) y experiencia en entornos regulados. El rol implica diseñar y operar una plataforma Cloud confiable, segura y escalable, enfocada en la entrega de servicios de alto rendimiento para clientes de servicios IT y finanzas.

Deseables

Certificaciones OCI o Kubernetes (CKA/CKAD/CKS). Experiencia en entornos regulados y auditorías de seguridad. Conocimiento adicional en seguridad de contenedores, gestión de secretos y cumplimiento normativo. Capacidad de trabajo en equipo, proactividad y orientación a resultados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 2900 Full time
DevOps Engineer / Platform Engineer
  • Coderslab.io
Python DevOps Virtualization Docker

Coderslab.io es una firma de tecnología que ayuda a las empresas a transformar y hacer crecer sus negocios mediante soluciones innovadoras. Formamos parte de una organización en rápida expansión, con más de 3,000 empleados globalmente y presencia en América Latina y Estados Unidos. Trabajarás en equipos diversos compuestos por los mejores talentos tecnológicos, participando en proyectos desafiantes que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno dinámico y orientado a resultados.

Official job site: Get on Board.

Funciones

  • Implementar infraestructura reproducible y versionada en OCI utilizando Terraform.
  • Automatizar despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en GitLab.
  • Diseñar y operar arquitecturas basadas en contenedores con Kubernetes y Helm.
  • Gestionar la seguridad de la plataforma con HashiCorp Vault e políticas de OCI IAM.
  • Realizar hardening, tuning y troubleshooting de sistemas Oracle Linux.
  • Integrar servicios mediante Kong API Gateway y políticas personalizadas.
  • Garantizar el cumplimiento de estándares como PCI-DSS y prácticas de ciberseguridad.
  • Desarrollar scripts de automatización en Bash y Python (integración con APIs REST).
  • Colaborar con equipos de seguridad, desarrollo y operaciones para entregar soluciones robustas y escalables.

Requisitos

  • Más de 5 años de experiencia en roles de DevOps/Platform Engineering.
  • Experiencia demostrable en Oracle Cloud Infrastructure (OCI).
  • Dominio avanzado de Oracle Linux y administración de contenedores (Docker, Kubernetes).
  • Conocimiento sólido en seguridad de infraestructura y gestión de secretos.
  • Experiencia en entornos regulados o bancarios (deseable).
  • Capacidad para trabajar en entornos con alta disponibilidad y resiliencia.

Fortalezas Valoradas

Experiencia en implementación de infraestructura como código, automatización de despliegues mediante GitOps, y gestión de secretos en entornos sensibles. Conocimiento en PCI-DSS y prácticas de ciberseguridad, así como habilidades de scripting y resolución de incidentes en entornos críticos.

Beneficios

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Site Reliability Engineer
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps
About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Apply from getonbrd.com.

About the Role

  • Cross-Functional Collaboration
    • Partner with engineering teams to improve system reliability and deployment practices
    • Engage with teams on SRE guidelines and best practices about automation and infrastructure
    • Work with security teams to implement secure, compliant infrastructure
  • Operational Excellence
    • Ensure 24/7 system availability and rapid incident response
    • Implement and maintain disaster recovery and business continuity plans
    • Lead efforts to increase automation, observability and monitoring
    • Skilled at performance tuning — identifying bottlenecks at infra, app, and network layers.
  • Security
    • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
    • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.
  • Cultural
    • Advocate for blameless culture and continuous improvement.
    • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requirements

  • 4-5 years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Proven track record implementing large-scale, distributed systems
  • Strong background in AWS, particularly with serverless architecture and container orchestration
  • Solid understanding of observability, incident management, and system resilience best practices.
  • Strong proficiency in at least one programming language (Typescript, Python, Go, etc.).
  • Knowlegde of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Proficiency with monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, Jenkins, etc)
  • Understanding of database systems and performance optimization
  • English (C1/C2) fluency
  • Ability to translate technical concepts to non-technical audiences
  • Experience with agile methodologies and project management

Nice to have

Previous experience as a Fullstack Developer is a plus

Our Benefits

  • Formal employment (“Planilla”) under a Peruvian entity — all legal benefits in soles (CTS, Gratificaciones, etc.).
  • Full-time schedule: Monday–Friday, 9am–6pm.
  • Unlimited vacation days 🏖️ — yes, we mean it!
  • EPS healthcare (Rimac) covered 100%.
  • Oncology insurance (Rimac) covered 100%.
  • AFP retirement plan.
  • Coworking access in Miraflores, Lima — with free beverages, talks, bicycle parking, and amazing city views.
  • Company laptop and tools provided.

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Free car parking You can park your car for free at the premises.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 4000 Full time
DevOps / Cloud Engineer (Santiago Hibrido)🚀
  • Vita solutions SPA
  • Santiago (Hybrid)
Java Linux Web server Scala

Vita Wallet es una de las principales empresas de latinoamérica en el segmento de pagos cross border y crypto. Nuestra misión es permitir que empresas y personas puedan enviar y recibir pagos entre países de forma rápida, económica y segura.

Desde nuestra fundación en 2019, nos hemos enfocado en crear valor para nuestros clientes y consolidarnos regionalmente en LatAm. Desde entonces, miles de empresas y decenas de miles de personas han usado nuestros servicios. En este momento, nos encontramos en fase de escalamiento, no solo comercial, sino también a nivel tecnológico.

Nos encontramos en búsqueda de un(a) DevOps / Cloud Engineer para el área TI, buscamos un perfil con fuertes habilidades técnicas en infraestructura y GCP, con experiencia previa en compañías similares e idealmente habiendo liderado o participado en procesos de implementación de servicios en la nube. Buscamos un perfil con sólidos valores éticos y la ambición de construir productos de escala global.

Official source: getonbrd.com.

Job functions

Principales responsabilidades
● Diseñar, implementar y mantener infraestructura en la nube (GCP).
● Implementar y administrar redes privadas, VPNs, proxys, firewalls, balanceadores de carga y políticas de seguridad.
● Implementar y administrar clústeres y contenedores con Docker y Kubernetes (GKE).
● Desarrollar y mantener pipelines CI/CD con GitLab (runners, stages, jobs).
● Automatizar despliegues de infraestructura usando Terraform o similares.
● Monitorear costos, rendimiento y disponibilidad de entornos cloud.
● Mantener buenas prácticas de IaC (Infraestructura como Código).
● Desarrollar y mantener planes de continuidad del negocio y recuperación en caso de incidentes.
● Participar en reuniones de equipo para discutir el progreso y resultados de los diferentes proyectos asignados

Qualifications and requirements

+4 años de experiencia profesional bajo prácticas DevOps o similares.
● Amplia experiencia en Google Cloud Platform (GCP).
● Experiencia administrando infraestructura en la nube y entornos Linux.
● Sólidos conocimientos en Docker y Kubernetes (GKE, EKS, Helm Charts).
● Experiencia comprobada en pipelines de CI/CD utilizando GitLab CI/CD, GitHub Actions o Jenkins.
● Dominio de configuración de pipelines CI/CD con GitLab y uso de Templating Engines.
● Conocimientos de redes con experiencia en configuración de VPNs, proxies, firewalls y balanceadores de carga.
● Familiaridad con Apache Kafka y arquitecturas basadas en microservicios.
● Capacidad de resolución de problemas y pensamiento analítico aplicado a procesos de automatización.
● Foco en mejora continua de procesos, optimización de costos y eficiencia operativa.

Formación Académica
● Certificaciones en GCP (excluyente).
● Titulado como Ingeniero informático, en sistemas o carreras afines.
● Certificaciones técnicas afines a las competencias (excluyente).

Modalidad
● Modalidad Hibrida.
● Ubicación: Sector Oriente de Santiago

Habilidades Blandas
● Pensamiento estratégico
● Comunicación efectiva.
● Alta orientación a resultados, calidad y eficiencia operativa.
● Enfoque en innovación y mejora continua.
● Toma de decisiones bajo presión.
● Proactividad y adaptabilidad.
● Ética profesional e integridad

Desirable skills

Inglés Oral y escrito

Conditions

Día de cumpleaños libre.

Computer provided Vita solutions SPA provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
Senior AWS Engineer (Night Shift)
  • Niuro
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply to this job through Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior en Automatización de Pruebas
  • CoyanServices
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

This posting is original from the Get on Board platform.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Lead DevOps Engineer
  • Niuro
DevOps Virtualization Big Data BigQuery
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. As a Lead DevOps Engineer within Niuro, you will join a globally distributed, autonomous team focused on delivering robust, scalable cloud-based solutions for data-heavy fintech projects. You will partner with client teams to architect and implement end-to-end cloud operations, automation, and monitoring in a fast-paced, high-impact environment. The role emphasizes hands-on leadership, cross-functional collaboration, and the ability to drive infrastructure excellence across multiple projects, ensuring reliability, security, and rapid delivery. This position offers 100% remote work with opportunities for long-term collaboration and professional growth within a supportive, globally distributed company.

Job source: getonbrd.com.

Lead DevOps Engineer

  • Own the end-to-end DevOps lifecycle for cloud-based fintech data platforms, including design, deployment, monitoring, and ongoing optimization.
  • Lead architecture decisions around Azure, Terraform, and Cloudflare integrations to deliver scalable, secure, and highly available environments.
  • Implement and manage Grafana-based observability, alerts, and automated remediation to minimize production issues and downtime.
  • Engineer continuous deployment pipelines, implement hotdeploy processes, and oversee cloud operations to support rapid feature delivery with minimal risk.
  • Plan and execute data migrations to data warehouses (e.g., BigQuery) and reporting platforms (e.g., Power BI), coordinating with data engineers and analysts.
  • Containerize applications using Docker and manage container orchestration, ensuring reproducibility and efficient resource usage.
  • Validate changes autonomously, performing risk assessments to ensure minimal bugs and production impact.
  • Collaborate with fintech product teams to translate business requirements into scalable DevOps solutions, maintaining strong emphasis on security and compliance.
  • Mentor junior engineers, promote best practices, and drive continuous improvement in processes and tooling.

What you will bring

We are seeking a senior DevOps engineer with deep expertise in Azure, Terraform, and Cloudflare, complemented by hands-on experience with Grafana, Docker, and data-focused cloud operations. The ideal candidate will have a track record of delivering secure, scalable cloud platforms for fintech or data-intensive applications, with strong communication and autonomous delivery capabilities. You should be comfortable working in a fully remote, globally distributed team, actively collaborating with cross-functional stakeholders to align infrastructure with product goals. Key skills include proficiency in BigQuery, ETL processes, data migration strategies, and experience enabling seamless CI/CD, monitoring, and incident response. Excellent problem-solving, leadership, and a proactive approach to continuous improvement are essential.

Nice-to-have

Desirable qualifications include prior fintech or lending domain exposure, experience with Power BI data modeling, and a demonstrated ability to lead in a matrixed, remote environment. Familiarity with security and compliance standards relevant to financial services (e.g., data protection, access controls, audit trails) is highly valued. Candidates who have led data migrations or large-scale cloud modernization efforts will stand out, along with those who have mentored teams and advanced architectural thinking in DevOps contexts.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2500 Full time
DevOps Senior Freelance
  • CoyanServices
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply only from getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Official source: getonbrd.com.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VIEW JOB APPLY VIA WEB
$$$ Full time
Lead QA Engineer
  • Niuro
QA Continuous Deployment CI/CD QA Engineer
Niuro connects projects with elite tech teams and partners with leading U.S. companies. As a global provider of autonomous, high-performance teams, Niuro focuses on delivering innovative solutions while handling all administrative tasks (hiring, payments, training) so engineers can concentrate on impact. Our engineers work on technically rigorous industrial data projects, driving innovation and professional growth. This role sits within a scalable QA function that supports fintech and lending platforms, enabling teams to release robust software with high quality and operational reliability. Joining Niuro means being part of a global community dedicated to technical excellence and continuous learning, with strong administrative support and clear opportunities for leadership development and career progression.

Apply directly at getonbrd.com.

Responsibilities

  • Lead the design, implementation, and execution of comprehensive test strategies for fintech/lending products, including edge cases, complex scenarios, and happy paths.
  • Develop and maintain robust test automation frameworks and tools (experience with Reflect or similar tools is a plus).
  • Assess and improve test coverage, write clear, maintainable test plans, and ensure tests are repeatable and scalable across multiple releases.
  • Analyze code and functionality to identify blockers, unblock issues, and validate fixes independently.
  • Manage test suites and reporting to ensure transparency, traceability, and ease of maintenance for the broader team.
  • Collaborate with Product and Development teams to define acceptance criteria and ensure quality from design through production.
  • Communicate clearly and autonomously, delivering high-quality results with minimal production impact.
  • Mentor junior QA engineers, foster best practices, and participate in continuous improvement initiatives.

Requirements

  • Proven experience as a Lead QA Engineer or equivalent, with strong test automation and manual testing capabilities.
  • Solid understanding of fintech / lending products, risk controls, and regulatory considerations in software testing.
  • Strong ability to analyze, simplify, and solve complex problems with practical, fast, and reliable solutions.
  • Excellent communication and collaboration skills, with a proactive and autonomous work style.
  • Experience designing and executing end-to-end test plans, including non-functional testing (performance, security, reliability) as applicable.
  • Familiarity with modern QA tooling, CI/CD integration, and test reporting dashboards.
  • Strong problem-solving mindset, attention to detail, and a passion for delivering high-quality software.

Desirable

  • Experience with automated API and UI testing in complex data-driven applications.
  • Knowledge of financial domain risk controls, lending workflows, and regulatory considerations.
  • Prior leadership experience or mentoring responsibilities within QA teams.
  • Experience working in remote, global teams and coordinating across time zones.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Especialista TI Administrador Active
  • Coderslab.io
  • Santiago (Hybrid)
Azure Cloud Computing ITIL Cloud
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un ADMINISTRADOR ACTIVE DIRECTORY/ENTRA ID para sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Apply directly on Get on Board.

Funciones del cargo

  1. Administración de servicio Active Directory, control y gestion de plataforma de autentificación de usuarios y servicios
  2. Administración de entornos hibridos en Azure (Entra ID), Control y Gestión
  3. Administración de entornos hibridos Office 365
  4. Generación de reporteria de plataformas de servicios relacionados al servicio
  5. Elaboración de reportes pra generacion de KPI e indicadores mensuales
  6. Monitoreo y gestion de ptching de plataformas de servicios de AD
  7. Atención de requerimientos e incidentes en base a control de ticktera
  8. Participación en sesiones tecnicas con clientes internos y proveedores.

Requerimientos del cargo

EXPERIENCIA
* 3+ años administrando Active Directory y servicios Microsoft
* 2+ años con Azure AD/Entra ID y entornos híbridos
* Experiencia sólida en Office 365, Exchange Online, SharePoint
* Conocimiento en PowerShell y automatización de tareas
COMPETENCIAS TÉCNICAS
* Active Directory: AD DS, ADFS, GPO, DNS
* Azure/Entra ID: Azure AD Connect, MFA, Conditional Access
* Office 365: Exchange Online, Teams, SharePoint, Security Center
* Herramientas: PowerShell, Azure Portal, herramientas de monitoreo
* Certificaciones deseables: AZ-104, MS-100, MS-101, ITIL

Condiciones

Modalidad de contratación: Plazo fijo

VIEW JOB APPLY VIA WEB
Gross salary $2700 - 3500 Full time
DevOps
  • Coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply at the original job on getonbrd.com.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

VIEW JOB APPLY VIA WEB
$$$ Full time
Experienced DevOps Engineer
  • Coderslab.io
Redis Agile PostgreSQL Git

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de CI/CD para mejorar la entrega continua de software.
  • Administrar y optimizar entornos de contenedores y orquestación con Docker, Kubernetes y otras tecnologías.
  • Implementar prácticas robustas de monitoreo, seguridad y alta disponibilidad.
  • Gestionar infraestructura mediante Infraestructura como Código (IaC) y herramientas de automatización.
  • Documentar, estandarizar y optimizar procesos y arquitecturas DevOps.
  • Colaborar con equipos de desarrollo y operaciones para fomentar la cultura DevOps y metodologías ágiles.

Requerimientos del cargo

Experiencia

  • Más de 3 años en roles de DevOps o administración de infraestructura.
  • Más de 2 años en administración de sistemas Linux (sysadmin).
  • Experiencia en entornos ágiles como Scrum y Kanban.
  • Familiaridad con la cultura y prácticas DevOps.

Conocimientos Clave

  • Oracle WL/OSB.
  • Infraestructura como Código (IaC): Terraform, Pulumi.
  • Control de versiones y CI/CD: GIT/GitLab, ArgoCD.
  • Contenedores y orquestación: Docker, Containerd, Swarm, Kubernetes (GKE, AKS).
  • Automatización y configuración: Chef, Ansible.
  • Cloud Computing: experiencia en Azure o GCP.
  • Gestión de secretos: Vault u otras herramientas similares.
  • Monitoreo y observabilidad: Prometheus, Grafana, ELK, Datadog.
  • Redes y seguridad: protocolos, balanceo de carga, firewalls.

Conocimientos Deseables

  • API Management: Apigee, Kong.
  • Mensajería: RabbitMQ.
  • Bases de datos: Postgres, Redis, MongoDB.

¿Qué ofrecemos?

  • Trabajo en un entorno dinámico y tecnológico.
  • Oportunidades de crecimiento y aprendizaje continuo.
  • Cultura colaborativa y orientada a la innovación.
  • Flexibilidad y modalidad de trabajo a negociar.

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3900 - 4600 Full time
Lead Data Scientist (Growth Engine) Chile
  • Checkr
  • Santiago (Hybrid)
Data Science Growth B2B SaaS

Checkr está construyendo un centro de innovación en Santiago para impulsar nuestro motor de Crecimiento (Growth Engine) con impacto global. Este proyecto combina Ciencia de Datos, Ingeniería y Growth de Producto para optimizar adquisición, activación y retención de usuarios. Liderarás la hoja de ruta experimental y trabajarás estrechamente con equipos en Estados Unidos para cerrar la brecha entre matemática avanzada, GenAI y métricas de negocio. Serás el motor técnico que diseñe experimentos rigurosos, determine métricas clave y escale soluciones de IA para acelerar la conversión y reducir churn. Tu trabajo conectará análisis, modelos predictivos y pipelines operacionales que permiten decisiones basadas en datos y resultados de negocio tangibles.

Apply to this job opportunity at getonbrd.com.

Funciones y responsabilidades

  • Propiedad del Motor de Crecimiento: definir métricas clave, construir y optimizar el pipeline de experimentación (A/B testing) de alta velocidad para incrementar la conversión y disminuir la deserción.
  • GenAI a Escala de Producción: diseñar, entrenar y desplegar modelos basados en LLMs y herramientas GenAI; automatizar insights, prototipos de modelos predictivos y flujos de trabajo que hagan el trabajo pesado por ti.
  • Liderar con Datos: colaborar con líderes de Ingeniería, Marketing y Diseño para implementar funcionalidades impulsadas por ML (p. ej., puntuación de leads, onboarding dinámico).
  • Despliegue a Producción: llevar modelos desde el laboratorio a entornos de producción, monitorizando performance y estableciendo mantenibilidad y gobernanza de datos.
  • Definir la hoja de ruta basada en datos: traducir requerimientos de negocio a iniciativas de datos con impacto medible en crecimiento y retención.

Descripción y perfil buscado

Buscamos un(a) Lead Data Scientist con experiencia probada en entornos de alto crecimiento B2B SaaS o tecnología acelerada. Debes combinar dominio técnico con capacidad para influir a nivel de VP y colaborar estrechamente con equipos globales. Se valorará experiencia en crecimiento de productos, experimentación rigurosa y uso de GenAI para acelerar descubrimiento y implementación de soluciones de negocio. Requerimos habilidades analíticas profundas, intuición de producto y capacidad para comunicar conceptos complejos de forma clara a stakeholders técnicos y no técnicos.

Requisitos

  • Dominio avanzado del inglés es obligatorio. Debatirás ideas con stakeholders de nivel VP en EE. UU.
  • Disponibilidad para trabajar híbrido en Santiago, 3x2.
  • Licenciatura en Ciencias de la Computación, Ingeniería, Ciencia de Datos, o experiencia equivalente altamente preferida.
  • Más de 8 años de experiencia en Ciencia de Datos o ML, idealmente en entornos de alto crecimiento B2B SaaS o tecnología de ritmo acelerado.
  • Un dominio sólido de Python, SQL y las prácticas modernas de MLOps y CI/CD de datos.
  • Base sólida en matemáticas y/o modelado estadístico — crítica para diseñar experimentos robustos y construir modelos ML efectivos.
  • Experiencia práctica (o pasión profunda) en el aprovechamiento de herramientas de GenAI para acelerar la exploración de datos, crear prototipos más rápido y automatizar flujos de trabajo repetitivos.
  • Te mueves rápido; prefieres lanzar y aprender; amas la velocidad, la manipulación creativa de datos (creative data wrangling) y desafiar suposiciones.

Beneficios y cultura

  • Contrato indefinido.
  • Salario competitivo en CLP.
  • Seguro de salud, vida y dental para ti y tu familia.
  • Bono anual de $3,000 USD para aprendizaje y desarrollo.
  • RSU.
  • 5 días adicionales de vacaciones.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Data Scientist/aI MLOps para Montar Area de AI
  • Modelab
  • Santiago (Hybrid)
Python Data Analysis SQL Artificial Intelligence

El/la candidato/a será de los primeros integrantes de la nueva área de Inteligencia Artificial – que se desarrollará con Modelab – de una las empresas chilenas con más reconocimiento internacional, con miles de empleados en Chile y en el extranjero. El/la candidato/a trabajará con expertos de matemática de datos, ingenieros de procesos industriales, y del área de negocios de la empresa, resolviendo problemas de real relevancia industrial y alto valor agregado, y en interacción con equipos internacionales. En la entrevista te explicamos los detalles.

Exclusive to Get on Board.

Funciones principales

  • Diseñar, desarrollar y validar modelos analíticos para optimizar procesos industriales y operativos.
  • Realizar analítica descriptiva, diagnóstica y predictiva para apoyar la toma de decisiones en manufactura y mantenimiento.
  • Implementar soluciones de machine learning y estadísticas con validación experimental y seguimiento de KPIs.
  • Colaborar con ingeniería, operaciones y negocios para definir requerimientos y traducirlos en soluciones técnicas efectivas.
  • Dirigir iniciativas de automatización y mejora continua, promoviendo buenas prácticas de modelado y gobernanza de datos.
  • Mentorizar a colegas y fomentar un ambiente de aprendizaje y mejora constante.
  • Comunicar hallazgos y resultados de forma clara a stakeholders y equipos multidisciplinarios.

Si tu perfil es más "AI / MLOps" También estamos interesados en tu CV!

Requisitos - perfil deseado

Buscamos profesionales con experiencia demostrable en ciencia de datos aplicada a procesos industriales. Debe poseer sólidos fundamentos en estadística, machine learning y análisis de datos, así como experiencia en entornos de manufactura o procesos de ingeniería. Se valorarán conocimientos en mantenimiento predictivo, optimización de procesos y experiencia con herramientas de análisis y visualización de datos. Se esperan habilidades para trabajar en equipos multifuncionales, capacidad de explicar resultados complejos de forma clara y orientación a resultados de negocio. Requisitos mínimos: experiencia comprobable como Data Scientist Senior o Experto, manejo de Python , SQL y herramientas de análisis de datos; conocimiento de metodologías de experimentación y validación; capacidad para trabajar en entornos dinámicos y cambiantes; inglés técnico.

Requisitos – bonus

Experiencia en proyectos industriales, conocimiento de plataformas de datos industriales, mantenimiento predictivo y optimización de procesos. Deseable experiencia en liderar equipos y mentorizar a otros data scientists. Habilidades de comunicación y presentaciones efectivas, pensamiento analítico, curiosidad por la mejora continua y orientación a resultados de negocio.

Si vienes al mundo de la ciencia de datos desde la ingeniería civil eléctrica, mecánica, química, matemática, o industrial, podrías ser el candidato ideal.

Beneficios

Proyectos "Greenfield", donde puedes dejar tu marca.
Viernes trabajo hasta 16:45
Trabajo Híbrido, 2 días remoto, 3 en oficina (Santiago, sector El Golf).
Clases particulares de inglés (si es que las necesitas)

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Apply directly through getonbrd.com.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3200 - 3500 Full time
Ingeniero/a de Datos Inglés Avanzado
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Agile SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años en el mercado latinoamericano, busca un/a Ingeniero/a de Datos con inglés avanzado para planificar, ejecutar y reportar proyectos de datos de diverso alcance. El rol implica trabajar de forma autónoma con información compleja, proponiendo soluciones sólidas a problemas de negocio. La posición forma parte de nuestro equipo de ingeniería de datos, colaborando con clientes de alto perfil y con una visión de transformación digital que integra tecnologías de nube, analítica y automatización.

Apply through Get on Board.

Funciones y Responsabilidades

  • Diseñar, construir y mantener pipelines de datos utilizando SQL, NoSQL (MySQL, PostgreSQL, MongoDB, Redshift, SQL Server) y herramientas de orquestación.
  • Desarrollar procesos de ETL/ELT y soluciones de Data Warehouse para ingesta y transformación de datos a escala empresarial.
  • Desarrollar y mantener código en Python para procesamiento y automatización de datos.
  • Orquestar flujos de datos con herramientas como Apache Airflow y DBT.
  • Gestión de ingesta en tiempo real, incluyendo etiquetado web y plataformas de datos en tiempo real (p. ej., Snowplow, Google Tag Manager).
  • Definir y mantener pipelines CI/CD con herramientas como Bitbucket y Jenkins.
  • Aplicar metodologías ágiles: gestión de backlog, seguimiento de proyectos e informes (idealmente con Jira).
  • Trabajar en entornos cloud (AWS) y big data, con experiencia en PySpark u otras tecnologías para ingeniería y despliegue de datos.
  • Conocimiento de herramientas complementarias (deseables): Digdag, Embulk, Presto.
  • Capacidad para comprender el negocio y aportar en analítica de marketing/Martech y/o Adtech como valor agregado.
  • Aplicación de modelos de machine learning en plataformas de datos de clientes (deseable).
  • Conocimientos de publicidad programática como plus.
  • Gestión de bloques de datos y calidad de datos, asegurando trazabilidad y gobernanza.
  • Colaboración con equipos multidisciplinarios y apoyo a stakeholders internos y externos.

Requisitos y Perfil

Buscamos un/a Ingeniero/a de Datos con experiencia sólida en desarrollo e implementación de soluciones de datos complejas. Debe demostrar capacidad para planificar, ejecutar y comunicar avances de proyectos de datos en entornos dinámicos, con especial atención a la calidad de datos, escalabilidad y rendimiento. Se valorará experiencia en proyectos de Martech/Adtech y en entornos de nube. Se requiere habilidad para trabajar de forma autónoma, resolver problemas y colaborar de manera efectiva con equipos multifuncionales.
Habilidades técnicas esenciales: dominio de SQL y NoSQL, experiencia con Data Warehouse y ETL/ELT, Python para procesamiento, herramientas de orquestación (Airflow, DBT), ingestas en tiempo real, CI/CD (Bitbucket, Jenkins), metodologías ágiles (Jira), y experiencia en AWS o plataformas similares. Se valora conocimiento en herramientas como Snowplow, Google Tag Manager, Digdag, Embulk y Presto, así como experiencia en marketing analytics y/o ML en datos de clientes.
Habilidades blandas: mentalidad de ingeniero/a, capacidad de resolución de problemas, buen colaborador/a en equipo, orientación al aprendizaje continuo y crecimiento profesional, comunicación clara y capacidad para gestionar prioridades en entornos con información parcial.

Competencias Deseables

  • Experiencia en publicidad programática y plataformas de publicidad digital.
  • Conocimientos avanzados en ML aplicado a datos de clientes y casos de uso de marketing automation.
  • Experiencia con Digdag, Embulk o Presto; familiaridad con pipelines complejos y orquestación multicampo.
  • Conocimiento de gobernanza de datos y buenas prácticas de seguridad y cumplimiento.

Beneficios y Condiciones

Ofrecemos contrato por proyecto con posibilidad de continuidad, en una empresa consolidada en Latinoamérica con más de tres décadas de experiencia. Forma parte de un equipo multidisciplinario, con comunicación directa con la matriz y operaciones en Santiago y otras ciudades, fomentando desarrollo profesional y crecimiento. Modalidad de trabajo híbrida con proyección a 100% presencial, horario habitual de lunes a jueves, con viernes reducido, y posibilidad de ajuste según proyecto. Ubicaciones en Concepción y Santiago, con oportunidades de desarrollo y aprendizaje continuo. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

© getonbrd.com. All rights reserved.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos robustos y escalables utilizando Python y tecnologías de datos en la nube.
  • Desarrollar procesos ETL/ELT, modelado de datos y soluciones de almacenamiento (data lake/warehouse) en plataformas cloud.
  • Colaborar con equipos de datos, BI y producto para entender requerimientos, traducirlos en soluciones técnicas y garantizar la calidad de los datos.
  • Implementar soluciones de monitoring, logging y alerting; asegurar la confiabilidad, rendimiento y seguridad de los datos.
  • Automatizar despliegues y mantener pipelines mediante CI/CD; aplicar prácticas de versionado y pruebas de datos.
  • Participar en la mejora continua de procesos y en la migración hacia arquitecturas basadas en la nube.

Requisitos y perfil

Buscamos un Data Engineer con fuerte dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.
Requisitos técnicos:
  • Experiencia sólida desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Conocimiento en al menos una plataforma cloud (AWS, GCP o Azure) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Conocimientos de SQL avanzado y modelado de datos; experiencia con almacenes de datos y data lakes.
  • Conocimientos de contenedores (Docker), CI/CD y herramientas de observabilidad (Prometheus, Grafana, etc.).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.
Habilidades blandas:
  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).
Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.
Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

Find this job on getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB
En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

This posting is original from the Get on Board platform.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

VIEW JOB APPLY VIA WEB
Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Originally published on getonbrd.com.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

© Get on Board. All rights reserved.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2200 Full time
Data Analyst
  • TCIT
Python Agile Data Analysis SQL
En TCIT aceleramos la transformación digital de organizaciones a través de soluciones innovadoras y sostenibles en la nube. Nuestro equipo de Data analiza grandes volúmenes de datos para entregar insights accionables que impulsan decisiones estratégicas en clientes de diversos sectores. Buscamos a un Data Analyst con visión analítica y pasión por la mejora continua para unirse a proyectos que integran soluciones de negocio, herramientas de BI y pipelines de datos en entornos ágiles. El candidato trabajará en estrecha colaboración con equipos de producto, ingeniería y negocio, asegurando que los tableros y modelos de datos generen valor real y resultados medibles para nuestros clientes y socios tecnológicos.

This posting is original from the Get on Board platform.

Responsabilidades clave

  • Definir y ejecutar análisis exploratorios para identificar impulsores de negocio y áreas de mejora a partir de datasets complejos.
  • Diseñar, construir y mantener dashboards e informes interactivos en Looker Studio para stakeholders de negocio y operaciones.
  • Desarrollar y mantener modelos en Looker ML (LookML) para estructurar datos y facilitar consultas eficientes.
  • Colaborar con equipos de ingeniería para diseñar pipelines de datos confiables, asegurar calidad de datos y gobernanza.
  • Trabajar con SQL avanzado para extraer, transformar y cargar datos desde diversas fuentes y data warehouses.
  • Participar en reuniones de requisitos, traduciendo necesidades de negocio en métricas y visualizaciones comprensibles.
  • Aplicar principios de análisis de datos para apoyar decisiones estratégicas, medir impacto de iniciativas y controlar KPIs.
  • Automatizar procesos de reporte y desarrollar documentación clara de dashboards, métricas y definiciones de datos.
  • Contribuir a un entorno ágil (scrum) con entregas iterativas y revisión continua de resultados.

Requisitos y perfil

Buscamos un Data Analyst con 3 a 5 años de experiencia comprobable en análisis de datos, con fuerte capacidad para convertir datos en insights accionables. Debe dominar Looker Studio para visualización avanzada y Looker ML para modelado y acceso a datos a través de Looker. Se valorará experiencia en entornos de nube y en gestión de datos desde fuentes heterogéneas. Requisitos mínimos: SQL avanzado, experiencia práctica con Looker Studio y LookerML/Looker ML, análisis estadístico y habilidades de comunicación para presentar hallazgos a stakeholders. Deseable conocimiento de Python o R para manipulación de datos y automatización, así como experiencia con ETL, data warehousing (BigQuery, Snowflake u otros), y metodologías ágiles. Buscamos perfiles proactivos, orientados a resultados, con pensamiento crítico y excelentes habilidades de storytelling para negocios.

Requisitos deseables

Experiencia adicional con herramientas de BI y visualización, familiaridad con soluciones en la nube (p. ej., BigQuery, Snowflake, AWS Redshift), conocimientos de Git para control de versiones, y capacidad de trabajar en inglés técnico. Valoramos experiencia en sectores regulados o con altos requerimientos de gobernanza de datos, así como habilidades de comunicación para colaborar con equipos multifuncionales y coaches de datos.

Conditions

Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Puerto Montt (In-office)
Python Data Analysis Business Intelligence Artificial Intelligence

Duoc UC Sede Puerto Montt, perteneciente a la Escuela de Informática y Telecomunicaciones, busca incorporar docentes para la asignatura de Minería de Datos. El objetivo es liderar el proceso de enseñanza y aprendizaje siguiendo el modelo educativo institucional, alineado a sus valores y marco disciplinar. El rol requiere aprovechar la formación y experiencia profesional para impactar positivamente en el aprendizaje de los estudiantes, contribuyendo al desarrollo de técnicas de análisis de datos y a la generación de insights relevantes a partir de grandes conjuntos de datos.

El/la docente trabajará en un entorno colaborativo, con equipos multidisciplinarios, y participará en procesos de desarrollo docente y actualización tecnológica para fortalecer las competencias de los estudiantes en Minería de Datos, Business Intelligence y análisis para toma de decisiones.

Apply through Get on Board.

Funciones

  • Planificar, impartir y evaluar cursos y módulos relacionados con Minería de Datos, análisis de datos y herramientas de data science.
  • Diseñar actividades prácticas, proyectos y casos de negocio que conecten la teoría con la solución de problemas reales.
  • Guiar a los estudiantes en la explotación de grandes volúmenes de datos y en la generación de observaciones e insights accionables.
  • Participar en iniciativas de desarrollo docente, actualización tecnológica y mejora continua de la asignatura.
  • Dirigir, supervisar y evaluar trabajos de curso, proyectos finales y prácticas profesionales, promoviendo buenas prácticas de análisis de datos y ética.
  • Asesorar y orientar a estudiantes en su progreso académico y en el desarrollo de habilidades técnicas y blandas relevantes para la industria.

Descripción

Se requiere un/a Ingeniero/a en Informática, Ejecución Informática o afín, con al menos 2 años de experiencia en análisis y diseño de software, manejo de modelos de datos y experiencia en técnicas de Minería de Datos e Inteligencia de Negocios. Debe haber trabajado con grandes volúmenes de datos y ser capaz de documentar observaciones e indiciar insights relevantes. Disponibilidad para jornada diurna y vespertina.

Conocimientos deseables incluyen manejo de Python para análisis de datos, experiencia en machine learning y minería de datos. Se valorará formación complementaria (diplomados o cursos) en estas áreas. Disposición para revisar previamente materiales institucionales y videos requeridos como parte del proceso de incorporación.

Requisitos deseables

  • Formación: Se requiere un Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en: Análisis y diseño de software, empleando modelos de datos. Experiencia con técnicas de Minería de Datos. Experiencia en áreas de Inteligencia de Negocio. Que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Lunes: 19:01 a 21:10 Miércoles: 16:41 a 18:50/ Jueves: 11:31 a 13:40, 16:41 a 18:50 &20:31 a 22:30 Viernes: 11:31 a 13:40.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Beneficios

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Santiago (In-office)
Python Data Analysis SQL Artificial Intelligence
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. Nos enfocamos en formar técnicos y profesionales a través de 9 escuelas y más de 70 carreras vigentes, presentes en 18 sedes regionales. Nuestro equipo docente colabora en entornos multicisciplinarios y con enfoque en valores institucionales, buscando aportar al desarrollo económico de Chile mediante una educación de calidad y actualizada.

© getonbrd.com.

Funciones y responsabilidades

  • Liderar el proceso de enseñanza/aprendizaje en la asignatura de Minería de Datos, alineada al modelo educativo y al marco valórico institucional.
  • Desarrollar unidades didácticas, planificaciones y recursos pedagógicos que favorezcan el aprendizaje activo (ABP) y proyectos aplicados.
  • Evaluar y retroalimentar a los estudiantes, contextualizando contenidos al mundo laboral y simulando entornos empresariales.
  • Trabajar en colaboración con equipos multidisciplinarios, integrando herramientas de análisis de datos, inteligencia de negocio y desarrollo de software.
  • Integrar tecnologías y prácticas actuales de minería de datos, analítica y visualización para generar insights relevantes.
  • Contribuir a la mejora continua de la calidad de la enseñanza y del desempeño estudiantil.

Requisitos y perfil buscado

Requisitos del perfil:

  • Formación: Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en Análisis y diseño de software, empleando modelos de datos, aplicación de técnicas de Minería de Datos, experiencia en áreas de Inteligencia de Negocio, que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Martes: 16:01 a 17:20/ Miércoles: 16:01 a 18:50/ Jueves: 19:01 a 21:10/ Viernes: 20:31 a 22:30.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Debe poseer competencias profesionales tales como:

  • Conocimiento en estadística para minería de datos.
  • Conocimientos en lenguaje de programación Python, librerías: numpy, pandas, sckit learn.
  • Habilidad y experiencia en análisis y diseño, empleando modelos de datos.
  • Experiencia con técnicas de Minería de Datos basado en metodología CRISP-DM.
  • Experiencia en áreas de Inteligencia de Negocio.
  • Conocimiento en estadística descriptiva e inferencial para minería de datos.

Competencias deseables

Conocimiento avanzado de Python y sus ecosistemas para ciencia de datos; experiencia adicional en SQL, bases de datos y visualización (por ejemplo, Power BI o Tableau). Certificaciones o cursos en ML/IA y minería de datos, así como experiencia de enseñanza en entornos universitarios o técnicos.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3400 Full time
Senior Data Engineer
  • Forest
  • Santiago (Hybrid)
Python PostgreSQL Git SQL

What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all customers free cycling minutes daily.

We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.

If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.

Please note: our company is based in the UK and has Chilean Founders.

*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

Apply exclusively at getonbrd.com.

About the Role

We are looking for a SeniorData Engineer with strong experience in database migrations, specifically moving large-scale datasets and pipelines from Postgres to Snowflake. You will design, build, and optimize migration workflows using Mage as our orchestration platform, while leveraging both AWS and GCP infrastructure.

This role is ideal for someone who knows how to work with complex schemas, high-volume data, and performance tuning, and who can drive a seamless migration with minimal downtime.

Migration & Pipeline Development

  • Lead the end-to-end migration of datasets, ETL jobs, and schemas from Postgres to Snowflake.
  • Design, build, and maintain data ingestion and transformation pipelines using Mage.
  • Ensure data quality, consistency, and performance across the migrated ecosystem.

Architecture & Optimization

  • Optimize query performance and warehouse usage in Snowflake (clustering, micro-partitioning, caching, etc.).
  • Work with cloud infrastructure on AWS and GCP, integrating pipelines with storage (S3/GCS), compute, IAM, networking, and secret management.
  • Create scalable, cost-efficient data models and workflows.

Tableau Integration & Support

  • Support the migration of Tableau data sources from Postgres connections to Snowflake connections.
  • Work with the Data team to validate Tableau dashboards after migration.
  • Optimize Snowflake models and queries used by Tableau to ensure performance and cost efficiency.
  • Help redesign or refactor extracts, live connections, and published data sources to align with best practices.

Collaboration & Delivery

  • Partner with Data, Product, and Engineering to understand data needs and ensure smooth transition.
  • Document migration steps, architecture decisions, and pipeline designs.
  • Troubleshoot and resolve issues related to performance, data inconsistencies, and pipeline failures.

Requirements

Technical Skills

  • 5+ years of experience in Data Engineering or similar roles.
  • Strong expertise with Postgres (schema design, query tuning, replication strategies).
  • Hands-on experience with Snowflake (Snowpipe, Tasks, Streams, Warehouses).
  • Solid experience orchestrating pipelines using Mage (or Airflow/Prefect with willingness to learn Mage).
  • Strong SQL skills and Python.
  • Experience working with AWS and GCP
  • Familiarity with CI/CD pipelines and Git-based workflows.

Optionals

  • Experience migrating large datasets or re platforming data stacks.
  • Experience implementing security and governance frameworks.
  • Strong communication and documentation habits.
  • Ability to work independently and drive projects from start to finish.
  • Problem-solver with a focus on reliability and scalability.
  • Comfortable working in a fast-paced, cloud-native, multi-cloud environment.

What we offer

  • Opportunity to design and influence the core data architecture.
  • Flexibility, learning resources, and ownership over high-impact projects.
  • Play a key role in the transformation of sustainable urban mobility in our cities.
  • Competitive compensation plan with plenty of development opportunities.
  • Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.
  • Private Health Insurance plan.
  • 20 days holiday plus your birthday.
  • Work for an international company that has a link between Chile and the UK.
  • Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Forest pays or copays life insurance for employees.
Meals provided Forest provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Forest pays or copays health insurance for employees.
Dental insurance Forest pays or copays dental insurance for employees.
Computer provided Forest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Forest gives you paid vacations over the legal minimum.
Beverages and snacks Forest offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineering Lead
  • Global Mobility Apex, S.A.
Python Analytics SQL Erlang
Sobre la empresa
Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos, fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y alianzas estratégicas con PepsiCo y AB InBev. Nos organizamos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos que se sumen a nuestra estrategia de expansión y crecimiento, compartiendo nuestros anhelos y aportando su visión para lograr grandes resultados.
Buscamos el "Data Engineering Lead" que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco en Azure y soporte en Google Cloud Platform (GCP). Este rol define, lidera y escala la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable para analítica avanzada, BI y productos digitales en múltiples países.

Apply exclusively at getonbrd.com.

Objetivo del rol

Buscamos incorporar un Data Engineering Lead que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco principal en Azure y soportecomplementario en Google Cloud Platform (GCP).

Será responsable de definir, liderar y escalar la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable, capaz de soportar analítica avanzada, BI y productos digitales en múltiples países. Este rol combina liderazgo técnico, arquitectura de datos multi-cloud, gobierno, y gestión de equipos, actuando como habilitador clave de la estrategia data-driven de la organización.

Responsabilidades clave

1. Arquitectura de Datos Multi-Cloud (Azure 60% / GCP 40%)

  • Definir y evolucionar una arquitectura Lakehouse corporativa (Bronze / Silver / Gold) en entornos Azure y GCP.
  • Liderar el diseño e implementación de soluciones escalables utilizando principalmente Azure, incluyendo:
    • Azure Data Lake Storage Gen2 (Data Lake)
    • Azure Databricks (Spark / Lakehouse)
    • Azure Data Factory (ingesta y orquestación)
    • Azure Synapse / Azure SQL / Delta Lake (cuando aplique)
  • Integrar y operar soluciones complementarias en GCP, tales como:o Cloud Storage
    • BigQuery
    • Dataflow / Apache Beam
    • Dataproc (Spark administrado)
    • Vertex AI
  • Definir estándares de naming, particionamiento, versionado, performance y seguridad comunes entre nubes.

2. Gobierno, Calidad y Seguridad de Datos

  • Garantizar datos confiables, trazables y gobernados en toda la plataforma.
  • Diseñar e implementar prácticas de:
    • Data Quality (DQ)
    • Data Lineage
    • Data Catalog / Business Glossary
  • Implementar controles de seguridad y gobierno mediante:
    • Azure Purview / Microsoft Fabric governance (cuando aplique)
    • Unity Catalog (Databricks)
    • GCP Dataplex / Data Catalog
  • Asegurar cumplimiento de políticas de acceso, privacidad y auditoría.

3. Orquestación, Automatización y CI/CD

  • Liderar la orquestación de pipelines ETL/ELT usando:
    • Azure Data Factory
    • Azure Databricks Jobs
    • Cloud Composer (Airflow)
  • Garantizar pipelines:
    • Idempotentes
    • Reproducibles
    • Versionados
  • Implementar CI/CD para infraestructura y data pipelines usando:
    • Terraform / IaC
    • GitHub Actions / Azure DevOps
  • Supervisar despliegues seguros en ambientes dev / qa / prod.

4. Liderazgo de Equipos y Stakeholders

  • Liderar y mentorizar equipos de Data Engineers en distintos países.
  • Definir estándares de ingeniería y promover buenas prácticas de desarrollo (Python, SQL, Spark).
  • Actuar como punto de enlace entre:
    • Negocioo Analytics & Data Science
    • BI
    • Cloud & Security
    • Proveedores tecnológicos
  • Traducir necesidades de negocio en soluciones técnicas escalables y sostenibles.

5. Optimización de Costos y Performance

  • Optimizar costos y performance en:
    • Azure Databricks y ADLS
    • BigQuery y Dataflow
  • Diseñar estrategias de:
    • Particionado y clustering
    • Gestión de workloads
    • Control de consumo y costos
  • Promover mejora continua de la arquitectura y tooling.

Requisitos

Formación

  • Licenciatura o Maestría en Ingeniería, Sistemas, Computación, Data Science o carreras afines.

Experiencia

  • +7 años de experiencia en Ingeniería de Datos.
  • Experiencia liderando plataformas de datos en Azure (imprescindible).
  • Experiencia comprobada en GCP (deseablem y plus).
  • Dominio de arquitecturas Lakehouse / Medallion (Bronze / Silver / Gold).
  • Experiencia sólida en:
    • SQL avanzado
    • Python
    • Spark / Databricks
  • Experiencia liderando equipos técnicos.

Deseable

  • Experiencia en CPG / Retail / Consumo Masivo.
  • Conocimiento de Data Governance y Data Mesh (conceptual).
  • Experiencia en entornos multi-país y multi-negocio.

Retos del puesto

  • Escalar una plataforma de datos multi-cloud a nivel regional.
  • Estandarizar arquitectura y prácticas entre Azure y GCP.
  • Garantizar calidad, seguridad y gobierno en entornos complejos.
  • Balancear velocidad, performance y costos.
  • Habilitar datos confiables para analítica avanzada y productos digitales.

Health coverage Global Mobility Apex, S.A. pays or copays health insurance for employees.
Computer provided Global Mobility Apex, S.A. provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Global Mobility Apex, S.A. gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Intelligence Specialist
  • Lemontech
  • Santiago (Hybrid)
SQL Business Intelligence Big Data BigQuery

En LemonTech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático.
Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo.

Job opportunity published on getonbrd.com.

Funciones del cargo

Si te motiva trabajar con datos que sí se usan, construir métricas que no se discuten en cada reunión y ser quien pone orden cuando aparecen “tres números distintos para el mismo KPI”, este rol es para ti.

Buscamos a alguien que se adueñe de la capa analítica y de visualización, y que convierta datos operativos en decisiones claras para el negocio.

  • Diseñar, desarrollar y optimizar modelos analíticos en dbt sobre BigQuery, enfocados en consumo BI y reporting ejecutivo.
  • Asegurar que la lógica de negocio esté bien implementada, versionada y documentada.
  • Trabajar junto a Analytics Engineering en la definición de métricas core y modelos compartidos.
  • Velar por calidad de datos, naming conventions, trazabilidad y performance (incluyendo control de costos).
  • Analizar datos provenientes de sistemas operacionales como NetSuite (ERP) y HubSpot (CRM).
  • Detectar patrones, tendencias y anomalías relevantes para el negocio.
  • Diseñar y mantener dashboards avanzados en Power BI, pensados para tomar decisiones, no solo para mirar.
  • Definir, validar y documentar KPIs estratégicos (ARR, churn, NPS, Customer Health Score, entre otros).
  • Actuar como referente técnico y funcional en Power BI y DAX avanzado.
  • Traducir necesidades de negocio en requerimientos analíticos claros.
  • Presentar insights y conclusiones a líderes de distintas áreas.
  • Promover buenas prácticas de análisis, visualización y uso de datos dentro del equipo.

Nota importante: la ingesta y pipelines base ya existen. Este rol se enfoca en transformar, modelar y dar sentido a la data, no en moverla.

Requerimientos del cargo

  • SQL avanzado, idealmente en BigQuery u otro data warehouse analítico.
  • Experiencia sólida en dbt para modelado y transformación de datos.
  • Manejo avanzado de Power BI, incluyendo DAX.
  • Experiencia trabajando en entornos Google Cloud Platform (BigQuery).
  • Capacidad para entender el negocio y traducirlo en métricas claras.
  • Buen criterio analítico, orden y obsesión sana por la consistencia de los datos.
  • Habilidad para comunicar insights a perfiles no técnicos sin perder rigor.

Opcionales

  • Experiencia usando Python para análisis exploratorio o complementario.
  • Conocimiento funcional de métricas SaaS.
  • Experiencia previa con NetSuite y/o HubSpot.
  • Haber trabajado consumiendo o visualizando resultados de modelos predictivos (churn, scoring, segmentación).
  • Familiaridad con conceptos básicos de machine learning aplicado a negocio.

Condiciones

🌍 Work From Anywhere (WFA): Flexibilidad para trabajar desde cualquier lugar.
🌅 Semana extra de vacaciones: Una semana adicional a los días legales por país.
🏡 Horarios flexibles: Trabaja desde casa o nuestra oficina.
🍏 Espacios de descanso: Lounge con snacks y frutas para desconectar.
🚀 Cultura de equipo: Trabajamos juntos para alcanzar objetivos y disfrutar el proceso.
💼 Co-financiamiento de estudios: Apoyo para tu desarrollo profesional.
🏥 Seguro complementario (solo en Chile): Para tu bienestar y tranquilidad.
🍼 Postnatal parental de 1 mes: Para disfrutar con tu bebé.

Postúlate ahora y acompáñanos a transformar el futuro del LegalTech! 🌟

Te compartimos nuestro aviso de Privacidad de Postulantes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Analytics Data Analysis Excel

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

Applications are only received at getonbrd.com.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel

BC Tecnología es una consultora de TI que diseña soluciones para clientes en sectores como finanzas, seguros, retail y gobierno. En este rol, te integrarás a un equipo de Risk Operations enfocado en generar y mantener un ecosistema de procesos de monitoreo y alertas para detectar conductas fraudulentas o riesgosas de Sellers activos en el Marketplace. Trabajarás en proyectos estratégicos de alto impacto, con coordinación de requerimientos a nivel local e internacional, buscando mitigar riesgos operacionales y reputacionales mediante soluciones basadas en datos y automatización de procesos.

Colaborarás con áreas de negocio para traducir necesidades en soluciones analíticas; levantarás, documentarás y mantendrás procesos automáticos; y contribuirás a la mejora continua de procesos operacionales a través de insights basados en datos y reportes periódicos. Tendrás la oportunidad de participar en un entorno colaborativo, con cultura de aprendizaje y enfoque en crecimiento profesional.

Apply to this job through Get on Board.

Funciones y responsabilidades clave

  • Generar y mantener un ecosistema de procesos de monitoreo y alertas para detección de incumplimientos y comportamientos riesgosos.
  • Analizar grandes volúmenes de datos para diseñar flujos automáticos de alertas, reportes y monitoreos orientados a la detección de riesgos.
  • Elaborar reportes periódicos y análisis ad-hoc que permitan identificar, priorizar y accionar casos de riesgo.
  • Generar insights y recomendaciones accionables para la mejora continua de procesos operacionales.
  • Levantar, documentar y mantener los procesos automáticos implementados.
  • Gestionar proyectos de analítica de principio a fin, coordinando requerimientos con stakeholders locales e internacionales.
  • Comprender cómo interactúan las distintas áreas del negocio dentro del ecosistema digital y traducir necesidades en soluciones basadas en datos.
  • Utilizar estructuras de almacenamiento y herramientas de explotación de datos para apoyar la toma de decisiones.

Descripción y requisitos del rol

Buscamos un/una Analista de Datos con 2 a 4 años de experiencia en roles similares (Analítica, BI, Operaciones, Marketing o afín). Se valorará experiencia en Ecommerce. Requerimos dominio avanzado de SQL y nivel intermedio–avanzado de inglés. Se espera manejo avanzado de al menos una herramienta de visualización/análisis de datos (Excel, Tableau, Power BI o Data Studio). Experiencia en al menos un lenguaje de programación para análisis de datos (preferible Python; R u otro también válido). Conocimientos en plataformas Cloud, idealmente Google Cloud Platform. Conocimientos en Prompt Engineering serán valorados. Se ofrece modalidad de trabajo híbrida y contrato a plazo fijo con proyección a indefinido según desempeño. Participarás en proyectos estratégicos y en un entorno orientado a la toma de decisiones basada en datos.

Requisitos deseables

Experiencia adicional en herramientas de analítica avanzada, experiencia en entornos fintech o marketplaces, capacidad de trabajar en entornos ágiles, habilidades de comunicación para colaborar con stakeholders diversos y experiencia en modelado de datos y gobernanza de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Market Data Manager
  • Niuro
Excel Audit Data governance Integration Testing
Niuro is advancing global talent acquisition by connecting projects with elite tech teams and delivering autonomous, high-performance groups to U.S. companies. Our Market Data team plays a pivotal role in ensuring compliant, accurate usage and billing of exchange market data. The project focuses on building scalable processes for licensing, entitlements, reporting, and data governance across trading platforms, brokerages, and prop firms. You will collaborate with cross-functional teams to uphold licensing rules, optimize data usage, and drive audit readiness, enabling secure, efficient data operations in a fully remote environment.

Apply without intermediaries from Get on Board.

Key Responsibilities

  • Oversee exchange market data compliance, licensing rules, and Vendor-of-Record (VOR) requirements.
  • Manage user classifications (Pro vs Non-Pro, display vs non-display, evaluator usage) and audit declarations for discrepancies.
  • Coordinate access controls, entitlement updates, and enforce compliance with Engineering.
  • Prepare and submit monthly usage, billing, and compliance reports; reconcile platform usage with partner records to ensure accurate invoicing.
  • Support audits and maintain audit-ready documentation; act as a compliance and data operations contact for partners and stakeholders.
  • Collaborate with cross-functional teams including Legal, Finance, Security, and Engineering to mitigate compliance risks and improve data governance.
  • Continuously improve processes for data licensing, usage tracking, and reporting workflows using available tools.

Role Overview & Requirements

We are seeking a seasoned Market Data Manager to lead our market data operations, ensuring accurate reporting, compliant licensing, and robust VOR adherence across all data use cases. The ideal candidate will have hands-on experience with market data licensing (display, non-display, evaluator rules), strong analytic and documentation skills, and the ability to work effectively with cross-functional teams in a fully remote setting aligned to U.S. Eastern Time.
Required skills include advanced proficiency in Excel or Google Sheets for reporting and reconciliation, experience with billing, usage logs, or data reporting workflows, and a keen eye for detail. Candidates with exposure to trading platforms, prop firms, or brokerages, as well as familiarity with entitlement systems, dashboards, or APIs, will stand out. Excellent written and verbal communication is essential to maintain audit-ready processes and clear stakeholder engagement.
We value proactive problem-solvers who can operate with a high level of ownership, adaptability, and integrity in a confidential environment. A background in compliance, audit, or data governance is advantageous.

Desirable Skills & Experience

Experience with trading platforms, brokerages, or prop trading environments.
Background in compliance, audit, or data governance roles.
Familiarity with entitlement systems, dashboards, or APIs to automate data access controls and reporting.

Benefits & Work Environment

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Database Lead Architect – Clinical Trial Systems (Azure/aWS)
  • Signant Health
Python Linux Virtualization Amazon Web Services

Want to do the Best Work of Your Life?

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations and reimagining the path to proof.

Where do you fit in?
We are seeking a highly experienced Lead Cloud OperationsDatabase Architect to design, implement, and govern our enterprise data architecture that supports regulated clinical research systems. This role is responsible for all database-related aspects across Microsoft Azure and AWS cloud environments, ensuring performance, security, and compliance with GxP, FDA 21 CFR Part 11, and ICH-GCP regulations. The ideal candidate combines deep technical expertise in MS SQL, Azure SQL, AWS RDS, and Cloud SQL platforms in high volume production environment with strong leadership in data governance, architecture design, and lifecycle management.

Official job site: Get on Board.

Job functions

  • Architecture & Design:
    Develop and maintain enterprise-scale data architectures supporting clinical trial systems, ensuring high availability, scalability, and security across Azure and AWS environments.
  • Database Administration & Operations:
    Oversee all aspects of database setup, configuration, backup/recovery, replication, and performance optimization for MS SQL, Azure SQL, Cloud SQL, and RDS instances.
  • Regulatory Compliance:
    Establish and enforce database procedures aligned with clinical and regulatory frameworks (e.g., GxP, 21 CFR Part 11). Partner with QA/Compliance to support audits and validation activities.
  • Security & Data Integrity:
    Implement robust access controls, encryption, monitoring, and logging mechanisms to safeguard sensitive clinical and patient data.
  • Automation & DevOps Integration:
    Automate database provisioning, patching, and schema deployments via CI/CD pipelines and Infrastructure as Code (IaC) tools (e.g., Terraform, OpenTofu, ARM templates, AWS CloudFormation).
  • Cross-Functional Leadership:
    Collaborate closely with Engineering, Project Management and Compliance teams to align data strategies across the enterprise.
  • Monitoring & Optimization:
    Design and implement proactive alerting, capacity planning, and performance tuning to maintain system reliability and speed.
  • Documentation & Standards:
    Maintain detailed architecture diagrams, SOPs, and technical documentation to support validation and internal audits.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Systems, or related field (Master’s preferred).
  • 10+ years in database architecture/administration, including 5+ years in cloud environments (Azure/AWS).
  • Expertise with MS SQL Server, Azure SQL Database and AWS RDS including strong proficiency in SQL queries and stored procedures
  • Proven experience supporting regulated (GxP/FDA) environments.
  • Strong understanding of data security, governance, and compliance in life sciences or healthcare settings.
  • Proficiency with IaC tools, monitoring platforms (CloudWatch, Azure Monitor), and automation scripting (PowerShell, Python, or Bash).
  • Strong communication skills and experience engaging with cross-functional technical and clinical teams.

Desirable skills

  • Experience integrating with clinical data systems (CDMS, EDC, LIMS).
  • Familiarity with Snowflakedatalake architectures and ETL/ELT pipelines.
  • Certifications in Azure Database Administrator, AWS Database Specialty, or equivalent cloud credentials.

Conditions

Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Ingeniero Gobierno de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Data Science Cloud Data governance
Genesys Tecnologías de Información SpA es una empresa regional con más de 30 años de experiencia en desarrollo de software y servicios TI. Nos especializamos en soluciones de privacidad, gestión de datos personales y gobernanza de datos dentro de entornos corporativos regulados. El/la candidato/a se integrará a un equipo enfocado en diseñar, implementar y operar soluciones de privacidad corporativas, asegurando su correcta integración con el ecosistema tecnológico, cumpliendo requerimientos regulatorios y de negocio, y colaborando con proveedores y áreas técnicas para garantizar la protección y gestión adecuada de datos personales.

This job offer is available on Get on Board.

Funciones principales

  • Gestión de datos personales y plataformas de privacidad, asegurando cumplimiento regulatorio y operación estable.
  • Configuración y administración de CAMP y matrices de riesgo (regulado y no regulado).
  • Implementación de búsqueda y detección de datos personales (InfoTypes) y mapeo de flujos de datos.
  • Integración de flujos para atención de derechos ARSOP (Acceso, Rectificación, Supresión, Portabilidad).
  • Gestión de puntos de captura de consentimiento (opt-in / opt-out) y modelado de datos técnicos.
  • Uso de SQL, Python y Google Cloud Platform (GCP); colaborar con equipos de datos y seguridad.
  • Conocimientos fundacionales en Gobierno de Datos y buenas prácticas de privacidad.

Requisitos y perfil

Buscamos un/a profesional proactivo/a y orientado/a a resultados, con experiencia en entornos corporativos y regulados. Se requiere capacidad para diseñar, configurar y operar soluciones de privacidad, así como para coordinar con proveedores y equipos internos. El/la candidato/a ideal posee experiencia en gestión de datos personales, herramientas de privacidad y gobernanza, y manejo técnico de bases de datos y plataformas en la nube. Se valorarán conocimientos en CDP Consent, gestión de incidentes en plataformas de privacidad y exposición previa a Warners. Se ofrece un contrato por proyecto con posibilidad de indefinido según desempeño, modalidad híbrida y horarios estandarizados.

Requisitos deseables

Experiencia con integración de plataformas de gestión de consentimientos (CDP Consent), manejo de incidentes en plataformas de privacidad y coordinación técnica con proveedores. Conocimiento inicial o exposición previa a Warners y experiencia en entornos corporativos regulados. Se valora autonomía, habilidades de comunicación, y capacidad para trabajar en equipos multidisciplinarios en un entorno dinámico.

Beneficios

Ofrecemos un contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con un equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el apoyo técnico. Jornada híbrida (horario de lunes a jueves 09:00-18:00 y viernes 09:00-16:00), con posibilidad de extensión según necesidades del negocio. Esperamos que te unas a nuestro equipo para crecer juntos! 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst Digital Strategy
  • Global Mobility Apex, S.A.
Product Owner Business Analyst Digital Strategy

Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos fundada en 1885, con presencia en más de 14 países y un equipo de más de 15,000 colaboradores. Nuestro portafolio de bebidas es el más extenso de la región, y contamos con socios estratégicos como PepsiCo y AB InBev. En el último año, hemos experimentado una expansión global que nos ha permitido estructurarnos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Con una estrategia dinámica de crecimiento, buscamos talentos que se unan a nuestras ambiciones de llevar alegría y desarrollo más lejos.

© Get on Board. All rights reserved.

Funciones:

  • Definir una estrategia clara del producto digital alineada con la visión general y las necesidades del negocio para impulsar la transformación digital.
  • Desarrollar una hoja de ruta del producto basada en la visión general del negocio.
  • Establecer la estrategia de negocio para la ejecución de los equipos técnicos.
  • Crear historias de usuario y criterios de aceptación para el desarrollo del producto.
  • Utilizar las reglas de negocio como recurso clave para definir las funciones esenciales del producto.
  • Alinear los requerimientos de los stakeholders para asegurar una visión compartida del producto con el negocio.
  • Priorizar los entregables del producto digital según el valor incremental que proporcionan para garantizar un valor constante al usuario.
  • Definir indicadores de negocio que midan el éxito de los productos.

Experiencia:

Buscamos profesionales con experiencia en corporaciones multinacionales, idealmente en el sector de consumo masivo (CPG). Es esencial contar con experiencia previa como Líder de Producto, Coordinador de Proyectos o Product Owner, lo que garantiza que estés preparado para asumir los retos de este rol.

Habilidades deseables:

Sería ideal que el candidato posea habilidades en gestión ágil de proyectos, habilidades de comunicación efectiva y la habilidad de trabajar en un entorno colaborativo. Además, el conocimiento de herramientas de gestión de productos y métricas de rendimiento será altamente valorado.

Únete a nosotros:

Al formar parte de Global Mobility Apex, tendrás la oportunidad de trabajar en un entorno diverso y apasionante, donde tus ideas pueden marcar la diferencia. Te ofrecemos un paquete de beneficios competitivo, un ambiente inclusivo y oportunidades de crecimiento profesional. ¡Juntos podemos lograr nuestros sueños!

VIEW JOB APPLY VIA WEB
Gross salary $1900 - 2700 Full time
Data Scientist
  • TCIT
Python Git Data Analysis Machine Learning
En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de trayectoria. Buscamos un Data Scientist para formar parte de nuestro equipo y acompañar la digitalización de clientes en diversos rubros. El/la candidato/a trabajará en proyectos que requieren modelado, automatización y análisis de datos para impulsar decisiones de negocio y eficiencia operativa. Colaborará con equipos multidisciplinarios, incluyendo ingeniería de software, producto y operaciones, y tendrá la oportunidad de influir en soluciones escalables y reutilizables que impacten a múltiples áreas de la empresa y de clientes internacionales, incluyendo proyectos en Canadá con nuestros partners tecnológicos. Nos moveremos en un entorno ágil, con foco en resultados y aprendizaje continuo.

Apply without intermediaries from Get on Board.

Funciones principales

  • Desarrollar modelos analíticos y de machine learning para resolver problemas de negocio complejos y traducir resultados en recomendaciones accionables.
  • Trabajar con datos estructurados y no estructurados, realizando limpieza, exploración y transformación de datos para soportar pipelines de análisis y producción.
  • Diseñar y mantener soluciones de automatización y orquestación de flujos de trabajo que integren sistemas empresariales (ERP, CRM, plataformas financieras) cuando sea relevante.
  • Colaborar con equipos de TI y producto para definir requerimientos, métricas y KPIs, asegurando reproducibilidad y escalabilidad.
  • Comunicar hallazgos técnicos a audiencias técnicas y no técnicas, preparando visualizaciones y presentaciones claras para stakeholders.
  • Contribuir a buenas prácticas de ingeniería de software: uso de control de versiones (Git), revisiones de código, pruebas y documentación.
  • Mantenerse al día con avances en IA y automatización, proponiendo mejoras y nuevas iniciativas alineadas a objetivos de negocio.
  • Trabajar con una mentalidad 0 a 1, con capacidad para iterar rápidamente en un entorno dinámico y ambiguo.

Perfil y competencias

Buscamos un/a Data Scientist con educación en Data Science, Estadística, Ciencias de la Computación, Matemáticas o campo relacionado. Debe demostrar dominio de Python para análisis de datos, automatización y prototipado, así como excelentes habilidades de resolución de problemas y análisis. La capacidad para comunicar resultados de forma clara a audiencias técnicas y no técnicas es imprescindible. Se valorará experiencia o interés en IA agentica, sistemas multiagente o automatización de flujos en contextos empresariales, así como experiencia con integraciones de sistemas empresariales (ERP, CRM, plataformas financieras). Se espera familiaridad con buenas prácticas de ingeniería de software (Git, pruebas, revisiones) y conciencia de privacidad y cumplimiento en datos sensibles. Buscamos una persona orientada al equipo, adaptable, curiosa y con interés genuino en generar impacto de negocio a través de soluciones escalables y reutilizables.

Competencias deseables

Experiencia en entornos cloud y plataformas de datos, conocimiento de herramientas de orquestación y pipelines (Airflow, Dagster, etc.), y experiencia práctica en entornos empresariales grandes. Valoramos habilidad para trabajar en equipos multi-disciplinarios, capacidad de aprender rápidamente en ambientes dinámicos y mente orientada a resultados. Se considera un plus conocimiento en seguridad de datos, cumplimiento normativo y conceptos de privacidad.

Conditions

Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior de Data & Risk Ops
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel Marketing

En BC Tecnología, el rol se enfoca en diseñar y operar un ecosistema de alertas y monitoreo para detectar y mitigar de forma proactiva riesgos y fraudes en el Marketplace. Trabaja con datos multi-fuente para generar reportes, dashboards e insights accionables, apoyando la toma de decisiones del equipo de Risk Ops.
Incluye gestión end-to-end de proyectos, colaboración con equipos locales e internacionales, comunicación con stakeholders y documentación de procesos automatizados, con foco en analítica, automatización y gobernanza de datos para la mejora continua.

Apply directly on Get on Board.

Principales funciones

  • Analizar datos y diseñar flujos automáticos que guíen la toma de decisiones entre áreas dentro de la empresa.
  • Gestionar proyectos de datos de principio a fin: levantamiento de requerimientos, desarrollo, validación y entrega de resultados.
  • Elaborar reportes y alertas que permitan monitorear casos de incumplimiento en el Marketplace y mitigar comportamientos de riesgo.
  • Generar insights y recomendaciones basadas en análisis ad-hoc para mejoras en procesos y herramientas.
  • Trabajar con distintas áreas para entender su interacción en el ecosistema digital y convertir insights en acciones de valor.
  • Conocer estructuras de almacenamiento de datos y herramientas disponibles para explotar la información y soportar la toma de decisiones.

Perfil y experiencia

Perfil profesional requerido:
  • Título de Ingeniería Civil Industrial, Ingeniería en Computación o Informática, o carrera afín.
  • 2-4 años de experiencia en roles similares (análisis en Operaciones, BI, Marketing, etc.).
  • Usuario avanzado en SQL (excluyente).
  • Inglés intermedio–avanzado (excluyente).
  • Usuario avanzado en al menos una herramienta de análisis/visualización: Excel, Tableau, Power BI, Data Studio (excluyente).
  • Experiencia en al menos un lenguaje para análisis de datos: Python (preferentemente), R, Julia, etc. (excluyente).
  • Conocimientos de plataformas Cloud, preferentemente Google Cloud Platform (no excluyente).
  • Conocimientos avanzados de Prompt Engineering (no excluyente).

Deseables

Se valorará experiencia en Ecommerce, capacidad para trabajar en entornos dinámicos de alto volumen de datos y habilidades de comunicación para interactuar con múltiples stakeholders a nivel internacional.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
Ingeniero de Datos
  • Coderslab.io
Python SQL Web server English
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
En esta ocasion estamos buscando incorporar un/a Ingeniero/a de Datos con experiencia en diseño, desarrollo y mantenimiento de pipelines de datos, capaz de trabajar con herramientas modernas del ecosistema analítico y de integración. El rol tendrá foco en la construcción de flujos de datos robustos, escalables y mantenibles, apoyando procesos de analítica, reporting y migraciones de datos

Apply without intermediaries through Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines de datos utilizando Python, dbt y Airflow.
  • Implementar procesos de transformación y modelado de datos analíticos.
  • Orquestar flujos de datos asegurando confiabilidad y trazabilidad.
  • Colaborar en iniciativas de migración e integración de datos.
  • Asegurar calidad, consistencia y disponibilidad de la información.
  • Documentar procesos y buenas prácticas técnicas.

Requerimientos del cargo

  • Python para desarrollo de pipelines y lógica de transformación.
  • dbt para modelado, transformación y versionamiento de datos analíticos.
  • Apache Airflow para orquestación y scheduling de procesos de datos.
  • SQL avanzado para consultas, transformaciones y validaciones.
  • Inglés nivel B2 (capacidad para comunicación técnica).

Opcionales

  • Experiencia en migraciones de datos entre sistemas.
  • Experiencia en integraciones de datos desde múltiples fuentes.
  • Buen entendimiento de arquitecturas de datos modernas (ELT / Analytics Engineering).
  • Experiencia en entornos productivos y manejo responsable de cambios.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Data Scientist (Sector Bancario)
  • Devsu
  • Quito (Hybrid)
Analytics Big Data Continuous Deployment Artificial Intelligence

Con más de 10 años impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y América Latina, en Devsu hemos desarrollado soluciones de alto impacto en industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de aprender constantemente y participar en proyectos desafiantes y de alto impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en distintos productos y soluciones de software.

Formarás parte de un entorno multicultural, con una estructura organizacional plana, donde el trabajo en equipo, el aprendizaje continuo y la flexibilidad son pilares fundamentales.

Actualmente, estamos en la búsqueda de un Senior Data Scientist (Sector Bancario) experimentado para sumarse a nuestro equipo de forma híbrida en Quito.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

  • Diseñar e identificar técnicas analíticas avanzadas y sets de variables óptimos para resolver problemas complejos de negocio, evitando procesamientos innecesarios de datos.
  • Desarrollar, probar y optimizar código de modelos analíticos garantizando su correcto funcionamiento, desempeño y calidad.
  • Construir y validar modelos predictivos y prescriptivos para apoyar decisiones estratégicas y operativas del Banco.
  • Analizar, explicar e interpretar relaciones entre variables, traduciendo hallazgos técnicos en insights accionables para el negocio.
  • Preparar y asegurar la escalabilidad, repetitividad y robustez de las soluciones analíticas desarrolladas.
  • Liderar el mantenimiento de modelos en producción (monitoreo, performance, recalibración y actualización).
  • Guiar y mentorizar a científicos de datos del equipo, asegurando la calidad técnica de los entregables.
  • Co-definir junto al líder del equipo el roadmap de modelos y actividades analíticas, alineado al backlog del CoE y a las necesidades del negocio.
  • Co-liderar el proceso de despliegue de modelos en ambientes productivos, en coordinación con Arquitectura de Datos y equipos tecnológicos.
  • Velar por el cumplimiento de estándares, buenas prácticas, políticas internas y gobierno de datos

Requerimientos del cargo

  • Mínimo 3 a 5 años de experiencia en modelación analítica (predictiva y/o prescriptiva).
  • Experiencia en manejo y análisis de grandes volúmenes de datos (Big Data).
  • Dominio de modelos estadísticos y econométricos, incluyendo Machine Learning y nociones de Reinforcement Learning.
  • Sólido entendimiento de matemáticas aplicadas, inteligencia artificial y operaciones matriciales.
  • Experiencia en desarrollo integral de soluciones analíticas (extracción, modelamiento, despliegue y reporting).
  • Conocimiento medio de prácticas de CI/CD y calidad de datos.
  • Experiencia liderando o coordinando equipos analíticos (deseable).
  • Experiencia previa en industrias intensivas en datos (banca, servicios financieros, telco, retail – deseable)

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Apply to this job at getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Apply without intermediaries through Get on Board.

Descripción del trabajo

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $3400 - 4000 Full time
Sr Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Python SQL NoSQL

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de evaluar a los solicitantes de empleo. Fundada en 2014, Checkr pone tecnología moderna impulsada por aprendizaje automático en manos de los equipos de contratación, ayudando a contratar talento con una experiencia rápida, fluida y segura.

Checkr cuenta con más de 100,000 clientes como DoorDash, Coinbase, Lyft, Instacart y Airtable. Trabajar en Checkr implica colaborar con mentes brillantes, revolucionar un sector y abrir oportunidades a candidatos que suelen pasar desapercibidos. Checkr es reconocida en la lista Forbes Cloud 200 2024 y es una empresa innovadora de Y Combinator 2023.

Find this vacancy on Get on Board.

Job functions

Acerca del equipo/puesto

Buscamos un SR Data Engineer con experiencia para incorporarse a nuestro equipo de Plataforma de Datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene plataformas de datos escalables para tomar decisiones de contratación justas y seguras.

Como ingeniero del equipo de la plataforma de datos, trabajarás en la plataforma de datos centralizada de Checkr, fundamental para la visión de la empresa. La plataforma de datos centralizada es el núcleo de todos los productos clave orientados al cliente. Trabajarás en proyectos de gran impacto que contribuyen directamente a los productos de próxima generación.

Qué harás:

  • Serás un colaborador independiente capaz de resolver problemas y ofrecer soluciones de alta calidad con una supervisión mínima/de alto nivel y un alto grado de responsabilidad.
  • Aportarás una mentalidad centrada en el cliente y orientada al producto: colaborarás con los clientes y las partes interesadas internas para resolver ambigüedades del producto y ofrecer funciones impactantes.
  • Te asociarás con ingeniería, producto, diseño y otras partes interesadas en el diseño y la arquitectura de nuevas funciones.
  • Mentalidad experimental: autonomía y empoderamiento para validar las necesidades de los clientes, conseguir la aceptación del equipo y lanzar rápidamente un MVP.
  • Mentalidad de calidad: insistes en la calidad como pilar fundamental de tus productos de software.
  • Mentalidad analítica: instrumenta y despliega nuevos experimentos de productos con un enfoque basado en datos.
  • Entrega código de alto rendimiento, confiable, escalable y seguro para una plataforma de datos altamente escalable.
  • Supervisa, investiga, clasifica y resuelve los problemas de producción que surjan en los servicios propiedad del equipo.

Qualifications and requirements

  • Inglés fluido (reporta a jefatura en USA y las entrevistas técnicas son 100% en inglés). Adjunta tu CV en inglés para postular.
  • Licenciatura en un campo relacionado con la informática o experiencia laboral equivalente.
  • Más de 6-7 años de experiencia en desarrollo en el campo de la ingeniería de datos (más de 5 años escribiendo PySpark).
  • Experiencia en la creación de canalizaciones de procesamiento de datos a gran escala (cientos de terabytes y petabytes), tanto por lotes como en flujo continuo.
  • Experiencia con ETL/ELT, procesamiento de datos en flujo y por lotes a gran escala.
  • Gran dominio de PySpark, Python y SQL.
  • Experiencia en la comprensión de sistemas de bases de datos, modelado de datos, bases de datos relacionales, NoSQL (como MongoDB).
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake y AWS stack (EKS, EMR, Serverless, Glue, Athena, S3, etc.).
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Gran capacidad para resolver problemas y atención al detalle.

Desirable skills

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.
  • Conocimiento de almacenes de datos gráficos y vectoriales (preferible).

Conditions

  • Trabajo híbrido, vamos a la oficina 3 días a la semana y 2 días desde casa.
  • Almuerzo los días que vayas a la oficina.
  • Un entorno colaborativo y dinámico.
  • Contrato indefinido
  • Formar parte de una empresa internacional con sede en Estados Unidos.
  • Bono de $3.000 USD al año para formación y desarrollo.
  • Remuneración competitiva y oportunidad de crecimiento profesional y personal.
  • Cobertura médica, dental y oftalmológica al 100 % para empleados y familiares a cargo.
  • 5 días extra de vacaciones
  • RSU

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Meals provided Checkr provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y América Latina, en Devsu hemos desarrollado soluciones de alto impacto en industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de aprender constantemente y participar en proyectos desafiantes y de alto impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en distintos productos y soluciones de software.

Formarás parte de un entorno multicultural, con una estructura organizacional plana, donde el trabajo en equipo, el aprendizaje continuo y la flexibilidad son pilares fundamentales.

Actualmente, estamos en la búsqueda de un DATA ENGINEER experimentado para sumarse a nuestro equipo de forma híbrida en Quito/Ecuador

© Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
VIEW JOB APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Data Analyst / Data Engineer/Solution Architect
  • MAS Analytics
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Apply without intermediaries through Get on Board.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Apply exclusively at getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

This posting is original from the Get on Board platform.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst – Digital Analytics & BI
  • WiTi
  • Montevideo &nbsp Santiago (Hybrid)
JavaScript Python Analytics SQL

WiTi es una empresa chilena de tecnología con presencia en Chile, Uruguay y Colombia, dedicada a la innovación en software y soluciones tecnológicas. Formamos parte de un equipo que presta servicios a clientes de primer nivel y trabajamos con un enfoque ágil para impulsar soluciones de analítica digital y BI en grandes retailers con operaciones en múltiples países de Latinoamérica. El proyecto actual se centra en analizar el comportamiento de usuarios en canales digitales (Web y App) para optimizar la experiencia de compra de millones de clientes a través de e-commerce. El Business Analyst reporta al equipo de Digital Analytics & BI y colabora con equipos de desarrollo, marketing y producto para asegurar que las estrategias de medición sean correctas, que el tagging y los pixeles se implementen adecuadamente y que existan dashboards útiles y accionables.

Apply exclusively at getonbrd.com.

Funciones y responsabilidades

  • Generar documentos de marcaje basados en estrategias de medición para equipos de desarrollo.
  • Gestionar y hacer seguimiento del tagging con equipos técnicos y proveedores externos cuando aplique.
  • Implementar tagging y píxeles usando Google Tag Manager (GTM) para Web y App.
  • Analizar datos para identificar quiebres en la experiencia y proponer mejoras concretas.
  • Crear dashboards y visualizaciones sobre el comportamiento de usuarios en Web y App para soportar la toma de decisiones.
  • Realizar seguimiento al embudo de compra en distintos e-commerce y monitorizar KPIs de conversión y retención.
  • Buscar proactivamente oportunidades de mejora y priorizar iniciativas en colaboración con stakeholders.
  • Realizar QA continuo del marcaje para garantizar datos precisos y confiables.

Descripción y requisitos

Buscamos un Business Analyst con al menos 1 año de experiencia en roles similares, orientado a análisis de experiencia de usuario y medición de datos en entornos de retail y e-commerce. Requerimos conocimiento intermedio de Google Analytics, Google Tag Manager, BigQuery y Looker, además de SQL a nivel intermedio, todo lo anterior es EXCLUYENTE. Se valora un nivel de Inglés avanzado. Es deseable disponer de experiencia con JavaScript para GTM y Python.

El perfil ideal posee habilidad para trabajar de forma proactiva en un entorno ágil, capacidad de comunicar hallazgos de negocio a distintas audiencias y una mentalidad orientada a la mejora continua. Si te apasiona la analítica, la toma de decisiones basada en datos y quieres formar parte de un equipo dinámico, te invitamos a postularte.

Requisitos deseables

Conocimientos prácticos de JavaScript para GTM y Python para soporte de scripts de análisis y automatización de datos. Experiencia en creación de dashboards avanzados y storytelling de datos para stakeholders de negocio. Capacidad de trabajar con datasets grandes y complejos, optimización de consultas en BigQuery y comprensión de modelos de atribución. Buenas habilidades de comunicación en español e inglés, y experiencia previa trabajando en contextos multicanal (Web, App, Marketing).

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst – Digital Analytics
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Python Analytics SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales. Diseñamos equipos ágiles para Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en el cliente, con metodologías ágiles, gestión del cambio y desarrollo de productos. Participarás en proyectos innovadores en un entorno colaborativo orientado al crecimiento profesional y al intercambio de conocimientos entre equipos.

Find this vacancy on Get on Board.

Principales responsabilidades

  • Definir y documentar estrategias de medición digital (tagging Web y App).
  • Coordinar y dar seguimiento a la implementación técnica con equipos de desarrollo.
  • Implementar y validar tags, píxeles y eventos usando Google Tag Manager.
  • Analizar funnels de conversión para detectar fricciones y oportunidades de mejora.
  • Construir y mantener dashboards en Looker Studio / Looker / BigQuery.
  • Monitorear el funnel de compra de los diferentes e‑commerce del grupo.
  • Ejecutar QA continuo para asegurar calidad y confiabilidad de los datos.
  • Proponer mejoras proactivas en conversión, eficiencia y experiencia de usuario (UX).

Requisitos

Al menos 2 años de experiencia en roles de Digital Analytics, CRO, BI o Data Product. Dominio intermedio/avanzado de Google Analytics / GA4 y Google Tag Manager (implementación y debugging), BigQuery y Looker / Looker Studio. SQL a nivel intermedio. Se valora: JavaScript aplicado a GTM y/o Python para análisis avanzado. Inglés intermedio (lectura y escritura técnica).

Requisitos deseables

Experiencia trabajando en entornos multinegocio y con métricas de e‑commerce a gran escala. Conocimientos en gestión de datos, calidad de datos y pruebas de validación de tagging. Habilidades de comunicación para presentar hallazgos y recomendaciones a stakeholders y equipos técnicos. Capacidad para trabajar de forma proactiva en entornos dinámicos y con metodologías ágiles.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Data Scientist
  • BICE VIDA
  • Santiago (Hybrid)
Python Artificial Intelligence Machine Learning Deep Learning

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Find this vacancy on Get on Board.

¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de nuestro/a próximo/a Senior Data Scientist, quien estará encargado/a de liderar el diseño, desarrollo y correcta implementación de modelos analíticos avanzados para resolver desafíos estratégicos del negocio. Asimismo, deberá actuar como referente técnico y mentor de los Data Scientists Junior, asegurando la adopción de mejores prácticas de desarrollo y elevando el estándar técnico del equipo para garantizar soluciones escalables y de alto impacto para generar una cultura “Data Driven” en BICE Vida.

💼 En este rol deberás:

  • Desarrollar y aplicar metodología de analítica avanzada, alineadas a los desafíos estratégicos del negocio.
  • Mentorear y guiar técnicamente a Data Scientists en el ciclo de vida de sus proyectos.
  • Definir y asegurar la adopción de mejores prácticas de versionamiento, documentación y MLOps en los desarrollos.
  • Traducir hallazgos matemáticos complejos en insights de negocio claros para stakeholders y la alta dirección.
  • Garantizar la seguridad de la información y el cumplimiento de la ley de protección de datos personales en todo el ciclo de vida de los modelos analíticos.
  • Apoyar técnicamente al negocio en el proceso de integración entre ambas compañías, facilitando la unificación de la estrategia de datos y modelos.
  • Investigar y evaluar nuevas tecnologías, algoritmos y tendencias emergentes en Ciencia de Datos.

🧠 ¿Qué necesitamos?

  • Formación: Ingeniería Civil, Matemática, Estadística, Computación o afines.
  • Experiencia: Mínimo 3-4 años desarrollando modelos analíticos en entornos corporativo, liderando proyectos con equipos multidisciplinarios y/o de consultoría interna.
  • Conocimientos: Experiencia avanzada en extracción, limpieza y manejo de datos estructurados, desarrollo e implementación de modelos de Machine Learning, Deep Learning y Forecast, en gestión completa de proyectos, desde el entendimiento del requerimiento hasta el despliegue productivo de la solución y su posterior monitoreo y sólido dominio de Python. Experiencia de despliegue de soluciones escalables en la nube.
  • Competencias: Liderazgo y capacidad para traducir requerimientos estratégicos y comunicar resultados técnicos a los stackholders y equipos de negocio involucrados.

✨Sumarás puntos si cuentas con:

  • Especialización: Deseable magíster en data science, economía, TI, ciencias actuariales.
  • Deseable dominio en R.

¿Cómo es trabajar en BICE Vida?

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
Education stipend BICE VIDA covers some educational expenses related to the position.
Fitness subsidies BICE VIDA offers stipends for sports or fitness programs.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst I
  • Signant Health
Agile Data Analysis SQL Microsoft Office

Want to do the Best Work of Your Life?

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations and reimagining the path to proof.

Working at Signant Health puts you in the very heart of the world’s most exciting sector - a high-growth, dynamic company in an extraordinary industry.

Where do you fit in?

The Data Analyst I is responsible for working with the Technical Delivery / Product Development staff to verify data changes, as well as data transfers.

Send CV through Get on Board.

Job functions

  • Verify SQL database contents and changes using source documentation and the database audit trail.
  • Verify data changes against Data Change Guides (DCGs) and associated risk/impact assessments.
  • Verify structure and content of client-requested database transfer datasets.
  • Verify Data Transfers/Reports per approved Data Transfer Specifications.
  • Verify data integrity across multiple databases using manual and automated techniques.
  • Perform routine data quality checks and report on the results on a regular basis.
  • Some data entry of data change requests (Change Forms).
  • Participates in special data-related projects as needed.
  • Demonstrate extreme attention to detail and organization in all aspects of work.
  • Follow Bracket Standard Operating Procedures for data change management, data transfer verification and risk/impact assessment documentation.
  • Some technical support after-hours, on-call time may be needed.
  • Other project work and responsibilities as required.

Qualifications and requirements

  • 1-3 years of experience working in a data-driven environment.
  • Working knowledge of Structured Query Language (SQL), as well as Microsoft Windows 2000/2003/XP and the suite of Microsoft Office applications.
  • Experience with standard data mining and data presentation techniques.
  • Proven ability to handle multiple competing priorities in a fast-paced work environment with minimal direct supervision.
  • Must have excellent written communication skills, including the ability to effectively document procedures, processes and results.
  • Demonstrated ability to meet deadlines & multi-task in a fast-paced work environment.
  • Demonstrate extreme attention to detail and organization in all aspects of work.
  • Must have very strong skills with Microsoft Office applications.
  • Must be comfortable working with business users and technical teams.

Desirable skills

  • Familiarity with SQL Queries is a plus.
  • Working knowledge of Visual Basic is a plus.
  • Familiarity with GCP and 21 CFR Part 11 is a plus.

Conditions

Pet-friendly Pets are welcome at the premises.
Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Semi Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Web server Virtualization
BC Tecnología es una consultora de TI especializada en servicios IT, con foco en diseñar soluciones y formar equipos que acompañen a clientes en sectores como financiero, seguros, retail y gobierno. El proyecto en curso busca a un/a Semi Senior Data Engineer para un equipo orientado a la gestión de datos y la construcción de pipelines robustos. El objetivo es habilitar flujos de datos eficientes, escalables y seguros, alineados a prácticas de gobierno de datos, sinergias con arquitectos y líderes técnicos, y entrega continua de valor al negocio.
Trabajarás en un entorno que premia la colaboración, la innovación y la mejora continua, con un mix de trabajo híbrido en Las Condes y presencia colaborativa cuando se requiera, para asegurar la cohesión técnica y la calidad de los entregables.

Job opportunity on getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines de datos eficientes para ingesta, transformación y disponibilización de datos, priorizando escalabilidad y rendimiento.
  • Asegurar la calidad, consistencia y confiabilidad mediante pruebas y validaciones técnicas a lo largo del ciclo de datos.
  • Implementar y mantener flujos CI/CD en entornos de desarrollo y producción para pipelines de datos.
  • Diseñar soluciones avanzadas con resiliencia, idempotencia y arquitecturas orientadas a eventos (event-driven).
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje, promoviendo prácticas de data discipline.
  • Optimizar procesos y estándares de ingesta y transformación, proponiendo mejoras continuas y buenas prácticas.
  • Colaborar estrechamente con arquitectos y líderes técnicos para asegurar el cumplimiento de lineamientos y arquitectura de referencia.

Requisitos y perfil

Estamos buscando un/a profesional con al menos 2 años de experiencia diseñando y construyendo pipelines de datos. Se requiere dominio avanzado de Python, Spark y SQL, y experiencia trabajando en AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia en arquitecturas Lakehouse (Delta Lake, Apache Iceberg o Apache Hudi).
Competencias técnicas complementarias incluyen visión de datos, capacidad para resolver problemas complejos, enfoque en calidad y buenas prácticas de pruebas, y experiencia en entornos de entrega continua. Se valora pensamiento analítico, proactividad, creatividad y habilidad para comunicar resultados a equipos multidisciplinarios. Se ofrece un entorno de aprendizaje y desarrollo contínuo, con foco en crecimiento profesional y trabajo colaborativo.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist Senior Freelance AWS/Sagemaker
  • CoyanServices
Python SQL Virtualization Big Data

CoyanServices busca apoyar a un cliente regional a través de una empresa tecnológica privada. El proyecto es 100% remoto y freelance, abierto a profesionales de cualquier país de Latinoamérica. Trabajarás en un entorno tecnológico moderno, con foco en soluciones analíticas para decisiones estratégicas. El equipo utiliza AWS para desplegar soluciones de ML/AI y necesitamos un Data Scientist Senior para diseñar, entrenar y desplegar modelos end‑to‑end, estandarizar ingesta y gobierno de datos en el Data Lake, y traducir insights técnicos en productos analíticos utilizables para decisiones de negocio.

Objetivos del rol:

Diseñar, entrenar y desplegar modelos de ML/AI end-to-end sobre infraestructura AWS.

Estandarizar procesos de ingesta, limpieza y gobierno de datos en el Data Lake.

Traducir insights técnicos en productos analíticos útiles para la toma de decisiones.

Apply to this job through Get on Board.

Funciones

Ingeniería de datos: Pipelines en S3, Glue, Lambda, Athena. Feature engineering, validación y monitoreo de calidad.

Modelado estadístico y ML: Regresión, clasificación, series de tiempo, NLP. Evaluación rigurosa y documentación técnica.

Deployment y MLOps: Productización en SageMaker/Lambda. CI/CD, versionamiento y monitoreo de modelos.

Análisis y comunicación: Dashboards, storytelling y soporte a decisiones estratégicas.

Gobierno y ética de datos: Mejores prácticas, documentación, reproducibilidad y cumplimiento normativo.

Requisitos y perfil

Formación en Ingeniería, Estadística, Matemáticas, Ciencias de la Computación o afines.

Python avanzado (pandas, numpy, scikit-learn, PyTorch/TensorFlow deseable).

Experiencia comprobable con AWS: S3, Athena, Data Lake, Lambda, SageMaker Studio.

Sólida base en estadística aplicada e inferencia. • Experiencia completa en ciclos de vida ML/AI.

SQL avanzado (Athena, Presto, Redshift).

Control de versiones, documentación y testing de modelos/datos.

Deseables: Conocimientos en PySpark o SparkSQL. • Visualización con herramientas como Power BI.

Habilidades blandas

Pensamiento crítico y enfoque científico.

Autonomía, comunicación efectiva y colaboración.

Curiosidad y aprendizaje continuo.

Beneficios

Freelancer. Oportunidad de trabajar con una empresa tecnológica líder y un cliente regional. Modalidad 100% remota, flexible, con posibilidad de crecimiento profesional. Participación en proyectos estratégicos y exposición a tecnologías punteras en AWS y ML/AI. Agenda y horarios acordes al trabajo remoto. Si te interesa, te invitamos a aplicar para conversar sobre el encaje y próximos pasos.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This offer is exclusive to getonbrd.com.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data
BC Tecnología es una consultora de TI con enfoque en servicios IT y desarrollo de proyectos para clientes de sectores como finanzas, seguros, retail y gobierno. En este proyecto de Data Engineering en Google Cloud Platform (GCP), nos enfocamos en la ingesta, modelamiento y orquestación de datos para apoyar necesidades del negocio. Trabajamos con equipos multidisciplinarios, implementando soluciones escalables y de alta disponibilidad, para entregar dashboards, reporting y capacidades analíticas a partir de datos en la nube.

Apply to this job without intermediaries on Get on Board.

Funciones

  • Implementar procesos de ingesta y modelamiento de datos en Google Cloud Platform (GCP).
  • Construir y optimizar ETLs y pipelines en BigQuery para apoyar reporting y analítica.
  • Automatizar procesos con Cloud Functions para mejorar la operatividad y la fiabilidad de los flujos de datos.
  • Orquestar tareas con Airflow para gestionar dependencias, monitorización y cumplimiento de SLA.
  • Trabajar con repositorios en GitLab para control de versiones y colaboración entre equipos.

Requisitos y perfil

Buscamos un Data Engineer con experiencia en GCP y un sólido dominio de SQL y Python. Se requiere experiencia práctica en BigQuery, Cloud Functions, Cloud Storage y Airflow, así como manejo de herramientas de control de versiones (GitLab, GitHub o Bitbucket). Debe demostrar capacidad para diseñar y mantener pipelines de datos robustos, con enfoque en calidad, rendimiento y escalabilidad. Se valorará experiencia en entornos colaborativos y en proyectos con enfoque en negocio y análisis de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst – Proyecto de Migración Digital
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

Apply through Get on Board.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2600 Full time
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 3000 Full time
Data Engineer Senior
  • Coderslab.io
Big Data ETL Cloud Computing Automation

En Coderslab.io trabajamos en un entorno de alta demanda tecnológica, con equipos globales que combinan talento de primer nivel. Nuestro cliente FIFTECH lidera iniciativas de datos avanzadas y está desarrollando el proyecto Datalake 2.0 en Colombia. Este rol se integra en el área de Data Factory dentro de la gerencia de Plataforma, Arquitectura y Data. El objetivo es fortalecer el procesamiento de datos en un entorno Big Data en Google Cloud Platform (GCP), contribuyendo a la evolución continua de nuestro Data Lake y a la entrega de información analítica confiable para decisiones estratégicas.

Find this vacancy on Get on Board.

Funciones y responsabilidades

  • Analizar, diseñar, desarrollar y probar procesos de ingesta de datos (ELT) en entornos GCP Big Data.
  • Mantener y evolucionar procesos ETL/ELT, asegurando rendimiento, escalabilidad y fiabilidad.
  • Desarrollar pipelines de datos serverless y automatizar flujos de datos para operaciones analíticas.
  • Integrar, consolidar y limpiar datos para su uso en analítica y reporting.
  • Apoyar en arquitectura y diseño de plataformas de datos dentro de la unidad de Data Factory, colaborando con equipos multidisciplinarios.
  • Participar en la definición de estándares de modelado de datos y buenas prácticas de ingeniería de datos.

Perfil requerido y experiencia

Buscamos un Data Engineer Senior con sólido background en procesos ELT/ETL en entornos Big Data sobre GCP y Data Lake. Debe demostrar capacidad para diseñar e implementar pipelines data-driven, experiencia en desarrollo de pipelines serverless y automatización de procesos. Se valorará la habilidad para modelar y estructurar datos orientados a análisis, así como la capacidad de integrarse de forma proactiva en proyectos complejos, con enfoque técnico y colaborativo. Se espera autonomía, buena comunicación y capacidad de trabajar en un entorno de ritmo alto.

Requisitos deseables

Experiencia previa en Data Lake en GCP, con enfoque en ingesta y transformación de grandes volúmenes de datos. Conocimiento de herramientas de orquestación y automatización, como Airflow o Workflows de GCP. Habilidades para trabajar con equipos de Arquitectura y Producto, capacidades de análisis y resolución de problemas, y orientación a resultados. Se valorará experiencia en entornos multinacionales y trabajo remoto colaborativo.

Beneficios y condiciones

Contrato de plazo fijo con duración estimada de 6 meses. Salario entre 2.500.000 y 2.700.000 CLP, según experiencia. Equipo propio no provisto; se requiere PC/notebook personal. Ventajas de trabajar con un cliente líder en soluciones de datos y un equipo global de alto rendimiento, con oportunidades de aprendizaje y crecimiento en tecnologías de vanguardia. Modalidad remota con posibles coordinación en Colombia y región. Si te apasiona la ingeniería de datos y quieres contribuir a un Data Lake avanzado, te invitamos a aplicar y formar parte de nuestro equipo.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Consultor Científico de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Data Analysis SQL

🚀 ¡Estamos buscando talento para el equipo Lab de Microsystem! ⚗️

Si te gustan los datos, la programación y los desafíos que realmente generan impacto, acá hay una oportunidad muy entretenida. Estamos desarrollando proyectos innovadores ligados a Machine Learning, ingeniería y ciencia de datos: desde modelos predictivos de pesca (sí, con datos reales y complejos 👀), hasta modelos bancarios inteligentes que anticipan comportamientos y mejoran decisiones de negocio.

Buscamos a alguien motivado, curioso y con ganas de aprender tecnologías de punta. Alguien que disfrute mezclar lo técnico con lo consultivo: entender al cliente, su contexto y transformar eso en modelos funcionales y útiles.

Trabajarás con un equipo joven, colaborativo y con experiencia 🤓, en un ambiente donde se prueba, se crea y se innova. Si te gusta programar, experimentar y resolver problemas reales, este es tu lugar 💪.

¿Te interesa o conoces a alguien? ¡Hablemos! 🚀

Apply directly from Get on Board.

Funciones del cargo

1. Levantamiento y entendimiento del negocio con el cliente

  • Participar en reuniones con clientes para comprender sus necesidades, procesos, problemas y expectativas.
  • Traducir requerimientos de negocio en objetivos analíticos y diseños de modelos.
  • Presentar hallazgos, resultados y recomendaciones de manera clara y comprensible.

2. Preparación, exploración y análisis de datos

  • Recopilar, limpiar y transformar datos provenientes de distintas fuentes.
  • Realizar análisis exploratorio (EDA) para descubrir patrones, anomalías y oportunidades de modelamiento.
  • Definir y construir pipelines de preparación de datos cuando sea necesario.

3. Construcción y entrenamiento de modelos predictivos

  • Diseñar, programar y entrenar modelos de Machine Learning (supervisados y no supervisados).
  • Seleccionar técnicas adecuadas según el problema: regresión, clasificación, series de tiempo, clustering, árboles, ensembles, etc.
  • Ajustar, validar y optimizar modelos para maximizar desempeño y robustez.

4. Implementación y despliegue de modelos

  • Implementar pipelines end-to-end: desde ingesta de datos hasta predicciones automatizadas.
  • Trabajar con herramientas y entornos de desarrollo modernos (Python, Jupyter, Git, APIs, etc.).
  • Colaborar con equipos Dev/Data Engineering para integrar los modelos en producción.

5. Documentación y comunicación

  • Documentar procesos, decisiones técnicas, métricas, versiones de modelos y flujos de trabajo.
  • Preparar presentaciones y reportes para explicar resultados a stakeholders técnicos y no técnicos.

6. Iteración, mejora continua y acompañamiento al cliente

  • Monitorear el rendimiento de los modelos y proponer mejoras.
  • Acompañar al cliente en el uso, interpretación y adopción del modelo.
  • Levantar nuevas oportunidades de mejora o proyectos relacionados.

7. Participación activa en el equipo Lab

  • Compartir aprendizajes, buenas prácticas y nuevos enfoques con el equipo.
  • Explorar tecnologías emergentes y sugerir innovaciones aplicables a los proyectos.

Requerimientos del cargo

Requisitos Técnicos (Hard Skills)

  • Formación en Ingeniería, Estadística, Matemáticas, Computación o carrera afín.
  • Experiencia comprobable en construcción de modelos predictivos (regresión, clasificación, series de tiempo, clustering, etc.).
  • Dominio de Python para ciencia de datos (pandas, scikit-learn, NumPy, matplotlib, etc.).
  • Conocimientos sólidos en limpieza, transformación y análisis exploratorio de datos (EDA).
  • Manejo de bases de datos y consultas SQL.
  • Conocimiento en APIs REST e integración de datos.
  • Capacidad para construir pipelines end-to-end de ML (ingesta, entrenamiento, evaluación, despliegue).
  • Manejo a nivel básico de herramientas analíticas como Power BI y/o Tableau para exploración y entendimiento de datos.
  • Deseable: experiencia en ML Ops, automatización, versionado de modelos o despliegue en la nube (AWS, Azure, etc.).

Requisitos Interpersonales (Soft Skills)

  • Habilidad para comunicarse claramente con clientes no técnicos.
  • Capacidad de levantar requerimientos, entender el contexto del negocio y traducirlo a problemas analíticos.
  • Buenas habilidades de presentación y storytelling con datos.
  • Proactividad, autonomía y ganas de aprender tecnologías nuevas.
  • Trabajo colaborativo en equipos multidisciplinarios.

Otros Deseables

  • Experiencia en consultoría o interacción directa con clientes.
  • Conocimiento en herramientas de visualización adicionales (Tableau, Looker, Power BI, etc.).
  • Inglés intermedio para lectura de documentación y soporte técnico.
  • Conocimiento de metodologías como CRISP-DM y otras a fines.
  • Conocimiento en otros lenguajes (TypeScript, JavaScript, etc.)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Education stipend Microsystem covers some educational expenses related to the position.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP – Proyecto
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Git SQL
BC Tecnología es una consultora de TI con experiencia en gestionar portafolios, desarrollar proyectos y realizar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. En BC Tecnología promovemos soluciones a la medida y formamos equipos ángeles para infraestructuras TI, desarrollo de software y unidades de negocio. Nuestra operación se apoya en metodologías ágiles, enfoque en el cliente y desarrollo de productos. El proyecto actual se enfoca en diseñar, construir y optimizar pipelines de datos en GCP para clientes de alto nivel, garantizando disponibilidad y calidad de la información para analytics y reporting.

Find this vacancy on Get on Board.

Funciones

  • Construcción, mantenimiento y optimización de pipelines de datos en Google Cloud Platform (GCP).
  • Desarrollo y soporte de ETLs eficientes y escalables, con énfasis en rendimiento y confiabilidad.
  • Modelado de datos para analytics y reporting, asegurando estructuras que soporten reporting y dashboards.
  • Automatización de procesos y flujos de datos utilizando Airflow/Cloud Composer.
  • Colaboración con equipos de datos y negocio para garantizar calidad, disponibilidad y acceso a la información.
  • Implementación de buenas prácticas de versionado y control de cambios (Git, GitLab/Bitbucket/GitHub).

Requisitos y habilidades

• Mínimo 3 años de experiencia como Data Engineer o rol equivalente en proyectos de datos.
• Sólidos conocimientos de SQL y Python para construcción de transformaciones y consultas analíticas.
• Experiencia con servicios de GCP (BigQuery, Cloud Functions, Cloud Composer/Airflow, Cloud Storage).
• Capacidad para diseñar y modelar datos en entornos GCP con foco en analítica y reporting.
• Experiencia con herramientas de control de versiones (GitLab, Bitbucket o GitHub).
• Ideal: experiencia con DBT y prácticas de ciencia de datos en la nube.
• Habilidad para trabajar en entornos colaborativos y adaptarse a cambios en proyectos y prioridades.

Requisitos deseables

• Conocimientos en orquestación de datos y pipelines complejos; experiencia con datos en entornos regulados y de alto rendimiento.
• Familiaridad con metodologías ágiles y cultura DevOps aplicada a data engineering.
• Certificaciones de GCP o fundamentos de ciencia de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data BigQuery
BC Tecnología es una consultora de TI especializada en administrar portafolios, desarrollar proyectos, realizar outsourcing y seleccionar profesionales para clientes en servicios financieros, seguros, retail y gobierno. Diseñamos equipos de trabajo ágiles para Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, con un enfoque en cliente, metodologías ágiles, cambio organizacional y desarrollo de productos. En este rol de Data Engineer, formarás parte de proyectos innovadores con clientes de alto nivel, contribuyendo al diseño, implementación y mejora de pipelines de datos que alimentan plataformas analíticas y la toma de decisiones del negocio.

Opportunity published on Get on Board.

Responsabilidades

  • Diseñar, implementar y mantener procesos ETL/ELT para la carga de datos desde APIs hacia BigQuery.
  • Asegurar la escalabilidad, eficiencia y calidad de los pipelines de datos.
  • Aplicar buenas prácticas de versionamiento, documentación y pruebas en el código.
  • Colaborar con equipos internos para la exportación y consumo de datos desde Databricks.
  • Monitorear la calidad e integridad de los datos en los distintos entornos.
  • (Deseable) Desarrollar y mantener reportes Power BI conectados a Databricks.

Perfil y habilidades

Requisitos técnicos:
  • Experiencia mínima de 1 año en roles similares.
  • Experiencia diseñando, implementando y manteniendo procesos ETL/ELT para la carga de datos desde APIs hacia BigQuery.
  • Conocimiento intermedio en BigQuery y SQL.
  • Experiencia en Python, orientado a procesos de datos.
  • (Deseable) Experiencia en integración con APIs y uso de librerías como requests.
  • (Deseable) Conocimientos en herramientas de visualización, idealmente Power BI.
  • (Deseable) Experiencia en entornos cloud y uso de Databricks.

VIEW JOB APPLY VIA WEB
$$$ Full time
Analista de Datos / Business Intelligence
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Data Analysis Excel
En BC Tecnología somos una consultora de TI que acompaña a clientes de sectores financieros, retail, tecnológico y público. Buscamos un/a Analista de Datos / Business Intelligence para transformar datos en insights que orienten decisiones estratégicas. Trabajarás en proyectos de alto impacto dentro de equipos interdisciplinarios, implementando soluciones de analítica y BI que faciliten la toma de decisiones en clientes de alto nivel. Formarás parte de una organización con enfoque en metodologías ágiles, formación de equipos y desarrollo de productos, con un portfolio de servicios que incluye consultoría, outsourcing y desarrollo de proyectos.

Applications: getonbrd.com.

Principales Responsabilidades

  • Transformar datos en información clara y accionable mediante análisis estadístico, modelado y visualización.
  • Recopilar, analizar y transformar datos de distintas fuentes para generar insights de negocio.
  • Diseñar y desarrollar reportes, dashboards e indicadores clave (KPIs) en Power BI u otras herramientas de visualización.
  • Aplicar técnicas de análisis estadístico y exploración de datos para detectar tendencias, patrones y oportunidades de mejora.
  • Colaborar con equipos de negocio, BI y tecnología para definir métricas relevantes.
  • Asegurar la calidad, integridad y consistencia de los datos; documentar procesos y estructuras de datos.
  • Mantenerse actualizado/a en herramientas de analítica, visualización y ciencia de datos; cumplir con políticas de seguridad y cumplimiento.

Requisitos y Perfil

Formación: Ingeniería, Estadística, Economía, Ciencia de Datos, Administración u afines. Experiencia: mínimo 2 años en roles de Análisis de Datos, Inteligencia de Negocio o Control de Gestión.
Conocimientos Técnicos clave:
  • Modelado de datos y definición de KPIs.
  • Power BI (modelado, DAX, visualizaciones).
  • SQL (consultas y optimización).
  • Python y Power Automate.
  • Excel avanzado.
  • Conocimientos en estadística descriptiva e inferencial aplicada a negocio.
  • Experiencia en limpieza y transformación de datos.
Competencias blandas: pensamiento analítico, orientación a resultados, comunicación efectiva y capacidad para trabajar en equipos multidisciplinarios en entornos ágiles.

Deseables

Experiencia en proyectos de BI en el sector financiero o público; conocimiento de herramientas de visualización adicionales; experiencia en automatización de procesos y manejo de grandes volúmenes de datos; habilidad para traducir requerimientos de negocio en soluciones técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Ingeniero/a de Continuidad Operacional 7x7
  • Contac Ingenieros
  • Santiago (In-office)
C Python Data Analysis SQL

Contac Ingenieros es una empresa especializada en proveer soluciones integrales para la industria minera, enfocándose en la optimización y modernización de procesos mediante tecnología y conocimiento especializado. El proyecto se centra en asegurar la continuidad operacional a través de soluciones digitales, y mejora continua, con un enfoque en disponibilidad, confiabilidad y oportunidad de los datos que respaldan la toma de decisiones en procesos mina-planta. El equipo trabaja en un entorno de analítica avanzada, integrando herramientas de datos y plataformas para garantizar la continuidad de las operaciones mineras y la entrega de reportes ejecutivos confiables.

Apply to this job without intermediaries on Get on Board.

Principales Funciones

  • Revisar disponibilidad de aplicativos y la correcta ejecución de servicios y procesos de ingestas asociadas a iniciativas de analítica avanzada.
  • Generar hot fixes necesarios para garantizar la continuidad operacional de las plataformas de analítica avanzada.
  • Proponer y ejecutar mejoras de procesos para optimizar tareas que se vean impactadas.
  • Revisar y medir el impacto de ajustes de código y resolver de acuerdo a la criticidad de cada error.
  • Asegurar la integridad de las ingestas de datos para reportes y rutinas ejecutivas.
  • Verificar la ejecución y envío correcto de información de reportes ejecutivos, cotejando la información con parámetros operacionales.
  • Ejecutar procesos de forma manual cuando sea necesario.
  • Brindar soporte operacional presencial para necesidades operativas.

Requisitos

  • Título en Ingeniería en Informática, Civil o carrera afín.
  • Conocimientos en análisis de datos, reportabilidad y KPIs operacionales.
  • Manejo de herramientas como SQL, PI System, Power BI, Python y la suite Microsoft.
  • Conocimiento de procesos mineros.
  • Capacidad de aprendizaje, proactividad y orientación al cliente.
  • Disponibilidad para trabajar en Jornada 7X7 con presencialidad en la comuna de Las Condes.

Deseables

Experiencia previa en continuidad operacional o en roles de analítica de datos en minería. Conocimientos en C#, ETL, y manejo de entornos de nube. Habilidades de comunicación efectiva y trabajo en equipo, con enfoque en resolución de problemas y entrega de valor a la operación minera.

Beneficios

  • Seguro Complementario de Salud
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3200 Full time
Senior Data Consultant
  • Artefact LatAm
Python Data Science English Data Visualization

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

This job is published by getonbrd.com.

Tus responsabilidades serán:

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.
  • Apoyar al equipo en la planificación estratégica y en la transferencia de conocimientos y mejores prácticas.

Los requisitos del cargo son:

  • Titulación en Ingeniería Civil Industrial, Ingeniería Industrial, Economía o áreas afines.
  • Experiencia laboral mínima de 4 a 6 años en consultoría o roles relacionados.
  • Dominio avanzado de herramientas de Office y/o Google.
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de diversas herramientas y soluciones digitales.
  • Inglés fluido para comunicarse oralmente con los clientes.

Algunos deseables no excluyentes:

  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Outdoors The premises have outdoor spaces such as parks or terraces.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 5000 Full time
Senior Data Engineer – AI Data Infrastructure & Automation
  • Common Forge Ventures
Python SQL Cloud Computing Automation

Common Forge Ventures is seeking a Senior Data Engineer to join one of our venture studio startups, a high-growth company building the world’s most robust, contextualized buyer intelligence platform for investment banks, private equity, and strategic acquirers. You will own and evolve the data infrastructure that ingests, cleanses, and enriches large-scale data from APIs, web scraping agents, LLM outputs, and internal datasets. This role focuses on scalable pipelines, data governance, AI agent orchestration, and seamless integration with product teams to deliver reliable data APIs and feeds that power advanced buyer insights.

Apply to this job from Get on Board.

Key Responsibilities

  • Data Architecture & Pipelines: Design and optimize large-scale ETL/ELT pipelines across structured and semi-structured data sources. Implement data validation, normalization, and reconciliation frameworks to ensure data integrity. Automate ingestion and transformation processes using orchestration tools.
  • AI Agent Orchestration & Integration: Develop, train, and refine LLM-based data agents to collect, clean, update, and infer new attributes for buyer profiles. Build robust prompting architectures, JSON schema validation, and feedback loops to ensure high-quality structured outputs. Collaborate to optimize agent reasoning, reduce hallucinations, and integrate embeddings for context-aware inference.
  • Data Governance & Quality: Define standards for data versioning, lineage, and observability. Build quality-control layers for agent-generated data, including confidence scoring, human-in-the-loop validation, and automated correction mechanisms. Ensure compliance with data governance, privacy, and security requirements.
  • Collaboration & Product Integration: Work cross-functionally with AI, product, and engineering teams to deliver data APIs and feeds. Partner with leadership to prioritize data reliability, scalability, and innovation. Lead ongoing improvements to the data infrastructure roadmap.

Required Skills & Experience

5+ years in data engineering (or similar) with strong experience in Python (Pydantic a bonus), SQL, and orchestration frameworks. Proficiency with cloud data stacks (including GCP). Demonstrated ability to design or integrate AI/LLM agents for data collection, enrichment, or inference tasks. Track record of building structured data pipelines from unstructured sources, with error recovery, validation, and monitoring. Deep understanding of prompt engineering, function calling, embedding-based retrieval, and data labeling workflows. Excellent communication, documentation, and cross-team collaboration skills. You care deeply about your craft and maintain clean, scalable projects even when not directly supervised.

Desirable Skills & Experience

Familiarity with LangChain or other agent frameworks (e.g., LlamaIndex, Haystack), tool-calling, and similar agent orchestration technologies. Experience with data quality scoring, schema evolution, and metadata management (dbt, Great Expectations, etc.). Background in investment data, market intelligence, or deal-sourcing platforms. Experience leading small data or engineering teams.

Benefits & Perks

From Common Forge Enterprises, you will enjoy a remote working environment with flexible hours, enabling you to balance personal and professional commitments effectively. We prioritize opportunities for professional development and growth, fostering an inclusive and collaborative team culture. Join us to access the latest technologies and tools as we work toward impactful solutions together! 🚀

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4300 Full time
Data Scientist ML Engineer
  • Pulsar Technologies
Python Analytics DevOps Continuous Deployment
Project and Role
 The role involves developing, deploying, and maintaining ML models on cloud platforms using Databricks, MLflow, and Azure DevOps. The goal is to build reproducible, monitored, and well-governed analytics solutions that meet the client’s MLOps best practices. The main focus is automating the ML lifecycle—from data preparation and feature engineering to training, registration, deployment, and monitoring in production. Experience designing scalable, resilient, and maintainable solutions aligned with business goals and performance metrics is highly valued.

Applications at getonbrd.com.

Description

As a Data Scientist - ML Engineer, you will be responsible for designing and maintaining ML models in production, ensuring quality and compliance with MLOps practices. 
  • Design, train, and evaluate supervised and unsupervised models, with an emphasis on reproducibility and traceability.
  • Develop data and feature pipelines, including data cleaning, transformation, and quality validation.
  • Manage the model lifecycle using MLflow: tracking, registration, and versioning of models and metrics.
  • Work with Databricks for analytics and ML, optimizing notebooks and shared notebook workflows.
  • Oversee deployments and monitoring in Azure DevOps, applying Gitflow practices, CI/CD, and version control.
  • Define and follow coding standards (PEP8), implement model and pipeline testing, and manage environments (dev, prod).
  • Set up performance metrics, anomaly detection, and alerts for models in production.
  • Collaborate with data engineers, tech leads, and other stakeholders to align solutions with business objectives.
  • You are expected to demonstrate teamwork, proactivity in problem-solving, and commitment to quality and continuous improvement.

Requirements

We are looking for a Data Scientist with strong experience in Machine Learning Engineering.
The candidate will be responsible for designing, developing, and maintaining advanced analytics models. They will ensure quality and compliance with the client’s MLOps best practices by implementing scalable, reliable, and reproducible ML solutions on cloud platforms. Experience in automating the ML lifecycle and continuously improving model performance will be highly valued. 
Requirements
  • Education: Engineering, Computer Science, Mathematics, Statistics, or a related field.
  • Experience: Minimum of 3 years applying ML in production environments.
  • Programming: Python (PEP8, Pylint, Black) and adherence to clean coding standards.
  • Modeling: Design and training of supervised and unsupervised models.
  • MLOps: Data preparation, feature engineering, training, registration, deployment, and monitoring.
  • Tools: Databricks for analytics and ML; MLflow for model lifecycle management.
  • DevOps: Azure DevOps (Gitflow, CI/CD, version control).
  • Best Practices: Model and pipeline testing, environment management (dev, prod).
  • Performance: Ability to configure and track metrics (MAE, RMSE, F1, AUC-ROC), anomaly detection, and production alerts.
  • Collaboration: Strong communication skills to work with multidisciplinary teams and convey results to both technical and non-technical stakeholders.

Desirable skills

  • Knowledge of analytical project frameworks (e.g., Databricks Asset Bundles), advanced cloud architecture, and scalable ML solution design
  • Experience with Lakeview or other tools for interactive visualization and monitoring
  • Proven experience implementing end-to-end automated ML pipelines
  • Ability to manage user feedback to continuously improve models.

Conditions

  • 100% remote
  • Spanish language, professional proficiency is required
  • Chile-based is preferred
  • Must be compatible with Chilean timezone

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB