Skills relacionados:
Gross salary $1300 - 1800 Full time
Java REST API Node.js SQL
Gatblac es una empresa de tecnología con 9 años en el mercado, dedicada al desarrollo de soluciones a medida para importantes clientes de la industria nacional.
Contamos con un equipo de más de 90 profesionales, con amplia experiencia en el mercado bursátil, bancario y maquinarias.
Trabajamos con metodologías apoyadas en principios ágiles, que nos permiten generar desarrollos incrementales, por etapas/sprints, con el compromiso de brindar sistemas de calidad, escalables y extensibles.

Apply at the original job on getonbrd.com.

Funciones del cargo

Buscamos Ingeniera/o en Informática, Analista Programador/a o Profesional afín, para desempeñar diversas soluciones de software dentro de las que se encuentran el desarrollo de sistemas web, desktop, mobile y chatbots, dependiendo de la asignación según perfil para Ingeniero(a) de Software.
El/la profesional participará en proyectos y desarrollo de soluciones de software para importantes clientes de Gatblac en industrias tales como financiera, bursátil, maquinarias y minería.
Sus principales funciones serán:
  • Desarrollar componentes y piezas de software.
  • Automatizar procesos y tareas manuales.
  • Diseñar soluciones de software en base a buenas prácticas en patrones de Arquitectura de Software.
  • Atender requerimientos usuarios e incidencias para aplicaciones que estén en ambiente productivo.
  • Colaborar en las etapas de análisis y toma de requerimientos usuarios.
El/la profesional que se integre al equipo será supervisado y mentoreado por su líder técnico asignado y apoyado por el trabajo colaborativo de los desarrolladores e ingenieros de Gatblac.

Requerimientos del cargo

Se requiere de un profesional de software con al menos 1 año de experiencia en proyectos de desarrollo de software y los siguientes conocimientos:
  • Dominio demostrable en lógica de programación.
  • Lenguajes de programación Golang, NodeJS, JAVA y/o C#.
  • Experiencia en el desarrollo de API (REST, gRPC, SOAP)
  • Conocimientos básicos de arquitecturas de software.
  • Manejo de Bases de Datos SQL/NoSQL.
Es importante contar con buenos compañeros de trabajo por lo que necesitamos que poseas:
  • Alta capacidad de enfrentar desafío complejos.
  • Buscamos alguien con iniciativa, que tenga capacidad de comunicarse con el equipo, proponer ideas y recibir sugerencias de pares y expertos.
  • Ser un profesional de software integral que se involucre en las distintas etapas de un proyecto de desarrollo y tenga conocimiento de su alcance.
  • Disponibilidad Inmediata.

Beneficios

  1. Bonificación de Almuerzo con Carga Mensual Tarjeta Pluxee (Ex-Sodexo).
  2. Afiliación Caja de Compensación Los Héroes.
  3. Afiliación Asociación Chilena de Seguridad ACHS.
  4. Bonificación por trabajo híbrido.
  5. Bonificación fechas especiales: fiestas patrias y fiestas de fin de año.
  6. Acceso continuo a Certificaciones y Cursos.
  7. Tarde libre día de cumpleaños.
  8. Acceso a Seguro Complementario de Salud y Dental con cobertura extendida para hijos/as.
  9. Bonificación por nacimiento de hijos/as y matrimonio de colaboradores.
  10. Bonificación por fallecimiento de padres, cónyuges e hijos/as.
  11. Retroalimentación continua.
  12. Convenios con bancos.

Pet-friendly Pets are welcome at the premises.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Gatblac pays or copays health insurance for employees.
Computer repairs Gatblac covers some computer repair expenses.
Dental insurance Gatblac pays or copays dental insurance for employees.
Computer provided Gatblac provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
MySQL Git Node.js React
Usercode SpA es una empresa tecnológica 100% remota, especializada en la creación de productos digitales a medida para clientes del sector público y privado. Con un equipo multidisciplinario distribuido en Chile, México y Perú, nos enfocamos en tecnologías cloud, automatización y digitalización de procesos, trabajando con importantes instituciones públicas como el Ministerio Público y el Servicio Electoral de Chile, entre otros.
En el área de desarrollo de software, nuestros proyectos principales consisten en plataformas web modernas y robustas, aplicaciones móviles y sitios web que atienden las necesidades específicas de nuestros clientes mediante soluciones innovadoras y escalables.

This job is available on Get on Board.

Funciones del cargo

  • Desarrollar, mantener e implementar productos digitales como plataformas web, aplicaciones móviles y sitios web, utilizando tecnologías modernas y eficientes.
  • Colaborar estrechamente con desarrolladores, arquitectos de software y el jefe de proyecto dentro del equipo de desarrollo.
  • Participar activamente en reuniones de levantamiento de requerimientos con clientes para clarificar dudas y apoyar el diseño de soluciones técnicas alineadas a sus necesidades reales.
  • Reportar directamente al jefe de proyecto, contribuyendo a la planificación y seguimiento de las tareas del equipo.
  • Asistir a daily meetings diarias para comunicar el progreso, identificar bloqueos y coordinar esfuerzos dentro del equipo.
  • Colaborar en sesiones de trabajo remoto y videollamadas para resolver dudas técnicas o de implementación de productos.

Requisitos del cargo

Es indispensable que los candidatos cuenten con estudios formales en desarrollo de software, con títulos profesionales o técnicos obtenidos en universidades o institutos técnicos acreditados, ya sea en Chile o en cualquier parte del mundo. No se consideran válidos los cursos o certificaciones provenientes únicamente de bootcamps de programación, independientemente de su duración o intensidad.
El candidato debe haber cursado una carrera de al menos dos años, con título profesional o técnico relacionado al desarrollo de software.
En cuanto a la experiencia, requerimos un mínimo de 3 años trabajando con las siguientes tecnologías y la participación en al menos 6 proyectos que utilicen este stack tecnológico:
  • Node.js y Express para el backend.
  • React.js y Angular para el frontend.
  • Control de versiones con Git.
  • Bases de datos MySQL y MongoDB.
  • Servicios en la nube AWS, incluyendo EC2, S3, CloudFront, Lambda, SQS, DynamoDB y AuroraDB.
Además del perfil técnico, valoramos en nuestros candidatos cualidades personales como proactividad, trabajo en equipo, autonomía y enfoque en objetivos y resultados.

Habilidades y conocimientos deseables

Serán considerados un plus aquellos candidatos que posean experiencia adicional en metodologías ágiles, conocimientos avanzados en integración continua y despliegue automático, y habilidades para la comunicación efectiva en equipos distribuidos. También valoramos aquellas personas con capacidad para adaptarse rápidamente a nuevas herramientas tecnológicas y con interés genuino por el aprendizaje continuo y la innovación dentro del área de desarrollo de software.

Beneficios

Ofrecemos un entorno de trabajo 100% remoto, con flexibilidad para ajustarse a necesidades puntuales presenciales con clientes. Disfrutarás de días extras de vacaciones y un innovador sistema 3x5 que otorga días libres adicionales. Además, contamos con un día libre especial por cumpleaños, cambio de domicilio o fallecimiento de mascota.
Brindamos apoyo económico para certificaciones seleccionadas que potencien tu desarrollo profesional. Promovemos pausas activas colaborativas para apoyar el bienestar de todo el equipo y entregamos aguinaldos periódicos como reconocimiento.
Todo esto está enmarcado en una cultura que fomenta el crecimiento profesional, la calidad de vida y el trabajo en equipo dentro de una empresa con más de 40 casos de éxito en clientes públicos y privados en Chile y la región.

Informal dress code No dress code is enforced.
$$$ Full time
Software Engineer I
  • Wherex
  • Santiago (Hybrid)
JavaScript Python PHP Git

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Apply directly on the original site at Get on Board.

Job functions

Desarrollador de software con fuerte interés en construir soluciones tecnológicas basadas en IA. Serás parte del equipo de Sourcing, participando en el desarrollo de nuevas funcionalidades, resolución de issues en producción y mejora continua del sistema.

Funciones principales:

  • Diseñar, desarrollar y mantener funcionalidades de la plataforma.
  • Atender y dar solución a incidencias operativas.
  • Colaborar en la revisión de código y decisiones técnicas.
  • Participar activamente en ceremonias ágiles y trabajo colaborativo.

Qualifications and requirements

Requisitos técnicos:

  • Titulo universitario de Ingeniero Civil en Informática, Ingeniero en Informática.
  • 1 a 2 años de experiencia en desarrollo de software (incluye prácticas profesionales de alta exigencia).
  • Experiencia práctica con al menos 2 de los siguientes lenguajes: PHP, Python, Go, JavaScript, React.
  • Conocimientos en bases de datos relacionales (PostgreSQL, MySQL) y no relacionales (MongoDB, Redis, etc.).
  • Manejo de control de versiones con Git.
  • Experiencia con contenedores Docker.
  • Conocimientos en metodologías ágiles (Scrum, Kanban).
  • Interés o experiencia en desarrollo asistido por Inteligencia Artificial (IA).

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

Gross salary $2300 - 2800 Full time
JavaScript Git REST API React

Somos parte de Adecco Chile, la empresa líder mundial en servicios de Recursos Humanos con más de 35 años en el país y presencia en las principales ciudades del territorio. Nuestro cliente en el sector retail busca potenciar su equipo tecnológico mediante proyectos que requieren innovación constante y desarrollo de productos escalables con tecnología de punta. A través de un entorno ágil y colaborativo, desarrollamos soluciones que impactan directamente en la experiencia de usuario y rendimiento del negocio, manteniéndonos a la vanguardia tecnológica para enfrentar los desafíos del mercado.

This job offer is available on Get on Board.

Responsabilidades principales

  • Diseñar y desarrollar aplicaciones web utilizando Next.js para el frontend y NestJS para el backend.
  • Liderar la construcción de soluciones escalables, robustas y seguras que impacten positivamente en los objetivos del cliente.
  • Resolver desafíos técnicos complejos trabajando en conjunto con equipos multidisciplinarios y colaborativos.
  • Garantizar la calidad del código mediante la aplicación de buenas prácticas como Test-driven Development (TDD), integración continua (CI/CD) y revisiones de código (code reviews).
  • Participar activamente en reuniones técnicas en inglés y colaborar con equipos internacionales para alinear objetivos y entregables.
  • Optimizar la seguridad, rendimiento y escalabilidad de las aplicaciones desarrolladas.
  • Investigar y evaluar nuevas tecnologías para mejorar continuamente el stack tecnológico y procesos.

Perfil requerido

Buscamos profesionales con al menos 3 años de experiencia comprobable en el desarrollo full stack, especialmente con Next.js y NestJS. Es indispensable contar con un dominio avanzado de JavaScript y TypeScript, así como experiencia sólida con React y consumo de APIs REST y GraphQL. Debe demostrar conocimientos prácticos de Docker y Git, además de manejar herramientas modernas de desarrollo colaborativo y control de versiones.

Es fundamental tener experiencia en metodologías ágiles, preferentemente Scrum o Kanban, para integrarse eficazmente al equipo de trabajo. La comunicación será en inglés técnico, por lo que se requiere un nivel intermedio o superior tanto oral como escrito. Además, se valorará experiencia previa trabajando con infraestructura cloud, idealmente AWS, y manejo de bases de datos relacionales y NoSQL para garantizar escalabilidad y robustez de las soluciones.

Además de las habilidades técnicas, buscamos un individuo proactivo, con capacidad de trabajo en equipo, orientación a resultados y adaptación a entornos dinámicos y de rápido cambio, que aporte innovación y liderazgo técnico.

Habilidades y conocimientos deseables

Se valorará experiencia en otras tecnologías modernas de frontend y backend relacionadas, como Redux, Apollo Client o GraphQL Server. Conocimiento en seguridad web avanzada, CI/CD específico con Jenkins o GitHub Actions, y manejo de contenedores a nivel avanzado con Kubernetes.

Además, la experiencia en colaboración internacional y gestión de proyectos con enfoque DevOps será un plus importante para integrarse y aportar en un ecosistema tecnológico global.

Beneficios que ofrecemos

Ofrecemos un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional y crecimiento continuo. Formarás parte de un equipo altamente cualificado y profesional, con acceso a formación constante para mantenerte actualizado en las últimas tecnologías.

La modalidad de trabajo es híbrida, combinando 2 días presencial en la comuna de Las Condes y 3 días remoto, con un horario de lunes a viernes de 09:00 a 18:00 hrs.

Contrato inicial a plazo fijo y luego indefinido con el cliente final, junto con un bono anual por desempeño. Contarás con seguro complementario de vida y salud para tu bienestar.

$$$ Full time
Python Node.js NoSQL React

SONDA es una empresa líder en transformación digital en Latinoamérica, comprometida con el desarrollo tecnológico y social en las comunidades donde opera. Nuestra misión es mejorar la calidad de vida de las personas mediante la innovación y soluciones tecnológicas que transforman negocios y procesos. Actualmente, buscamos un Desarrollador Full Stack para integrarse al proyecto Fonasa, donde se desarrollan aplicaciones orientadas a optimizar y modernizar sistemas y procesos de información en el sector público, aportando valor al cliente final mediante tecnología de punta y trabajo colaborativo.

Applications at getonbrd.com.

Responsabilidades y funciones principales

  • Desarrollar aplicaciones siguiendo los diseños técnicos y funcionales definidos.
  • Generar soluciones innovadoras y efectivas frente a los problemas técnicos o de negocio detectados.
  • Realizar la mantención y mejora continua de aplicaciones existentes para asegurar su operatividad y calidad.
  • Analizar los requisitos del sistema y procesos de negocio existentes para identificar oportunidades de mejora y asegurar la alineación con las necesidades del cliente.
  • Diseñar y construir pruebas unitarias robustas que garanticen la calidad de las soluciones desarrolladas.
  • Contribuir activamente a la elaboración técnica global de las soluciones, colaborando con los equipos multidisciplinarios.

Perfil requerido y conocimientos técnicos

  • Buscamos un profesional con título en Ingeniería en Informática, Sistemas o carreras afines, quien cuente con un mínimo de 2 años de experiencia directa en roles similares de desarrollo Full Stack y al menos 5 años en el ámbito tecnológico, demostrando un sólido conocimiento del ciclo completo de desarrollo de software.
  • Es fundamental poseer habilidades técnicas en frontend, con experiencia en HTML, CSS, JavaScript y el manejo de frameworks o librerías populares como React o Angular. En el backend, se requiere conocimiento en programación con lenguajes como Node.js, Python y frameworks asociados como FastAPI, Express, Django o Rails.
  • Además, debe contar con experiencia en la gestión y manejo de bases de datos tanto relacionales (MySQL, PostgreSQL, Oracle DB) como NoSQL (MongoDB), para garantizar el adecuado almacenamiento y consulta de la información.
  • Se valorará el conocimiento en herramientas de integración y entrega continua (CI/CD), uso de contenedores como Docker, y experiencia con servicios en la nube, especialmente AWS, aportando a la modernización y automatización de los entornos de desarrollo y producción.
  • Además de las habilidades técnicas, buscamos una persona con capacidad analítica, orientación a la solución de problemas, y aptitudes para trabajar en equipo dentro de un ambiente colaborativo y diverso, siempre promoviendo la innovación y la mejora continua.

Conocimientos adicionales valorados

  • Es deseable contar con experiencia práctica en proyectos que impliquen despliegue en entornos cloud y microservicios, así como manejo avanzado en técnicas de testing automatizado e infraestructura como código.
  • Se valorará también la habilidad para adaptarse rápidamente a nuevas tecnologías y metodologías ágiles, junto a una fuerte orientación al cliente y comunicación efectiva con stakeholders técnicos y no técnicos.

Beneficios y cultura organizacional

  • En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.
  • Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.
  • Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.
  • El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.
  • Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.
  • Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Gross salary $1100 - 1300 Full time
JavaScript Git Node.js SQL

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Apply only from getonbrd.com.

Funciones del cargo

Buscamos un desarrollador web Full Stack Semi Senior con experiencia NodeJs/ Netcore-Net 6+, React /Angular, SQL. Experiencia en AWS (opcional). Sus funciones serán implementar nuevos productos y dar soporte a las aplicaciones solicitadas por clientes de Defontana.

Las tareas de ejecutar son las siguientes:
- Mantenimiento a productos existentes.
- Desarrollo de productos según las necesidades de la empresa.
- Desarrollo de nuevas funcionalidades.
- Comunicación con equipos de internos y externos a la empresa, según corresponda a cada proyecto.

Para el trabajo remoto, se requiere tenga una buena conexión a Internet para conectarse a reuniones junto a sus compañeros de equipo.

Requerimientos del cargo

Requerimos que el postulante al cargo tenga los siguientes conocimientos:

  • NodeJs
  • Desarrollo y Administración en AWS (Lambda, API Gateway, DynamoDB, S3) (opcional)
  • CDK/Serverless Framework.
  • React
  • TypeScript, JavaScript
  • .Net Core 3.1 o superior
  • Net Framework
  • Net6+
  • Entity Framework
  • SQL
  • Angular 2+
  • Conceptos de Desarrollo Web (Frontend, Backend, HTML, CSS, API RESTful, Autenticación, Requests, CORS, etc)
  • SQL Server
  • Git

Opcionales

Conocimiento sobre Scrum y otras metodologías de trabajo en desarrollo de software.

Beneficios

Trabajo remoto.
La empresa entrega un PC de trabajo remoto al desarrollador, por lo que solo se solicita poseer un PC a través del cual se pueda conectar al mismo en forma remota.
Bono trimestral de medio sueldo, según resultados de la empresa y tiempo de permanencia en la misma.

Fully remote You can work from anywhere in the world.
Computer provided Defontana provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Defontana offers beverages and snacks for free consumption.
Gross salary $2100 - 2800 Full time
Python MySQL PostgreSQL REST API
Coderslab.io es una empresa que ayuda a las organizaciones a transformarse y crecer mediante soluciones tecnológicas innovadoras. Formarás parte de un grupo de más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Trabajarás dentro de equipos diversos que cuentan con talento de primer nivel y participarás en proyectos innovadores y desafiantes que impulsarán tu desarrollo profesional. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno colaborativo y orientado a resultados.

Find this vacancy on Get on Board.

Funciones del cargo

Diseño y Desarrollo de Automatización
- Diseñar y mantener frameworks de automatización end-to-end para aplicaciones web,
móviles y APIs usando Robot Framework, Appium y Python.
- Automatizar pruebas de servicios REST y GraphQL, integrando validaciones con bases de
datos relacionales y NoSQL (MySQL, PostgreSQL, DynamoDB).
- Desarrollar flujos inteligentes de ejecución y reporting automatizado (Allure, BrowserStack
dashboards, Grafana).
- Diseñar y ejecutar pruebas cross-browser y cross-device utilizando BrowserStack,
incluyendo BrowserStack Automate para automatización y App Live para validación
manual en dispositivos reales.
Integración Cloud y DevOps
- Integrar la automatización con servicios AWS como Lambda, API Gateway, CloudWatch y
DynamoDB para crear flujos de ejecución serverless y monitoreo inteligente.
- Diseñar workflows CI/CD con GitHub Actions u otras herramientas para ejecución
distribuida de pruebas (web y mobile) en BrowserStack o entornos propios en la nube,
usando servicios de encriptamiento como Secret Manager.
- Asegurar la trazabilidad y estabilidad de los entornos de prueba en la nube.
Gestión y Colaboración Multiequipo
- Organizar el trabajo y prioridades para dar soporte a múltiples squads simultáneamente.
- Colaborar estrechamente con equipos de desarrollo, producto y DevOps para garantizar
entregas con calidad integrada.
- Documentar estrategias, métricas y decisiones técnicas en Confluence y gestionar
iniciativas en Jira.
Liderazgo Técnico y Mentoring
- Guiar al equipo de automatización en prácticas modernas de desarrollo y testing.
- Fomentar una cultura de aprendizaje continuo y excelencia técnica.
- Apoyar la capacitación y onboarding de nuevos miembros en herramientas y procesos de
automatización

Requerimientos del cargo

- +5 años de experiencia comprobable en QA Automation o SDTE.
- Sólida experiencia con algún framework de automatización (preferiblemente Robot
Framework o PyTest), Appium (Android/iOS) y Python.
- Conocimiento en diseño y ejecución de pruebas de API REST y GraphQL.
- Experiencia en bases de datos relacionales/no relacionales (MySQL, PostgreSQL,
DynamoDB).
- Experiencia con CI/CD pipelines (preferiblemente GitHub Actions).
- Conocimientos prácticos en AWS (Lambda, API Gateway, CloudWatch, DynamoDB).
- Experiencia utilizando BrowserStack para testing web y mobile, incluyendo BrowserStack
Automate para pruebas automatizadas y App Live para validación manual en dispositivos
reales.
- Capacidad comprobada para gestionar múltiples equipos o proyectos simultáneamente.
- Fuertes habilidades de comunicación, organización y liderazgo técnico.
- Enfoque en resultados, mejora continua y autonomía operativa.

Deseable

- Experiencia en observabilidad de testing y monitoreo de ejecuciones automatizadas.
- Conocimiento en Infraestructura como código (IaC) para configuración de entornos en
AWS.
- Experiencia construyendo plataformas de Testing as a Service (TaaS) o frameworks
compartidos.
- Experiencia aplicando Machine Learning o IA al testing, por ejemplo:
- Priorización inteligente de pruebas.
- Análisis predictivo de defectos.
- Identificación de patrones de fallos o flaky tests.
- Experiencia con herramientas o librerías de Data Science o ML (scikit-learn, TensorFlow,
Pandas, AWS SageMaker).
- Conocimiento de CloudWatch Metrics, AWS X-Ray o Grafana para correlacionar métricas
- de infraestructura con resultados de pruebas.
- Experiencia en identificación temprana de cuellos de botella y colaboración con equipos
DevOps para optimizar el rendimiento

Conditions

Fully remote You can work from anywhere in the world.
$$$ Full time
QA (Proyecto 3 Meses)
  • LeytonMedia
  • Santiago (In-office)
SQL Test Automation Testing Documentation
En LeytonMedia ayudamos a las empresas con su transformación digital desde 1994, creando experiencias para conectar marcas con sus usuarios. Trabajamos en un ecosistema ágil donde la metodología y la colaboración marcan la diferencia: construimos equipos talentosos y acompañamos su crecimiento con capacitaciones, certificaciones, coaching y mentorías. Como parte de nuestros proyectos, tu misión será asegurar la calidad de nuestras soluciones digitales mediante planificación, ejecución y mejora continua del testing, alineando pruebas y criterios de aceptación con los equipos de desarrollo y producto para lograr entregas confiables y de alto impacto.

Official job site: Get on Board.

Principales responsabilidades:

Responsable de garantizar la calidad de nuestras soluciones digitales desde el diseño del plan de pruebas hasta la validación final en cada entrega. En este rol, liderarás la estrategia de QA junto a Desarrollo y Producto para reducir riesgos, detectar fallas de forma temprana y asegurar que las funcionalidades cumplan criterios de aceptación.

  • Diseñar, documentar y ejecutar casos de prueba (manuales y/o automatizados), asegurando trazabilidad con requerimientos.
  • Identificar, reportar y dar seguimiento a bugs y desviaciones, coordinando su resolución hasta su cierre.
  • Validar funcionalidades en distintas etapas del ciclo de desarrollo: testing funcional, regresión, integración y otros.
  • Colaborar con desarrolladores y product owners para comprender requerimientos, alcance y criterios de aceptación.
  • Velar por el cumplimiento de estándares de calidad definidos para cada release.
  • Proponer mejoras continuas en procesos, herramientas y cobertura de pruebas para optimizar el ciclo de entrega.
  • Participar en actividades de calidad dentro del contexto ágil (por ejemplo, refinamiento, planificación y retrospectivas).

Requisitos:

Buscamos un/a QA orientado/a al detalle y a la calidad, con criterio técnico y mentalidad de mejora continua. Valoramos personas que disfruten analizar, anticipar riesgos y sostener estándares de calidad en el tiempo, trabajando con foco en colaboración y comunicación efectiva.
  • Experiencia en testing de aplicaciones web y/o móviles.
  • Conocimiento en metodologías de testing (funcional, regresión, exploratorio, entre otras).
  • Manejo de herramientas de gestión de bugs (por ejemplo, Jira, Azure DevOps u otras equivalentes).
  • Conocimiento básico de bases de datos y consultas (SQL) para apoyar la validación de datos y resultados.
  • Capacidad analítica para evaluar impacto, priorizar hallazgos y sostener evidencia.
  • Atención al detalle y pensamiento crítico para detectar inconsistencias y asegurar cobertura.
  • Colaboración efectiva: coordinación clara con desarrollo y producto, asegurando comprensión de requerimientos.
  • Buenas prácticas de documentación y comunicación (reportes reproducibles y seguimiento ordenado).
Serás clave para mejorar la confiabilidad de nuestras entregas mediante un enfoque disciplinado de QA, manteniendo una actitud proactiva frente a oportunidades de automatización y optimización.

Se valorará:

  • Experiencia en automatización de pruebas (Selenium, Cypress, Playwright u otras herramientas similares).
  • Conocimiento en testing de APIs (por ejemplo, Postman, REST Assured o equivalentes).
  • Experiencia en entornos ágiles (Scrum, Kanban) y participación en el ciclo de desarrollo end-to-end.
  • Conocimientos básicos de programación para mejorar scripts, fortalecer la automatización y apoyar la trazabilidad de pruebas.
  • Interés por evolucionar el proceso de QA hacia mayor cobertura y eficiencia.

Qué ofrecemos:

  • Programas integrales de bienestar dirigidos al cuidado físico y mental del equipo.
  • Acceso a una plataforma de formación con más de 2,000 cursos para potenciar el desarrollo profesional continuo.
  • Bonificación destinada a estudios y capacitaciones adicionales para incentivar el crecimiento académico.
  • Beneficios sociales como la afiliación a Caja de Compensación Los Andes, que aportan estabilidad y protección social.
  • Participación en proyectos dinámicos y desafiantes, con una cultura colaborativa enfocada en la calidad y la mejora continua.
En LeytonMedia impulsamos un entorno cercano, colaborativo y transparente, donde se potencia el talento mediante capacitación, coaching y mentorías.

$$$ Full time
Platform/ DevOps Engineer
  • Improving South America
Python Go Kubernetes CI/CD
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.
La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

Apply to this job through Get on Board.

Responsabilidades del puesto

Buscamos Senior Platform / DevOps Engineer para liderar la evolución de una plataforma hacia una arquitectura cell-based (distributed, multi-region), con foco en escalabilidad, resiliencia y aislamiento.

El rol es altamente técnico y está orientado a diseñar e implementar infraestructura moderna basada en Kubernetes, IaC y sistemas distribuidos.

Responsabilidades:

  • Diseñar y operar arquitectura cell-based (shared-nothing, aislamiento por célula)
  • Implementar infraestructura como código (Terraform / Pulumi) para entornos multi-región
  • Gestionar Kubernetes en entornos multi-cluster / multi-region
  • Diseñar soluciones de routing y traffic steering entre células
  • Evolucionar pipelines CI/CD hacia despliegues progresivos (canary, multi-cell)
  • Implementar estrategias de aislamiento y mitigación de fallos (blast radius)
  • Construir soluciones de observabilidad (incluyendo métricas de performance en tiempo real)
  • Automatizar lifecycle de infraestructura con Python o Go

Requerimientos indispensables

  • 7+ años de experiencia en DevOps / Platform Engineering
  • Experiencia avanzada en Kubernetes (multi-cluster / multi-region)
  • Experiencia sólida en Infrastructure as Code (Terraform, Pulumi o CloudFormation)
  • Conocimiento profundo de arquitecturas distribuidas (sharding, bulkhead, shared-nothing)
  • Experiencia en networking (VPC, peering, load balancing L4/L7)
  • Experiencia en automatización con Python o Go
  • Experiencia trabajando con sistemas en producción a escala
  • Inglés intermedio/avanzado (obligatorio)

Plus relevante

  • Experiencia con protocolos de voz (SIP, WebRTC, RTP)
  • Experiencia con service mesh (Istio, Linkerd)
  • Experiencia en chaos engineering
  • Conocimiento de database sharding
  • Experiencia en entornos con compliance (SOC2, HIPAA)

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Azure Microservices TypeScript CI/CD
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.
La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

This job offer is on Get on Board.

Responsabilidades del puesto

Buscamos un/a Senior QA Engineer (SDET) para diseñar y escalar soluciones de testing en una plataforma SaaS enterprise altamente distribuida en Azure.
Este rol es 100% automation + estrategia, participando activamente en arquitectura, CI/CD y calidad end-to-end en un entorno de microservicios.
Responsabilidades:
  • Diseñar y mantener frameworks de automatización escalables (Playwright + TypeScript)
  • Implementar pruebas E2E, integración y regresión en entornos distribuidos
  • Integrar testing en pipelines CI/CD (Azure DevOps / GitHub Actions)
  • Definir test strategy y cobertura basada en riesgo
  • Validar flujos complejos: APIs, eventos (Service Bus) y consistencia de datos
  • Asegurar calidad en sistemas event-driven y cloud-native
  • Analizar fallos usando observabilidad (OpenTelemetry, logs, tracing)
  • Colaborar con equipos de Dev, DevOps y Producto durante todo el SDLC

Requerimientos indispensables

  • +10 años de experiencia en testing, con foco en QA Automation
  • Experiencia avanzada con Playwright (TypeScript) en entornos productivos (excluyente)
  • Experiencia diseñando frameworks de automatización (no solo ejecución)
  • Experiencia con testing E2E, integración y regresión en sistemas complejos
  • Experiencia integrando tests en CI/CD (Azure DevOps / GitHub Actions)
  • Experiencia con APIs, microservicios y arquitecturas event-driven
  • Conocimiento de entornos Azure (Service Bus, SQL, Cosmos DB, etc.)
  • Experiencia con GitHub y control de versiones
  • Capacidad para analizar fallos en sistemas distribuidos (logs, métricas, tracing)
  • Inglés intermedio/avanzado (B2+ obligatorio)

Requerimientos deseables

  • Experiencia con C# / .NET y Azure Functions
  • Experiencia en testing de Angular SPAs
  • Conocimiento en OpenTelemetry, Azure Monitor o KQL
  • Experiencia validando auth flows (OAuth2, JWT, Auth0)
  • Experiencia en performance / load testing
  • Experiencia con Terraform, Docker o infraestructura cloud

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
QA Engineer
  • BC Tecnología
Git SQL Jenkins Postman
En BC Tecnología trabajamos como consultora TI creando equipos ágiles para proyectos en clientes de servicios financieros, seguros, retail y gobierno. Desde hace 6 años diseñamos soluciones a la medida, combinando metodologías ágiles, cambio organizacional y desarrollo de productos. En este proyecto en Chile, buscamos integrar un QA Engineer que fortalezca el aseguramiento de calidad desde la ejecución manual y automatizada de pruebas hasta la gestión de defectos y validación de resultados, contribuyendo a un ciclo continuo de mejora en ambientes Dev, QA y Prod.

Find this vacancy on Get on Board.

Funciones:

  • Diseñar y ejecutar casos de prueba.
  • Ejecutar pruebas manuales y automatizadas.
  • Proponer y gestionar la automatización de pruebas.
  • Desarrollar scripts de pruebas (funcionales y técnicas).
  • Registrar defectos y validar resultados.
Trabajaremos en un flujo ágil orientado a la calidad, coordinando la ejecución de pruebas y asegurando trazabilidad entre casos, resultados y correcciones.

Requisitos:

Buscamos un(a) QA Engineer para integrarse a proyecto, con experiencia en pruebas manuales y automatizadas.
  • Ingeniería Civil o Ingeniería en Ejecución (todas las especialidades).
  • Mínimo 4 años de experiencia en aseguramiento de calidad.
  • Manejo de: acondicionamiento de datos, Jenkins y Git.
  • Diseño de casos de prueba y ejecución en ambientes Dev, QA y Prod.
  • Metodologías ágiles (Scrum).
  • Gestión de defectos.
  • SQL básico/intermedio.
  • Lectura de logs.
  • Postman.
Valoramos una actitud analítica y orientada al detalle, compromiso con la calidad, comunicación clara para coordinar hallazgos y trabajo colaborativo con el equipo. Te apoyarás en evidencia (logs, resultados y trazabilidad) para tomar decisiones y validar correcciones.

Deseable:

  • Experiencia adicional en frameworks de automatización y prácticas de CI/CD con Jenkins.
  • Conocimiento en estrategias de pruebas (regresión, integración, smoke/sanity) y estimación de cobertura.
  • Experiencia en análisis de datos para acondicionamiento y preparación de ambientes.
Además, buscamos capacidad de priorización, responsabilidad en el seguimiento de defectos y habilidad para comunicar claramente el impacto de los hallazgos.

Beneficios:

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.
Si te interesa integrarte a este proyecto como QA Engineer, queremos conocerte.

$$$ Full time
Git SQL Jenkins Test Automation

En BC Tecnología somos una consultora TI con personal experto en distintas áreas de tecnología. Diseñamos soluciones hace 6 años y trabajamos con metodologías ágiles, creación de equipos y servicios IT para clientes de servicios financieros, seguros, retail y gobierno. Para un proyecto con modalidad remota en Chile, buscamos un QA Automation Engineer con foco en automatización y aseguramiento de calidad, incorporando además el rol GDA (Gestor de Datos y Ambientes) para gobernar la provisión de datos de prueba y la disponibilidad de ambientes. El objetivo es asegurar la continuidad operacional y la calidad entregada a las áreas usuarias.

Find this vacancy on Get on Board.

🎯 Objetivo del cargo

Evaluar, diseñar y proponer iniciativas relacionadas a procesos, sistemas y tecnologías, realizando el levantamiento y análisis funcional/técnico de requerimientos. Con esto buscamos asegurar la continuidad operacional de los servicios TI y entregar un servicio de calidad a las áreas usuarias.

🚀 Funciones

  • Levantar y analizar requerimientos funcionales y técnicos.
  • Diseñar y documentar casos de prueba.
  • Ejecutar pruebas manuales y automatizadas.
  • Desarrollar scripts para pruebas automáticas (funcionales y técnicas).
  • Proponer y gestionar casos de prueba para regresión.
  • Proponer y gestionar la automatización de pruebas.
  • Gestionar datos de prueba y asegurar su disponibilidad.
  • Administrar ambientes de testing (Dev, QA, Prod).
  • Registrar y gestionar defectos.

Gobierno y provisión de datos de prueba.

  • Gestión de disponibilidad de ambientes.

🎓 Requisitos

Buscamos un perfil con sólidos fundamentos de testing y automatización para trabajar en un entorno ágil, en coordinación con equipos técnicos y usuarios.

  • Título en Ingeniería Civil / Ejecución o carrera afín.
  • 3 años de experiencia en testing de software.
  • Experiencia en automatización de pruebas.
  • Manejo de SQL (básico/intermedio).
  • Experiencia con APIs (Postman).
  • Conocimiento en Jenkins y Git.
  • Experiencia en metodologías ágiles (Scrum).
  • Experiencia en ejecución de pruebas en ambientes Dev, QA y Prod.
  • Conocimiento en lectura de logs y validación de datos.

Competencias clave

  • Orientación a la calidad y al detalle para asegurar trazabilidad entre requerimientos, casos de prueba y resultados.
  • Responsabilidad en la gestión de ambientes y disponibilidad de datos de prueba.
  • Comunicación efectiva para registrar, reportar y gestionar defectos.
  • Capacidad de trabajo colaborativo en equipos ágiles.
  • Experiencia con estrategias de regresión y mantenimiento de suites automatizadas.
  • Buenas prácticas en documentación de casos de prueba y trazabilidad.
  • Conocimiento de diseño de datos de prueba (setup/teardown) y manejo de consistencia.
  • Experiencia adicional administrando pipelines de CI/CD en Jenkins.

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos. Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Analista QA
  • Usercode SpA
  • 19 cities (Hybrid)
JavaScript Excel SQL NoSQL

Usercode SpA es una empresa tecnológica enfocada en el desarrollo de software a medida para instituciones públicas y privadas. Aunque por regla general operamos de manera remota, según las necesidades del cliente y las características de cada proyecto pueden requerirse actividades presenciales, como reuniones, hitos de validación, entregas de producto u otras instancias de coordinación. En estos casos, el colaborador debe contar con disponibilidad para asistir presencialmente cuando sea solicitado.

Nuestro equipo, distribuido en diferentes lugares de Chile trabaja en tecnologías Cloud, automatización y digitalización de procesos para entregar soluciones de clase mundial. Buscamos un analista QA para garantizar la calidad de plataformas web desarrolladas, colaborando estrechamente con el equipo de desarrollo, el lider técnico y el jefe de proyecto.

This job offer is available on Get on Board.

Funciones del cargo

Como Analista de Aseguramiento de Calidad de Software, trabajarás en el aseguramiento de la calidad de software para nuestros desarrollos de software a medida. Además, trabajarás en estrecha colaboración con el equipo de desarrollo de software junto con los demás desarrolladores, lider técnicoy jefe de proyecto. Los proyectos desarrollados son mayoritariamente plataformas web.

El cargo reporta directamente al jefe de proyecto de Usercode, todas las mañanas se realiza una daily para conversar sobre avances y posibles bloqueos del día anterior. Durante el día, todo el equipo trabaja en sus actividades planificadas pudiendo conectarse a una videollamada con todo o parte del equipo de desarrollo para reuniones de trabajo y/o aclarar dudas.

  • Entender los requisitos del negocio leyendo requerimientos y participando en reuniones de levantamiento con clientes.
  • Desarrollar planes de prueba y casos de prueba; generar datos de prueba y ejecutar pruebas manuales conforme al plan.
  • Detectar, documentar y gestionar incidencias; colaborar con el equipo de desarrollo para su resolución y generar informes de avance y cierre de pruebas.
  • Diseñar, desarrollar y mantener scripts de prueba para automatización; participar en la creación y ejecución de pruebas automatizadas.
  • Apoyarse 100% con IA para trabajar.
  • Trabajar de forma proactiva para asegurar la calidad del software entregado y apoyar la mejora continua de procesos de QA.

Experiencia excluyente:

  • Estudios relacionados al Desarrollo de Software y Aseguramiento de Calidad de Software.
  • Al menos 5 años de experiencia en Aseguramiento de Calidad de Software.
  • Capacidad de análisis y comprensión de requerimientos y procesos de negocios.
  • Tener disponibilidad para trabajar full time.

Descripción y habilidades

Buscamos un profesional con experiencia en Aseguramiento de Calidad de Software para proyectos web a medida. Debes tener capacidad de análisis de requerimientos y procesos de negocio, visión detallista y orientación a resultados. Si bien la modalidad de trabajo es principalmente remota y de tiempo completo, según las necesidades del cliente y las características de cada proyecto pueden requerirse actividades presenciales, como reuniones, hitos de validación, entregas de producto u otras instancias de coordinación, por lo que se solicita contar con disponibilidad para ello.
Se requieren conocimientos en sistemas de gestión de calidad y normas de calidad, manejo de herramientas básicas como Excel y conocimientos básicos de lenguajes de programación como JavaScript, SQL y NoSQL. Se valorará la proactividad, la capacidad de trabajo en equipo y la autonomía.

Requisitos deseables

Experiencia mínima de 5 años en QA y experiencia con pruebas automatizadas. Conocimientos en entornos de pruebas, gestión de incidencias y generación de informes de calidad. Certificaciones en QA o pruebas de software serán consideradas puntos a favor. Capacidad para comprender requerimientos de negocio complejos y traducirlo en planes de prueba efectivos.

Beneficios

Disfrutarás de días extras de vacaciones y una modalidad 3x5 que otorga días libres adicionales, además de un día libre especial por cumpleaños, cambio de domicilio o fallecimiento de mascota. Contamos con pago de certificaciones seleccionadas para potenciar tu desarrollo profesional, pausas activas colaborativas, aguinaldo y una cultura que promueve el crecimiento y la calidad de vida laboral.

Computer provided Usercode SpA provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Usercode SpA gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Python SQL Databricks Ticketing tools
Objetivo del cargo
Asegurar la continuidad operativa del servicio 24x7 mediante monitoreo de procesos, atención de incidentes, revisión de ejecuciones, análisis básico de errores, apoyo en reprocesos, validación de datos, documentación operativa y escalamiento oportuno en entornos Azure y Databricks.

Applications are only received at getonbrd.com.

Funciones

  • Monitorear jobs, procesos y componentes críticos del servicio Revisar alertas, errores y ejecuciones en Databricks y flujos asociados
  • Atender y dar seguimiento a incidentes productivos
  • Apoyar el análisis de fallas operativas y troubleshooting de primer nivel
  • Ejecutar o apoyar reprocesos controlados según procedimiento
  • Validar cargas, ejecuciones y consistencia básica de datos
  • Detectar anomalías o comportamientos inusuales en los procesos monitoreados
  • Documentar incidentes, traspasos y acciones realizadas
  • Escalar oportunamente a equipos internos o cliente cuando corresponda
  • Participar en reuniones operativas y apoyar la continuidad del servicio
  • Cumplir con los SLA definidos para el servicio

Experiencia

2 a 3 años de experiencia

Idealmente experiencia en monitoreo, soporte TI, operaciones de datos, data ops o soporte productivo

Conocimientos excluyentes
  • Experiencia o conocimientos prácticos en Databricks
  • SQL intermedio
  • Python o PySpark básico/intermedio
  • Seguimiento de jobs, ejecuciones y revisión básica de logs
  • Manejo de Jira o herramientas similares de ticketing
  • Conocimientos básicos de documentación operativa
  • Criterio para escalamiento y seguimiento de incidentes
  • Disponibilidad para trabajo en turnos rotativos 24x7
Habilidades blandas
  • Orden
  • Responsabilidad
  • Buena comunicación
  • Capacidad de análisis
  • Manejo de presión
  • Trabajo en equipo
  • Capacidad de aprendizaje
  • Criterio para escalar sin improvisar

Conocimientos deseables

  • Azure Data Factory
  • Confluence
  • Nociones de Azure Portal
  • Revisión de errores y troubleshooting básico
  • Grafana, Dynatrace u otras herramientas de observabilidad
  • SQL Server o bases de datos relacionales
  • Conocimientos básicos de líneas de comando Windows o Linux
  • Conocimientos generales de Azure
  • Nociones de microservicios, Kafka, CosmosDB o procesos Real Time
  • Inglés técnico básico/intermedio
Modalidad: 100% remoto
Disponibilidad: turnos rotativos 24x7 + pago de horas extras
Residencia: Perú (Preferentemente Lima)

Gross salary $1000 - 1100 Full time
QA Funcional
  • Coderslab.io
  • Lima (Hybrid)
SQL Regression Testing Functional Testing Agile Methodology

En Coderslab.io ayudamos a empresas a transformar y hacer crecer sus negocios mediante soluciones tecnológicas innovadoras. Nuestro equipo colabora en productos y plataformas donde la calidad es clave para asegurar estabilidad, rendimiento y una excelente experiencia de usuario. Formarás parte de una organización en expansión con más de 3.000 empleados globalmente y oficinas en América Latina y Estados Unidos. Trabajarás en un entorno con equipos diversos, integrados por talento altamente calificado, desarrollando y validando funcionalidades en ciclos iterativos. Como QA funcional, tu aporte será fundamental para convertir requerimientos en entregas confiables, evitando retrabajos y mejorando la adopción del producto por parte de usuarios y stakeholders.

Apply directly from Get on Board.

QA funcional (híbrido, Perú)

  • Analizar requerimientos y criterios de aceptación para comprender el alcance funcional.
  • Diseñar casos de prueba (manuales) basados en flujos, reglas de negocio y escenarios positivos/negativos.
  • Ejecutar pruebas y verificar resultados contra lo esperado, registrando hallazgos con precisión.
  • Documentar evidencias (pasos, capturas y trazabilidad) para facilitar el reprocesamiento por parte del equipo.
  • Reportar defectos, priorizarlos junto con el equipo y dar seguimiento hasta su resolución.
  • Validar regresión cuando se realicen cambios, asegurando que no se afecten funcionalidades existentes.
  • Colaborar con Product, UX y Desarrollo para aclarar dudas funcionales y mejorar la cobertura de pruebas.
  • Apoyar en la mejora continua del proceso de QA, sugeriendo ajustes en la forma de documentar, medir y comunicar calidad.

QA funcional, Híbrido Perú

Buscamos un/a QA funcional para colaborar en la validación de funcionalidades y asegurar calidad desde la perspectiva del negocio. En Coderslab.io trabajamos con equipos que exigen calidad, comunicación y foco en la entrega. Tu rol será clave para traducir requerimientos a pruebas efectivas y para detectar problemas antes de llegar a producción.

Requisitos y experiencia:

  • Experiencia realizando pruebas funcionales (idealmente en productos web o aplicaciones).
  • Conocimiento de casos de prueba, flujos de usuario, criterios de aceptación y validación de reglas de negocio.
  • Habilidad para redactar y ejecutar pruebas con atención al detalle.
  • Capacidad para registrar incidencias de forma clara: pasos para reproducir, resultado esperado/obtenido y evidencias.
  • Conocimientos básicos de metodologías de trabajo en equipos ágiles (Scrum o similares) y manejo de iteraciones.

Competencias clave:

  • Comunicación efectiva para coordinar con Desarrollo y compartir hallazgos de manera accionable.
  • Orientación a la calidad y mentalidad de mejora continua.
  • Organización para mantener trazabilidad y orden en la documentación.
  • Curiosidad técnica y funcional para entender el producto y detectar comportamientos inesperados.
  • Trabajo en equipo con actitud colaborativa y responsabilidad sobre el resultado.

Si te motiva asegurar que las funcionalidades realmente cumplan lo que el negocio necesita y disfrutas trabajar de forma estructurada con evidencia y comunicación, en Coderslab.io te vamos a dar un espacio para crecer junto a profesionales con experiencia y tecnologías modernas.

Deseables

  • Conocimiento de herramientas de gestión de casos/incidencias (por ejemplo Jira u otras) y práctica en el ciclo de vida de bugs.
  • Experiencia con pruebas de regresión y criterio para priorizar cobertura según riesgo/impacto.
  • Conocimientos básicos de SQL o lectura de datos (para validar información en pruebas), sin que sea requisito excluyente.
  • Experiencia en validación de flujos con roles/permisos, validaciones de formularios y manejo de estados (loading, error, empty, etc.).
  • Habilidad para entender rápidamente el dominio funcional del producto y proponer mejoras en la especificación de aceptación.

Beneficios

Modalidad de contratación: Recibo por honorarios/boleta.

Te integrarás a un equipo que colabora en una organización en expansión con más de 3.000 empleados globalmente y con oficinas en América Latina y Estados Unidos. Trabajarás en un ambiente de equipos diversos y con acompañamiento de profesionales con experiencia.

$$$ Full time
QA Tester
  • Grupo Mariposa
SQL API Testing Regression Testing Bug Tracking

Somos una corporación multinacional de bebidas y alimentos fundada en 1885 con operaciones en más 14 países, con más de 15,000 colaboradores. Tenemos el portafolio de bebidas más grande de la región, y contamos con socios estratégicos como PepsiCo y AB InBev. El último año hemos tenido una expansión a nivel global que nos ha llevado a dividirnos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos); y como parte de nuestra estrategia dinámica de expansión y crecimiento requerimos talentos para unirse a nuestra corporación.

This job is original from Get on Board.

Funciones del cargo

En Grupo Mariposa estamos buscando un/a QA Tester Manual con enfoque en calidad, atención al detalle y pasión por mejorar productos digitales. Serás parte de un equipo ágil, colaborando con desarrolladores, diseñadores y product managers para asegurar que nuestras soluciones cumplan con los más altos estándares.

Responsabilidades

  • Diseñar y ejecutar casos de prueba manuales.
  • Reportar y dar seguimiento a bugs.
  • Validar funcionalidades nuevas y regresiones.
  • Participar en la planificación y revisión de requerimientos.
  • Documentar resultados y procesos de testing.

Requerimientos y habilidades del cargo

Requisitos

  • Experiencia en testing manual de software (mínimo 1-2 años).
  • Conocimiento de metodologías de prueba (funcional, regresión, exploratoria).
  • Manejo de herramientas como Jira, TestRail, Zephyr u otras similares.
  • Capacidad analítica y orientación al detalle.
  • Buenas habilidades de comunicación y trabajo en equipo.

Habilidades

  • Sólidas habilidades de comunicación con la capacidad de comunicar conceptos técnicos complejos y alinear a la organización en las decisiones
  • Sólidas habilidades de resolución de problemas con la capacidad de procesar información compleja, rápidamente y presentarla de manera clara y simple
  • Utilizar la colaboración en equipo para crear soluciones innovadoras de forma eficiente

Deseables

  • Conocimientos básicos de SQL y pruebas de APIs (Postman, Swagger).
  • Experiencia en entornos ágiles (Scrum, Kanban).
  • Inglés técnico (lectura de documentación).

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Grupo Mariposa pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
$$$ Full time
SQL Oracle Linux Cloud Computing

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de la Gerencia de Productos Regional, buscamos a un Administrador de Sistemas.

Official source: getonbrd.com.

Funciones del cargo

· Realizar análisis de tendencias de rendimiento y gestionar la capacidad del servidor y red.

· Responder a los posibles problemas utilizando la automatización, programación y seguimiento de herramientas a la gestión según caso.

· Participar en la configuración e implementación de soluciones técnicas para mejorar y / o solucionar problemas del sistema.

· Responsable de la documentación de apoyo.

Requerimientos del cargo

· Estudios Superiores en carreras relacionadas al rubro TI.

· Desde 3 años de experiencia laboral relacionada al cargo.

· Conocimiento en Microsoft.

· Conocimiento en Sistemas operativos Linux, Windows, entre otros.

· Conocimientos en Base de datos Oracle y SQL.

· Deseable conocimiento en nube pública (ej: OCI, GSP)

Condiciones

En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.

Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.

Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.

El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.

Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.

Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Gross salary $2500 - 3500 Full time
Python Linux Go Kubernetes
About CloudKite
CloudKite helps teams run reliable cloud infrastructure in production. We design systems that scale without unnecessary complexity or process overhead. We’re a small team by design. That means you’ll work closely with experienced engineers, learn quickly, and have real ownership over your work.
Why CloudKite
  • Learn directly from experienced engineers
  • You’ll work on real, production systems used by active customers.
  • Small team with mentorship and support

This job is published by getonbrd.com.

What You’ll Do

We’re looking for a DevOps Engineer with a solid technical foundation who’s excited to grow. You don’t need to know everything, but you should understand the basics, be comfortable asking questions, and learn by doing. You’ll help operate and improve cloud infrastructure, Kubernetes clusters, CI/CD pipelines, and internal tooling across AWS, GCP, and Azure.
  • Help design, build, and maintain cloud infrastructure across AWS, GCP, and Azure
  • Support production Kubernetes clusters and learn best practices around upgrades, troubleshooting, and performance
  • Work with Infrastructure as Code using Terraform
  • Participate in GitOps workflows using ArgoCD
  • Build and improve CI/CD pipelines
  • Assist with reliability, observability, and security improvements
  • Write automation and tooling in Go and Python
  • Support databases such as PostgreSQL, MongoDB, MySQL/MariaDB, and Microsoft SQL Server, including managed services like Amazon RDS
  • Backups, restores, and basic performance tuning
  • Assist with backup and disaster recovery processes (e.g., Velero)
  • Work with container images, registries, and basic supply-chain security
  • Learn and apply networking fundamentals like DNS, firewalls, and VPNs

What We’re Looking For

You don’t need to be an expert in everything, but you should have a strong foundation in several of these areas:
  • Strong English communication skills (written and spoken); must be comfortable working directly with clients in English.
  • Experience with at least one major cloud provider (AWS, GCP, or Azure)
  • Basic to intermediate Kubernetes knowledge (pods, services, Helm, RBAC concepts)
  • Familiarity with Terraform or another IaC tool
  • Exposure to CI/CD pipelines (GitHub Actions, GitLab CI, etc.)
  • Some experience with Go or Python (scripts, small tools, automation)
  • Basic understanding of Linux systems and networking
  • Willingness to learn, ask questions, and take ownership

Nice to Have (Not Required)

  • Experience across multiple cloud providers
  • GitOps experience with ArgoCD
  • Database administration exposure
  • Consulting or client-facing experience

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Gross salary $2500 - 3500 Full time
Python Kubernetes Rust CI/CD
This role centers on designing, automating, and optimizing deployment infrastructure for AI-driven workflows. You will build robust CI/CD pipelines and implement AI-powered automation tools (such as Claude Code, GitHub Copilot CLI, etc.) to maximize engineering efficiency. The goal is to create systems that enable a lean technical team to operate at significantly higher output than traditional staffing models would require. You will own the full infrastructure lifecycle: architecture, deployments, and stability. This includes Kubernetes orchestration, managed database services (AWS RDS), and high-performance tooling in Python and Rust. Basic React knowledge is needed to understand frontend integration points. Success is measured by operational leverage: your automation should allow 1-2 engineers to deliver what typically requires 3-5. This demands deep expertise in infrastructure as code, proactive optimization, and practical application of generative AI tools to DevOps workflows.

Apply directly on the original site at Get on Board.

Key Responsibilities

  • Design, build, and maintain automated CI/CD pipelines that scale with workload demands
  • Implement and lead adoption of AI-powered development workflows to accelerate delivery
  • Architect efficient, scalable deployment systems supporting critical production workloads
  • Ensure post-deployment stability, security, and continuous infrastructure optimization
  • Drive operational leverage through automation that enables small teams to deliver outsized impact

Experience and Skills

  • Senior-level DevOps Engineer with 4+ years of experience
  • C1 English level or higher
  • Advanced Kubernetes orchestration and cluster management
  • Strong Python; Rust experience for high-performance infrastructure tooling
  • Production experience with AWS RDS and managed database services
  • Hands-on experience using AI coding agents and automation tools for DevOps workflows
  • Proven track record building scalable, automated CI/CD pipelines
Skills
  • Kubernetes
  • Python
  • Rust
  • AWS RDS
  • CI/CD
  • AI Coding Agents

Nice to Have

  • React

Conditions

Informal dress code No dress code is enforced.
$$$ Full time
Analista QA (Banca/Finanzas)
  • Coderslab.io
  • Bogotá (Hybrid)
SQL CI/CD Test Planning API Testing

Coderslab.io es una empresa que ayuda a las organizaciones a transformarse y crecer mediante soluciones tecnológicas innovadoras. Formarás parte de un grupo de más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Trabajarás dentro de equipos diversos que cuentan con talento de primer nivel y participarás en proyectos innovadores y desafiantes que impulsarán tu desarrollo profesional. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno colaborativo y orientado a resultados.

Official source: getonbrd.com.

Funciones del cargo

· Participar en la definición de requisitos, flujo de trabajo y procesos de control de calidad
· Participar activa y eficientemente de las ceremonias ágiles
· crear planes y casos de prueba completos y significativos
· informar problemas relacionados a los requerimientos funcionales y no funcionales (rendimiento, disponibilidad, etc)
· Reporte y seguimiento de bugs
· Análisis de logs
· Detección de oportunidades de mejora en el proceso de desarrollo

Requerimientos del cargo

. Conocimiento y experiencia en metodologías ágiles (Scrum, Kanban)
· Capacidad para colaborar efectivamente con equipos de desarrollo y otros stakeholders
· Experiencia en la elaboración y ejecución de planes de prueba
· Conocimientos sólidos en el ciclo de vida del desarrollo de software (SDLC)
. Conocimientos en SQL "Sentencias y estructuración de querys"
· Habilidad para documentar claramente los casos de prueba, resultados y defectos
· Conocimiento de herramientas de gestión de pruebas (JIRA, TestRail).
· Experiencia con integración continua y herramientas de CI/CD (Jenkins, GitLab CI)
· Experiencia con pruebas de API (Postman, SoapUI)
· Experiencia con pruebas Mobile (Android, iOS)
· Habilidad para identificar problemas y proponer soluciones efectivas
· Conocimiento en SAT y tarjetas de credito.
· Atención al detalle y capacidad para trabajar en un entorno dinámico y cambiante
. Experiencia en entidades financieras
. Herramientas y metodologias de automatización de pruebas
. Tecnologias específicas: Jira, Zephyr, SOAPUI, Postman, SQL.

Condiciones

Modalidad de contratación: Contractor/Prestación de servicio

Gross salary $45000 - 60000 USD/year Full time
Python PostgreSQL React TypeScript
MyBCAT is a managed back-office and call center platform serving 30+ U.S. optometry practices. We handle everything from patient scheduling and insurance verification to phone system automation and clinical workflows. Our platform processes hundreds of thousands of patient interactions and is built to meet strict HIPAA compliance requirements. We are a small, high-autonomy team building at the intersection of healthcare operations and AI. Our engineering culture is AI-native — we build with Claude Code, Codex CLI, and other agent-assisted development tools daily. If you want to ship real production systems fast with a small team that punches way above its weight, this is the role.

Exclusive to Get on Board.

What You Will Build

  • Develop and own features for the Client Portal (React/TypeScript) to manage back-office operations, analytics, and service interactions.
  • Implement Phone System Automation by integrating with Amazon Connect and RingCentral for call routing, transcription, and post-call workflows.
  • Contribute to OptometryConnect EHR—greenfield EHR built on the Oystehr platform—tailoring it for optometry use.

What We Are Looking For

Required: 4+ years building and deploying full-stack apps; strong React and TypeScript frontend; production Python with AWS serverless (Lambda, API Gateway, DynamoDB, S3); Infrastructure as Code experience (Terraform strongly preferred); relational (PostgreSQL) and NoSQL (DynamoDB); CI/CD pipelines (GitHub Actions or similar); high-ownership in a small team; professional English; US business hours alignment (9 AM–6 PM ET).
Strongly Preferred: healthcare/ HIPAA experience; Amazon Connect or cloud telephony; AI-assisted development tools (Claude Code, Copilot); event-driven architectures (EventBridge, SQS/SNS); Cognito or similar identity systems; experience with US-based remote teams.

Desirable but Not Required

Experience with HIPAA-compliant systems, handling PII/PHI, and working in AI-native development environments. Familiarity with AI-assisted coding workflows and a track record of delivering secure, scalable healthcare software.

Benefits & How We Work

Pay: $25,000 – $60,000 USD/year, paid monthly in USD. Contractor role with self-managed taxes. Schedule: Full-time, Mon–Fri, 9 AM–6 PM ET. Equipment: You provide hardware; we supply software licenses and AWS access. Growth: Clear path to expanded responsibilities as MyBCAT scales (current ~$1.3M annualized revenue).

Fully remote You can work from anywhere in the world.
Gross salary $3000 - 3500 Full time
QA Manual Senior
  • BC Tecnología
  • Buenos Aires (Hybrid)
SQL Oracle Scrum Postman
BC Tecnología es una consulting de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales. Nos enfocamos en equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio para clientes en servicios financieros, seguros, retail y gobierno.
Trabajo hibrido en Argentina-Buenos Aires, El QA (Quality Assurance) es el profesional encargado de asegurar la calidad del software mediante la planificación, diseño y ejecución de pruebas. Su objetivo es identificar errores o fallas antes de que los sistemas lleguen a producción, garantizando que las aplicaciones funcionen correctamente, cumplan con los requisitos definidos y ofrezcan una buena experiencia al usuario. Participa activamente en el ciclo de desarrollo validando funcionalidades en aplicaciones web, mobile y servicios.

Apply to this job from Get on Board.

Funciones

  • Diseñar, ejecutar y documentar pruebas de calidad para aplicaciones web, móviles y APIs/servicios REST.
  • Gestionar evidencias y reportes de pruebas; asegurar trazabilidad de casos de prueba y defectos.
  • Colaborar con equipos de desarrollo y negocio para validar requisitos y criterios de aceptación.
  • Aplicar pruebas funcionales, de integración, de regresión y de extremo a extremo en entornos bancarios.
  • Trabajar con herramientas como Jira para seguimiento de incidencias y gestión de pruebas; usar Postman para pruebas de APIs; consultar bases de datos (Sybase y Oracle) para validaciones.
  • Contribuir a la automatización de pruebas a nivel básico y apoyar iniciativas de mejora continua en calidad y procesos Scrum.
  • Participar en revisiones de pruebas y en la planificación de sprints dentro de un marco ágil.

Descripción

Buscamos un QA Manual Senior para integrarse a un proyecto en el sector bancario. El/la candidato/a será responsable de garantizar la calidad de aplicaciones web, móviles y servicios mediante diseño, ejecución y documentación de pruebas. Requisitos: experiencia previa en bancos o sector financiero; estudiantes de carreras de Sistemas con al menos 2 años cursados; manejo de Jira; pruebas de APIs con Postman; conocimiento de SQL; conocimiento básico de automatización de pruebas; experiencia en pruebas funcionales, de integración, de regresión y entre sistemas; pruebas en entornos web, móvil y de APIs/REST; experiencia en el rubro bancario (medios de pago, core bancario, créditos, onboarding digital, entre otros); experiencia trabajando con Sybase y Oracle; conocimiento de Scrum. Condiciones: modalidad híbrida (3 días presenciales en Buenos Aires).
Se valorará certificaciones relacionadas y documentación académica. El equipo se asigna por el proveedor y el contrato es de 4 meses. Interesados deben enviar su CV a través de la vía indicada por la empresa.

Requisitos deseables

Certificaciones en pruebas de software (ISTQB, CTFL/CTAL) y cursos o certificaciones en automatización de pruebas. Experiencia adicional en herramientas de automatización y comprensión de flujos de pruebas en entornos bancarios. Orientación a procesos y mejora continua, con capacidad para trabajar en entornos dinámicos y bajo presión, manteniendo comunicación efectiva con equipos distribuidos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
JavaScript SQL Selenium Cypress

Estamos buscando un nuevo Usercoder y este podrías ser tú!
Usercode es una empresa tecnológica enfocada en el desarrollo de software a medida para instituciones públicas y privadas. Aunque por regla general operamos de manera remota, según las necesidades del cliente y las características de cada proyecto pueden requerirse actividades presenciales, como reuniones, hitos de validación, entregas de producto u otras instancias. En estos casos, el colaborador debe contar con disponibilidad para asistir presencialmente cuando sea solicitado. No es posible realizar teletrabajo desde fuera de chile por reglas de seguridad de nuestros clientes.

Trabajamos remoto, nuestro equipo está en distintas regiones de Chile. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

This job is exclusive to getonbrd.com.

Funciones del cargo

Como Especialista en Automatización y Aseguramiento de Calidad de Software, serás responsable de definir la estrategia, liderar la ejecución y asegurar la calidad del software para nuestros desarrollos a medida. Trabajarás en estrecha colaboración con el equipo de desarrollo, arquitecto de software y jefe de proyecto, aportando una visión de mejora continua y eficiencia a través de la automatización y la gestión basada en métricas. Los proyectos desarrollados son mayoritariamente plataformas web.

El cargo reporta directamente al jefe de proyecto de Usercode, todas las mañanas se realiza una daily para conversar sobre avances y posibles bloqueos del día anterior. Durante el día, todo el equipo trabaja en sus actividades planificadas pudiendo conectarse a una videollamada con todo o parte del equipo de desarrollo para reuniones de trabajo y/o aclarar dudas.

Requerimientos del cargo/Responsabilidades

  1. Liderazgo y Estrategia:
    • Definir e implementar la estrategia de Aseguramiento de Calidad (QA) y el roadmap de automatización de pruebas para los proyectos.
    • Colaborar con el Jefe de Proyecto y el Líder técnico para integrar el QA y la automatización en todo el ciclo de vida de desarrollo de software.
  2. Automatización de Pruebas:
    • Diseñar, desarrollar y mantener la arquitectura, frameworks y scripts de pruebas automatizadas de alta calidad (funcionales, de regresión, API, etc.).
    • Garantizar la cobertura de pruebas automatizadas eficiente y escalable, integrándolas en el pipeline de Integración Continua/Despliegue Continuo (CI/CD).
  3. Gestión de Calidad y Procesos:
    • Entender los requisitos del negocio: leer requerimientos y participar de las reuniones de levantamiento de requerimientos con los clientes.
    • Desarrollar el plan de pruebas, casos de prueba y generar datos de pruebas.
    • Aplicar pruebas manuales y automáticas de software de acuerdo al plan.
    • Detección de defectos, documentar, reportar y gestionar las incidencias, colaborando con el equipo de desarrollo para su resolución.
  4. Gestión de KPIs e Informes:
    • Definir, monitorear y analizar los Key Performance Indicators (KPIs) clave de QA (ej. cobertura de automatización, tasa de defectos, tiempo de ciclo de pruebas, eficiencia de la ejecución de pruebas).
    • Generar y presentar informes de gestión y rendimiento periódicos (avance, cierre, rendimiento) a la jefatura y otros stakeholders, proponiendo planes de acción y mejoras basadas en los datos analizados.

Experiencia excluyente

  • Estudios relacionados al Desarrollo de Software y Aseguramiento de Calidad de Software.
  • Al menos 5 años de experiencia en Aseguramiento de Calidad de Software, con al menos 2 años en un rol de especialización en automatización
  • Capacidad de análisis y comprensión de requerimientos y procesos de negocios.
  • Tener disponibilidad para trabajar full time.

¿Qué tienes que saber excluyentemente a nivel técnico?

  • Conocimientos en sistemas de gestión de la calidad y normas de calidad.
  • Conocimiento avanzado y experiencia práctica en el diseño e implementación de frameworks de automatización de pruebas (ej. Selenium, Cypress, Playwright, Rest-Assured, etc.).
  • Manejo de herramientas de gestión de pruebas y defectos.
  • Conocimiento básico en lenguajes de programación Javascript, SQL y NoSQL.

Lo que buscamos en ti: 

  • Liderazgo y Habilidades de Comunicación.
  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Condiciones

  • Trabajo 100% remoto.
  • Días extra de vacaciones.
  • Días libres 3x5
  • Día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

Informal dress code No dress code is enforced.
$$$ Full time
Analista de Infraestructura y Despliegue
  • Coderslab.io
  • Bogotá (Hybrid)
Git SQL Oracle Linux
Coderslab.io es una empresa que ayuda a las organizaciones a transformarse y crecer mediante soluciones tecnológicas innovadoras. Formarás parte de un grupo de más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Trabajarás dentro de equipos diversos que cuentan con talento de primer nivel y participarás en proyectos innovadores y desafiantes que impulsarán tu desarrollo profesional. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno colaborativo y orientado a resultados.

Apply only from getonbrd.com.

Funciones del cargo

El objetivo del cargo es Administrar y Configurar los Ambientes de Pruebas del Banco al igual que el proceso de Aplicaciones y desarrollos hasta que son puestos en Ambiente Productivo.
-Recibir la Documentación como manuales, documentos de entrega y todo lo relacionado con Desarrollos de Software ya sea interno o externo
-Despliegues (Manuales/continuos) de desarrollos recibidos en Ambientes de Pruebas con las
correspondientes configuraciones de los Objetos.
-Procesos de Configuración y Homologación de Ambientes de Pruebas de acuerdo con lo requerido
-Verificación y solución de Errores que se generen en los Ambientes de prueba ya sea por
despliegues de Nuevos Desarrollos o instalaciones o configuraciones de nuevas aplicaciones
-Control de Versionamiento de Fuentes de Aplicaciones y Objetos de Desarrollo
-Alistamiento y Generación de Documentación, Objetos y Aplicaciones que deben de ser puestas en
Ambiente Productivo
-Ejecuciones para la correcta puesta en Producción de los Aplicativos Locales (Web-Windows …)
-Mantenimiento y desarrollo de pipelines en GITLAB

Requerimientos del cargo

- Conocimiento del Proceso de la Gestión de Configuración del Software
- Administración de Sistemas Operativos Windows Server (Versiones varias)
- Instalaciones sobre IIS – Servicios Web – Servicios Windows
- Conocimientos básicos de Versionamiento en Herramientas como GIT - TFS- SVN
- Conocimientos en SharePoint - Confluence
- Conocimientos básicos en Sistemas Operativos, Linux, Windows Server
- Conocimientos intermedios en Bases de Datos SQL, Oracle, DB2
- Conocimientos básicos de Visual Studio
- Instalaciones de ETL´S SQL
- Experiencia en Despliegues de Aplicaciones Web, Windows, Cliente Servidor, NodeJs …
- Manejo de Herramienta SoapUi
- Conocimientos en Herramienta Power Center
- Conocimientos en Herramienta GoAnyWhere

Gross salary $1800 - 2300 Full time
DevOps
  • Izytech
.Net SQL Windows Server AWS
En Izytech estamos buscando un/a Ingeniero/a Cloud y DevOps para colaborar en el desarrollo y despliegue continuo de aplicaciones robustas en C# .NET y .NET Core. El rol operará en entornos cloud e híbridos, con responsabilidades de optimización de infraestructura, supervisión de rendimiento y automatización de procesos. Trabajará en un entorno proactivo y colaborativo, enfocándose en mejoras técnicas, automatización y buenas prácticas DevOps, con énfasis en la estabilidad operativa y la observabilidad para reducir tiempos de reparación y garantizar la continuidad del negocio.

© getonbrd.com.

Funciones principales

  • Colaborar en el desarrollo y despliegue continuo de aplicaciones en C# .NET y .NET Core.
  • Administrar servidores Windows Server e IIS, asegurando estabilidad, rendimiento y correcta configuración de aplicaciones productivas.
  • Gestionar y optimizar bases de datos SQL (RDS y/o on-premise): análisis de consultas, mejoras de rendimiento, índices y monitoreo.
  • Supervisar el rendimiento de instancias EC2, identificar cuellos de botella y optimizar recursos para la continuidad operativa.
  • Implementar y mantener estrategias de monitoreo, logging y observabilidad; analizar logs y métricas para detección temprana de incidentes.
  • Configurar y administrar Prometheus y Grafana, creando dashboards y alertas proactivas para reducir MTTR.
  • Crear, administrar y optimizar funciones serverless en AWS Lambda, integradas con API Gateway, S3 y RDS.
  • Trabajar en la integración de AWS Step Functions para orquestación y automatización de procesos internos.
  • Apoyar integraciones y soluciones basadas en AWS Bedrock, colaborando en el desarrollo de capacidades inteligentes y automatizadas.
  • Gestionar IAM Roles y políticas, aplicando mínimo privilegio y buenas prácticas de seguridad.
  • Administrar almacenamiento y flujos de información con Amazon S3.
  • Participar en la configuración y mantenimiento de conectividad segura mediante VPN entre entornos on-premise y la nube.
  • Fomentar un ambiente de trabajo colaborativo, promoviendo mejoras técnicas, automatización y buenas prácticas DevOps.

Descripción

Buscamos un profesional con experiencia en entornos AWS y en la gestión de infraestructuras modernas para apoyar el desarrollo y operación de soluciones en la nube. El/la candidato/a ideal debe combinar habilidades técnicas en .NET, DevOps y administración de sistemas con una actitud proactiva y orientada a resultados. Requerimos capacidad para trabajar en entornos híbridos, gestionar rendimiento y costos, y colaborar estrechamente con equipos de desarrollo para entregar software estable, seguro y escalable.

Requisitos deseables

Se valorarán certificaciones en AWS (Solutions Architect, DevOps Engineer) y experiencia previa con Bedrock u otros servicios de IA en AWS. Fuerte comprensión de seguridad en la nube, experiencia en automatización (CI/CD), containers (Docker/Kubernetes) y scripting (PowerShell, Bash). Capacidad de comunicación en español e inglés técnico, y habilidades de trabajo en equipo en un entorno dinámico.

Beneficios

En Izytech ofrecemos un entorno laboral favorable con varias ventajas: horarios de oficina que respetan la vida personal, acceso a formación continua y un ambiente colaborativo. Ofrecemos un contrato a plazo indefinido basado en logros y excelentes condiciones de conectividad y transporte. También promovemos la flexibilidad para gestionar permisos y tareas personales. ¡Únete a nuestro equipo y crece con nosotros!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Izytech pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Virtualization Openstack

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

© Get on Board.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Gross salary $1000 - 1300 Full time
Python PHP MySQL PostgreSQL
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

This posting is original from the Get on Board platform.

Funciones del Puesto

Buscamos un Administrador Linux con experiencia en Debian para unirse a nuestro equipo de infraestructura y desarrollo. Serás responsable de administrar servidores, desplegar aplicaciones y asegurar la disponibilidad de nuestros sistemas en la nube.
Entre tus responsabilidades principales estarán:
  • Administración de servidores Linux (principalmente Debian).
  • Despliegue y mantenimiento de aplicaciones en PHP, Python y Node.js.
  • Instalación, configuración y administración de bases de datos:
    • MySQL y PostgreSQL, incluyendo clústeres y esquemas master + slave.
  • Despliegue y optimización de aplicaciones PHP, principalmente:
    • WordPress.
    • Symfony.
  • Administración y operación en entornos cloud, principalmente en Vultr.
  • Implementación y gestión de respaldos en buckets S3.
  • Manejo de secretos y credenciales con HashiCorp Vault.

Requisitos y Habilidades

  • Experiencia demostrable en administración de sistemas Linux (Debian).
  • Conocimientos en despliegue de aplicaciones web (PHP, Python, Node.js).
  • Experiencia con bases de datos relacionales (MySQL, PostgreSQL).
  • Conocimientos en alta disponibilidad (clusters, replicación).
  • Experiencia en servidores web Nginx y PHP-FPM.
  • Experiencia en respaldos de datos en entornos productivos.
  • Conocimiento de herramientas de seguridad y gestión de secretos.
  • Experiencia con contenedores Docker y Kubernetes.

Conocimientos y Experiencia Deseable

  • Automatización con Ansible, Terraform u otras herramientas IaC.
  • Experiencia en monitoreo y logging (Prometheus, Grafana, Loki, etc.).
  • Buenas prácticas de seguridad y hardening en servidores Linux.

Beneficios

  • Modalidad de trabajo remoto.
  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
  • Participar en proyectos de alto impacto con tecnologías modernas.
  • Equipo colaborativo y enfocado en buenas prácticas DevOps.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Ingeniero de Infraestructura
  • BC Tecnología
  • Santiago (In-office)
PHP PostgreSQL Linux Virtualization
BC Tecnología es una consultora de TI con personal experto en diversas áreas. Nos enfocamos en servicios IT que abarcan administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando para clientes de servicios financieros, seguros, retail y gobierno. Con más de 6 años diseñando soluciones a la medida, nuestras áreas de negocio abarcan consultoría y diseño de soluciones, formación y outsourcing de personal, desarrollo de proyectos y servicios de soporte IT. Nuestro enfoque está en el cliente, metodologías ágiles, cambios organizacionales y desarrollo de productos.

Find this job and more on Get on Board.

Funciones del cargo

  • Administrar, configurar y mantener la infraestructura IT de la organización, con enfoque en entornos virtualizados y plataformas de alto rendimiento.
  • Gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox), asegurando disponibilidad, rendimiento y seguridad.
  • Administrar y optimizar sistemas Linux (Debian, CentOS u otros) y Windows 10 o superiores, incluyendo SSH, servicios web, bases de datos y pila de aplicaciones.
  • Gestionar servicios web (Apache, Nginx), certificados SSL, proxies inversos y optimización de rendimiento; administrar bases de datos (PostgreSQL) y aplicaciones PHP.
  • Monitoreo, respaldo, recuperación ante desastres y gestión de cambios; documentación completa de toda la operativa para continuidad futura.
  • Implementar buenas prácticas de ciberseguridad y mantener la documentación actualizada.
  • Trabajar con equipo de soporte, automatización y desarrollo para garantizar soluciones escalables y sostenibles.

Requisitos y perfil

Formación: Ingeniero en Informática, Ingeniería de Sistemas, Computación u otra formación relacionada.
Experiencia: trayectoria comprobable en gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox).
Conocimientos técnicos: Linux avanzado; SSH; servidores web Apache y Nginx; gestión de bases de datos PostgreSQL; experiencia con aplicaciones PHP; gestión de entornos virtualizados; conocimiento de ciberseguridad de servidores y versiones de sistemas operativos.
Certificaciones: Certificación VMware y certificación en Linux.
Capacidades: documentación detallada de las actividades, capacidad de trabajo en equipo, orientación a resultados, resiliencia ante incidentes y buena comunicación técnica.

Competencias deseables

Conocimientos en Proxmox avanzado, scripting y automatización ( Bash, Python), herramientas de gestión de configuración (Ansible, Puppet), experiencia con Docker/Kubernetes, cloud (AWS, Azure) y técnicas de migración y consolidación de infraestructuras. Se valorará experiencia en ITIL, gestión de proyectos y capacidad para liderar pequeños equipos o proyectos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1800 - 2500 Full time
PostgreSQL REST API Node.js Docker

We are a small, fast-moving team where every engineer has a direct impact on the product and the business. We ship weekly, iterate based on real customer feedback, and build with modern tools that let us move fast without sacrificing quality.

How We Work

  • Biweekly sprints with clear objectives
  • Code reviews on every PR
  • Pair programming for complex problems
  • Async communication by default (Slack, GitHub)
  • Weekly sync with the CTO to align priorities
  • Freedom to propose and drive technical improvements

Apply to this posting directly on Get on Board.

Funciones del cargo

Buscamos un/a Backend & Infrastructure Engineer para liderar tres áreas críticas de la plataforma: la API pública, las integraciones con CRMs y la infraestructura cloud. Será responsable de la API REST usada por desarrolladores y partners para generar vídeos de forma programática, diseñando nuevos endpoints, gestionando autenticación, rate limiting, webhooks, monitorización y documentación, así como mejorando la experiencia de desarrollador.

También desarrollará integraciones con CRMs inmobiliarios y otras plataformas externas, creando pipelines de sincronización de datos, arquitecturas orientadas a eventos, gestión de OAuth y claves API, y coordinándose con el equipo de negocio para priorizar alianzas.

En infraestructura, gestionará y optimizará entornos en Google Cloud y AWS, garantizando fiabilidad, escalabilidad y eficiencia de costes. Esto incluye servicios como Cloud Run, Pub/Sub, S3 o Lambda, además de CI/CD, despliegues automatizados, monitorización, alertas y seguridad en todos los entornos. Administrará contenedores Docker, configuraciones y variables de entorno.

No es un rol de soporte: diseñará sistemas, tomará decisiones arquitectónicas y desarrollará funcionalidades end-to-end, trabajando directamente con el CTO y teniendo un impacto clave en la evolución técnica del producto.

Requerimientos del cargo

What We Are Looking For

Must Have

  • 3+ years of professional experience building and operating backend services
  • Strong TypeScript / Node.js skills in production environments
  • Hands-on experience with Google Cloud Platform (Cloud Run, Cloud Tasks, or similar)
  • Experience designing and maintaining REST APIs consumed by external developers
  • Solid understanding of API design principles: versioning, error handling, pagination, authentication
  • Experience with PostgreSQL (or similar relational databases) in production
  • Familiarity with Docker and container-based deployments
  • Experience with CI/CD pipelines and deployment automation
  • Ability to work autonomously, make decisions, and communicate clearly

What We Value

  • Ownership over tasks. You take a feature from idea to production and monitor it after release.
  • Pragmatism over perfection. Ship the right solution for today, not an over-engineered abstraction for hypothetical tomorrow.
  • Clear communication. Async-first team. Write clear PRs, document decisions, flag blockers early.
  • Curiosity about the product. Understand why we build what we build, not just how.

Opcionales

Nice to Have

  • Experience with AWS services (S3, Lambda)
  • Experience building third-party integrations (CRMs, webhooks, OAuth)
  • Knowledge of queue-based architectures (Pub/Sub, Cloud Tasks, SQS)
  • Experience with Infrastructure-as-Code (Terraform, Pulumi, or GCP Deployment Manager)
  • Familiarity with observability tools (Sentry, Grafana, Prometheus)
  • Experience with OpenAPI specifications and API documentation tools
  • Background in real estate tech or PropTech
  • Experience in early-stage startups (< 15 people)

Condiciones

Remote-first: Work from anywhere in Spain. Core collaboration hours 10:00 - 15:00 CET.
Autonomy: Direct access to the CTO. No layers of management. Your voice matters from day one.
Growth: Early-stage opportunity. Shape the product, the architecture, and the engineering culture.
Hardware: We provide the equipment you need to do your best work.

AI-first workflow: We actively use AI tools (Claude, Cursor, Copilot) in our daily development. You will too.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Vibepeak.AI gives you paid vacations over the legal minimum.
$$$ Full time
Analista QA
  • SONDA
  • Santiago (Hybrid)
SQL Server Quality Assurance Test Automation Defect Management

SONDA es una empresa líder en transformación digital de la región, dedicada a impulsar soluciones tecnológicas que transformen negocios y mejoren la vida de las personas. Buscamos sumar a nuestro equipo de QA un analista que ayude a garantizar la calidad de productos y procesos, colaborando estrechamente con equipos de desarrollo, operaciones y negocio para entregar software confiable y alineado a requerimientos. En este rol, participarás en iniciativas de control de calidad técnico y de proceso, promoviendo prácticas que mejoren la eficiencia, trazabilidad y trazabilidad de pruebas a lo largo del ciclo de vida del software.

© Get on Board.

Funciones

  • Trabajar como miembro de la división de control de calidad técnica y de proceso.
  • Aplicar principios de ingeniería para desarrollar métodos y procedimientos que mantengan y mejoren los estándares de calidad del producto.
  • Diseñar sistemas de registro y análisis de los niveles de calidad del software.
  • Desarrollar requisitos y técnicas de inspección de control de calidad del producto e interpretar tendencias para tomar acciones correctivas.

Descripción

  • Formación: Titulado en Ingeniería en Informática, Ciencias de la Computación, Ingeniería de Software u otra profesión afín.
  • Conocimientos: gestión de proyectos tradicionales y ágiles; ejecución de pruebas funcionales y técnicas; dominio de SQL Server para validación de datos y pruebas de base de datos (JOINs, constraints, índices, integridad referencial).
  • Pruebas: experiencia en pruebas funcionales, de regresión, de integración, rendimiento y seguridad; pruebas automatizadas (Selenium, Postman, JMeter, Newman, PyTest).
  • Metodologías: trabajo en entornos ágiles (Scrum/Kanban) o mixtos; herramientas como JIRA, Azure DevOps, TestLink o Zephyr; gestión de defectos, trazabilidad y reportes de QA.
  • Certificaciones: ISTQB Foundation o superior; deseables CSQA, ICP-TST, Selenium/JMeter/DevOps QA.

Requisitos deseables

  • Certificación ISTQB o equivalente y/o experiencia en certificaciones de automatización de pruebas.
  • Experiencia práctica en automatización de pruebas y en entornos de DevOps.
  • Habilidad para trabajar de forma colaborativa en equipos multidisciplinarios, con enfoque en calidad y mejora continua.

Beneficios

En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.

Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.

Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.

El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.

Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.

Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage SONDA pays or copays health insurance for employees.
Computer provided SONDA provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks SONDA offers beverages and snacks for free consumption.
$$$ Full time
Senior QA Engineer
  • Improving South America
Python SQL Selenium Kubernetes

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Exclusive offer from getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $3500 - 4500 Full time
Windows Server Terraform AWS EC2
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply to this job through Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
$$$ Full time
JavaScript Excel SQL NoSQL
Usercode SpA es una empresa tecnológica 100% remota, especializada en desarrollo de software a medida para instituciones públicas y privadas. Nuestro foco está en tecnologías Cloud, automatización y digitalización de procesos. Contamos con un equipo distribuido entre Chile, México y Perú y trabajamos con herramientas de colaboración como Slack, Meet/Hangouts y Monday. Nuestro objetivo es entregar productos de clase mundial para clientes diversos, con un enfoque en calidad, innovación y crecimiento profesional de nuestro equipo.

© getonbrd.com.

Funciones del cargo

Como Analista de Aseguramiento de Calidad de Software, trabajarás en el aseguramiento de la calidad de software para nuestros desarrollos de software a medida. Además, trabajarás en estrecha colaboración con el equipo de desarrollo de software junto con los demás desarrolladores, arquitecto de software y jefe de proyecto. Los proyectos desarrollados son mayoritariamente plataformas web.
El cargo reporta directamente al jefe de proyecto de Usercode, todas las mañanas se realiza una daily para conversar sobre avances y posibles bloqueos del día anterior. Durante el día, todo el equipo trabaja en sus actividades planificadas pudiendo conectarse a una videollamada con todo o parte del equipo de desarrollo para reuniones de trabajo y/o aclarar dudas.
Responsabilidades:
  • Entender los requisitos del negocio: leer requerimientos y participar en reuniones de levantamiento de requisitos con clientes.
  • Desarrollar planes y casos de prueba; generar datos de prueba y ejecutar pruebas manuales conforme al plan.
  • Detectar defectos, documentar, reportar y gestionar incidencias, colaborando con el equipo de desarrollo para su resolución.
  • Generar informes de prueba (avance y cierre).
  • Automatización de pruebas: diseñar, desarrollar y mantener scripts de prueba; participar en la creación y ejecución de pruebas automatizadas.

Descripción

Buscamos un/a Analista de Aseguramiento de Calidad de Software con al menos 5 años de experiencia para un rol 100% remoto. Reportarás directamente al jefe de proyecto y colaborarás estrechamente con desarrolladores, arquitecto de software y otros stakeholders. Realizarás pruebas funcionales y no funcionales en plataformas web, contribuyendo a asegurar la calidad y la confiabilidad de los productos entregados a clientes. Participarás en reuniones de levantamiento de requerimientos y estarás involucrado en todo el ciclo de pruebas, desde la planificación hasta la entrega de informes y métricas de calidad.

Requerimientos del cargo
Experiencia excluyente:
  • Estudios relacionados al Desarrollo de Software y Aseguramiento de Calidad de Software.
  • Al menos 5 años de experiencia en Aseguramiento de Calidad de Software.
  • Capacidad de análisis y comprensión de requerimientos y procesos de negocios.
  • Tener disponibilidad para trabajar full time.
¿Qué tienes que saber excluyentemente a nivel técnico?
Conocimientos en sistemas de gestión de la calidad y normas de calidad.
Manejo de herramientas básicas de software (Excel).
Conocimiento básico en lenguajes de programación Javascript, SQL y NoSQL.
Lo que buscamos en ti:
  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Beneficios

Ofrecemos un entorno de trabajo 100% remoto, brindando flexibilidad para adaptarse a necesidades presenciales puntuales de clientes. Disfrutarás de días extras de vacaciones y una modalidad laboral 3x5 que otorga días libres adicionales, además de un día libre especial por cumpleaños, cambio de domicilio o fallecimiento de mascota. Proporcionamos pagos para certificaciones seleccionadas para potenciar tu desarrollo profesional. Promovemos pausas activas colaborativas para el bienestar del equipo y entregamos aguinaldos como parte de nuestros beneficios. Todo esto enmarcado en una cultura que fomenta el crecimiento y la calidad de vida laboral.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
Vacation over legal Usercode SpA gives you paid vacations over the legal minimum.
Gross salary $3000 - 5000 Full time
Data Engineer
  • Revel Street LLC
SQL DevOps ETL CI/CD

Revel Street LLC helps corporate event planners discover and reach private dining venues through an extensive, dependable database. We use LLMs extensively to gather and enrich venue data, streamline the event planning workflow, and reduce the time and effort required to source options for events such as private dining, cocktail receptions, and conferences. We are looking for an experienced Data Engineer to help us improve data quality, fix existing data issues, and ingest more data from APIs and LLM-based sources to complement our current datasets. Our current stack includes React, TanStack, Cloudflare, Django, and Dagster, and we expect you to design solutions that are scalable, testable, and grounded in core engineering fundamentals.

© Get on Board.

Responsibilities

You’ll proactively turn ambiguous requirements into well-structured engineering plans. You’ll communicate trade-offs and risks early, and you’ll verify outcomes through hands-on testing. You’ll bring a “build, measure, improve” mindset to performance, reliability, and user experience.

  • Design, build, and maintain dbt pipelines for our analytics and operational workloads
  • Build and maintain ETL/ELT processes to ingest data from multiple APIs and other external sources
  • Set up and manage workflows in orchestration platforms such as Dagster
  • Develop and refine our data models to support analytics, reporting, and downstream products
  • Diagnose and fix data quality issues (duplicates, missing fields, inconsistent formats, incorrect mappings, etc.)
  • Implement robust data cleaning and validation checks
  • Integrate LLM-based data enrichment (e.g., using OpenAI or similar APIs) to improve and complement event data
  • Collaborate with our product and ops team to understand data needs and translate them into technical solutions

Requirements

  • Very high English proficiency (clear communication, strong writing, and the ability to collaborate effectively)
  • At least 3 years of data engineering experience including experience with dbt and the modern data stack
  • Some experience with devops, CI/CD, and database management.
  • At least 6 months of experience working exclusively in an agentic coding environment (e.g., Claude Code, Codex)
  • Ability to understand data engineering fundamentals, not just generate code—debugging, reasoning about behavior, and ensuring correctness

Bonus (preferred)

  • Bachelor’s degree in Computer Science, Engineering, or a related field.

Conditions

Fully remote You can work from anywhere in the world.
Gross salary $900 - 1200 Full time
Data Process Analyst
  • Datasur
  • Santiago (Hybrid)
Python PostgreSQL ETL Automation

En Datasur, somos líderes en inteligencia comercial basada en datos de comercio exterior. Nuestra plataforma procesa millones de registros de importaciones y exportaciones de más de 70 países, y estamos listos para escalar más alto.

Buscamos un/a Ingeniero/a de Procesos con al menos un año de experiencia para un proyecto de automatización del flujo de producción de datos. El rol se enfoca en levantar, analizar, documentar y mejorar procesos, impulsando la transición desde operaciones manuales a modelos estandarizados, trazables y escalables.

Se requiere una visión TI orientada a procesos, capaz de mapear flujos end-to-end, detectar brechas, definir controles y traducir necesidades de negocio en requerimientos funcionales claros. El trabajo abarca todo el ciclo de datos (ingesta, estandarización, calidad, monitoreo, orquestación y carga analítica), identificando riesgos y oportunidades de automatización.

This job offer is on Get on Board.

Funciones del cargo

1. Levantar, analizar y documentar procesos actuales y futuros del flujo de producción de datos.
2. Estandarizar procesos, definiciones, reglas operativas y puntos de control entre áreas.
3. Traducir requerimientos operativos y funcionales en documentos claros para equipos TI.
4. Apoyar la definición de flujos objetivo, casos de uso, reglas de negocio, validaciones y métricas de control.
5. Coordinar con áreas de Producción de Datos y equipos técnicos para asegurar consistencia en el diseño del proceso.
6. Participar en la elaboración de diagramas de proceso, procedimientos, manuales y documentación de operación.
7. Acompañar la implementación de mejoras, haciendo seguimiento a avances, dependencias y acuerdos operativos.
8. Apoyar la definición de indicadores de calidad, trazabilidad, alertas y seguimiento del proceso.

Requerimientos del cargo

  1. Formación en Ingeniería de Procesos, Ingeniería Civil Industrial, Ingeniería en Informática, Ingeniería en Ejecución, Sistemas o carrera afín.
  2. Al menos 1 año de experiencia en levantamiento, análisis, documentación o mejora de procesos.Interés o experiencia en procesos vinculados a TI, datos, automatización o transformación digital.
  3. Conocimiento en modelamiento de procesos, levantamiento de requerimientos y documentación funcional.
  4. Capacidad para interactuar con perfiles técnicos y no técnicos.

Se valorará

  • Experiencia en proyectos de datos, ETL, calidad de datos, automatización o integración de sistemas.
  • Conocimiento general de conceptos como pipelines, validaciones, logs, monitoreo, trazabilidad y gobernanza de datos.
  • Familiaridad con entornos donde participan tecnologías como Python, PostgreSQL, Airflow, Spark o soluciones de procesamiento de datos, aunque el foco principal del cargo no es desarrollar, sino ordenar y mejorar el proceso.

Condiciones

  • Un proyecto desafiante, con impacto real en el mundo del comercio exterior.
  • Equipo comprometido, ágil y con visión de crecimiento global.
  • Libertad para proponer, crear y liderar cambios.
  • Modalidad flexible y cultura de resultados.

Gross salary $1900 - 2100 Full time
Ingeniero de Datos
  • VTI-UChile
  • Santiago (Hybrid)
Python Git SQL Linux

El trabajo se enmarca en el desarrollo proyecto FONDEF, titulado “¿Cómo progreso en mi aprendizaje?:
Sistema inteligente para fortalecer la autorregulación del aprendizaje en línea en estudiantes de educación superior”.

Esta iniciativa da continuidad a un proyecto previo orientado al desarrollo de modelos predictivos y explicativos del aprendizaje autorregulado mediante analítica de aprendizaje. En esta nueva etapa, el foco está en el diseño e implementación de soluciones que permitan fortalecer activamente la autorregulación de estudiantes en entornos digitales, entendida como la capacidad de planificar, monitorear y evaluar su propio proceso de aprendizaje.

El trabajo considera el uso intensivo de datos educativos y el desarrollo de herramientas basadas en evidencia para mejorar la experiencia y resultados de aprendizaje en educación superior.

© getonbrd.com.

Funciones del cargo

Responsable de diseñar, completar y optimizar el modelo de datos que soporta las métricas de
aprendizaje de las plataformas LMS administradas por la Oficina EOL, implementadas sobre Open edX.

El cargo tiene como objetivo integrar múltiples fuentes de datos (logs de eventos, bases de datos
relacionales y no relacionales) para estructurar un sistema consistente de eventos, acciones de
aprendizaje y métricas por usuario y curso, así como habilitar el acceso a esta información mediante APIs
para su consumo en interfaces y sistemas externos.

Se espera que el candidato sea capaz de comprender rápidamente arquitecturas de datos existentes,
trabajar sobre sistemas en desarrollo y completar tanto el modelamiento como la capa de exposición de
datos.

Responsabilidades Claves

Modelamiento de Datos Analíticos:

Diseñar, completar y mantener el modelo de datos; analítico (eventos, métricas, dimensiones).; Definir estructuras de datos orientadas a analítica (tablas de hechos, dimensiones, relaciones); Asegurar consistencia, trazabilidad y calidad de los datos.; Documentar modelos y definiciones de métricas.

Integración de Fuentes de Datos

Integrar datos provenientes de: o logs de eventos de la plataforma o bases de datos relacionales (SQL) o bases de datos no relacionales (MongoDB) Diseñar procesos de transformación de datos (ETL/ELT). Resolver problemas de integración, duplicidad y calidad de datos.

Análisis y Estructuración de Eventos

o Interpretar y estructurar eventos de interacción de usuarios. o Modelar acciones de aprendizaje y comportamiento dentro de la plataforma. o Definir métricas clave a partir de eventos (engagement, progreso, uso, etc.).

Desarrollo de APIs de Datos

o Diseñar y desarrollar APIs para exponer métricas y datos analíticos. o Implementar endpoints eficientes para consumo por interfaces y sistemas externos. o Asegurar buenas prácticas de diseño (performance, versionado, consistencia).

Optimización y Soporte Analítico

o Optimizar consultas y estructuras para análisis eficiente. o Apoyar la generación de reportes y visualizaciones. o Colaborar con equipos técnicos y funcionales.

Requisitos técnicos.

Bases de datos relacionales (PostgreSQL/MySQL) Avanzado
Bases de datos no relacionales (MongoDB) Avanzado
SQL avanzado (consultas complejas, optimización) Avanzado
Modelamiento de datos analíticos (eventos, hechos, dimensiones) Avanzado
Python (procesamiento de datos y desarrollo backend) Avanzado
Uso de ORMs en Python Medio
Manejo de migraciones Medio
Desarrollo de APIs REST Avanzado

Frameworks backend (FastAPI y/o Django) Avanzado
Procesos ETL/ELT Medio
Sistemas basados en eventos / tracking de usuarios Medio
Git Medio
Linux / Docker Medio

Condiciones

  • Viernes cortos.
  • Días administrativos.

Partially remote You can work from your home some days a week.
Informal dress code No dress code is enforced.
$$$ Full time
Data Engineer
  • CyD Tecnología
  • Antofagasta (In-office)
Git SQL ETL Power BI

En CyD Tecnología somos una empresa innovadora en el sector de la tecnología, enfocada en el desarrollo de plataformas web personalizadas que transforman procesos complejos en soluciones simples y eficientes. Nuestro equipo diseña y entrega aplicaciones web y móviles que automatizan, integran y digitalizan operaciones críticas, ayudando a las empresas a reducir costos, mejorar el control y tomar decisiones basadas en datos en tiempo real.

Apply from getonbrd.com.

Responsabilidades Principales

El Data Engineer será responsable de diseñar, desarrollar y mantener soluciones de datos orientadas a la construcción de dashboards en Power BI, asegurando la disponibilidad, calidad y consistencia de la información para la toma de decisiones.

Trabajará en la integración de distintas fuentes de datos, transformación de información y modelado necesario para soportar reportes de gestión. Además, participará en la optimización de procesos y en la mejora continua de los modelos de datos utilizados por el negocio.

Dentro de sus funciones principales se encuentran:

  • Desarrollar y mantener dashboards en Power BI (principalmente MOP L3 y L4).
  • Construir y gestionar Dataflows para la preparación y transformación de datos.
  • Integrar fuentes de datos como Snowflake y bases de datos locales.
  • Diseñar y optimizar modelos de datos para reporting.
  • Escribir y optimizar consultas SQL para extracción y procesamiento de datos.
  • Asegurar la calidad y consistencia de los datos en los reportes.
  • Apoyar la estandarización de datos y buenas prácticas de desarrollo BI.
  • Documentar procesos y mantener trazabilidad de los flujos de datos.

Competencias Técnicas Requeridas

Se requiere formación en Ingeniería Informática o carrera afín, junto con experiencia en desarrollo de soluciones BI y manejo de datos.

Requisitos excluyentes:

  • Experiencia desarrollando dashboards en Power BI.
  • Manejo de Dataflows y Power Query para transformación de datos.
  • Dominio de SQL para consultas complejas.
  • Experiencia integrando datos desde Snowflake u otras fuentes similares.
  • Conocimiento en modelado de datos para reporting.
  • Experiencia con DAX para métricas y cálculos.

El trabajo considera jornada 4x3 en faena de la II Región de Antofagasta. No existe modalidad de teletrabajo.

Además, se valorará:

  • Experiencia trabajando con grandes volúmenes de datos.
  • Conocimientos en Dataverse o entornos de Power Platform.
  • Experiencia en optimización de rendimiento de dashboards.

Conocimientos Opcionales

Se considerarán como un plus los siguientes conocimientos o experiencia:

  • Experiencia en Power Platform (Power Apps, Power Automate).
  • Conocimientos en arquitectura de datos en la nube (Azure).
  • Experiencia en automatización de procesos de datos (ETL/ELT).
  • Conocimientos en gobernanza y calidad de datos.
  • Manejo de herramientas de versionamiento (Git).
  • Experiencia en metodologías ágiles.

Conditions

Health coverage CyD Tecnología pays or copays health insurance for employees.
Computer provided CyD Tecnología provides a computer for your work.
$$$ Full time
Data Analyst (Data Operations)
  • Equifax Chile
  • Santiago (Hybrid)
Python SQL BigQuery Scrum
En Equifax Chile transformamos datos en oportunidades, apoyando a instituciones financieras, empresas, empleadores y agencias gubernamentales con decisiones críticas basadas en mayor confianza. En este rol, nos enfocamos en la recepción, carga, mantenimiento y control de calidad de la información a través de procesos establecidos. Además, actualizamos métricas y reportes para clientes internos y externos, asegurando trazabilidad y consistencia. También gestionamos y damos seguimiento a aportantes de datos, brindando soporte a requerimientos de data y apoyando iniciativas de creación o mejora de servicios y productos.

Send CV through getonbrd.com.

Qué vas a hacer

  • Recepción de la data, carga, mantenimiento y control de calidad de información mediante procesos establecidos.
  • Actualización de métricas y reportes para el cliente interno y externo.
  • Gestión y seguimiento de aportantes de datos.
  • Soporte de requerimientos referentes a data para clientes internos y externos.
  • Apoyo en proyectos de creación o mejoras a los servicios o productos.

Qué experiencia necesita

Educación: Ingeniería Civil y/o Ejecución en informática / computación / industrial / estadística o afines.
Experiencia: mínimo 3 años.
Conocimientos técnicos:
  • Herramientas de base de datos: SQL y Python para data.
  • Vertex (GCP) y BigQuery (GCP).
  • Uso de API.
  • BI Looker Studio (GCP).
Conocimiento diferencial y buenas prácticas:
  • Conocimientos de gobernanza y calidad de datos.
  • Conocimiento de herramientas de manejo de BI y de estadística.
  • Conocimiento de Scrum y Jira.
Buscamos a una persona ordenada, con orientación a la calidad, capacidad de seguimiento y comunicación efectiva para trabajar con clientes internos y externos.

Qué podría diferenciarte

  • Conocimiento de herramientas de RPA como UiPath (deseable).
  • Conocimientos del manejo de datos (gobernanza, calidad).
  • Conocimientos de herramientas de manejo de BI.
  • Conocimientos de estadística.
  • Conocimientos de Scrum y Jira.

Beneficios

Ofrecemos modalidad de trabajo híbrido con horarios flexibles que permiten un balance saludable entre la vida personal y laboral. Se otorgan días libres adicionales para fomentar el bienestar de nuestros colaboradores.
Nuestro paquete de compensación integral incluye seguro médico complementario, convenio con gimnasio para promover un estilo de vida saludable y beneficios específicos para madres y padres en la organización.
Se tiene acceso a una plataforma de aprendizaje en línea que permite el desarrollo profesional continuo, junto con programas de reconocimiento para valorar el aporte de cada integrante del equipo. Esto contribuye a un entorno diverso, multicultural y orientado al crecimiento de carrera.

Wellness program Equifax Chile offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Equifax Chile offers space for internal talks or presentations during working hours.
Life insurance Equifax Chile pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Health coverage Equifax Chile pays or copays health insurance for employees.
Mobile phone provided Equifax Chile provides a mobile phone for work use.
Company retreats Team-building activities outside the premises.
Computer repairs Equifax Chile covers some computer repair expenses.
Dental insurance Equifax Chile pays or copays dental insurance for employees.
Commuting stipend Equifax Chile offers a stipend to cover some commuting costs.
Computer provided Equifax Chile provides a computer for your work.
Fitness subsidies Equifax Chile offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Shopping discounts Equifax Chile provides some discounts or deals in certain stores.
Vacation over legal Equifax Chile gives you paid vacations over the legal minimum.
Beverages and snacks Equifax Chile offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Equifax Chile offers paid parental leave over the legal minimum.
$$$ Full time
Data Engineer Databricks
  • 42Labs
  • Santiago (Hybrid)
Python SQL Scala Databricks

En 42Labs no solo desarrollamos tecnología: construimos soluciones donde lo técnico y lo humano van de la mano. Trabajamos en iniciativas que transforman negocios en distintos verticales (financiero, logística y educación), creando plataformas de datos que permiten tomar mejores decisiones, automatizar procesos y habilitar analítica confiable. Como Data Engineer enfocado en Databricks, seremos parte de un equipo que diseña y mantiene pipelines robustos, escalables y orientados a calidad, asegurando que los datos lleguen a tiempo, con integridad y trazabilidad. Nuestro objetivo es que la plataforma de datos soporte casos de uso reales, desde ingesta y procesamiento hasta modelado y consumo, promoviendo buenas prácticas, colaboración y mejora continua dentro de una cultura transparente y sin jerarquías rígidas.

Exclusive offer from getonbrd.com.

Funciones

En el rol de Data Engineer con Databricks, nuestro foco será construir y operar pipelines de datos de punta a punta, asegurando rendimiento, calidad y mantenibilidad.
  • Diseñar, desarrollar y mantener pipelines de ingesta, procesamiento y transformación de datos en Databricks.
  • Implementar modelos de datos y estrategias de organización (por ejemplo, capas y convenciones) para soportar analítica y reporting.
  • Optimizar rendimiento (jobs, particiones, formatos de almacenamiento y configuración) para costos eficientes y tiempos de respuesta adecuados.
  • Asegurar calidad de datos mediante validaciones, controles de consistencia y manejo de errores/recuperación.
  • Producir trazabilidad end-to-end: documentación, linaje y buenas prácticas de versionado y despliegue.
  • Colaborar con Ingeniería de Software y stakeholders para entender requerimientos, priorizar y convertirlos en soluciones medibles.
  • Monitorear procesos y responder incidentes: revisar logs, métricas y alertas, y proponer mejoras preventivas.
Trabajaremos con autonomía en un esquema híbrido, apoyándonos en feedback constante y en una cultura de colaboración donde la calidad y el impacto en las personas importan.

Requisitos

Buscamos un/a Data Engineer con experiencia práctica en el ecosistema de datos y con foco en construir soluciones confiables, escalables y fáciles de mantener. Valoramos la combinación entre criterio técnico, comunicación clara y orientación a la mejora continua.
Lo que necesitamos de ti
  • Experiencia con Databricks y trabajo con pipelines de datos (ingesta, transformación y orquestación).
  • Conocimientos sólidos en procesamiento distribuido y formatos de datos para optimización de rendimiento.
  • Buenas prácticas de ingeniería de datos: control de versiones, documentación, pruebas/validaciones y manejo de errores.
  • Experiencia implementando capas/modelos para analítica (por ejemplo, a través de enfoques como medallion o similares) y asegurando consistencia.
  • Capacidad para depurar y mejorar rendimiento de jobs (lecturas/escrituras, particiones, configuración y tuning).
  • Conocimientos en SQL y al menos un lenguaje para desarrollo (comúnmente Python/Scala, según el stack).
  • Mentalidad de calidad: validar datos, detectar anomalías y proponer correcciones con enfoque preventivo.
  • Comunicación efectiva: explicar decisiones técnicas, levantar riesgos temprano y alinear expectativas con equipos no técnicos.
Cómo nos gusta trabajar
  • Colaboración genuina y transparencia: nos importa cómo construyes con el equipo, no solo el resultado.
  • Autonomía responsable: propones mejoras, haces seguimiento y entregas con foco en impacto.
  • Aprendizaje constante: te sumas a la Academia 42Labs y disfrutas compartir conocimiento.

Deseable

  • Experiencia con orquestación y programación de workflows (por ejemplo, jobs programados, scheduling y patrones de reintento).
  • Conocimiento de seguridad y gobernanza de datos (permisos, acceso por roles, auditoría básica).
  • Experiencia con herramientas de monitoreo/alertas para operación de pipelines.
  • Participación en diseño de arquitectura de datos (estándares de modelado, convenciones y escalabilidad).
  • Experiencia trabajando con equipos multidisciplinarios (Data, Backend, BI) y levantando requerimientos con claridad.

Beneficios

  • Salud y protección integral: seguros complementarios de salud, dental, de vida y catastrófico 100% financiados por nosotros (con opción de extender a tu familia). También estamos integrados a la red de beneficios de Caja Los Andes y la ACHS.
  • Tiempo y flexibilidad: contamos con Flexi Days y Party Time (tardes libres). Celebramos tu cumpleaños con una tarde libre y damos tiempo extra para hitos como matrimonio, nacimiento de hijos o exámenes de título.
  • Bienestar y equilibrio: promovemos un balance real con un entorno de trabajo híbrido que confía en tu autonomía.
  • Crecimiento: Academia 42Labs, planes de desarrollo personalizados y acceso a Udemy Business.
  • Conectividad y apoyos: bonos mensuales para conexión a internet y plataformas de ocio favoritas, además de aguinaldos en Fiestas Patrias y Navidad.
Si te entusiasma ser parte de una comunidad que aprende, colabora y celebra, queremos conocerte. ¡Postula con nosotros!

Health coverage 42Labs pays or copays health insurance for employees.
Computer provided 42Labs provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal 42Labs gives you paid vacations over the legal minimum.
$$$ Full time
Analista de Datos BI Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Python Excel SQL Oracle

En Coderslab nos encontramos en la búsqueda de un Analista de Datos BI Semi Senior, encargado de apoyar en la construcción, mantenimiento y mejora de reportes y dashboards de Business Intelligence, asegurando calidad, consistencia y confiabilidad de la información utilizada para decisiones operativas y ejecutar análisis estructurados bajo lineamientos definidos, con autonomía creciente en tareas técnicas recurrentes. Asi como tambien tendrá participación en la consulta y preparación básica de datos para visualización, sin responsabilidad sobre arquitectura de datos, definición de KPIs estratégicos ni liderazgo de modelado complejo o pipelines.

Send CV through getonbrd.com.

Funciones del cargo

  • Construcción y mantenimiento de dashboards en Power BI y/o Tableau.
  • Desarrollo de visualizaciones claras, funcionales y orientadas al seguimiento operativo.
  • Aplicación de buenas prácticas básicas de modelado para consumo analítico.
  • Realización de ajustes y mejoras menores sobre reportes y dashboards existentes.
  • Desarrollo de consultas SQL para extracción, validación y análisis de información.
  • Consulta de datos desde bases Oracle como fuente de origen.
  • Uso básico de PL/SQL para lectura o ajustes simples sobre lógica existente, cuando aplique.
  • Preparación básica de datasets para visualización.
  • Validación de consistencia y calidad de datos.
  • Documentación simple de fuentes y transformaciones realizadas.
  • Generación de reportes operativos periódicos.
  • Identificación de variaciones básicas en indicadores.
  • Atención a requerimientos de ajustes menores en dashboards y reportes.
  • Apoyo en análisis recurrentes bajo lineamientos previamente definidos.
  • Participación en células ágiles o esquemas colaborativos de trabajo.
  • Coordinación con equipos técnicos o áreas fuente para entender origen y estructura de datos.
  • Recepción y aplicación de feedback técnico y funcional.
  • Escalamiento oportuno de incidencias o dependencias técnicas

Requerimientos del cargo

2 o más años de experiencia en análisis de datos o Business Intelligence.
Experiencia en construcción y mantenimiento de dashboards.
Experiencia en generación de reportes operativos periódicos.
Experiencia realizando consultas SQL para extracción, validación y análisis de información.
Experiencia consultando información desde bases Oracle como fuente de origen.
Experiencia en validación de consistencia y calidad de datos.
Experiencia atendiendo ajustes menores sobre dashboards y reportes existentes.
Experiencia trabajando con requerimientos definidos y bajo lineamientos técnicos o funcionales.
Experiencia coordinando con equipos técnicos o áreas fuente para entender origen y estructura de datos.
Profesión requerida (Incluir las certificaciones/ Licencias/ Registros): Ingeniería de sistemas, ingeniería electrónica y/o carreras afines

Habilidades o conocimientos obligatorios:

Manejo de Power BI / Tableau para construcción y mantenimiento de dashboards.
SQL intermedio.
Capacidad para trabajar con joins, filtros, agregaciones y validación de datos.
Excel avanzado.
Capacidad para construir dashboards completos cuando el requerimiento está claramente definido.
Capacidad para realizar consultas y validaciones de datos sobre fuentes existentes.
Capacidad para preparar datasets básicos para visualización.
Capacidad para documentar de manera simple fuentes y transformaciones realizadas.
Capacidad para identificar variaciones básicas en indicadores.
Capacidad para ejecutar tareas definidas con supervisión periódica.
Capacidad para escalar decisiones técnicas complejas, ambigüedades de diseño o necesidades de soporte especializado.
Capacidad para seguir lineamientos técnicos y funcionales.
Pensamiento lógico y estructurado.
Atención al detalle.
Buenas habilidades de comunicación.
Organización y seguimiento.
Disposición para aprendizaje técnico continuo.

Tecnologias que debe manejar

Power BI / Tableau
SQL
Oracle básico
Excel

Opcionales

  • Habilidades y/o conocimientos deseables:
  • Conocimientos básicos de PL/SQL.
  • Conocimientos básicos de Python para scripts simples, automatizaciones ligeras o validaciones puntuales de datos. Conocimientos básicos de modelado para consumo analítico.
  • Experiencia participando en células ágiles o esquemas colaborativos de trabajo.

Condiciones

Modalidad de contratación:03 meses con posibilidad de extension

$$$ Full time
Data Engineer Junior/Semi Senior
  • Lisit
  • Santiago (Hybrid)
Python Git SQL Docker
En Lisit creamos, desarrollamos e implementamos servicios de software enfocados en automatización y optimización, manteniendo innovación y pasión por los desafíos. Trabajamos con un acompañamiento consultivo para lograr transformaciones exitosas mediante una estrategia integral de implementación. Para el área ASAP, buscamos un/una Data Engineer Junior o Semi Senior que apoye la construcción y evolución de pipelines de datos (ETL/ELT) y modelos asociados a necesidades de negocio. El objetivo es habilitar la generación confiable y escalable de datos para impulsar decisiones y automatizar flujos críticos para el negocio, con calidad, trazabilidad y buenas prácticas.

Apply only from getonbrd.com.

Responsabilidades

En el área ASAP, nos vas a ayudar a:
  • Diseñar, desarrollar y mantener pipelines ETL/ELT que permitan cargar, transformar y preparar datos para consumo analítico y/o operacional.
  • Implementar modelos de datos alineados a requerimientos del negocio, cuidando claridad, mantenibilidad y consistencia.
  • Escribir y optimizar consultas SQL y código Python para automatizar procesos de transformación y extracción.
  • Trabajar con repositorios y versionamiento usando Git, asegurando trazabilidad de cambios y buenas prácticas de desarrollo.
  • Apoyar la integración y despliegue de componentes en plataformas Cloud, idealmente Google Cloud, siguiendo criterios de eficiencia y rendimiento.
  • Colaborar con el equipo para documentar el flujo end-to-end, gestionar dependencias y asegurar calidad de datos en cada etapa.
Buscamos que los datos estén listos a tiempo, con menos retrabajo y con una base sólida para evolucionar modelos y automatizaciones.

Requisitos

Buscamos un/una Data Engineer Junior o Semi Senior para reforzar el área ASAP por urgencia crítica para el negocio.
Requerimos:
  • Conocimiento en una plataforma Cloud (idealmente Google Cloud).
  • Python y SQL en nivel intermedio a avanzado (excluyente).
  • Experiencia en generación de ETL/ELT y modelos de negocio.
  • Conocimientos de Git.
Te va a ir muy bien si:
  • Te gusta trabajar con objetivos claros y priorización (urgencia crítica implica foco y ejecución).
  • Eres ordenado/a con la calidad del dato, la documentación y la reproducibilidad de procesos.
  • Colaboras activamente: levantando dudas temprano, compartiendo avances y proponiendo mejoras.
  • Enfrentas problemas con mentalidad analítica, cuidando performance, validaciones y estabilidad.

Deseable

  • Conocimientos en Docker.
  • Composer (Airflow).
  • Cloud Run y Cloud Run Functions.
  • Terraform.
  • Dataform.
Estos conocimientos suman porque facilitan automatización, despliegues consistentes e infraestructura como código.

Beneficios

100% remoto (según organización). Cuando aplique por necesidad del proyecto, la opción ideal es trabajar en Santiago con modalidad 3x2; en caso borde, modalidad remota. Buscamos mantener un esquema de trabajo que permita foco y continuidad para llegar con calidad a los objetivos del área ASAP.

Si te interesa aportar con pipelines de datos, Python, SQL y buenas prácticas de ingeniería, escríbenos para conversar.

Gross salary $1900 - 2200 Full time
Data Engineer
  • Houm
  • Santiago (Hybrid)
Python Git SQL Kubernetes

La persona será dueña de un ecosistema de datos maduro y bien documentado, con más de 300 DAGs en producción, y tendrá por delante una migración estratégica de Airflow 2.x a Airflow 3.x sobre Kubernetes, además de la reconstrucción de flujos legacy que presentan problemas de escalabilidad y mantenimiento.

This company only accepts applications on Get on Board.

Funciones del cargo

  • Ownership y mantenimiento del stack de datos completo: Apache Airflow, dbt, AWS Redshift y S3.
  • Monitoreo proactivo y resolución de incidentes en pipelines de datos.
  • Disponibilización de datos para inteligencia de negocios y otros consumidores internos.
  • Liderar la migración de Airflow 2.x en VM única hacia un cluster Airflow 3.x en Kubernetes.
  • Reconstrucción y modernización de flujos legacy.
  • Colaboración activa con operaciones, producto, finanzas y otras áreas como proveedor interno de datos.
  • Coordinación con DevOps para infraestructura y configuración de repositorios.
  • Apoyo en proyectos transversales que requieran soluciones de datos.

Requerimientos del cargo

Requisitos

  • Título de Ingeniería Civil Industrial o Informática.
  • +2 años de experiencia, idealmente en Start Ups.
  • Experiencia sólida con Apache Airflow (desarrollo de DAGs, debugging, operación en producción).
  • Experiencia sólida con dbt (modelos, tests, documentación, resolución de incidentes).
  • Manejo fluido de Python y SQL.
  • Experiencia con Git y prácticas de trabajo en bases de código grandes.
  • Experiencia con al menos una nube pública: AWS, GCP o Azure.
  • Capacidad de trabajar de forma autónoma tomando decisiones de arquitectura.
  • Excelente comunicación con stakeholders no técnicos.
  • Perfil proactivo: capaz de gestionar y priorizar su propia carga de trabajo, levantar la mano y buscar a las personas correctas.
  • Entusiasmo genuino para colaborar con equipos diversos.

Opcionales

Nice to have

  • Experiencia previa con AWS Redshift y servicios del ecosistema AWS (S3, IAM, etc.).
  • Experiencia con Kubernetes o migración de servicios hacia orquestación en contenedores.
  • Experiencia con MLOps o despliegue de modelos de machine learning en producción.
  • Conocimiento del dominio real estate o proptech.
  • Experiencia con herramientas de observabilidad y monitoreo (Datadog, CloudWatch, etc.).

Condiciones

Lo que ofrecemos

  • More holidays to chill! (días extra de vacaciones).
  • Seguro complementario de salud.
  • Beneficios Caja Los Andes.
  • Tarde libre por cumpleaños (tuyo e hijo/a).
  • 5 días extra de licencia por paternidad.
  • Modalidad híbrida (2 días presencial + 3 remoto).

Health coverage Houm pays or copays health insurance for employees.
Computer provided Houm provides a computer for your work.
Vacation over legal Houm gives you paid vacations over the legal minimum.
Beverages and snacks Houm offers beverages and snacks for free consumption.
Gross salary $2300 - 3000 Full time
Python SQL Machine Learning Data Visualization

¿Quieres resolver problemas de pricing y optimización reales, para empresas reales, junto a un equipo senior que lleva décadas en Revenue Management? En Airnguru vas a aplicar data science, donde importan modelos que impactan en las decisiones comerciales de aerolíneas, retailers y universidades. No es un rol de soporte — es un rol en el que tu trabajo se traduce en resultados medibles para el cliente.

Te integras al equipo de Data Science de Airnguru, con un rol de alto impacto, liderando módulos de proyectos de consultoría para distintas industrias.

Airnguru cuenta con un brazo de consultoría especializada en RM y DS con décadas de experiencia. Nuestro equipo combina consultores senior de RM con data scientists para resolver problemas de pricing y optimización en aerolíneas, retail, educación superior y otras industrias. Nuestras soluciones apuntan a maximizar el margen de contribución esperado, generando resultados tangibles y sostenibles para nuestros clientes.

Exclusive to Get on Board.

Qué vas a hacer

Desde el día 1 vas a tener responsabilidades concretas. La expectativa es que rápidamente tomes ownership de módulos completos de los proyectos.

Diseño, construcción y mantenimiento de bases de datos analíticas para proyectos de Revenue Management y pricing. Desarrollo de modelos estadísticos y de ML aplicados: modelos de elección discreta, clustering, series de tiempo, optimización, simulación de escenarios. Desarrollo de pipelines de datos end-to-end en Python (pandas, numpy, scipy, scikit-learn, statsmodels).

Formulación y resolución de problemas de optimización (lineal, no lineal, combinatoria) aplicados a pricing, asignación de recursos, y gestión de inventario. Visualización de datos y construcción de dashboards interactivos para clientes (Plotly, Streamlit, o similar). Elaboración de presentaciones y reportes para Steering Committees y reuniones ejecutivas con clientes.

Investigación de fuentes de datos externas (APIs públicas, web scraping, bases de datos gubernamentales). Liderazgo de módulos de proyectos: modelo de costos, análisis de competencia, motor de pricing, simulación de demanda.

Qué buscamos (excluyentes)

Formación: Título de Ingeniería Civil (Matemática, Computación, Industrial, Eléctrica), Estadística, Economía cuantitativa o carrera afín con formación matemática sólida. Maestría en Investigación de Operaciones, Data Science, Estadística, o área cuantitativa afin (completada o en curso avanzado).

  • Experiencia: 2–4 años resolviendo problemas reales con datos — en consultoría, industria o investigación aplicada. No buscamos años de antigüedad; buscamos evidencia de haber enfrentado problemas complejos y haberlos resuelto.
  • Python avanzado: pandas, numpy, scipy, scikit-learn, statsmodels. Capaz de escribir código limpio, modular y reproducible — no solo notebooks.
  • Estadística y modelamiento: Regresión lineal/logística, modelos de elección discreta, tests de hipótesis, inferencia bayesiana. Que entienda por qué funciona, no solo cómo llamar la función.
  • Optimización: Experiencia formulando y resolviendo problemas de optimización (lineal, no lineal, combinatoria). Familiaridad con solvers (scipy.optimize, PuLP, Gurobi, OR-Tools, o similares).
  • SQL avanzado: Queries complejas con joins, window functions, CTEs, subqueries. Capaz de trabajar con bases de datos grandes de forma eficiente.
  • Capacidad de resolución de problemas complejos: Esto es crítico. Buscamos a alguien que ante un problema ambiguo sepa descomponerlo, formular hipótesis, diseñar un approach, y ejecutar — sin necesidad de que le digan cómo.
  • Propositivo y creativo: Que no espere instrucciones detalladas para avanzar. Que proponga soluciones, cuestione supuestos, y encuentre caminos cuando el problema no tiene una respuesta obvia.
  • Gestión de tiempos y recursos: Capacidad demostrada de manejar múltiples líneas de trabajo, priorizar, y cumplir plazos establecidos. Trabajamos con clientes que esperan entregables en fechas específicas.
  • Comunicación clara: Vas a trabajar con consultores senior y presentar resultados a clientes ejecutivos. Necesitas poder explicar qué hiciste, por qué importa, y qué recomiendas.
  • Inglés intermedio-avanzado: Lectura técnica fluida (papers, documentación, código). Comunicación básica con clientes internacionales.

Deseable (suma pero no excluye)

Experiencia en Revenue Management, pricing dinámico, o economía de la demanda. Modelos de elección discreta avanzados (nested logit, mixed logit, latent class). Experiencia con optimización bayesiana, algoritmos genéticos, o metaheurísticas. Docker, Git con flujo de PRs, CI/CD básico. Cloud (GCP o AWS) y/o BigQuery. Web scraping (requests, BeautifulSoup, Selenium). Streamlit, Plotly Dash, o herramientas de visualización interactiva. Publicaciones o tesis en áreas de optimización, OR, o Data Science aplicada.

Qué ofrecemos

Problemas reales de pricing y optimización en múltiples industrias — no es un rol de mantención de dashboards ni de reportes. Mentoría directa de data scientists senior con experiencia en aerolíneas globales y Revenue Management. Alto impacto desde el día 1: tus modelos y recomendaciones van directo a decisiones comerciales de los clientes.

Contrato indefinido post periodo de prueba (3 meses), con todos los beneficios legales (salud, AFP, vacaciones). 100% remoto, equipo distribuido, cultura de autonomía y entrega. Crecimiento rápido: si demuestras capacidad, en 6–12 meses puedes estar liderando proyectos completos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Airnguru pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
$$$ Full time
Business Analyst
  • Talana
  • Santiago (Hybrid)
Data Analysis SQL Data Visualization Process Modeling

En Talana, plataforma líder en la transformación de la gestión de Recursos Humanos a través de
tecnología, estamos en búsqueda de un/a Business Analyst que se una al equipo de Producto.

Tu misión será analizar y comprender las necesidades del negocio, usuarios y mercado para impulsar el desarrollo continuo de nuestra solución SaaS. Como pieza fundamental del equipo, deberás:

  • Actuar como nexo clave entre las áreas operativas, comerciales y de tecnología.
  • Asegurar que las funcionalidades del producto respondan de manera efectiva a las demandas del mercado.
  • Garantizar la generación de valor constante, tanto para nuestros clientes como para el crecimiento estratégico de la empresa.

Apply exclusively at getonbrd.com.

Funciones del cargo

  • Análisis de Datos: Recopilar, analizar e interpretar datos para generar insights accionables que guíen la estrategia del producto.
  • Gestión de Procesos: Documentar y mapear procesos actuales, identificando activamente oportunidades de mejora y optimización.
  • Definición de Soluciones: Definir y gestionar requerimientos funcionales detallados para el desarrollo de nuevas soluciones o módulos.
  • Relacionamiento con Stakeholders: Colaborar con los interesados clave (stakeholders) para entender a fondo las necesidades y prioridades del negocio.
  • Reportabilidad: Preparar reportes, presentaciones y dashboards de alto impacto para apoyar la toma de decisiones estratégicas.
  • Ciclo de Desarrollo: Participar activamente en el diseño, pruebas y validación de nuevas soluciones o mejoras tecnológicas.

Requerimientos del cargo

  • Formación Académica:
    • Profesionales titulados de Ingeniería Civil Industrial, Ingeniería Informática o carreras afines con enfoque en procesos y tecnología.
  • Conocimientos Requeridos:
    • Idiomas: Inglés nivel medio.
    • Herramientas de Productividad: Dominio avanzado de Office.
    • Modelamiento de Procesos: Nivel medio en el uso de herramientas como Draw.io, Bizagi u otras similares, con capacidad para diagramar flujos de proceso y explicar visualmente las características de los productos.
  • Conocimientos Deseables (Valorados):
    • Visualización de Datos: Nivel medio en Tableau, Looker o Power BI. Buscamos a alguien capaz de extraer insights de tableros existentes y con la autonomía para crear tableros propios mediante conexiones a bases de datos.
    • Análisis de Datos (SQL): Nivel medio. Habilidad para generar consultas independientes que permitan obtener información sin depender de tableros preestablecidos.

Condiciones

  • 💸 Ajuste de renta por UF cada 3 meses, sin tope
  • 🏝️ 5 Talana Days: te regalamos 5 días libres al año
  • 🏡 Trabajo híbrido
  • 🏥 Seguro complementario de salud y dental
  • 💰 Aguinaldos fiestas patrias y Navidad
  • 💻 Te pasamos todos los implementos de trabajo
  • 😎 Dress Code 100% flexible
  • 👨🏻‍🍼 Postnatal paternal extendido
  • 🤩 Muchas sorpresas más!!

"Todas las contrataciones están sujetas a la ley 21015. En Talana creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas".

Partially remote You can work from your home some days a week.
Health coverage Talana pays or copays health insurance for employees.
Computer provided Talana provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Talana offers beverages and snacks for free consumption.
$$$ Full time
Arquitecto de Datos
  • Factor IT
  • Santiago (Hybrid)
SQL BigQuery CI/CD Cloud Architecture
En Factor IT impulsamos la transformación digital con foco en Data & Analytics, IA, automatización y consultoría estratégica. Buscamos un/una Arquitecto(a) de Datos para integrarse a proyectos regionales con impacto real en grandes empresas, incluyendo el sector financiero. En este rol, contribuiremos al diseño y evolución de plataformas de datos sobre Google Cloud, asegurando escalabilidad, confiabilidad y gobernanza. El objetivo es habilitar analítica avanzada y consumo eficiente de datos para distintos equipos de negocio, integrando prácticas modernas de modelado, orquestación y gobierno a lo largo del ciclo de vida de la información.

Find this vacancy on Get on Board.

Funciones

Como Arquitecto(a) de Datos en Factor IT, nuestro objetivo es diseñar y estandarizar soluciones de datos en Google Cloud que permitan transformar datos en decisiones confiables y oportunas. Sus principales responsabilidades serán:
  • Diseñar la arquitectura de datos end-to-end considerando ingestión, almacenamiento, procesamiento, modelado y consumo.
  • Desarrollar y optimizar pipelines usando BigQuery y orquestadores como Airflow, además de automatizaciones con Dataflow cuando aplique.
  • Implementar y mantener modelado de datos (por ejemplo, capas analíticas y/o modelos dimensionales) asegurando performance y consistencia semántica.
  • Crear y mantener automatizaciones con dbt, definiendo transformaciones, pruebas y documentación de datos.
  • Gestionar la gobernanza de datos: estándares, accesos, calidad, linaje y buenas prácticas para el uso responsable de la información.
  • Promover patrones de ingeniería (CI/CD, versionado, pruebas y monitoreo) para asegurar estabilidad operativa en ambientes productivos.
  • Coordinar con equipos de negocio y técnicos para traducir requerimientos a soluciones escalables y medibles.

Requisitos y experiencia

Buscamos un/una Arquitecto(a) de Datos con experiencia sólida para liderar el diseño y la evolución de soluciones modernas de datos en entornos cloud. Necesitamos que tengas un nivel avanzado de SQL y que puedas aplicar ese conocimiento para optimizar rendimiento, asegurar calidad y resolver problemas complejos.
Requisitos excluyentes
  • SQL avanzado.
  • BigQuery.
  • Airflow, dbt y Dataflow.
  • Modelado de datos.
  • Gobierno de datos.
Experiencia esperada
  • Participación en la construcción y/o mejora de plataformas de datos orientadas a analítica y toma de decisiones.
  • Capacidad para definir estándares y guías de ingeniería para equipos que consumen y desarrollan sobre la plataforma.
  • Experiencia trabajando con prácticas de calidad de datos, estandarización y controles de acceso.
Competencias y habilidades clave
  • Enfoque analítico y mentalidad de mejora continua.
  • Comunicación clara para alinear stakeholders técnicos y de negocio.
  • Proactividad para anticipar riesgos (performance, costos, calidad, disponibilidad) y proponer mitigaciones.
  • Orientación al trabajo colaborativo y a la transferencia de conocimiento dentro del equipo.
En Factor IT valoramos una cultura basada en la conversación y el entendimiento profundo de los requerimientos del negocio. Por eso, buscamos a alguien que pueda traducir necesidades reales en soluciones técnicas robustas, escalables y gobernables.

Deseable

  • Certificación GCP Data Engineer.
  • Experiencia adicional con diseño de arquitecturas de datos escalables y optimización de costos en BigQuery.
  • Conocimiento en patrones de gobierno de datos (catálogo/metadata, linaje, políticas de acceso) y prácticas de calidad medibles.
  • Experiencia liderando iniciativas end-to-end (desde la definición de arquitectura hasta la puesta en producción y el soporte evolutivo).

Beneficios

Ofrecemos modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre la vida profesional y personal.
Además, en Factor IT contamos con un ambiente colaborativo, dinámico y con tecnologías de última generación que impulsan el crecimiento profesional, la innovación y el aprendizaje continuo.
Tu paquete salarial será competitivo y acorde a la experiencia y perfil, sumado a una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo. Trabajarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero.
Si te interesa construir soluciones de datos con alto impacto, únete a Factor IT y sé parte de un equipo que transforma el futuro de la tecnología.

$$$ Full time
Ingeniero de Datos
  • Factor IT
  • Santiago (Hybrid)
Python SQL BigQuery Docker
En Factor IT trabajamos para impulsar la transformación digital en grandes empresas de la región, con foco en Data & Analytics, automatización e inteligencia artificial. Dentro de nuestros proyectos, participamos en iniciativas que construyen y evolucionan plataformas de datos sobre Google Cloud (GCP), integrando servicios, pipelines y automatización para habilitar analítica avanzada y toma de decisiones basada en datos. Te unirás a un equipo que diseña soluciones robustas y escalables, con tecnologías modernas, alto expertise técnico y una cultura de colaboración y aprendizaje continuo.

This posting is original from the Get on Board platform.

Ingeniero de Datos

Como Ingeniero de Datos, nuestro objetivo es diseñar, construir y mantener pipelines de datos confiables y escalables en entornos de GCP, asegurando que los datos fluyan correctamente desde las fuentes hasta los modelos y capacidades analíticas.
Entre tus responsabilidades:
  • Desarrollar y optimizar consultas SQL avanzadas (PostgreSQL, MySQL).
  • Implementar procesos ETL/ELT usando Airflow, dbt y servicios de orquestación/ingesta como Dataflow y Pub/Sub.
  • Programar en Python para automatizar transformaciones e integraciones.
  • Trabajar con servicios y prácticas de GCP para construir soluciones mantenibles.
  • Desplegar y gestionar componentes mediante Docker y Kubernetes, garantizando robustez y escalabilidad.
Nos enfocamos en colaborar estrechamente con el equipo para entender requerimientos del negocio, proponer mejoras y asegurar calidad, eficiencia y confiabilidad en todo el ciclo de vida de la plataforma de datos.

Requisitos excluyentes

Buscamos un Ingeniero de Datos con experiencia práctica para integrarse a proyectos regionales y con impacto real en la transformación tecnológica, especialmente en el sector financiero.
Requisitos excluyentes:
  • SQL avanzado (PostgreSQL, MySQL).
  • BigQuery.
  • ETL/ELT: Airflow, dbt, Dataflow, Pub/Sub.
  • Python.
  • Experiencia en GCP.
  • Docker y Kubernetes.
Además, valoramos:
  • Capacidad para analizar problemas, depurar y mejorar pipelines existentes.
  • Orientación a la calidad y a la confiabilidad de los datos.
  • Buena comunicación y trabajo colaborativo para alinear soluciones con necesidades del negocio.
  • Mentalidad de aprendizaje continuo y adaptación a tecnologías emergentes.
Nos importa que seas proactivo, que puedas proponer mejoras y que mantengas un enfoque responsable en la operación y evolución de la plataforma de datos.

Deseable

Sumará puntos si cuentas con:
  • Streaming (Kafka, Flink).
  • Java o Scala.
  • Experiencia con herramientas BI (Looker, Power BI, Tableau).
Estas habilidades nos ayudan a ampliar la capacidad de análisis, habilitar casos en tiempo real y facilitar la integración con productos y consumo de datos.
Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal.
Vas a formar parte de un ambiente colaborativo, dinámico y con tecnologías de última generación que impulsan el crecimiento profesional y la innovación tecnológica.
Contarás con un paquete salarial competitivo, acorde a la experiencia y perfil, e integrado a una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo.
Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve la innovación y el desarrollo profesional continuo.

$$$ Full time
Data Engineer
  • WiTi
  • Santiago (Hybrid)
Python SQL ETL Automation

WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.

Buscamos un/a Ingeniero/a de Datos para integrarse a un proyecto estratégico en uno de los grupos automotrices líderes del país, con presencia nacional en la comercialización de vehículos livianos y comerciales, y una infraestructura de datos en plena etapa de modernización y escalamiento.

Serás responsable de diseñar, implementar y documentar procesos de carga, transformación y migración de grandes volúmenes de datos en un entorno AWS.

Trabajarás en un contexto enterprise donde la calidad, la trazabilidad y la reproducibilidad de los resultados son fundamentales, colaborando con equipos técnicos y de negocio para asegurar que los datos sean confiables, escalables y mantenibles.

© Get on Board.

Responsabilidades Clave

  • Diseñar un enfoque repetible para la carga de grandes volúmenes de datos, estandarizando reglas y patrones de conversión.
  • Participar en automatizaciones de procesos mediante scripts, reglas de validación, templates y pipelines.
  • Implementar y mantener procesos ETL/ELT en AWS, integrándose con el stack del cliente en fuentes, cargas, transformaciones y monitoreo.
  • Documentar reglas de negocio, decisiones técnicas y casos borde para asegurar que los procesos sean mantenibles y escalables.

Requisitos Excluyentes

  • SQL avanzado: PL/SQL, queries complejas, optimización, joins pesados, window functions, CTEs y lectura de planes de ejecución.
  • Experiencia con Amazon Redshift: escritura de SQL, performance y buenas prácticas.
  • Conocimiento del mundo ETL/ELT en AWS (las herramientas específicas pueden variar según el stack).
  • Experiencia trabajando en contextos enterprise con foco en calidad, trazabilidad y resultados reproducibles.
  • Disponibilidad para asistir presencialmente 3 o 4 veces por semana a oficinas ubicadas en Panamericana altura de Lampa

Requisitos Deseables

  • Experiencia en automatización de migraciones: reglas de conversión, validaciones automáticas y pipelines de QA.
  • Conocimientos de Python u otro lenguaje de scripting para apoyar automatización y controles.
  • Conocimientos de AWS QuickSight.
  • Experiencia con gobierno de datos y buenas prácticas: naming conventions, documentación y data quality checks.

Beneficios

En WiTi promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Data Analysis Excel SQL

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

Apply to this job from Get on Board.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&amp;M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Ingeniero/a de Datos
  • WiTi
  • Santiago (Hybrid)
Python SQL ETL AWS

WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.

Buscamos un/a Ingeniero/a de Datos para integrarse a un proyecto estratégico en uno de los grupos de distribución automotriz más importantes del país, con operaciones a nivel nacional y una infraestructura de datos en plena etapa de transformación y modernización.

Serás responsable de diseñar, implementar y documentar procesos de carga, transformación y migración de grandes volúmenes de datos en un entorno AWS. Trabajarás en un contexto enterprise donde la calidad, la trazabilidad y la reproducibilidad de los resultados son fundamentales, colaborando con equipos técnicos y de negocio para asegurar que los datos sean confiables, escalables y mantenibles.

Send CV through getonbrd.com.

Responsabilidades Clave

  • Diseñar un enfoque repetible para la carga de grandes volúmenes de datos, estandarizando reglas y patrones de conversión.
  • Participar en automatizaciones de procesos mediante scripts, reglas de validación, templates y pipelines.
  • Implementar y mantener procesos ETL/ELT en AWS, integrándose con el stack del cliente en fuentes, cargas, transformaciones y monitoreo.
  • Documentar reglas de negocio, decisiones técnicas y casos borde para asegurar que los procesos sean mantenibles y escalables.

Requisitos Excluyentes

  • SQL avanzado: PL/SQL, queries complejas, optimización, joins pesados, window functions, CTEs y lectura de planes de ejecución.
  • Experiencia con Amazon Redshift: escritura de SQL, performance y buenas prácticas.
  • Conocimiento del mundo ETL/ELT en AWS (las herramientas específicas pueden variar según el stack).
  • Experiencia trabajando en contextos enterprise con foco en calidad, trazabilidad y resultados reproducibles.
  • Disponibilidad para asistir presencialmente 3 o 4 veces por semana a oficinas ubicadas en Panamericana altura de Lampa

Requisitos Deseables

  • Experiencia en automatización de migraciones: reglas de conversión, validaciones automáticas y pipelines de QA.
  • Conocimientos de Python u otro lenguaje de scripting para apoyar automatización y controles.
  • Conocimientos de AWS QuickSight.
  • Experiencia con gobierno de datos y buenas prácticas: naming conventions, documentación y data quality checks.

Beneficios

En WiTi promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
People Analytics Consultant
  • Rankmi
  • Santiago (Hybrid)
Data Analysis Excel SQL Business Intelligence
Buscamos a una persona que hoy esté trabajando en consultoría de RRHH / People Analytics / HR Strategy o en un equipo interno de HR con foco analítico, que tenga experiencia asesorando a líderes o clientes y no solo ejecutando procesos.
Misión del cargo
  • Actuar como la contraparte estratégica y partner confiable de los clientes en la gestión de personas, combinando expertise en RRHH con capacidad analítica para transformar datos en decisiones de alto impacto. Su propósito es diseñar procesos, guiar implementaciones y asesorar en la interpretación de resultados, equilibrando la rigurosidad técnica con la sensibilidad organizacional para mejorar la toma de decisiones.

Applications: getonbrd.com.

Funciones del cargo

  • Acompañar a los clientes en todo el ciclo de gestión (desempeño, clima, talento, compensaciones), diseñando procesos robustos alineados con las mejores prácticas de la industria.
  • Interactuar directamente con stakeholders senior para entender sus problemas de negocio y convertirlos en soluciones analíticas y metodológicas concretas.
  • Analizar resultados de implementaciones utilizando herramientas cuantitativas y criterio organizacional para generar narrativas que expliquen el "qué", el "por qué" y el "qué hacer".
  • Liderar presentaciones de resultados frente a comités o gerencias, orientando la discusión hacia la toma de decisiones informadas y la mejora de la operación.
  • Identificar oportunidades dentro de los clientes actuales para profundizar el uso de analítica de personas y maximizar el valor entregado por Rankmi.
  • Colaborar con los equipos de Producto, Operaciones y Comercial de Rankmi aportando expertise en datos de personas, además de generar contenido y estudios para posicionar a la empresa como referente.
  • Actuar de forma proactiva proponiendo mejoras y empujando el uso de People Analytics como una herramienta de gestión estratégica dentro de las organizaciones.

Requerimientos del cargo

  • Título profesional en Psicología, Ingeniería Comercial, o carreras afines con especialización analítica.
  • Mínimo 5 años en People Analytics, consultoría en gestión de personas o roles de RRHH con exposición directa a clientes o gerencias.
  • Comprensión profunda de procesos de RRHH (clima, desempeño, compensaciones), pensamiento estructurado y capacidad de comunicación ejecutiva.
  • Manejo de Excel avanzado, BI o SQL (excluyente).

Opcionales

  • Uso recurrente y avanzado de herramientas de IA (Gemini, Claude, ChatGPT).

Condiciones

🤸 Work-Life Balance
  • Blended Working: Nuestro modelo de trabajo es híbrido en Chile, Perú y México. En el resto de los países, es 100% online.
  • Días de vacaciones adicionales para desconectarte y recargar energías.
  • Día libre para mudanza.
  • Flexibilidad en horarios laborales. Somos autónomos, sabemos que nuestros compañeros y clientes confían en que seremos responsables.
💖 We Care
  • Medio día libre en tu cumpleaños, en el de tus hijos/as, y/o cónyuge.
  • Permiso de postnatal adicional para padres.
  • Bonos por diversas ocasiones: programa de referidos, matrimonio/unión civil, nacimiento de hijo/as.
  • Porque nuestras mascotas también son parte de la familia, te ofrecemos un día libre en caso de pérdida.
✨ Rankmi Vibes
  • Dress code relajado.
  • Trabajo con metodologías ágiles y equipos multidisciplinarios.
  • Ambiente multicultural.

Partially remote You can work from your home some days a week.
Health coverage Rankmi pays or copays health insurance for employees.
Computer provided Rankmi provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Rankmi gives you paid vacations over the legal minimum.
Gross salary $2000 - 2200 Full time
Python SQL Spark CI/CD
Interfell conecta empresas con el talento IT de LATAM, gestionando procesos de Staffing y Recruiting para impulsar el trabajo remoto y la transformación digital. Nuestro objetivo es potenciar la inclusión y el equilibrio vida-trabajo, brindando una experiencia de contratación integral y de alta calidad. Esta posición forma parte de un equipo enfocado en generar oportunidades de ventas y vínculos con potenciales clientes, contribuyendo al crecimiento de nuestras operaciones en la región.
Como Data Architect, serás responsable de diseñar y definir la arquitectura del Data Lake multitenant en AWS, garantizando escalabilidad, seguridad, gobernanza y capacidad de crecimiento para integrar múltiples fuentes de datos.
Este rol es clave para establecer estándares técnicos que permitan la integración consistente de nuevas fuentes de datos, asegurando calidad, trazabilidad y eficiencia en el procesamiento.
Contrato por 2 meses

Send CV through Get on Board.

Job functions


Diseño de arquitectura multitenant

  • Diseñar la arquitectura del Data Lake en AWS considerando múltiples clientes o dominios de datos
  • Definir esquemas de particionamiento, namespaces y control de acceso por tenant
  • Establecer las capas del Data Lake (RAW, PROCESSED, CURATED)
  • Diseñar estrategias de organización y particionamiento de datos

Definición de estándares CI/CD

  • Diseñar el framework de CI/CD para pipelines de datos
  • Definir procesos de despliegue automatizado
  • Establecer la estructura de repositorios y versionamiento

Estrategia de ingestión de datos

  • Definir estrategias de ingestión para APIs, bases de datos y streaming
  • Diseñar patrones de integración usando AWS Glue, DMS y Kafka

Gobernanza y calidad de datos

  • Establecer estándares de calidad (evitar nulos, duplicados, asegurar llaves primarias)
  • Definir políticas de catalogación, metadata y control de acceso

Optimización y escalabilidad

  • Diseñar la arquitectura considerando crecimiento en volumen y fuentes de datos
  • Definir estrategias de optimización de costos en AWS

Acompañamiento técnico

  • Guiar técnicamente a Data Engineers y DevOps durante la implementación
  • Validar pipelines y decisiones de arquitectura

Qualifications and requirements


Formación y experiencia

  • Ingeniería de Sistemas, Informática o carreras afines
  • +4 años diseñando arquitecturas de datos
  • Experiencia en arquitecturas Data Lake, Medallion y Multitenant
  • Experiencia definiendo reglas de transformación entre capas
  • Experiencia estableciendo estándares de ingestión y transformación

Habilidades técnicas

  • AWS (S3, Glue, DMS, Kafka, IAM)
  • Modelado de datos
  • Spark, SQL y Python
  • Terraform y Databricks
  • Arquitecturas multitenant
  • CI/CD pipelines
  • Gobernanza de datos
  • Optimización de costos en AWS

Habilidades blandas

  • Capacidad de diseño estratégico
  • Comunicación con stakeholders técnicos y de negocio
  • Pensamiento analítico

Conditions

Oportunidad de crecimiento con un equipo multinivel
Vacaciones y feriados
Flexibilidad y autonomía
Pago USD
Trabajo remoto - Latam

Fully remote You can work from anywhere in the world.
$$$ Full time
Data Scientist / Machine Learning Engineer
  • CyD Tecnología
  • Santiago (Hybrid)
Python SQL BigQuery Machine Learning
En CyD Tecnología desarrollamos plataformas web a medida que transforman procesos complejos en soluciones simples y eficientes. Buscamos un Data Scientist / Machine Learning Engineer para liderar la construcción de modelos predictivos orientados a la planificación de ventas y abastecimiento (S&OP). El rol implica procesar y analizar datos desde BigQuery, desarrollar modelos multivariables en Python y generar outputs analíticos para la toma de decisiones. Participarás en la construcción, prueba y ajuste de modelos de machine learning, documentar resultados y generar recomendaciones basadas en datos para optimizar procesos comerciales y de la cadena de suministro en entornos de Google Cloud Platform. Colaborarás estrechamente con equipos de ventas, operaciones y producto, dentro de un entorno ágil para entregar soluciones escalables y orientadas a impacto.

Apply to this job opportunity at getonbrd.com.

Funciones clave

  • Procesar y transformar grandes volúmenes de datos en BigQuery para soportar modelos predictivos y dashboards operativos.
  • Desarrollar, evaluar y mantener modelos multivariables (regresión, clasificación, series temporales) en Python, con énfasis en S&OP y optimización de inventarios.
  • Realizar análisis de drivers de negocio y extracción de insights accionables para mejorar ventas y planificación de la cadena de suministro.
  • Colaborar con equipos de producto, ventas y logística para convertir resultados en recomendaciones concretas y acciones operativas.
  • Documentar modelos, parámetros, supuestos y resultados; generar reportes y presentaciones para stakeholders.
  • Implementar prácticas de ML Ops, monitoreo de modelos y actualización continua en Google Cloud Platform.

Requisitos y perfil deseado

Buscamos un perfil con solides técnicas en ciencia de datos e ingeniería de ML, capaz de traducir datos en decisiones estratégicas para ventas y abastecimiento. Debes trabajar de forma autónoma, comunicar claramente resultados y colaborar en un entorno ágil. Se valorará experiencia en S&OP, análisis de cadenas de suministro y stack de Google Cloud Platform.
Competencias técnicas:
  • Python (pandas, NumPy, scikit-learn, statsmodels) y SQL avanzado.
  • Experiencia con BigQuery y el ecosistema GCP (BigQuery ML, Dataflow/Beam, Cloud Storage).
  • Conocimiento en técnicas de ML para series temporales, forecasting, regresión y clasificación.
  • Habilidad para explicar resultados complejos a públicos no técnicos y generar recomendaciones accionables.
  • Experiencia con herramientas de visualización y storytelling de datos.
  • Metodologías ágiles y capacidad de trabajar en equipo multifuncional.

Competencias académicas:

  • Ingeniero Civil Informático, Industrial o Afín.

Deseables

Se valorará experiencia específica en S&OP, optimización de inventarios y operaciones de compra/planning. Conocimiento de ML Ops, Docker/Kubernetes, TensorFlow o PyTorch y familiaridad con estructuras de datos ERP.

Beneficios

Ofrecemos seguro complementario de salud y jornada híbrida de trabajo. En CyD Tecnología promovemos un entorno de trabajo flexible, oportunidades de desarrollo profesional y proyectos con impacto real en la transformación digital de clientes. Contamos con una cultura ágil, equipo colaborativo y horarios compatibles con productividad. Únete para crecer junto a un equipo líder en soluciones web y móviles a medida.

$$$ Full time
Python SQL Power BI AWS Lambda
En BC Tecnología somos una consultora de TI que crea equipos ágiles y participa en proyectos de Servicios IT para clientes de los sectores financiero, seguros, retail y gobierno. Por cerca de 6 años diseñamos e implementamos soluciones orientadas a las necesidades del cliente, con foco en metodologías ágiles, cambio organizacional y desarrollo de productos. En este proyecto buscamos un Ingeniero de Datos Especialista para integrarse a un entorno de analítica y Big Data, asegurando la disponibilidad, accesibilidad y confiabilidad de la infraestructura de datos para habilitar consumo por parte de usuarios y aplicaciones analíticas. El trabajo se realizará en modalidad remota y con continuidad por proyecto.

Apply exclusively at getonbrd.com.

⚙️ Funciones principales

En este rol, nosotros nos enfocamos en asegurar que los datos estén disponibles, sean accesibles y aporten valor a los equipos de negocio y analítica.
  • Diseñar y disponibilizar datos de forma accesible para usuarios, con foco en entornos Big Data.
  • Desarrollar soluciones basadas en infraestructura de datos para aplicaciones analíticas.
  • Analizar y proponer mejoras continuas en procesos, sistemas y tecnologías.
  • Ejecutar pruebas (testing) para detectar alertas y aplicar correctivos.
  • Participar en levantamientos considerando aspectos de negocio, organización, tecnología e infraestructura.

Experiencia y conocimientos técnicos

Buscamos un(a) Ingeniero de Datos Especialista con experiencia comprobable en el ciclo de vida de soluciones de datos, desde el diseño y la ingeniería hasta la validación y mejora continua.
  • Experiencia: mínimo 4 años en el área de datos o especialidad relacionada.
  • Gestión de datos: experiencia en gestión de bases de datos y procesamiento de datos.
  • Arquitecturas Big Data: conocimiento en arquitecturas de Big Data / clusters.
  • Lenguajes y SQL: manejo de lenguajes de programación y SQL.
  • AWS: experiencia con Glue, Lambda, Step Functions, Redshift, Lake Formation, Athena y manejo de políticas IAM.
  • Reporting/analytics: manejo de herramientas de reportería y análisis de datos.
  • Visualización: experiencia en creación de dashboards e indicadores con Power BI.

Beneficios

En BC Tecnología promovemos un ambiente colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional mediante la integración y el intercambio de conocimientos entre equipos. Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional. El trabajo se realiza en modalidad remota, con contrato por proyecto con continuidad.

$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python SQL Cloud Computing Data Engineering

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly on the original site at Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Excel SQL ETL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Applications are only received at getonbrd.com.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
$$$ Full time
Data Analyst
  • HF Solutions
  • Santiago (Hybrid)
Python Data Analysis SQL DevOps

En HF Solutions estamos buscando un(a) Data Analyst para integrarse a una importante empresa del rubro de medios de pagos digitales, un sector dinámico que está transformando la forma en que las personas y empresas interactúan día a día.

Serás parte de un equipo que impulsa soluciones tecnológicas de alto impacto, en una compañía que combina innovación, desafío técnico y aprendizaje constante. Aquí tendrás la oportunidad de involucrarte en procesos críticos, entender el negocio desde dentro y aportar con análisis que realmente hacen la diferencia.

Si te motiva trabajar con datos, aprender en entornos exigentes y ser parte de una industria en plena evolución, este desafío es para ti.

This job offer is available on Get on Board.

Funciones del cargo

Buscamos un(a) Analista de Datos para integrarse al equipo de SRE, con foco en monitoreo, análisis de datos y soporte a procesos productivos en un entorno de medios de pago digitales. Este rol combina habilidades analíticas con una fuerte base técnica, participando activamente en despliegues, QA, observabilidad y soporte a producción.

Trabajarás estrechamente con equipos comerciales y técnicos, contribuyendo a la estabilidad, calidad y mejora continua de nuestras plataformas.

Principales responsabilidades

  • Monitoreo de sistemas y plataformas mediante consultas avanzadas en SQL.
  • Análisis de datos para detección de incidentes, mejoras operacionales y toma de decisiones.
  • Construcción y mantenimiento de dashboards de observabilidad.
  • Participación en procesos de despliegue y pasos a producción.
  • Ejecución de QA técnico en soluciones desarrolladas.
  • Colaboración con áreas comerciales para levantar y entender requerimientos.
  • Apoyo en iniciativas de mejora continua dentro del equipo SRE.

Requerimientos del cargo

  • Excluyente:
    • Dominio sólido de SQL (principal foco del cargo)
  • Deseable:
  • Manejo o interés en lenguajes como Python, TypeScript o C
  • Conocimientos en AWS
  • Interés en observabilidad, monitoreo, SRE y prácticas DevOps

Condiciones

- Seguro Complementario de Salud y Dental
- Jornada Lun - Jue 9:00 - 18:00 hrs, Vie - 17:00 hrs
- Modalidad Híbrida: 3 días a la semana presencial
- Ubicación: Las Condes, Santiago.
- 2 bonos según resultados.
- Reajuste anual por IPC.

Health coverage HF Solutions pays or copays health insurance for employees.
Computer provided HF Solutions provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Cloud Data Engineer
  • WiTi
  • Santiago (Hybrid)
Python SQL ETL CI/CD
WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.
Este rol forma parte de un equipo responsable de modernizar un ecosistema analítico legado hacia una arquitectura cloud en AWS, con foco en estandarización, performance y escalabilidad. El proyecto implica migrar y optimizar la lógica de bases de datos preexistentes hacia Amazon Redshift, contribuyendo a la automatización del proceso y garantizando la calidad, consistencia y rendimiento de los datos.

Apply directly on Get on Board.

Responsabilidades Clave

  • Analizar y comprender procesos analíticos existentes (en SQL u otros entornos heredados) para reestructurarlos sobre Amazon Redshift.
  • Convertir y optimizar lógica SQL hacia estándares compatibles con Redshift, aplicando buenas prácticas de modelado y rendimiento.
  • Diseñar y documentar enfoques repetibles para la migración de consultas y estructuras de datos (catálogo de reglas, patrones de transformación).
  • Colaborar en tareas de automatización de migraciones (scripts en Python, templates SQL, validaciones automáticas, pipelines CI/CD).
  • Mantener y mejorar procesos ETL/ELT en AWS, apoyándose en servicios como Glue, Lambda, Step Functions y S3.
  • Validar resultados de conversión mediante controles de reconciliación y pruebas de calidad de datos.
  • Documentar decisiones técnicas, reglas de conversión y excepciones para asegurar trazabilidad y mantenibilidad del proceso.

Requisitos Excluyentes

  • 3+ años de experiencia como Ingeniero de Datos o rol equivalente.
  • Dominio avanzado de SQL estándar (uniones complejas, funciones de ventana, CTE, tuning, lectura de planes de ejecución).
  • Experiencia práctica con Amazon Redshift (particionamiento, distribución, optimización de consultas y almacenamiento).
  • Conocimientos sólidos de procesos ETL/ELT en entornos cloud, idealmente AWS.
  • Experiencia en proyectos orientados a migración o modernización de plataformas de datos.
  • Conocimientos en Python para scripting y automatización de validaciones.
  • Nivel intermedio o superior de inglés técnico.

Deseables

  • Experiencia con DataOps, manejo de pipelines (Airflow, Step Functions o similares).
  • Familiaridad con herramientas de Infraestructura como Código (Terraform, CloudFormation).
  • Experiencia en gobierno de datos, nomenclaturas y validaciones automáticas de calidad.
  • Capacidad de documentar y estandarizar procesos en contextos corporativos.

Beneficios

En WiTi fomentamos una cultura de aprendizaje continuo, colaboración y crecimiento profesional. Entre los beneficios se pueden incluir:
  • Plan de carrera y oportunidades de desarrollo profesional.
  • Acceso a certificaciones y formación continua.
  • Cursos de idiomas y acceso a biblioteca digital para tu desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Databricks Administrator
  • Improving South America
Python SQL Automation Terraform
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.

Contribuirás a la construcción y mantenimiento de soluciones de datos que soportan analítica, reporting y la toma de decisiones operativas en toda la organización.

Trabajando de cerca con data engineers y otros perfiles tecnológicos, apoyarás las plataformas que permiten a los equipos transformar datos en insights relevantes.

En este rol, te enfocarás en la gestión de plataformas de datos y en su rendimiento general. Colaborarás con equipos multifuncionales para entender requerimientos de datos, mejorar sistemas existentes y entregar soluciones que respondan a necesidades del negocio.

Esta es una excelente oportunidad para seguir desarrollando tus habilidades en data engineering mientras contribuyes a impulsar decisiones basadas en datos a escala

Apply at the original job on getonbrd.com.

Job functions

  • Monitorear y mantener la salud, disponibilidad y rendimiento de instancias de Snowflake y Databricks, utilizando herramientas nativas y estándares internos
  • Revisar periódicamente métricas de uso, logs del sistema y consumo de recursos para detectar y abordar anomalías
  • Asegurar la ejecución de actualizaciones, parches y respaldos conforme a políticas y estándares definidos
  • Investigar incidentes y degradaciones del servicio, gestionando su resolución o escalamiento para minimizar el impacto en el negocio
  • Administrar el ciclo completo de accesos: provisión, desprovisión y asignación de roles en Snowflake y Databricks, garantizando cumplimiento de estándares de seguridad
  • Implementar y auditar controles de acceso a datos, trabajando junto a equipos de seguridad (InfoSec) y líderes de plataforma
  • Mantener actualizados grupos, permisos y accesos según cambios organizacionales o necesidades de proyectos
  • Actuar como punto principal de contacto para soporte técnico e incidentes relacionados con las plataformas
  • Asesorar a los equipos en buenas prácticas de uso eficiente y seguro de las plataformas (optimización de costos, data sharing, orden de workspaces)
  • Mantener documentación clara y actualizada de la plataforma (onboarding, FAQs, guías de troubleshooting)

Qualifications and requirements

  • Título universitario en Ciencias de la Computación, Sistemas de Información o carrera afín, o experiencia equivalente
  • +2 años de experiencia administrando plataformas Snowflake y Databricks (o al menos una con conocimiento sólido de la otra)
  • Dominio de SQL, scripting (Python o Shell) y ecosistemas de datos en la nube (AWS, Azure o GCP)
  • Conocimiento en herramientas de automatización (Terraform, AWS CloudFormation, Databricks CLI/API, entre otros)
  • Experiencia gestionando usuarios, roles y controles de seguridad en entornos regulados
  • Capacidad para diagnosticar y resolver problemas de plataforma
  • Experiencia con herramientas de monitoreo, logging y alertas
  • Inglés intermedio -avanzado o avanzado (indispensable debido a que se realizan reuniones con equipos internacionales)

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
$$$ Full time
Data Engineer – SQL Migration
  • WiTi
  • Santiago (Hybrid)
SQL ETL Automation AWS

En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS. El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.

Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Apply only from getonbrd.com.

Responsabilidades Clave

  • Analizar programas y scripts existentes con lógica SQL no estándar, incluyendo estructuras de procesamiento propias de entornos legacy (jobs, macros, librerías).
  • Convertir y reescribir lógica SQL legada a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre el sistema origen y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Requisitos Excluyentes

  • SQL avanzado: queries complejas, optimización de performance, joins pesados, window functions/CTEs, lectura e interpretación de planes de ejecución.
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
  • Experiencia en migraciones desde tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery) y automatización de migraciones.

Requisitos Deseables

  • Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses y participación en automatización de migraciones.
  • Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:

  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Actuario Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Data Analysis Excel SQL SAS

Hoy BNP Paribas Cardif busca un Actuario Senior responsable de desarrollar y mejorar modelos de evaluación que permitan realizar análisis de estudios técnico-financieros orientados a la toma de decisiones por parte de los equipos de Pricing y Negocios. Serás responsable de presentar reportes que permitan monitorear las variables críticas de cada negocio con el fin de mitigar el riesgo de no alcanzar los resultados esperados.

Find this job and more on Get on Board.

Funciones del cargo

  • Analizar la rentabilidad de la cartera de productos con el nivel de detalle requerido, entregar a la Gerencia General y Comercial las herramientas y los informes para tomar decisiones.
  • Garantizar el seguimiento del riesgo (estudios, desarrollo de KPIs, metodologías de proyección de resultados).
  • Facilitar la gestión del equipo de pricing y negocios, apoyando la relación con el cliente, a través del seguimiento de su catera.
  • Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.
  • Desarrollar y mejorar los modelos de evaluación y herramientas de cálculo.
  • Seguimiento, estudio y control de los riesgos que enfrenta cada cartera de socios.
  • Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.
  • Buscar la mejora continua los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo.

Requerimientos del cargo

a. Formación

Profesional universitario, título en Ingeniería Civil Industrial, Actuariado, Estadística, Matemática o afines.

b. Experiencia Requerida

Tipo de experiencia: Experiencia previa en áreas de Actuariado, ya sea en cálculo de reservas, tarificación, modelación estadística del riesgo, monitoreo del riesgo o similares.

Tiempo: mínimo 3 años

Conocimientos y Habilidades

  • Manejo de MS Office, nivel avanzado, especialmente Excel
  • Manejo en bases de datos y programación en SQL y SAS.
  • Manejo de inglés intermedio
  • Alta capacidad de síntesis y análisis
  • Autonomía y autogestión
  • Proactividad

Condiciones

¿Cuáles son los beneficios y ventajas de trabajar con nosotros?

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL ETL Spark
En BC Tecnología diseñamos equipos de trabajo ágiles para servicios IT, con foco en Infraestructura, Desarrollo de Software y Unidades de Negocio para clientes en Finanzas, Seguros, Retail y Gobierno. Nuestro objetivo es entregar soluciones de alto impacto mediante consultoría, desarrollo de proyectos, outsourcing y selección de personal.
Como parte de nuestro programa CRM Customer Services migramos y consolidamos datos a plataformas cloud (AWS) y Dynamics 365 Dataverse, garantizando integridad, calidad y disponibilidad de la información para operaciones y analítica. Participarás en iniciativas innovadoras con clientes de alto nivel, con enfoque en aprendizaje continuo y desarrollo técnico dentro de un entorno colaborativo y orientado al cliente. La modalidad híbrida permite combinar trabajo remoto con presencia en nuestras oficinas para fomentar colaboración y dinamismo.

This job is exclusive to getonbrd.com.

Funciones

  • Diseñar, desarrollar y ejecutar procesos de ingeniería de datos y migración requeridos por el programa CRM Customer Services, asegurando la integridad, calidad y disponibilidad de los datos en plataformas cloud.
  • Conocimientos técnicos: ingeniería de datos en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions); ETL/ELT para diseño y desarrollo de pipelines de datos; migración de datos entre sistemas legados y plataformas cloud; SQL avanzado y modelado de datos (dimensional, relacional).
  • Desarrollar pipelines en Python y Spark/PySpark, aplicar calidad de datos (validación, limpieza, reconciliación, profiling) y utilizar herramientas de orquestación (Airflow, Step Functions); control de versiones y CI/CD aplicado a datos.
  • Conocer Microsoft Dynamics 365 Dataverse y su modelo de datos; diseñar y ejecutar migraciones desde sistemas legados hacia plataformas cloud y Dynamics 365; documentar modelos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles, reportar avances y colaborar con QA para validación end-to-end; transferir conocimiento de datos al equipo y colaborar estrechamente con el Technical Lead en la arquitectura de datos del programa.

Requisitos y perfil

Buscamos un profesional con experiencia sólida en ingeniería de datos en entornos cloud, especialmente AWS, y en proyectos de migración de datos hacia soluciones modernas de nube y CRM. Debes dominar pipelines ETL/ELT, modelado de datos relacional y dimensional, y tener capacidad para trabajar en entornos dinámicos y colaborativos. Se valorará experiencia con Oracle/Siebel, Great Expectations o Deequ para calidad de datos, y conocimiento del sector Retail. Debes ser proactivo, orientado a resultados, con habilidades de comunicación para trabajar con equipos multidisciplinarios y stakeholders.
Requisitos mínimos: experiencia en AWS Data Analytics/Data Engineering; diseño y migración de datos entre sistemas; SQL avanzado; Python o Spark; experiencia con herramientas de orquestación; familiaridad con Dynamics 365 Dataverse; experiencia en entornos ágiles y capacidad para documentar procesos y modelos de datos. Deseable certificación AWS Data Analytics, experiencia en migración desde Oracle/Siebel y conocimiento de herramientas de calidad de datos. Se valora experiencia en Retail y en entornos de CRM.

Conocimientos Deseables

Certificación AWS Data Analytics o Data Engineering. Experiencia migrando datos desde Oracle/Siebel. Conocimiento en herramientas de calidad de datos como Great Expectations o Deequ. Experiencia en el sector Retail. Conocimiento adicional en DevOps de datos y metodologías ágiles. Habilidad para trabajar en equipos multiculturales y capacidad de explicar conceptos técnicos a audiencias no técnicas. Se valora experiencia en arquitectura de datos para CRM y en gestión de proyectos de migración complejos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Sr Data Engineer – CRM Customer Service
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL ETL Spark
BC Tecnología es una consultora de TI con experiencia en servicios IT, outsourcing y selección de profesionales. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con clientes en servicios financieros, seguros, retail y gobierno. Buscamos incorporar a nuestro equipo a un/a SR Data Engineer con fuerte enfoque en CRM y migración de datos para proyectos de CRM Customer Service, entre otros clientes de alto nivel. El rol forma parte de iniciativas de modernización de datos, migración a la nube y fortalecimiento de la gobernanza de datos para un programa orientado a soluciones de experiencia del cliente.

Apply to this job without intermediaries on Get on Board.

Funciones principales

  • Diseñar y desarrollar pipelines ETL/ELT para integración y migración de datos.
  • Ejecutar migración de datos desde sistemas legados hacia plataformas cloud y Dynamics 365.
  • Asegurar integridad, calidad y disponibilidad de los datos mediante validaciones y reconciliaciones.
  • Colaborar con el Technical Lead en la arquitectura de datos del programa.
  • Documentar modelos de datos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles y reportar avances del frente de datos.
  • Colaborar con QA en validación end-to-end de datos.
  • Transferir conocimientos de datos al equipo.

Descripción

Requerimos un/a profesional con al menos 4 años de experiencia en ingeniería de datos, con prioridad en entornos CRM y retail. El/la candidato/a será responsable de diseñar e implementar pipelines para extracción, transformación y carga de datos, así como gestionar migraciones complejas desde sistemas legados hacia entornos en la nube y Microsoft Dynamics 365 Dataverse. Se integrará a un equipo técnico colaborativo, participando en la definición de la arquitectura de datos, la aseguración de calidad y la entrega continua mediante prácticas CI/CD aplicadas a datos. Se valorará experiencia en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions), Airflow o Step Functions para orquestación, Python y Spark/PySpark, manejo de SQL avanzado, modelado dimensional y relacional, y conocimiento de Dynamics 365.
Buscamos proactividad, orientación a resultados y habilidades de comunicación para trabajar en un entorno ágil y multi-funcional, con foco en la entrega de valor al negocio y una cultura de mejora continua.

Requisitos deseables

Experiencia en migración de datos entre sistemas ERP/CRM a plataformas en la nube; familiaridad con governance de datos, reconciliaciones y validación de datos de extremo a extremo; experiencia con teams y stakeholders de negocio; certificaciones en AWS o Data & Cloud; capacidad de documentación clara y ordenada; conocimientos de Microsoft Dynamics 365 Dataverse. Se valorará experiencia en retail y servicios de CRM, y habilidad para trabajar en entornos regulados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1200 - 1800 Full time
Data Analyst (Azure + BI)
  • Asesoría y Gestión de Procesos S.A
SQL ETL Power BI Data governance
En Asesoría y Gestión de Procesos S.A. nos encontramos en un proceso de búsqueda de talento para un equipo de Data & Analytics orientado a impulsar la visibilidad operativa y estratégica de nuestros clientes, principalmente en los sectores automotriz e inmobiliario. El proyecto abarca el ciclo completo del dato: desde la ingesta y el modelado hasta la visualización y el monitoreo proactivo. Nuestro objetivo es transformar datos en insights accionables que impulsen decisiones de negocio, alinear KPIs con objetivos estratégicos y entregar dashboards y alertas confiables para equipos ejecutivos y operativos.
Trabajamos con Azure Data Factory, Data Lake y herramientas de BI como Power BI y Grafana para monitoreo en tiempo real. El rol se integra en una empresa con 12 años de experiencia, un portafolio de más de 120 clientes y una misión clara de acelerar y mejorar procesos mediante tecnología e innovación.

This job is published by getonbrd.com.

Funciones y responsabilidades

  • Entender el negocio y definir KPIs clave junto a stakeholders, documentando reglas de cálculo y asegurando que los indicadores sean accionables.
  • Diseñar y desarrollar pipelines ETL/ELT en Azure Data Factory, integrando diversas fuentes (bases de datos, APIs, archivos) y garantizando calidad de datos.
  • Modelar datos en esquemas adecuados y mantener Data Warehouse/Data Mart para consumo analítico eficiente.
  • Desarrollar dashboards interactivos en Power BI y Grafana, traduciendo complejidad analítica en visualizaciones claras y útiles para distintos perfiles.
  • Monitorear datos, definir alertas automáticas y notificaciones ante desviaciones, identificando anomalías y generando insights proactivos.
  • Colaborar con equipos de negocio e IT para garantizar disponibilidad, escalabilidad y seguridad de las soluciones de datos.
  • Participar en la definición de arquitectura de datos y buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Experiencia sólida en integraciones y análisis de datos con Azure Data Factory y servicios de Azure (Data Lake) y manejo avanzado de SQL.
  • Experiencia creando dashboards en Power BI y Grafana; conocimiento de modelamiento de datos (Data Warehouse, OLAP) y procesos ETL/ELT.
  • Capacidad para diseñar soluciones end-to-end: desde la definición de KPIs hasta la entrega de visualizaciones y alertas operativas.
  • Conocimientos en scripting y buenas prácticas de gobierno de datos, calidad y seguridad.
  • Habilidad para comunicar insights a audiencias no técnicas, pensamiento analítico y foco en impacto de negocio.
  • Experiencia previa en roles de BI/analítica y capacidad para trabajar de forma autónoma y colaborativa.

Competencias y habilidades deseables

Certificaciones en BI/Analytics y experiencia con proyectos en sectores automotriz. Se aprecia experiencia en entornos ágiles, gestión de stakeholders y capacidad para priorizar en entornos cambiantes.

Beneficios

En Asesoría y Gestión de Procesos S.A, ofrecemos un entorno laboral flexible y beneficios atractivos, como:
  • Tres tardes libres al año.
  • Vestimenta informal.
  • Dos días libres extra al año.
  • Día libre por tu cumpleaños.
  • Seguro complementario.
  • Y muchos otros beneficios.
¡Esperamos contar contigo en nuestro equipo!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Asesoría y Gestión de Procesos S.A pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal Asesoría y Gestión de Procesos S.A gives you paid vacations over the legal minimum.
Gross salary $3500 - 4000 Full time
SQL Power BI DAX Performance Tuning

Coderslab.io is looking to hire a Power BI Developer (Reporting & Analytics) to drive the design, development, and optimization of data visualization and reporting solutions across the organization.

We are seeking a highly analytical and detail-oriented Power BI & Reporting Expert to join our data team. In this role, you will be responsible for transforming raw data into actionable insights by designing, developing, and maintaining complex BI solutions. The ideal candidate is a master of data visualization and possesses the technical depth to optimize reporting performance across diverse data environments.

About the client and the project: the company delivers innovative technology solutions and provides opportunities for continuous learning under the guidance of experienced professionals and cutting-edge technologies.

Send CV through getonbrd.com.

Funciones del cargo

Dashboard Development: Design and implement high-end, interactive Power BI dashboards and reports that provide clear business value.

Data Modeling: Build and optimize robust data models (Star Schema/Snowflake) to ensure reporting accuracy and high performance.

DAX & Power Query: Write advanced DAX calculations and utilize Power Query (M language) for complex data transformation and business logic.

Reporting Strategy: Collaborate with stakeholders to define Key Performance Indicators (KPIs) and translate business requirements into technical specifications.

Performance Tuning: Monitor and optimize report performance, ensuring fast load times and efficient data refresh cycle

Requerimientos del cargo

  • Professional Experience: Proven track record as a Power BI Expert, Data Analyst, or in a similar reporting-focused role.
  • Technical Mastery: Advanced command of Power BI Desktop, Power BI Service, and DAX.
  • Language Proficiency: C1 English level (Advanced/Fluent) is mandatory, as you will be communicating with international stakeholders and documenting technical processes in English.
  • SQL Skills: Strong ability to write and optimize SQL queries for data extraction.
  • Analytical Mindset: Exceptional ability to interpret complex data sets and present findings in a visually compelling way.
  • Database Knowledge: Hands-on experience or familiarity with ClickHouse is highly valued.

Condiciones

Contractor and remote position
English C1

$$$ Full time
Data Governance Analyst
  • BC Tecnología
  • Santiago (Hybrid)
SQL Data governance Root Cause Analysis Data Quality
En BC Tecnología diseñamos soluciones y gestionamos servicios de TI para clientes en sectores financieros, seguros, retail y gobierno. Nuestro equipo de Data & Analytics impulsa proyectos de gobierno de datos en un entorno de consultoría orientado a la entrega ágil y a la mejora continua. El rol reporta a la práctica de Data Governance y se integrará a iniciativas de cumplimiento normativo y protección de datos, colaborando estrechamente con business y tecnología para garantizar datos confiables, trazables y seguros.

Job opportunity published on getonbrd.com.

Principales responsabilidades

  • Definir e implementar el modelo de Gobierno de Datos (Data Owner, Steward, Custodian, RACI, estándares y procesos).
  • Administrar el catálogo de datos y glosario, asegurando su uso y adopción.
  • Diseñar y operar controles de Calidad de Datos (Data Quality) y monitorear su cumplimiento.
  • Documentar y asegurar el linaje y trazabilidad de datos (end-to-end).
  • Gestionar incidentes de datos (registro, análisis de causa raíz, seguimiento y cierre).
  • Participar en evaluaciones de impacto en privacidad (DPIA/EIPD).
  • Incorporar prácticas de privacidad por diseño en iniciativas de datos.
  • Apoyar la implementación del plan de adecuación a la Ley de Protección de Datos.
  • Coordinar con terceros y asegurar cumplimiento en el tratamiento de datos.

Requisitos y perfil buscado

Buscamos un/a profesional con pensamiento estructurado y orientación a la calidad, capaz de comunicar efectivamente entre negocio y tecnología y gestionar stakeholders con influencia sin autoridad. Debe tener experiencia sólida en gobierno de datos y un enfoque proactivo para mitigación de riesgos. Se valorarán prácticas de privacidad por diseño y experiencia en entornos regulados. Idioma técnico en inglés recomendado para lectura de documentación y herramientas.
Experiencia: mínimo 5 años en roles relacionados y al menos 2 años en Data Governance o similares. Conocimientos técnicos: SQL (intermedio/avanzado); Excel o Google Sheets (intermedio); herramientas de catálogo y linaje (deseable: Collibra, Alation, Informatica, Purview); Data Quality/observabilidad (deseable); Jira/Confluence (deseable); inglés técnico.

Conocimientos y habilidades deseables

Experiencia con marcos de gobernanza de datos, implementación de controles de calidad de datos y conocimiento de normativas de protección de datos. Habilidades de gestión de stakeholders, capacidad de análisis de impacto y pensamiento crítico para priorizar iniciativas.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Python SQL Spark Infrastructure as Code

Con más de 10 años de experiencia impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y Latinoamérica, Devsu ha desarrollado soluciones de alto impacto en sectores como el entretenimiento, la banca, la salud, el comercio minorista, la educación y los seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de un aprendizaje continuo y de participar en proyectos desafiantes y de gran impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en una variedad de productos y soluciones de software.

Estamos en búsqueda de un Arquitecto de Datos con experiencia comprobada en la plataforma Stratio y en arquitecturas de datos basadas en Amazon Web Services (AWS).

Applications: getonbrd.com.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en tiempo real (NRT) y por lotes usando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para asegurar integración y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • +5 años de experiencia en arquitectura de datos.
  • Experiencia práctica con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Sólidos conocimientos en servicios de AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Dominio en arquitecturas basadas en eventos, procesamiento en tiempo real (real-time), Data Lakes y Lake Houses.
  • Experiencia con herramientas de infraestructura como código: Terraform o CloudFormation.
  • Conocimiento en lenguajes y frameworks como: Python, SQL, Spark / PySpark.

Requisitos deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telecomunicaciones (telcos).
  • Conocimiento en herramientas de visualización como Power BI, Looker o Tableau.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Gross salary $2000 - 2200 Full time
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Postman Jira
BC Tecnología es una consultora de TI con personal experto en diferentes áreas tecnológicas, dedicada a servicios IT, administración de portafolio, desarrollo de proyectos, outsourcing y selección de profesionales. Nos especializamos en crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Buscamos aportar en proyectos innovadores con altos estándares de calidad y enfoque en cambios organizacionales y desarrollo de productos. Esta posición se desempeña dentro de un entorno de proyectos por contrato y enfocado a resultados de negocio de clientes de alto nivel.

Job opportunity published on getonbrd.com.

Funciones

Como Business Analyst, tendrás foco en producto, orientado a la calidad funcional y a la mejora continua de aplicaciones digitales. Serás responsable de asegurar la calidad funcional de aplicaciones web y móviles, analizar, documentar y optimizar flujos de usuario, gestionar bugs end-to-end y apoyar la priorización de iniciativas con foco en el impacto de negocio. Participarás en ceremonias ágiles, colaborarás con equipos multifuncionales y asegurarás trazabilidad de requerimientos y métricas de aceptación. Deberás trabajar de forma colaborativa con PMs, TA/QA y desarrollo para alinear entregables con las expectativas de negocio y usuarios finales, manteniendo una comunicación clara con stakeholders y respaldando las decisiones con datos.

Requisitos

Al menos 3 años de experiencia como Business Analyst. Experiencia en análisis de negocio y mejora de procesos. Conocimiento en QA funcional (no excluyente). Manejo de SQL (intermedio). Deseable Python. Experiencia con Jira, Postman y Excel avanzado. Capacidad para documentar procesos, mapear flujos y definir criterios de aceptación claros. Habilidad para trabajar en entornos ágiles y facilitar reuniones de priorización. Orientación a resultados, pensamiento analítico, comunicación efectiva y habilidades para trabajar con clientes y equipos multidisciplinarios. Se valorará experiencia en entornos financieros y conocimiento de herramientas de automatización de pruebas.

Deseables

Deseables: experiencia previa en análisis de productos digitales, conocimientos de metodologías de diseño centrado en el usuario, experiencia en automatización de pruebas y familiaridad con herramientas de pruebas de rendimiento. Capacidad de trabajar de forma proactiva, con iniciativa, y habilidades para gestionar múltiples iniciativas simultáneamente. Bilingüe español-inglés es un plus, al trabajar con clientes y equipos internacionales.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Data Operational Engineer
  • TIMINING
  • Santiago (Hybrid)
Python Git SQL ETL

En TIMining, trabajamos para convertir la información operativa de las faenas mineras en valor accionable a través de nuestras plataformas de control y monitoreo. Este rol se integra al equipo de datos, aportando en el diseño, desarrollo y operación de pipelines ETL que integran fuentes diversas hacia las bases de datos y productos de TIMining. Serás parte de un proyecto orientado a la continuidad operativa, la calibración de algoritmos y la automatización de procesos internos para optimizar el flujo de trabajo del cliente y del equipo.

Apply exclusively at getonbrd.com.

Funciones

  • Desarrollar, mantener y documentar scripts en Python y SQL (conectores) para ETL hacia las bases de datos de los productos de TIMining.
  • Diseñar, implementar y mantener flujos de CI/CD para que los cambios en las pipelines lleguen a producción de forma segura y automatizada.
  • Monitorear la salud y rendimiento de procesos de datos (logging y alerting), garantizando uptime y respuestas ante incidentes operativos.
  • Administrar y orquestar pipelines con herramientas de planificación (Airflow, Dagster) y contenedores (Docker).
  • Validar resultados de pipelines (cualitativa y cuantitativamente) comparando con reportes operacionales de faenas.
  • Identificar, evaluar y mitigar riesgos en el desarrollo de pipelines, contemplando calidad de datos y planes de contingencia.
  • Desarrollar proyectos internos para automatizar labores rutinarias y simplificar el trabajo del equipo.
  • Asistir y presentar en reuniones técnicas con clientes para gestionar accesos a fuentes de información y resolver consultas.
  • Analizar y documentar fuentes de información del cliente por sistema (FMS, MGS u otras) y calibrar algoritmos de los softwares de la empresa.
  • Ejecutar turnos 24/7 para asegurar continuidad operativa.

Requisitos y experiencia

Formación en Ingeniería en Ciencia de Datos, Ingeniería Civil o carreras afines en computación. Se requieren mínimo 2 años de experiencia en cargos similares y experiencia comprobable en la implementación de pipelines ETL. Se valora conocimiento y manejo avanzado de Python y SQL, experiencia práctica en despliegue de aplicaciones y manejo de contenedores, así como experiencia en orquestación de datos con herramientas como Apache Airflow o Prefect. Dominio de control de versiones (Git) y trabajo colaborativo, consultas a APIs y bases de datos avanzadas. Conocimientos de Google Suite y Office. Habilidades analíticas, proactividad y capacidad para trabajar de forma autónoma y en equipo. Idiomas: Español nativo; Inglés deseable (upper-intermediate).

Se buscan candidatos con experiencia en proyectos tecnológicos y conocimiento de la industria minera a cielo abierto, además de experiencia con arquitecturas Cloud (AWS, Azure o GCP) e Infraestructura como Código (Terraform, CloudFormation).

Requisitos deseables

Experiencia en:
- Implementación de proyectos tecnológicos.
- Conocimiento de la industria minera y su operación.
- Familiaridad con metodologías ágiles, y experiencia con herramientas de Infraestructura como Código.
- Deseable conocimiento en soluciones de monitoreo y en entornos de producción de datos a gran escala.

Beneficios

Ofrecemos un entorno enfocado a innovación en la industria minera, con oportunidades de desarrollo profesional y trabajo en equipo multidisciplinario. Si cumples con el perfil, te invitamos a formar parte de TIMining y contribuir a la transformación digital de operaciones mineras.

Gross salary $2500 - 3200 Full time
Data Governance Consultant
  • Artefact LatAm
  • Santiago (Hybrid)
SQL NoSQL Cloud Computing Data governance

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Data Governance Consultant es un profesional altamente especializado que colabora estrechamente con los clientes para desarrollar e implementar proyectos estratégicos de Data Governance u otros. Este rol se enfoca en actuar como un arquitecto de la confianza dentro de los ecosistemas de información, adaptando tecnología y la aplicación de las últimas tendencias, con un profundo entendimiento de los negocios. Como consultor, trabajará en estrecha colaboración con equipos multidisciplinarios para ofrecer soluciones que generen un impacto significativo y añadan valor a los clientes.

Applications: getonbrd.com.

Funciones del cargo

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Desarrollar y mantener el roadmap de Data Governance, definiendo la propiedad de los datos (data ownership), los roles de custodia (stewardship) y los modelos operativos.
  • Establecer dimensiones de calidad (exactitud, completitud, consistencia) e implementar sistemas de monitoreo y alertas automatizadas.
  • Definir y hacer cumplir las políticas de retención de datos, privacidad (GDPR, LGPD o normativas locales) y seguridad, trabajando de la mano con los equipos especializados en la materia.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.

Requerimientos del cargo

  • Titulación en Ingeniería Civil Industrial, Ingeniería en sistemas, Ciencias de la Computación, Ingeniería Industrial o áreas afines.
  • Experiencia laboral mínima de 3 años en consultoría, roles de gestión de proyectos o gobierno de datos.
  • Experiencia de al menos 1 año en materias de Data Governance.
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de las regulaciones de privacidad de datos y cómo traducirlas en requisitos técnicos.
  • Conocimiento profundo de diversas herramientas y soluciones digitales. Además de una comprensión sólida de SQL, NoSQL y entornos de nube (AWS, Azure o GCP).

Sumas puntos extras si...

  • Se valoran certificaciones asociadas al cargo
  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL ETL

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Find this job and more on Get on Board.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

Gross salary $3500 - 3700 Full time
Python SQL Microstrategy ETL

Coderslab.io is looking to hire a Big Data & Reporting Lead to lead the organization’s data architecture and analytics strategy.

This role will be responsible for designing, governing, and optimizing the enterprise data architecture, ensuring proper structuring, integration, automation, and consumption of data for reporting, advanced analytics, and decision-making.

The position has a strong focus on data architecture, analytical modeling for MicroStrategy, process automation using n8n, and optimization of ETL/ELT data pipelines.

About the client and the project: the company delivers innovative technology solutions and provides opportunities for continuous learning under the guidance of experienced professionals and cutting-edge technologies. The goal is to deliver value in key business processes and improve operational efficiency through SAP.

Originally published on getonbrd.com.

Funciones del cargo

Data Architecture
Design and govern the data architecture for Big Data and BI platforms.
Define analytical data models for reporting and analytics.
Design data lakes, data warehouses, and data marts aligned with business needs.
Establish data governance, quality, and lineage standards.
Ensure platform scalability, availability, and reliability.

Modeling and Reporting in MicroStrategy
Design and optimize the semantic layer and metadata in MicroStrategy.
Define analytical models and Star Schema structures.
Lead the development of dossiers, operational reports, and analytical cubes.
Optimize queries, performance, and execution times.
Define caching, aggregation, and pre-calculation strategies.

Automation of Analytical Processes (n8n)
Design data and reporting automation workflows using n8n.
Integrate sources such as APIs, databases, cloud services, and BI tools.
Automate data extraction, report generation, dashboard distribution, and alerts.
Design orchestration pipelines for analytical processes.

Data Processing Optimization
Design and optimize scalable ETL/ELT processes.
Optimize queries, data pipelines, and incremental loads.
Reduce latency and resource consumption in reporting.
Implement efficient data ingestion strategies.

Technical Leadership and Management
Lead Data Engineering, BI, and Analytics teams.
Track data architecture and reporting projects.
Define the data platform evolution roadmap.
Establish KPIs for reporting performance, data quality, and analytics adoption.
Align business needs with the data architecture.

Requerimientos del cargo

Experience leading data architecture or analytics platforms.
Experience in analytical data modeling (Star Schema, Data Modeling).
Experience working with Big Data or Data Warehousing platforms.
Experience with MicroStrategy for modeling and reporting.
Experience designing ETL / ELT processes and data pipelines.
Advanced SQL knowledge.
Experience with Python for data processing or automation.
Experience designing scalable data architectures.

Technologies
Big Data & Data Platforms
Spark
Hadoop
Databricks
Snowflake / BigQuery / Redshift
Kafka
Business Intelligence
MicroStrategy
Power BI (nice to have)
Tableau (nice to have)
Automation & Orchestration
n8n
Airflow
REST APIs
Webhooks
Databases
SQL Server
PostgreSQL
Oracle
NoSQL
Data Engineering
Python
Advanced SQL
ETL / ELT pipelines

Opcionales

Experience with workflow automation using n8n.
Experience with orchestration tools such as Airflow.
Experience with Power BI or Tableau.
Knowledge of event-driven or streaming architectures (Kafka).
Experience in data governance, data quality, and data cataloging.

Condiciones

Modalidad prestacion de servicios

$$$ Full time
Data Engineer – Proyecto (Híbrida)
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL SQL ETL
En BC Tecnología diseñamos y ejecutamos soluciones de TI para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de Data & Analytics se centra en impulsar la continuidad operativa de flujos de datos corporativos mediante pipelines robustos, integraciones escalables y monitoreo proactivo. Participarás en un proyecto con enfoque en datos de alto volumen, trabajando con tecnologías modernas y un entorno ágil para entrega continua y mejoras de producto.

Official job site: Get on Board.

Funciones

  • Diseñar y mantener pipelines ETL/ELT para datos críticos de la organización.
  • Orquestar y monitorear flujos de datos con Apache Airflow en entornos productivos.
  • Optimizar consultas SQL en PostgreSQL y/o Amazon Redshift para rendimiento y costos.
  • Gestionar repositorios y pipelines CI/CD en Azure DevOps.
  • Resolver incidencias y asegurar la calidad, disponibilidad y trazabilidad de los datos.
  • Colaborar con equipos de ciencia de datos, ingeniería y negocio para entender requerimientos y entregar soluciones escalables.
  • Participar en la definición de estándares de gobierno de datos y mejores prácticas de ingeniería de datos.

Descripción

  • Buscamos Ingeniero/a de Datos con experiencia en desarrollo de pipelines y entornos productivos para asegurar fluidez y confiabilidad de los datos corporativos.
  • Requisitos técnicos: Python y SQL avanzados; experiencia con PostgreSQL y/o Amazon Redshift; Apache Airflow; Azure DevOps; manejo de grandes volúmenes de datos.
  • Competencias: pensamiento analítico, proactividad, orientación a resultados, capacidad de trabajo en equipo y comunicación efectiva con stakeholders.
  • Se valoran proyectos previos en entornos financieros y experiencia con herramientas de monitoreo y observabilidad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
BI Power BI
  • BC Tecnología
  • Santiago (Hybrid)
PostgreSQL SQL Power BI Data governance
En BC Tecnología, estamos formando equipos para impulsar un ecosistema de Business Intelligence corporativo de alto impacto. Nuestro objetivo es entregar soluciones analíticas y visualizaciones que faciliten la toma de decisiones estratégicas, operativas y financieras, asegurando consistencia, gobernanza y alto rendimiento en los modelos de datos. Participarás en proyectos para clientes de variados sectores (financiero, seguros, retail y gobierno), trabajando con datos de gran volumen y requerimientos de escalabilidad y calidad de la información.

Applications are only received at getonbrd.com.

Funciones Principales

  • Diseñar, desarrollar y mantener dashboards y reportes en Power BI alineados a necesidades operativas y financieras del negocio.
  • Construir y optimizar modelos semánticos, relaciones y medidas DAX, asegurando eficiencia y escalabilidad.
  • Levantar y analizar requerimientos con usuarios de distintas áreas, traduciendo necesidades en soluciones analíticas.
  • Desarrollar indicadores financieros, operativos y comerciales para seguimiento y toma de decisiones.
  • Aplicar segmentación y control de acceso por roles (RLS) para garantizar seguridad y gobernanza.
  • Validar la consistencia, calidad y confiabilidad de la información presentada.
  • Optimizar performance de consultas y visualizaciones, identificando cuellos de botella.
  • Gestionar código, versionamiento y despliegues mediante Azure DevOps.
  • Mantener documentación funcional y técnica actualizada.

Experiencia y Conocimientos

Se requiere experiencia avanzada en desarrollo con Power BI y trabajo con grandes volúmenes de datos y modelos analíticos complejos. Es deseable experiencia en entornos empresariales y finanzas, con capacidad para interpretar necesidades de negocio y traducirlas en soluciones escalables y bien gobernadas.
Conocimientos técnicos clave: Power BI (modelado de datos, DAX avanzado), SQL avanzado, PostgreSQL y/o Amazon Redshift, buenas prácticas de documentación, gobernanza y calidad de datos, y construcción de modelos analíticos orientados al negocio. Se valorarán competencias de comunicación, trabajo en equipo, proactividad y capacidad de manejar múltiples stakeholders.

Requisitos Deseables

Certificaciones en Power BI o análisis de datos; experiencia previa trabajando en ambientes regulados; conocimiento de Azure Data Services o herramientas similares; habilidades de storytelling con datos y experiencia en visualización orientada a usuarios finales.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Data Analysis Excel SQL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

This posting is original from the Get on Board platform.

Funciones del cargo

  • Manage large datasets using most recent technologies
  • Partner with project leads to understand business briefs and execute analysis
  • Develop and enhance statistical model with best-in-class modelling techniques
  • Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.
  • Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)
  • Deliver informative and well-organized deliverables.Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with team and the Client is daily
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next leve
  • Proactively seek opportunities to help team members by sharing knowledge and expanding skills

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Beneficios

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Senior Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Excel SQL Business Intelligence
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Job opportunity published on getonbrd.com.

Funciones del cargo

▪ Design and develop analytical solutions to address a spectrum of business challenges, focusing on user acquisition and engagement for state-of-the-art digital offerings.

▪ Collaborate with multidisciplinary teams to structure and analyze business questions through a hypothesis-driven approach.

▪ Perform cohort studies and event impact assessments to analyze outcomes of event interventions using statistical methods.

▪ Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.

▪ Designing data models and schemas that optimize performance and scalability ensuring efficient data retrieval

▪ Partner with consultants /project leads to understand business briefs and execute analyses ensuring high quality, on-time delivery

▪ Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)

▪ Deliver informative and well-organized deliverables.

▪ Develop and enhance statistical model with best-in-class modelling techniques

▪ Evaluate new data sources, conduct research to assist in solving business problems

▪ Multi country / companies’ interactions with team and the Client is daily

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organization to the next level

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
Gross salary $1100 - 1700 Full time
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Excel SQL ETL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Applications at getonbrd.com.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
Gross salary $1200 - 1900 Full time
Data Scientist
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Data Analysis SQL Machine Learning
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

© getonbrd.com. All rights reserved.

Funciones del cargo

▪ Utilize advanced Python programming skills to design, develop, and deploy machine learning models and algorithms for various business use cases.

▪ Develop Machine Learning techniques such as regression, classification, clustering, and deep learning

▪ Ensure the availability, quality, and security of data used for analysis and modeling

▪ Investigate and interpret data to identify actionable insights and opportunities for improvement

▪ Work with cross-functional teams to implement data-driven solutions and drive business growth

▪ Manage client relationships effectively, including conducting meetings, understanding client requirements, and delivering solutions that meet or exceed expectations.

▪ Lead efforts to expand business opportunities by identifying new avenues for data-driven insights and solutions.

▪ Research and devise innovative statistical models for data analysis

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organzation to the next level

Requerimientos del cargo

▪ Bachelor's degree in Computer Science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred

▪ Minimum of 1+years of experience in a data science domain or related role.

▪ Proficiency in Python for data manipulation, analysis, and model development.

▪ Data Science libraries (such as NumPy, Pandas, Scikit-Learn, TensorFlow, or PyTorch)

▪ Advanced SQL skills for data extraction, transformation, and analysis.

▪ Strong experience in Lifecycle of a Data Science Modelling project

▪ Strong knowledge and practical experience in Machine Learning techniques and frameworks such as such as regression, classification, clustering, and deep learning.

▪ Strong knowledge in Statistics, ML and LLM/Gen AI

▪ Proven track record of successfully managing client relationships and delivering value-added solutions

▪ Experience in building Reporting Dashboards in any of the BI Tools is good to have: Power BI, Tableau, Looker

▪ Familiarity with any could platform such as Azure, AWS, GPC

▪ Expert in Analytics solutions such as Marketing, Predictive Order, Segmentation, Promotion, Hyper-personalization, forecasting, Pricing Analytics development is a plus

▪ Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

▪ Excellent Stakeholder communication and proactive problem-solving

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Administrador de Bases de Datos Senior
  • BC Tecnología
  • Santiago (In-office)
PostgreSQL Automation Data Architecture Data Modeling
BC Tecnología, una consultora de TI con amplia experiencia en administración de portafolio, desarrollo de proyectos y outsourcing, busca un Administrador de Bases de Datos Senior para un proyecto estratégico en el sector salud. El objetivo es asegurar la integridad, disponibilidad y optimización de bases de datos clínicas y administrativas, con foco en rendimiento, respaldo y cumplimiento normativo. El proyecto implica migraciones, estructuración de BD, implementación de alta disponibilidad y documentación de procedimientos.

Job opportunity published on getonbrd.com.

Funciones

Gestionar y optimizar bases de datos clínicas y administrativas PostgreSQL; realizar respaldos, recuperación y seguridad de la información; ejecutar migraciones y estructurar bases de datos para escalabilidad; garantizar alta disponibilidad y rendimiento; aplicar buenas prácticas de modelamiento, mantenimiento y documentación; automatizar tareas y generar scripts; cumplir normativas y estándares (Norma 820, Ley 19.628); documentar todas las acciones y mantener procedimientos actualizados.

Requisitos y perfil

Experiencia mínima de 3 años en el sector salud trabajando con datos clínicos y 5 años en empresa privada en proyectos similares. Formación de Ingeniero en Informática o carreras afines (sistemas, computación, electrónica, biomédico, etc.) con certificación en Ciencia de Datos. Sólida experiencia en PostgreSQL (mantenimiento, optimización, backups) y conocimientos en modelamiento y arquitectura de datos. Capacidad para trabajar en un entorno regulado, orientado a la calidad y seguridad de la información. Habilidades de comunicación, proactividad, trabajo en equipo y capacidad para documentar procesos de forma clara y reproducible. Deseable experiencia en IA y desarrollo de sistemas web/APP vinculados a datos biomédicos.

Deseables

Certificaciones en Ciencia de Datos y Administración de BD con IA. Experiencia en entornos de cumplimiento regulatorio y estándares de calidad. Conocimiento adicional en herramientas de automatización y scripting para procesos de bases de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Modalidad híbrida disponible en Las Condes para combinar flexibilidad remota con colaboración presencial, facilitando equilibrio y dinamismo laboral.
Trabajarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Data Analyst (Proyecto)
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI
BC Tecnología, una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales, busca incorporar un/a Data Analyst para un proyecto estratégico. El rol apoya la toma de decisiones basada en datos y la optimización de iniciativas digitales en un entorno con clientes de alto nivel y sector financiero. El/la profesional trabajará en un equipo ágil, colaborando con Product Owner y stakeholders para definir indicadores, priorizar iniciativas y generar insights accionables que impulsen el negocio.
La misión del proyecto es asegurar que las iniciativas digitales cuenten con métricas claras y dashboards ejecutivos para respaldar decisiones estratégicas, optimizando procesos y resultados. Se trabajará en un entorno híbrido, con foco en entrega de valor y mejora continua, y la posibilidad de involucrarse en otras áreas de la consultora según necesidades y desempeño.

Apply directly on the original site at Get on Board.

Funciones

  • Definir y monitorear KPIs del negocio, asegurando que las métricas estén alineadas con los objetivos estratégicos.
  • Construcción y análisis de dashboards ejecutivos con Power BI, incorporando visualizaciones efectivas y análisis de tendencias.
  • Apoyar en la priorización del backlog junto al Product Owner, traduciendo requerimientos de negocio en historias y métricas.
  • Analizar el impacto de funcionalidades digitales, identificando oportunidades de mejora y priorizando acciones con base en datos.
  • Generar insights accionables para el negocio y presentar hallazgos a equipos multifuncionales y alta dirección.

Descripción

Buscamos un/una Data Analyst con al menos 2–3 años de experiencia en análisis de datos, SQL, Python y Power BI. Se valorará experiencia en entornos cloud (Azure o AWS) y en Databricks. Se trabaja bajo metodologías ágiles (Scrum/Kanban). Requisitos: capacidad analítica, atención al detalle, comunicación efectiva y orientación a resultados. El/la candidato/a ideal debe poder transformar datos en insights accionables, trabajar de forma colaborativa y gestionar prioridades en un entorno dinámico.

Perfil deseable

Conocimientos en Databricks, experiencia en construcción de dashboards para ejecutivos, familiaridad con procesos de datos en la nube y capacidad de trabajar en proyectos con plazos ajustados. Se valora proactividad, pensamiento crítico y habilidad para explicar complejidades técnicas a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Gross salary $2000 - 3000 Full time
Data Scientist
  • Cordada
  • Santiago (Hybrid)
Python SQL Machine Learning Data Science

Cordada es una fintech de alto crecimiento dedicada a financiar a PyMEs en LatAm. Nuestro área de Risk and Data Analytics (RDA) desarrolla procesos para crear productos de datos en todas las áreas de la empresa, con foco especial en gestión y evaluación de riesgos de crédito. Buscamos un Data Scientist que transforme datos en información de valor y participe en proyectos de diseño, construcción y gestión de modelos de machine learning para propósitos de riesgo, analítica y negocio. El candidato trabajará colaborando estrechamente con negocio, tecnología y producto para entender requerimientos y entregar insights accionables que impulsen decisiones estratégicas y mejoras operativas.

Exclusive offer from getonbrd.com.

Funciones del cargo

Gestionar modelos de machine learning existentes (reentrenamientos y mejoras) e implementar nuevos modelos.

Realizar análisis exploratorios profundos para obtener insights en nuestras fuentes de datos (enfocado en negocio, análisis riguroso y trazable).

Colaborar con áreas de negocio, tecnología y producto para capturar requerimientos y priorizar iniciativas.

Proponer y desarrollar mejoras internas que optimicen el trabajo en Risk & Data Analytics, asegurando claridad, trazabilidad y calidad de código.

Descripción general

El área de Risk and Data Analytics (RDA) es responsable de desarrollar procesos para crear productos de datos para todas las áreas de Cordada, con énfasis en la gestión y evaluación de riesgos de crédito. Es fundamental para nosotros usar los datos en la toma de decisiones y respaldar nuestras metas. Buscamos un Data Scientist capaz de transformar datos en información de valor, trabajando en proyectos de diseño, construcción y gestión de modelos de machine learning para riesgos y analítica de negocio.

Requisitos técnicos incluyen dominio intermedio/avanzado de Python y librerías de data science, SQL y herramientas de control de versiones. Se valora experiencia con stack GCP. Se espera pensamiento analítico, capacidad de comunicar resultados complejos de forma simple, independencia y trabajo en equipo multidisciplinario. Se prioriza rigor, precisión y atención al detalle, así como la habilidad para investigar problemas y entender mecanismos subyacentes que expliquen el comportamiento de los datos.

Competencias y perfiles deseables

Conocimientos en estadística avanzada, econometría y estadística causal (variables instrumentales, diferencias en diferencias, regresión discontinua, etc.).

Experiencia en procesamiento de datos, construcción de features y representaciones adecuadas para modelos, así como manejo de backtesting y monitoreo de data drift. Capacidad para explicar sesgos potenciales y manejar situaciones con información incompleta o sesgada.

Conocimientos de modelos de regresión, ML supervisado/no supervisado, modelamiento probabilístico y métodos para interpretabilidad de probabilidades. Se valoran habilidades de comunicación y capacidad para presentar resultados a stakeholders no técnicos.

Beneficios

Beneficios: opciones de trabajo híbrido algunos días de la semana, días libres por cumpleaños, seguro de salud ampliado, horario de verano, salidas tempranas los viernes, día de mudanza, licencia parental extendida, y acceso a snack machine. Únete a nosotros para tener un impacto duradero en nuestra misión de impulsar a las PyMEs de América Latina. 🌟

Gross salary $3200 - 4100 Full time
Python Git Data Analysis SQL

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Scientist es un profesional altamente experimentado en el análisis de datos, con profundos conocimientos en técnicas estadísticas, de programación y de aprendizaje automático. Su rol principal es utilizar estas habilidades para extraer conocimientos significativos y tomar decisiones estratégicas basadas en datos dentro de la organización.

Además de desarrollar modelos analíticos avanzados, el Data Scientist Senior ejerce un rol importante dentro del equipo asignado al cliente, aportando con su conocimiento técnico para poder tomar decisiones concretas que ayuden al desarrollo del proyecto. Su experiencia ayuda en la conceptualización hasta la implementación, y asegura la entrega de soluciones prácticas y detallistas que cumplan con las necesitas del cliente.

Apply through Get on Board.

Tus responsabilidades serán:

  • Análisis de Datos: Aplicar técnicas avanzadas de análisis exploratorio para comprender la estructura y características de grandes volúmenes datos, provenientes de diversas fuentes.
  • Desarrollo de Modelos Predictivos Avanzados: utilizar técnicas avanzadas de aprendizaje automático y estadística para desarrollar modelos predictivos robustos que permitan predecir tendencias, identificar patrones y realizar pronósticos precisos.
  • Optimización de Algoritmos y Modelos: dirigir la optimización de algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad.
  • Visualización y Comunicación de Datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados de manera efectiva al cliente y a otros stakeholders clave.
  • Desarrollo de Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguajes de programación como Python, R o SQL.
  • Gestión de Proyectos: liderar frentes de un proyecto relacionados al análisis de datos complejos, desde la conceptualización hasta la implementación, planificando estratégicamente los hitos y entregables acordados con los clientes.
  • Investigación y Desarrollo Continuo: mantenerse actualizado en las últimas tendencias y avances en análisis de datos, inteligencia artificial y metodologías relacionadas. Compartir conocimientos y experiencias con el equipo para fomentar un ambiente de aprendizaje continuo.
  • Contribución a Propuestas y Desarrollo de Negocios: colaborar en el desarrollo de propuestas internas para potenciales clientes, utilizando su experiencia y conocimientos para identificar oportunidades y diseñar soluciones innovadoras.
  • Apoyar al equipo desde un rol de mentor, traspasando conocimientos y buenas prácticas, proporcionándole capacitación personalizada según las necesidades individuales de los miembros.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o experiencia equivalente en análisis avanzado de datos.
  • Experiencia laboral de al menos 4 años en roles de análisis de datos, preferiblemente en industrias relevantes.
  • Experto en Python, SQL y Git, con habilidades demostradas en el desarrollo de modelos analíticos y aplicaciones.
  • Amplio conocimiento de bases de datos relacionales y no relacionales, así como experiencia en procesamiento de datos (ETL).
  • Profundo conocimiento en machine learning, feature engineering, reducción de dimensiones, estadística avanzada y optimización.
  • Inglés avanzado.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $2800 - 3100 Full time
Lider Técnico AWS – Datos
  • BC Tecnología
  • Santiago (Hybrid)
SQL CI/CD AWS Lambda Data Architecture
BC Tecnología es una consultora de TI con enfoque en servicios, outsourcing y selección de profesionales, que acompaña a clientes de sectores como finanzas, seguros, retail y gobierno. En este rol, liderarás proyectos de datos en entornos cloud para clientes de alto perfil, asegurando soluciones escalables y alineadas a estándares de arquitectura. Trabajarás en un entorno ágil para diseñar e implementar soluciones de datos (ETL/ELT), gobernanza de datos y migraciones a la nube, colaborando estrechamente con equipos de Infraestructura, Desarrollo y Unidades de Negocio. Participarás en iniciativas de mejora continua, calidad de entrega y gobierno de datos, impulsando buenas prácticas de CI/CD y cumplimiento normativo. En un entorno híbrido, combinarás trabajo remoto con presencia en nuestras oficinas para colaborar de forma eficiente con stakeholders y equipos multidisciplinarios.

Apply directly through getonbrd.com.

Funciones principales

  • Liderar tecnicamente equipos de datos y proyectos AWS orientados a soluciones de ingesta, procesamiento y almacenamiento de datos.
  • Gestionar stakeholders y asegurar alineación de expectativas, alcance y plazos.
  • Diseñar y revisar arquitecturas de datos escalables (ETL/ELT, data lakes, data warehouses) utilizando servicios AWS (Glue, S3, Redshift, Lambda, Step Functions).
  • Garantizar gobernanza de datos, calidad, seguridad y cumplimiento de buenas prácticas de CI/CD y control de versiones.
  • Promover prácticas ágiles (Scrum/Kanban), liderazgo técnico, mentoring y desarrollo de capacidades del equipo.
  • Identificar y gestionar riesgos técnicos, definir indicadores de rendimiento y ejecutar planes de mitigación.
  • Colaborar con áreas de Infraestructura, Desarrollo y negocio para entregar soluciones alineadas a objetivos estratégicos.
  • Participar en revisiones de arquitectura, diseño de soluciones y documentación técnica.

Requisitos y perfil

Buscamos un Líder Técnico AWS con al menos 5 años de experiencia liderando proyectos y equipos de datos en entornos cloud. Se valorará experiencia sólida en proyectos de datos (ETL/ELT, arquitecturas escalables) y conocimiento profundo de servicios AWS como AWS Glue, S3, Redshift, Lambda y Step Functions. Se requiere experiencia en entornos ágiles (Scrum/Kanban), así como gobernanza de datos, CI/CD y buenas prácticas de calidad. El candidato ideal combinará habilidades técnicas sólidas con capacidad de liderazgo, comunicación efectiva y orientación a resultados.
Habilidades técnicas: diseño de arquitecturas de datos, orquestación de pipelines, proficient en SQL, modelado de datos, seguridad y cumplimiento, gestión de stakeholders, migraciones a la nube.
Competencias blandas: liderazgo colaborativo, comunicación clara, pensamiento estratégico, orientación a soluciones, capacidad de influencia y trabajo en equipo multifuncional.

Desirable

Certificaciones en AWS (por ejemplo, AWS Certified Solutions Architect – Professional o AWS Certified Data Analytics) son una ventaja. Experiencia con herramientas de orquestación adicionales, ciencia de datos, o herramientas de observabilidad y monitoreo de datos. Conocimientos en gobernanza de datos, calidad y metadatos, y experiencia en proyectos en sectores regulados también son deseables.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $2500 - 3700 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Kubernetes CI/CD

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This job is original from Get on Board.

Responsabilidades del Cargo

    • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
    • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
    • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
    • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
    • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Requisitos del Cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Consideración

Favor considerar adjuntar cv en Ingles actualizado al momento de postular

Beneficios

    • Un entorno de colaboración y rápido movimiento
    • Formar parte de una empresa internacional con sede en Estados Unidos
    • Asignación de reembolso por aprendizaje y desarrollo
    • Remuneración competitiva y oportunidades de promoción profesional y personal
    • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
    • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Kubernetes CI/CD
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply at the original job on getonbrd.com.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer AWS
  • BC Tecnología
SQL Big Data AWS Lambda Data Architecture
En BC Tecnología buscamos Data Engineer AWS para colaborar en proyectos de alto impacto para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo, parte de una consultora de TI con enfoque en soluciones innovadoras, trabaja en entornos de Big Data y nube, diseñando y operando infraestructuras escalables para procesamiento de datos y analítica avanzada. Participarás en proyectos de migración, diseño de pipelines de datos, implementación de soluciones en AWS y operaciones de datos, con un enfoque en calidad, seguridad y cumplimiento. Formarás parte de un equipo ágil que impulsa soluciones orientadas al negocio y la eficiencia operativa.

This job is published by getonbrd.com.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos en entornos AWS (Glue, Lambda, Step Functions, Redshift, Athena, Lake Formation).
  • Gestionar arquitectura de datos y clústeres, asegurando rendimiento, escalabilidad y seguridad de la información.
  • Implementar políticas IAM y controles de acceso, garantizando cumplimiento y buenas prácticas de seguridad.
  • Colaborar con científicos de datos y equipos de negocio para transformar requerimientos en soluciones técnicas eficientes.
  • Participar en la mejora continua de procesos, automatización y monitoreo de flujos de datos.

Perfil y habilidades

  • Experiencia mínima de 2 años como Data Engineer, preferentemente en entornos Big Data y nube AWS.
  • Conocimientos en AWS: Glue, Lambda, Step Functions, Redshift, Lake Formation, SQL, Athena y gestión de políticas IAM.
  • Experiencia con bases de datos y arquitecturas de clústeres; capacidad para optimizar rendimiento y costos.
  • Fuerte capacidad de resolución de problemas, pensamiento analítico y orientación a resultados.
  • Buen comunicador, capaz de trabajar en equipos ágiles y adaptar soluciones a requerimientos de negocio.
  • Idiomas: español; se valoran habilidades en inglés técnico.

Requisitos Deseables

  • Certificaciones AWS (por ejemplo, AWS Data Analytics, AWS Solutions Architect).
  • Experiencia en orquestación de datos y herramientas de orquestación adicional (por ejemplo, Step Functions, Airflow).
  • Conocimientos en seguridad de datos, cumplimiento normativo y buenas prácticas de DevOps/DataOps.
  • Experiencia en proyectos de migración de datos, tratamiento de datos sensibles y observabilidad de pipelines.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Software Engineer I (DataOps)
  • Wherex
  • Santiago (Hybrid)
Python SQL NoSQL Azure

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Aporta valor real en una célula de alto rendimiento con herramientas de vanguardia. Crece con profesionales especializados y conviértete en un profesional más completo en un entorno desafiante.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!

Applications are only received at getonbrd.com.

Job functions

- Diseñar, construir y mantener pipelines de datos robustos y eficientes, que permitan la recolección, transformación y carga de datos desde múltiples fuentes internas y externas.
- Facilitar la generación de insights accionables mediante la entrega oportuna de datos confiables y enriquecidos para análisis de negocio.
- Implementar y optimizar modelos de almacenamiento (data lakes, data warehouses, bases relacionales y no relacionales), asegurando un balance entre performance, costo y escalabilidad.
- Monitorear continuamente los flujos y procesos automatizados, detectando y comunicando incidencias oportunamente para mantener una operación confiable.
- Garantizar la calidad de los datos, diseñando validaciones, controles y tests automáticos que aseguren la integridad, completitud y consistencia de la información.
- Aplicar estándares técnicos y de gobierno de datos, velando por la trazabilidad, documentación y cumplimiento de políticas de seguridad y privacidad.
- Colaborar activamente con analistas, científicos de datos y otras áreas de producto, entendiendo sus necesidades y generando soluciones que faciliten la toma de decisiones.
- Participar en ceremonias ágiles y espacios de coordinación técnica, asegurando el alineamiento con stakeholders y contribuyendo al trabajo colaborativo.
- Buscar continuamente oportunidades de mejora en herramientas, procesos y performance, priorizando soluciones reutilizables, escalables y orientadas a la eficiencia del equipo.
- Documentar de forma clara los pipelines, estructuras y decisiones técnicas, promoviendo la transferencia de conocimiento y mantención futura.

Qualifications and requirements

- Ingeniero Civil Industrial, Ingeniero Civil Informático o Ingeniero en Computación.
- Al menos 1 año de experiencia en roles de ingeniero de datos.
- Experiencia en: Python, bases de datos SQL y no relacionales (Mongo).
- Deseable experiencia trabajando con AWS o Azure.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

$$$ Full time
Administrador de Base de Datos
  • SONDA
  • Santiago (Hybrid)
TSQL SQL Server Security Performance Tuning

Somos SONDA, una empresa líder en transformación digital en la región. Buscamos fortalecer nuestro equipo de Base de Datos para impulsar soluciones que optimicen el rendimiento, la seguridad y la escalabilidad de nuestras plataformas. El proyecto central implica diseñar, optimizar y mantener infraestructuras de bases de datos para entornos de desarrollo y producción, asegurando alta disponibilidad, integridad de datos y eficiencia operativa. Trabajarás estrechamente con equipos de ingeniería, arquitectura y operaciones para entregar soluciones robustas que soporten la transformación digital de nuestros clientes.

Applications: getonbrd.com.

Funciones

  • Proporcionar desarrollo y/o soporte a la producción de bases de datos, incluyendo la creación de estructuras de almacenamiento y objetos primarios.
  • Diseñar y crear estructuras de datos, modificar esquemas para mejoras o rendimiento, y documentar interfaces y planes de base de datos.
  • Revisar y optimizar el rendimiento de bases de datos, incluyendo monitoreo, índices, planes de ejecución y estrategias de respaldo/restauración automatizadas.
  • Gestionar almacenamiento, planificación de capacidad y necesidades futuras de almacenamiento.
  • Crear scripts y programas relacionados con bases de datos para entornos de desarrollo y producción; investigar y evaluar soluciones técnicas.
  • Diseñar, probar y recomendar mejoras en procedimientos almacenados, triggers y vistas, optimizando código SQL y consultas complejas.
  • Gestionar seguridad de datos (roles, cifrado, autenticación, auditoría) y asegurar cumplimiento de políticas de seguridad.
  • Participar en proyectos de alta disponibilidad y recuperación ante desastres (HA/DR) mediante tecnologías como AlwaysOn, log shipping u otras.
  • Trabajar con certificaciones y buenas prácticas de Microsoft SQL Server y/o Azure Database, y mantener actualizados los conocimientos técnicos.

Descripción

En SONDA, buscamos un Administrador de Base de Datos con experiencia comprobable en SQL Server (2019 o superior) para unirse a nuestro equipo. El candidato ideal estará orientado a la optimización de rendimiento, gestión de seguridad y continuidad operativa, con capacidad para diseñar soluciones escalables y robustas. Se requieren más de 5 años de experiencia en administración, optimización y gestión de bases de datos SQL Server, así como conocimientos en replicación, clustering, particionamiento y gestión de logs. Debe tener experiencia en optimización de planes de ejecución, mantenimiento de respaldos, y en prácticas de seguridad avanzadas (TDE, Always Encrypted) y administración de roles. Certificaciones relevantes de Microsoft serán valoradas. Buscamos profesional proactivo, orientado a resultados, con habilidades de comunicación y trabajo en equipo, capaz de colaborar con equipos multidisciplinarios y en entornos ágil.

Deseables

Deseable contar con certificación Microsoft Certified SQL Server Database Administration o equivalente (Azure Database Administrator Associate, MCSE: Data Management and Analytics, MCITP: Database Administrator). Se valorará experiencia en entornos de alta disponibilidad, experiencia con SQL Server 2019 o superior, y conocimiento de herramientas de monitoreo y desempeño. Capacidades de scripting y automatización (PowerShell, T-SQL) y experiencia en migraciones y modernización de bases de datos en la nube serán un plus. Fuerte enfoque en calidad, seguridad y cumplimiento, con mentalidad de aprendizaje continuo y capacidad de adaptación a un entorno dinámico.

Beneficios

En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.

Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.

Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.

El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.

Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.

Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Health coverage SONDA pays or copays health insurance for employees.
Computer provided SONDA provides a computer for your work.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Microstrategy ETL SQL Server
BC Tecnología, una consultora de TI especializada en servicios IT y soluciones de negocio, busca un Data Engineer para un proyecto híbrido ubicado en Las Condes, Santiago. El/la profesional se integrará a un equipo de BI/Analytics para desarrollar, optimizar y mantener soluciones de datos en entornos analíticos, trabajando con clientes de alto nivel en sectores como finanzas, seguros, retail y gobierno. El proyecto implica colaborar con equipos de BI, Analytics y TI, contribuuyendo a la implementación de pipelines de datos, modelado y generación de reports y dashboards de valor estratégico.

Apply to this job from Get on Board.

Funciones del rol

  • Desarrollar y optimizar consultas y modelos en SQL Server para soportar reporting analítico.
  • Diseñar, implementar y mantener pipelines de datos, integrando fuentes en plataformas en la nube (AWS, Azure o GCP).
  • Desarrollar y mantener reportes y dashboards en MicroStrategy para usuarios de negocio.
  • Colaborar con equipos de BI, Analytics y TI para entender requerimientos y entregar soluciones eficientes.
  • Identificar mejoras de rendimiento, escalabilidad y calidad de datos; aplicar buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Al menos 3 años de experiencia como Data Engineer o BI Engineer.
  • Experiencia comprobable en SQL Server y MicroStrategy.
  • Experiencia trabajando con alguna nube (AWS, Azure o GCP).
  • Capacidad para trabajar en entornos colaborativos, orientado a resultados y con buena comunicación con stakeholders.
  • Conocimiento en conceptos de modelado de datos, extracción, transformación y carga (ETL/ELT) y buenas prácticas de calidad de datos.

Skills and assets

  • Certificaciones en SQL Server, Data Platform o tecnologías de nube asociadas.
  • Con experiencia en herramientas de visualización y dashboards además de MicroStrategy.
  • Conocimientos de Python o lenguajes de scripting para transformaciones de datos.
  • Actitud proactiva, pensamiento analítico y capacidad para trabajar de forma autónoma en entornos dinámicos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Apache Spark CI/CD
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

© getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $3500 - 5200 Full time
Python SQL Machine Learning AI Integration

Vequity is building the world’s most robust, contextualized buyer intelligence network for investment banks, private equity firms, and strategic acquirers. Our platform currently houses over 1.5 million buyer profiles with approximately 100 structured and inferred data fields per profile. We leverage proprietary AI agents to continuously enrich, infer, and structure buyer intelligence at scale. As a Senior Data Engineer, you will own the architecture, quality, and scalability of our data ecosystem—from ingestion and cleaning to inference and output generation. You will partner with AI, product, and engineering teams to deliver data APIs and feeds that power our platform's decision-support capabilities. Your work will directly impact data reliability, operational efficiency, and the precision of buyer attributes used across our customers.

Apply at getonbrd.com without intermediaries.

Key Responsibilities

Multi-Source Data Architecture

  • Work with systems handling multiple write paths: external providers, LLM hygiene agents, and customer-claimed edits
  • Define standards for data versioning, lineage, and observability across pipelines


Entity Lifecycle & Master Data Management

  • Handle entity lifecycle complexity: mergers, acquisitions, spin-offs, rebranding, and temporal relationship changes
  • Design entity resolution systems using deterministic blocking (fuzzy matching, location) combined with LLM-based evaluation for match decisions
  • Build confidence scoring models and surface low-confidence cases for human review

Machine Learning & Matching Systems

  • Work with embeddings infrastructure: vector generation, retrieval optimization, and quality measurement
  • Optimize semantic search pipelines including embedding strategies, namespace design, and reranking
  • Establish evaluation frameworks to measure model performance against human judgment

Collaboration & Team Development

  • Educate and mentor the engineering team on data best practices, patterns, and common pitfalls
  • Lead continuous improvement of the data infrastructure roadmap

Relationship & Graph Modeling

  • Design data models for complex relationships: parent/subsidiary hierarchies, PE firm → portfolio company chains
  • Evaluate and implement graph query capabilities (Apache AGE, Neo4j, or optimized Postgres patterns) for relationship traversal that semantic search cannot address

Data Quality, Testing & Operations

  • Build quality-control layers including confidence scoring, human-in-the-loop validation, and automated anomaly detection
  • Implement testing strategies including data contracts, pipeline unit tests, and integration testing
  • Build proactive monitoring, alerting, and runbooks for data health issues
  • Ensure compliance with data governance, privacy, and security standards

Description

  • 5+ years in data engineering with strong Python (Pydantic a bonus), SQL, and cloud data stacks (including GCP)
  • Experience with orchestration frameworks (Airflow, Dagster, Prefect) and/or data platforms (Databricks)
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of embedding-based retrieval
  • Excellent communication and cross-team collaboration skills

Desirable

  • Prior experience with Machine Learning algorithms / semantic search
  • Prior experience with entity resolution or master data management — you understand why matching company records is fundamentally hard
  • Familiarity with graph databases or graph query patterns (Neo4j, Apache AGE, recursive CTEs) for complex entity relationships
  • Experience with event sourcing or append-only architectures for audit trails and data replay
  • Background in investment data, market intelligence, or deal sourcing platforms
  • Familiarity with agent orchestration tools (LangChain, LlamaIndex) and data quality frameworks (dbt, Great Expectations)
  • Experience as an early/first data hire at a startup
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of prompt engineering, MCP Servers, function calling, and embedding-based retrieval

Benefits

Competitive compensation and Paid Time Off (PTO).

Fully remote You can work from anywhere in the world.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL NoSQL ETL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

Find this vacancy on Get on Board.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Data Visualization

BC Tecnología es una consultora de TI que diseña soluciones para clientes en sectores como finanzas, seguros, retail y gobierno. En este rol, te integrarás a un equipo de Risk Operations enfocado en generar y mantener un ecosistema de procesos de monitoreo y alertas para detectar conductas fraudulentas o riesgosas de Sellers activos en el Marketplace. Trabajarás en proyectos estratégicos de alto impacto, con coordinación de requerimientos a nivel local e internacional, buscando mitigar riesgos operacionales y reputacionales mediante soluciones basadas en datos y automatización de procesos.

Colaborarás con áreas de negocio para traducir necesidades en soluciones analíticas; levantarás, documentarás y mantendrás procesos automáticos; y contribuirás a la mejora continua de procesos operacionales a través de insights basados en datos y reportes periódicos. Tendrás la oportunidad de participar en un entorno colaborativo, con cultura de aprendizaje y enfoque en crecimiento profesional.

© getonbrd.com.

Funciones y responsabilidades clave

  • Generar y mantener un ecosistema de procesos de monitoreo y alertas para detección de incumplimientos y comportamientos riesgosos.
  • Analizar grandes volúmenes de datos para diseñar flujos automáticos de alertas, reportes y monitoreos orientados a la detección de riesgos.
  • Elaborar reportes periódicos y análisis ad-hoc que permitan identificar, priorizar y accionar casos de riesgo.
  • Generar insights y recomendaciones accionables para la mejora continua de procesos operacionales.
  • Levantar, documentar y mantener los procesos automáticos implementados.
  • Gestionar proyectos de analítica de principio a fin, coordinando requerimientos con stakeholders locales e internacionales.
  • Comprender cómo interactúan las distintas áreas del negocio dentro del ecosistema digital y traducir necesidades en soluciones basadas en datos.
  • Utilizar estructuras de almacenamiento y herramientas de explotación de datos para apoyar la toma de decisiones.

Descripción y requisitos del rol

Buscamos un/una Analista de Datos con 2 a 4 años de experiencia en roles similares (Analítica, BI, Operaciones, Marketing o afín). Se valorará experiencia en Ecommerce. Requerimos dominio avanzado de SQL y nivel intermedio–avanzado de inglés. Se espera manejo avanzado de al menos una herramienta de visualización/análisis de datos (Excel, Tableau, Power BI o Data Studio). Experiencia en al menos un lenguaje de programación para análisis de datos (preferible Python; R u otro también válido). Conocimientos en plataformas Cloud, idealmente Google Cloud Platform. Conocimientos en Prompt Engineering serán valorados. Se ofrece modalidad de trabajo híbrida y contrato a plazo fijo con proyección a indefinido según desempeño. Participarás en proyectos estratégicos y en un entorno orientado a la toma de decisiones basada en datos.

Requisitos deseables

Experiencia adicional en herramientas de analítica avanzada, experiencia en entornos fintech o marketplaces, capacidad de trabajar en entornos ágiles, habilidades de comunicación para colaborar con stakeholders diversos y experiencia en modelado de datos y gobernanza de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $2500 - 3500 Full time
Python SQL Data Transformation Airflow
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
En esta ocasion estamos buscando incorporar un/a Ingeniero/a de Datos con experiencia en diseño, desarrollo y mantenimiento de pipelines de datos, capaz de trabajar con herramientas modernas del ecosistema analítico y de integración. El rol tendrá foco en la construcción de flujos de datos robustos, escalables y mantenibles, apoyando procesos de analítica, reporting y migraciones de datos

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines de datos utilizando Python, dbt y Airflow.
  • Implementar procesos de transformación y modelado de datos analíticos.
  • Orquestar flujos de datos asegurando confiabilidad y trazabilidad.
  • Colaborar en iniciativas de migración e integración de datos.
  • Asegurar calidad, consistencia y disponibilidad de la información.
  • Documentar procesos y buenas prácticas técnicas.

Requerimientos del cargo

  • Python para desarrollo de pipelines y lógica de transformación.
  • dbt para modelado, transformación y versionamiento de datos analíticos.
  • Apache Airflow para orquestación y scheduling de procesos de datos.
  • SQL avanzado para consultas, transformaciones y validaciones.
  • Inglés nivel B2 (capacidad para comunicación técnica).

Opcionales

  • Experiencia en migraciones de datos entre sistemas.
  • Experiencia en integraciones de datos desde múltiples fuentes.
  • Buen entendimiento de arquitecturas de datos modernas (ELT / Analytics Engineering).
  • Experiencia en entornos productivos y manejo responsable de cambios.

Gross salary $1400 - 2000 Full time
Python SQL Business Intelligence Power BI
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Apply to this job through Get on Board.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
Python Git SQL Docker
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

Apply directly on the original site at Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
$$$ Full time
HTML5 Python Data Analysis BigQuery
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

Official job site: Get on Board.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1000 - 1400 Full time
Data Analyst
  • Coderslab.io
  • Lima (Hybrid)
HTML5 Python Data Analysis BigQuery

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Analyst

Buscamos un/a Data Analyst para unirse a nuestro equipo y participar en el desarrollo de aplicaciones móviles escalables, modernas y de alto impacto. Trabajarás en un entorno colaborativo, con proyectos desafiantes y oportunidades reales de crecimiento.

Apply to this job directly at getonbrd.com.

Funciones del cargo

  • Desarrollo de funcionalidad de gestión del canal con python y html5.
  • Documentación funcional de los desarrollos.
  • Carrera sistemas o relacionados.
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.
  • Recopilar y limpiar datos: Obtener datos de diversas fuentes (bases de datos, redes sociales, hojas de cálculo, etc.) y luego limpiarlos, procesando valores faltantes, corrigiendo errores y eliminando inconsistencias para asegurar su calidad.
  • Analizar datos: Utilizar técnicas estadísticas y otras herramientas para identificar correlaciones, tendencias y patrones dentro de los conjuntos de datos.
  • Interpretar resultados: Analizar los resultados del análisis para entender qué significan y cómo pueden ayudar a la empresa a tomar mejores decisiones.
  • Comunicar hallazgos: Presentar los resultados del análisis de forma clara y comprensible a través de informes, paneles (dashboards) y visualizaciones (gráficos, tablas) para stakeholders y otros equipos.
  • Identificar riesgos y oportunidades: Detectar tendencias, problemas potenciales y oportunidades de crecimiento para la empresa.
  • Apoyar la toma de decisiones: Facilitar la toma de decisiones estratégicas en diferentes áreas de la organización, como ventas, inventario y gestión de servicios.
  • Crear informes y dashboards: Generar informes periódicos y dashboards interactivos que se actualizan automáticamente para mantener a todos informados.

Requerimientos del cargo

Experiencia entre 2 y 3 años

  • Experiencia en SQL Server
  • Experiencia en Python
  • Experiencia en BigQuery
  • Experiencia en Gitlab
  • Experiencia en ETLs
  • Experiencia en HTML5
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Condiciones

Modalidad de contratación: Recibo por honorarios
Duración del proyecto: 6 meses
Modalidad: Hibrida (3 veces a oficina)

Gross salary $2000 - 2600 Full time
DBA Oracle
  • Coderslab.io
Linux SQL Tuning Database Security Oracle Database
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

© Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
$$$ Full time
Analista de Datos / Business Intelligence
  • BC Tecnología
  • Santiago (Hybrid)
Python Excel SQL Power BI
En BC Tecnología somos una consultora de TI que acompaña a clientes de sectores financieros, retail, tecnológico y público. Buscamos un/a Analista de Datos / Business Intelligence para transformar datos en insights que orienten decisiones estratégicas. Trabajarás en proyectos de alto impacto dentro de equipos interdisciplinarios, implementando soluciones de analítica y BI que faciliten la toma de decisiones en clientes de alto nivel. Formarás parte de una organización con enfoque en metodologías ágiles, formación de equipos y desarrollo de productos, con un portfolio de servicios que incluye consultoría, outsourcing y desarrollo de proyectos.

This job offer is on Get on Board.

Principales Responsabilidades

  • Transformar datos en información clara y accionable mediante análisis estadístico, modelado y visualización.
  • Recopilar, analizar y transformar datos de distintas fuentes para generar insights de negocio.
  • Diseñar y desarrollar reportes, dashboards e indicadores clave (KPIs) en Power BI u otras herramientas de visualización.
  • Aplicar técnicas de análisis estadístico y exploración de datos para detectar tendencias, patrones y oportunidades de mejora.
  • Colaborar con equipos de negocio, BI y tecnología para definir métricas relevantes.
  • Asegurar la calidad, integridad y consistencia de los datos; documentar procesos y estructuras de datos.
  • Mantenerse actualizado/a en herramientas de analítica, visualización y ciencia de datos; cumplir con políticas de seguridad y cumplimiento.

Requisitos y Perfil

Formación: Ingeniería, Estadística, Economía, Ciencia de Datos, Administración u afines. Experiencia: mínimo 2 años en roles de Análisis de Datos, Inteligencia de Negocio o Control de Gestión.
Conocimientos Técnicos clave:
  • Modelado de datos y definición de KPIs.
  • Power BI (modelado, DAX, visualizaciones).
  • SQL (consultas y optimización).
  • Python y Power Automate.
  • Excel avanzado.
  • Conocimientos en estadística descriptiva e inferencial aplicada a negocio.
  • Experiencia en limpieza y transformación de datos.
Competencias blandas: pensamiento analítico, orientación a resultados, comunicación efectiva y capacidad para trabajar en equipos multidisciplinarios en entornos ágiles.

Deseables

Experiencia en proyectos de BI en el sector financiero o público; conocimiento de herramientas de visualización adicionales; experiencia en automatización de procesos y manejo de grandes volúmenes de datos; habilidad para traducir requerimientos de negocio en soluciones técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1500 - 2000 Full time
Analytics Engineer
  • Artefact LatAm
SQL Business Intelligence ETL Power BI

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Send CV through Get on Board.

Tus responsabilidades serán:

  • Recolectar y analizar datos de diversas fuentes para identificar patrones y tendencias. Extraer insights significativos para comprender el rendimiento presente y futuro del negocio.
  • Crear modelos de datos adaptados a distintos proyectos y sectores.
  • Crear y optimizar informes, paneles y cuadros de mando para una presentación efectiva de la información, utilizando herramientas de BI como Tableau, Power BI o QlikView.
  • Identificar oportunidades de mejora de procesos mediante análisis de datos.
  • Mantener y actualizar bases de datos para garantizar su integridad y calidad.
  • Brindar formación y soporte al equipo en el uso de herramientas de Business Intelligence. Colaborar con equipos diversos para crear soluciones integrales. Entender las necesidades del cliente y proponer mejoras y soluciones proactivas.
  • Monitorear modelos de data science y machine learning. Mantener la calidad de datos en flujos de información. Gestionar la seguridad y la escalabilidad de entornos cloud de BI.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, o carrera afín
  • 1 a 2 años de experiencia laboral en:
    • Proyectos BI
    • Herramientas de visualización como PowerBI, Tableau, QikView u otros
    • Soluciones de BI en entornos cloud (ejemplo, Azure y Power BI Service)
    • Fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
    • Desarrollo de queries en SQL
    • Desarrollo de modelos de datos para usos analíticos y programación de ETLs
  • Inglés profesional

Algunos deseables no excluyentes:

  • Conocimiento de Python o R
  • Manejo de Big Data en miras de establecer reportería

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.

Sobre trabajos de SQL

Remote job offers for SQL specialists. DBA, data analysis and database optimization. En RemoteJobs.lat conectamos a profesionales de Latinoamerica con empresas que ofrecen trabajo 100% remoto. Todas nuestras ofertas permiten trabajar desde cualquier ciudad, con pagos en dolares o moneda internacional.

Rango salarial

$3,000 - $8,000 USD/mes

Posiciones abiertas

1017

Ubicacion

100% Remoto LATAM

Tip: Tambien puedes buscar ofertas en skills relacionados como MongoDB.

SQL salary ranges by seniority

Estimated ranges in USD/month for remote contracts with international companies. Vary by company, complementary stack and client location.

Level Years of experience Range USD/month
Junior 0-2 $3,000 - $4,250
Mid-level 2-4 $4,000 - $5,750
Senior 4-7 $5,500 - $7,250
Lead/Staff 7+ $6,750 - $8,000

Companies hiring remote SQL from LATAM

Some companies that have historically hired SQL profiles to work 100% remotely from Latin America:

Toptal Crossover GitLab Automattic Globant Mercado Libre Andela

Frequently asked questions

The typical range for a remote SQL working for international companies is $3,000 - $8,000 USD/mes. The exact amount depends on seniority, the company's country, and whether the contract is full-time or project-based.

The most in-demand SQL profiles usually combine Postgresql, Mysql, Mongodb. Adding one of these opens more job offers and often increases salary range by 15% to 30%.

For US/EU companies yes: B2 minimum for technical interviews. There are alternatives at LATAM companies (Mercado Libre, Globant, Rappi) or agencies like Toptal where intermediate English is enough to start.

The 3 highest-impact things: (1) a public GitHub with 2-3 solid projects relevant to SQL, (2) an English LinkedIn profile optimized for recruiters, and (3) applying to 20+ offers per week instead of 2-3.