We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Bookkeeper
  • SOUTH
  • Remoto 🌎
Full Time QuickBooks Online (QBO) Xero Dext Google Workspace Excel

📌 Rol: Senior Bookkeeper (Contador/a Senior / Especialista en Contabilidad)

🌎 Ubicación: 100% remoto – Solo para candidatos en Latinoamérica

💼 Tipo de Contrato: Tiempo completo

🕐 Zona horaria: Horario de EE. UU.

💰 Compensación: USD 1,800 – 2,100 mensuales

🏢 Empresa: Firma de servicios financieros para PYMEs en Canadá y EE. UU.

📋 Descripción General

Nuestro cliente es una empresa dedicada a ser el socio estratégico en operaciones financieras para pequeñas y medianas empresas (PYMEs) en Canadá y Estados Unidos. Ofrecen servicios integrales de contabilidad, nómina, cuentas por cobrar y pagar, soporte de controller y asesoría de nivel CFO, ayudando a sus clientes a crecer mediante soluciones financieras precisas y personalizadas.

Buscamos un/a Senior Bookkeeper con sólida experiencia en contabilidad integral, capaz de liderar procesos de conciliación, cierre contable y mantenimiento de libros mayores. La persona ideal demostrará precisión, liderazgo, y una mentalidad proactiva para mejorar procesos y garantizar la exactitud de la información financiera.

📋 Responsabilidades Principales

• Supervisar y gestionar todas las tareas de contabilidad, incluyendo el mantenimiento del libro mayor y la gestión del plan de cuentas.

Revisar y orientar el trabajo de contadores/as junior, asegurando exactitud y cumplimiento.

• Garantizar la correcta entrada de datos financieros, conciliación de transacciones y categorización de gastos.

• Preparar información para depreciación, amortización y cierre de fin de año.

• Colaborar con otros equipos para mejorar los procesos contables y optimizar la precisión en los reportes financieros.

• Apoyar en la implementación y capacitación durante la incorporación de nuevos clientes.

🎯 Requisitos

• Más de 5 años de experiencia en contabilidad, con enfoque en mantenimiento del libro mayor y conciliaciones.

• Dominio de software contable en la nube (por ejemplo: QuickBooks Online, Xero, Dext).

• Sólido entendimiento de estados financieros, depreciación y amortización.

• Experiencia supervisando y capacitando a personal contable.

• Alta atención al detalle, organización y compromiso con la precisión.

• Inglés avanzado (CV y comunicación en inglés requeridos).

🏖️ Beneficios

• Posición 100% remota para profesionales en Latinoamérica.

• Cultura colaborativa y oportunidad de crecimiento profesional.

• Entorno que valora la autonomía, la precisión y la mejora continua.

• Estabilidad laboral con clientes en Canadá y Estados Unidos.

VIEW JOB APPLY VIA WEB
$$$ Full time
Cloud Engineer AWS + Python
  • CoyanServices
Python Agile SQL NoSQL

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Originally published on getonbrd.com.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Arquitecto de Infraestructura
  • Lisit
Redis PostgreSQL SaaS Cybersecurity
En Lisit promovemos la creación, desarrollo e implementación de servicios de software orientados a la automatización y optimización, con un fuerte foco en la innovación y la transformación digital de nuestros clientes. Nuestro equipo diseña y despliega soluciones de IA conversacional y Pipelines de LLM para soportar procesos críticos de negocio, desde prototipos (POC) hasta producción y escalado comercial. El proyecto central implica la construcción de una infraestructura robusta, escalable y segura que soporte Flowise y otras plataformas de IA conversacional, garantizando rendimiento, disponibilidad y costos optimizados en todos los niveles de madurez: piloto, desarrollo, comercial inicial y producción. Trabajamos de forma 100% remota, con colaboraciones multidisciplinares y un enfoque práctico hacia resultados medibles para clientes.

Send CV through getonbrd.com.

Perfil de Cargo

  • Diseñar, implementar y mantener la infraestructura tecnológica necesaria para soportar soluciones conversacionales basadas en IA, incluyendo Flowise y otras plataformas, garantizando disponibilidad, escalabilidad, seguridad, rendimiento y continuidad operativa.
  • Evaluación y diseño de infraestructura: analizar requerimientos técnicos, diseñar arquitecturas en nubes públicas (Azure, AWS, GCP), definir capacidad para Piloto, Desarrollo, Comercial Inicial y Producción, estimar recursos y diseñar topologías resilientes (HA, balanceo, redundancia).
  • Implementación y operación: provisionar recursos en Azure (principal) u otras nubes, desplegar servidores, workers, balanceadores, almacenamiento, BBDD y monitorización; configurar entornos Flowise / LLM gateways / assist pipelines; administrar contenedores (Docker/Kubernetes).
  • Gestión de bases de datos: diseñar, administrar y optimizar PostgreSQL y Azure SQL; implementar backups, réplicas, versionamiento, retención y failover.
  • Cache y mensajería: integrar Redis, gestionar cache de contexto, persistencia y colas de trabajo; diseñar procesos asincrónicos para alto throughput.
  • Storage y costos: diseñar almacenamiento escalable (Blob/S3), políticas de retención y costos; separar almacenamiento conversacional, logs y archivos anexos.
  • Seguridad: IAM/RBAC, protección de endpoints, rotación de tokens, seguridad de red (WAF, VNet, VPN), cifrado en tránsito y en reposo.
  • Observabilidad: monitoreo de logs, métricas y alertas; seguimiento de rendimiento, tiempos de respuesta y colas.
  • Optimización de costos: dimensionamiento eficiente, revisión continua de gastos, recomendaciones de right-sizing y proyección de crecimiento.
  • Colaborar con equipos multidisciplinarios para definir parámetros de escalamiento y asegurar la estabilidad y seguridad de entornos de IA.

Descripción

Buscamos un Arquitecto de Infraestructura con sólida experiencia en entornos de nube y plataformas IA para liderar la construcción de la infraestructura necesaria para soluciones conversacionales basadas en IA. El rol implica definir, desarrollar y mantener un stack tecnológico que permita escalar operaciones desde POC hasta producción. El candidato ideal debe poseer capacidad analítica, enfoque en seguridad y optimización de costos, además de habilidades de documentación y comunicación para colaborar con equipos multifuncionales. Se valorará experiencia previa en SaaS y herramientas conversacionales (Flowise) y un historial comprobable de gestión de infraestructuras complejas en entornos empresariales.

Requisitos Deseables

Experiencia de 4+ años administrando plataformas cloud, con conocimientos en bases de datos gestionadas, contenedores, redes e Infra as Code. Deseable experiencia previa en productos SaaS o herramientas de IA conversacional (Flowise). Formación en Ingeniería en Computación/Informática/Sistemas o equivalente. Habilidades de comunicación, documentación clara y capacidad de trabajar en equipos multidisciplinarios. Nivel avanzado en Azure (deseable) y experiencia en AWS/GCP es un plus.

Beneficios

100% remoto

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1300 - 1500 Full time
Site Reliability Engineer (SRE)
  • RebajaTusCuentas.com
DevOps Virtualization Docker Continuous Deployment

Somos una empresa financiera no bancarizada fundada en noviembre de 2017 en Perú y en Julio de 2019, iniciamos operaciones en México. RTC es una entidad financiera alternativa que ayuda a personas y pequeños negocios a acceder a créditos formales usando inmuebles como garantía, nuestros créditos se fondean mediante emisiones destinadas a inversionistas institucionales, lo que nos da flexibilidad y respaldo en cada operación.

Ayudamos a las personas a mejorar su salud financiera, desarrollado un ecosistema de productos y procesos pensados para quienes han sido históricamente excluidos del sistema financiero.

Nuestro SRE ideal será un apasionado por la automatización, la estabilidad y la eficiencia de sistemas a gran escala, experto en la convergencia de las disciplinas de desarrollo de software y operaciones, enfocándose en construir y mantener una infraestructura confiable, escalable y con un rendimiento óptimo.

Send CV through getonbrd.com.

Funciones del cargo

  1. Disponibilidad & Monitoreo
    • Definir y mantener SLOs/SLAs de sistemas clave (ej. scoring, desembolsos, cobranza digital).
    • Implementar y gestionar herramientas de monitoreo (logs, alertas, dashboards).
  2. Automatización & DevOps
    • Desarrollar pipelines de CI/CD para despliegues rápidos y seguros.
    • Automatizar procesos de infraestructura (infra as code, scripts, backups, recupero).
  3. Gestión de Incidentes
    • Liderar la respuesta a incidentes críticos (downtime, caídas de scoring, fallas en originación).
    • Documentar post-mortems y generar planes de prevención.
  4. Escalabilidad & Performance
    • Optimizar infraestructura para soportar crecimiento de cartera proyectada (S/400M a 2029).
    • Identificar y resolver cuellos de botella en performance (APIs, bases de datos, integraciones).
  5. Seguridad & Cumplimiento
    • Implementar prácticas de seguridad y resiliencia (backups, cifrado, control de accesos).

Requerimientos del cargo

  • Formación: Ingeniería de sistemas Ingeniería de Software o a fines.
  • Dominio de ingles, verbal y escrito B1 - B2
  • Experiencia:
    • 3–5 años en roles de DevOps, Infraestructura o SRE.
    • Experiencia en sistemas financieros, fintech o de alta criticidad es un plus.
  • Conocimientos técnicos:
    • Cloud.
    • Contenedores y orquestación (Docker, Kubernetes).
    • CI/CD (GitLab CI, GitHub Actions).
    • Monitoreo y logging (Prometheus, Grafana).
    • Bases de datos (relacionales).
    • Seguridad y compliance básico (ISO 27001, OWASP)

Cualidades Deseadas (Plus)

  • Conocimiento de bases de datos SQL y NoSQL.
  • Habilidades probadas en la depuración de problemas de rendimiento complejos.
  • Certificaciones relevantes en la Nube (p. ej., AWS Certified DevOps Engineer - Professional).

Condiciones

  • Sueldo base :( pago fin de mes plataforma Deel).
  • Trabajar de forma remota de lunes a viernes, horario de 9:00 am a 6:00 pm. (Hora Perú).
  • Si estas en Lima-Perú, te damos una laptop para tu uso en caso de ser necesario. Si no te encuentras en Lima, te pedimos que trabajes con tu propio equipo.
  • Reembolsos por gastos de salud (Trabajadores en el extranjero): Te reembolsamos cualquier gasto de salud o pago de seguros de salud hasta por un monto de USD $55 (cincuenta y cinco y 00/100 dólares americanos).
  • Bono Diciembre: En diciembre recibes un sueldo adicional proporcional al tiempo que has trabajado en el año. Ejemplo: Si ingresas en Abril, recibes (9 meses laborados) / (12 meses) de sueldo en diciembre.
  • Día de cumpleaños libre.
  • Aprendizaje: En RTC creemos fielmente en el apoyo a tu desarrollo personal y profesional.
  • Ofrecemos capacitaciones constantes: reuniones de equipo y entrenamientos semanales.
  • Vacaciones extra: RTC otorga vacaciones pagadas adicionales al mínimo legal.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks RebajaTusCuentas.com offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage RebajaTusCuentas.com pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal RebajaTusCuentas.com gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Quality Assurance Engineer
  • Apply Digital Latam
JavaScript Agile QA Scrum
Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in LATAM working in hours that align with EST.
We are Apply Digital — a high-growth digital experience agency working with brands like Moderna, Kraft Heinz, and Atlassian. With a focus on transforming possibilities for people, we solve complex problems with well-executed digital solutions that make people's lives easier and help our clients compete.
Our robust QA team is looking for a Senior Quality Assurance Automation (QA) engineer to develop and execute exploratory and automated tests that ensure product quality. You'll be directly working with our technical architect and developers to ensure that we create awesome bug-free software that delights our clients.

Apply directly through getonbrd.com.

Responsibilities:

  • Test Strategy and Planning: Leading the creation of test strategies and plans for complex projects, considering the project scope, objectives, and risks. Collaborating with cross-functional teams to define test approach, test coverage, and test deliverables.
  • Test Execution and Coverage: Conducting comprehensive and thorough test execution (automated and manual) for complex software systems. Identifying high-priority test scenarios and ensuring effective test coverage across functional, non-functional, and edge-case scenarios.
  • Test Automation Architecture and Development: Leading the design and implementation of scalable and maintainable test automation frameworks. Collaborating with development teams to promote automation practices, maximize test coverage, and improve overall efficiency. Incorporating test automation into CI/CD pipelines.

Requirements:

  • You have a bachelor’s degree in Computer Science, Computer Engineering, Information Technology, or equivalent
  • You have 6+ years of experience in Automation roles.
  • You have a deep understanding of software QA methodologies, best practices, tools, and processes
  • You have 3+ years of experience with Javascript, Typescript or a similar scripting language
  • You have 3+ years of experience creating and maintaining test automation scripts (preferably with Cypress, Playwright, and Appium using Javascript)
  • You strongly understand CI/CD platforms and incorporate QA best practices.
  • You have a deep understanding of Agile/Scrum development principles.
  • You have experience providing mentorship to other team members on QA best practices and methodologies.
  • You possess strong analytical and problem-solving skills.
  • You’re self-driven and take ownership of tasks from beginning to completion
  • You possess excellent written and verbal communication skills.
  • You can multi-task and work on multiple projects simultaneously within a dynamic, fast-paced environment.
  • You are detail-oriented, incredibly meticulous, and you enjoy the fine attention to detail required to spot, prevent, and troubleshoot any issues before our clients find them

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Arquitecto Cloud / Sector Bancario
  • Devsu
  • Quito (In-office)
DevOps Virtualization Amazon Web Services Docker

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo, aprendizaje continuo y la flexibilidad serán elementos muy presentes.

Buscamos un Arquitecto Cloud, para trabajar de forma presencial desde Quito, Ecuador en proyectos retadores del sector financiero/bancario.

Job source: getonbrd.com.

Funciones del cargo

  • Diseñar arquitecturas cloud: Analizar requisitos técnicos y de negocio para definir la mejor estrategia de nube (AWS, Azure, Google Cloud).
  • Implementar soluciones: Configurar y desplegar infraestructura cloud usando herramientas de automatización (Terraform, CloudFormation, Azure ARM).
  • Optimizar y gestionar: Evaluar el uso de recursos, optimizar costos y asegurar el rendimiento y la escalabilidad de las soluciones.
  • Desarrollar estrategias de migración: Diseñar planes para migrar aplicaciones y datos locales a la nube minimizando riesgos.
  • Asegurar la seguridad: Aplicar mejores prácticas de seguridad y compliance en todas las soluciones implementadas.
  • Colaborar y documentar: Trabajar con equipos multidisciplinarios y mantener documentación técnica clara y precisa.

Requerimientos del cargo

Formación: Título en Ingeniería en Sistemas, Ciencias de la Computación o afines.

Experiencia: Mínimo 3 años en roles similares, preferiblemente en el sector financiero.

Conocimiento técnico:

  • Plataformas Cloud: AWS, Azure (Experiencia y/o conocimiento en ambas)
  • Modelos de servicio: IaaS, PaaS, SaaS.
  • Arquitectura de microservicios, APIs, mensajería, eventos.
  • Bases de datos en la nube: relacionales y no relacionales.
  • Redes y conectividad: VPN, redes virtuales, interconexión entre nubes.
  • DevOps y CI/CD: Azure DevOps, Docker, Kubernetes.
  • Seguridad: Gestión de identidades, prácticas de seguridad cloud.
  • Monitoreo: CloudWatch, Azure Monitor, Stackdriver.

Habilidades de programación: Automatización y scripting (Terraform, CloudFormation, Azure ARM).

Habilidades blandas: Comunicación efectiva, resolución de problemas y trabajo en equipo.

Opcionales

Certificaciones: Valorable AWS Certified Solutions Architect, Azure Administrator, u otras certificaciones cloud.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2100 Full time
QA Mobile
  • Coderslab.io
  • Santiago (Hybrid)
Android iOS Agile Continuous Integration

Coderslab.io es una empresa global que impulsa la transformación y el crecimiento empresarial a través de soluciones tecnológicas innovadoras. Con más de 3.000 empleados en América Latina y Estados Unidos, trabajamos en proyectos desafiantes y de alto impacto, integrando equipos de élite para ofrecer resultados que impulsen tanto las carreras como a las compañías. Nuestro ecosistema fomenta el aprendizaje continuo mediante la colaboración con profesionales senior y el uso de tecnologías de vanguardia.

This job is original from Get on Board.

Funciones del cargo

-Participar en la definición de requisitos, flujo de trabajo y procesos de control de calidad
-Participar activa y eficientemente de las ceremonias ágiles
-Crear planes y casos de prueba completos y significativos
-Informar problemas relacionados a los requerimientos funcionales y no funcionales (rendimiento, disponibilidad, etc)
-Reporte y seguimiento de bugs/defectos
-Análisis de logs
-Detección de oportunidades de mejora en el proceso de desarrollo

Requerimientos del cargo

-Conocimiento y experiencia en metodologías ágiles (Scrum, Kanban)
-Capacidad para colaborar efectivamente con equipos de desarrollo y otros stakeholders
-Experiencia en la elaboración y ejecución de planes de prueba
-Conocimientos sólidos en el ciclo de vida del desarrollo de software (SDLC)
-Habilidad para documentar claramente los casos de prueba, resultados y defectos
-Conocimiento de herramientas de gestión de pruebas (JIRA, TestRail).
-Experiencia con integración continua y herramientas de CI/CD (Jenkins, GitLab CI)
-Experiencia con pruebas de API (Postman, SoapUI)
-Experiencia con pruebas Mobile (Android, iOS)

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Comunicaciones
  • BLUE SMILE TECHNOLOGY
  • Santiago (In-office)
REST API Linux JSON Virtualization
BLUE SMILE TECHNOLOGY es una empresa global y visionaria que se posiciona como líder en la transformación digital de sus clientes, generando soluciones tecnológicas de alto nivel que les permiten crecer de forma sostenible y consolidarse como actores relevantes en sus mercados. La división a la que se integrará el Ingeniero de Comunicaciones trabaja en proyectos innovadores de infraestructura y redes de comunicación, diseñando, implementando y manteniendo sistemas que soportan la conectividad y seguridad esenciales para las operaciones de clientes nacionales e internacionales.
Esta área es clave para asegurar el buen funcionamiento de las comunicaciones y la transmisión de datos, aprovechando las últimas tecnologías en redes definidas por software (SDN), nube pública y seguridad para garantizar soluciones robustas y eficientes.

© getonbrd.com.

Responsabilidades principales

Este rol tiene como objetivo asegurar el diseño, la implementación y el mantenimiento óptimo de redes de comunicación para nuestros clientes y proyectos. Entre sus funciones principales se incluyen:
  • Diseñar arquitecturas de redes LAN/WAN, SDN y SD-WAN, integrando tecnologías de transmisión de datos avanzadas.
  • Implementar soluciones de conectividad seguras y escalables, incluyendo VPNs y equipos de telecomunicaciones como switches y routers.
  • Gestionar y optimizar el tráfico de red mediante análisis detallados para mejorar el rendimiento y la eficiencia.
  • Supervisar la seguridad de redes, aplicando protocolos y políticas para proteger la infraestructura frente a amenazas.
  • Administrar y mantener infraestructura en sistemas Linux, y utilizar tecnologías de contenedores como Kubernetes y Docker para desplegar y orquestar aplicaciones relacionadas.
  • Documentar procesos, configuraciones y desarrollos relacionados con redes y telecomunicaciones.
  • Colaborar con equipos interdisciplinarios en proyectos de transformación digital, aportando experiencia técnica y recomendaciones para la evolución tecnológica.

Requisitos del puesto

Buscamos un profesional titulado o egresado en Ingeniería, Ingeniería Civil, Ingeniería de Ejecución en Computación o Informática, o carreras afines. El candidato ideal debe contar con al menos 2 años de experiencia en telecomunicaciones o redes de comunicación, demostrando competencias en diseño, implementación y mantenimiento de redes.
Es imprescindible contar con al menos cuatro certificaciones reconocidas entre las siguientes:
  • CompTIA Network+ o similar.
  • CCNA (Cisco Certified Network Associate) o equivalente.
  • Certificaciones en tecnologías SDN (Cisco ACI, AWS, Azure, NSX VMware).
  • Certificación Palo Alto Networks (PCSFE).
  • Certificación en equipamiento de seguridad de redes.
  • Especialización o Maestría en Telecomunicaciones, Redes de Datos o áreas relacionadas.
  • Cursos complementarios en gestión de proyectos (PMI) o administración.
Además, el candidato debe demostrar profundos conocimientos en al menos seis de las siguientes áreas:
  • Tecnologías de red como SDN, SD-WAN, LAN/WAN, VPNs.
  • Protocolos de comunicación TCP/IP, UDP.
  • Tecnología DWDM (Dense Wavelength Division Multiplexing).
  • Conocimientos avanzados en sistemas Linux.
  • Programación y manejo de datos en JSON, API REST, XSLT, XML.
  • Gestión y orquestación con contenedores Kubernetes y Docker.
  • Manejo y configuración de equipos de telecomunicaciones como switches y routers.
  • Seguridad en redes y análisis de tráfico para optimización.
  • Sistemas de transmisión de datos.
  • Capacidad para analizar tráfico y mejorar la eficiencia de las redes.
Se valoran además habilidades blandas como trabajo en equipo, proactividad, capacidad analítica, resolución de problemas, y buena comunicación tanto técnica como interdepartamental.

Habilidades y certificaciones deseables

Es valorable contar con certificaciones adicionales o especializaciones en gestión avanzada de proyectos (PMI), experiencia en entornos cloud como AWS o Azure relacionados con redes, conocimientos en seguridad avanzada de redes más allá de lo básico y dominio de nuevas tendencias en redes definidas por software y virtualización de funciones de red.
Asimismo, se aprecia una actitud de aprendizaje permanente, capacidad para adaptarse a entornos ágiles y dinámicos, y experiencia previa en proyectos internacionales o con alcance global.

Beneficios y entorno de trabajo

Trabajamos en un entorno innovador dentro de una empresa global que impulsa el desarrollo profesional mediante formación continua y proyectos desafiantes que potencian el crecimiento personal y técnico.
Fomentamos un ambiente colaborativo y flexible, ofreciendo modalidad remota local para adaptarnos a las necesidades de cada colaborador.

VIEW JOB APPLY VIA WEB
Gross salary $2300 - 2800 Full time
DevOps Senior
  • Coderslab.io
  • Santiago (Hybrid)
Agile Git Linux DevOps
Coderslab.io busca incorporar a su equipo a un(a) DevOps Senior para el Proyecto Penicilina. El/la profesional será parte de una unidad centrada en garantizar la eficiencia, escalabilidad y confiabilidad de la infraestructura, implementando prácticas de automatización y gestión de configuración. El Proyecto Penicilina es una iniciativa innovadora dentro de nuestra área tecnológica, con un enfoque en arquitecturas modernas y mejora continua, contribuyendo al crecimiento y la competitividad de nuestros clientes a nivel global. La modalidad de trabajo es híbrida, con días presenciales acordados con el equipo, y una estructura de colaboración internacional que impulsa el desarrollo profesional en un entorno desafiante y colaborativo. Duración del proyecto: 7 meses.

Apply to this job through Get on Board.

Funciones

  • Implementar y mantener Cookbooks de Chef y playbooks de Ansible para gestionar infraestructura y despliegues.
  • Gestionar y optimizar procesos de CI/CD, garantizando entregas rápidas, confiables y reproducibles.
  • Administrar contenedores y orquestadores (Docker, Kubernetes) para entornos de producción y desarrollo.
  • Definir y mantener infraestructura como código (Terraform, Pulumi) para garantizar escalabilidad y seguridad.
  • Garantizar la seguridad y escalabilidad de la infraestructura, gestionando incidentes y realizando mejoras continuas.
  • Colaborar en la definición e implementación de estrategias de monitoreo (Prometheus, Grafana, ELK, Datadog) y observabilidad.
  • Trabajar en entornos ágiles (Scrum, Kanban) y promover la cultura DevOps en la organización.
  • Gestión de secretos (Vault u herramientas equivalentes) y administración de redes y seguridad (firewalls, balanceo de carga).
  • Comunicación efectiva y colaboración con equipos multidisciplinarios para cumplir objetivos y plazos.

Descripción

Buscamos un(a) DevOps Senior para integrarse a nuestro equipo en el Proyecto Penicilina. El/la profesional será responsable de garantizar la eficiencia, escalabilidad y confiabilidad de nuestra infraestructura, implementando mejores prácticas de automatización y gestión de configuración. Requisitos técnicos obligatorios incluyen experiencia de 3+ años en DevOps o administración de infraestructura, 2+ años en administración de sistemas Linux, experiencia en entornos ágiles y conocimientos en herramientas como Terraform, Pulumi, Git/GitLab, Docker, Kubernetes, Chef, Ansible, Terraform, Azure o GCP, y gestión de secretos (Vault). Habilidades blandas como trabajo en equipo, orientación a resultados y proactividad son esenciales. El rol implica implementación y mantenimiento de infraestructuras como código, CI/CD, monitoreo y respuesta a incidentes, con un enfoque en seguridad y escalabilidad.

Requisitos deseables

Conocimientos en API Management (Apigee, Kong), mensajería con RabbitMQ y experiencia en entornos de nube pública (Azure o GCP). Se valorará experiencia en Kubernetes avanzado (GKE, AKS), así como habilidades de scripting/automatización avanzada y capacidad para trabajar en ambientes dinámicos y multiculturales. Capacidad de priorizar, comunicarse efectivamente y adaptarse a cambios rápidos dentro de una organización en crecimiento.

Beneficios

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
Senior AWS Engineer (Night Shift)
  • Niuro
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply exclusively at getonbrd.com.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Automation Engineer (GCP, Cypress)
  • Devsu
JavaScript QA Continuous Deployment QA-Automation

With over 10 years of experience creating innovation for companies, from startups to major corporations in the United States and Latin America across various industries such as entertainment, banking, healthcare, retail, education, and insurance.

At Devsu, you'll be working with the best professionals from whom you'll have the opportunity to constantly learn and participate in exciting and challenging projects for global clients. Our team operates from over 18 countries around the world, working on various software products and fields.

You'll have the chance to be in a multicultural environment with a flat structure, where teamwork, continuous learning, and flexibility will be prominent elements.

We are seeking a highly experiencedSemi Senior QA Automation Engineer (GCP/Cypress) to join our team remotely from anywhere in Latin America at Devsu.

This posting is original from the Get on Board platform.

Funciones del cargo

  • Design, implement, and maintain automated tests (unit, integration, and E2E) using Cypress.
  • Execute and document functional tests for critical business scenarios.
  • Perform API testing to validate backend services.
  • Configure and optimize CI/CD pipelines in GitHub Actions.
  • Work with GCP services (Cloud Functions, Workflows, App Engine, credentials).
  • Refactor and improve coverage of legacy code.
  • Participate in defining and implementing effective testing practices.
  • Execute cross-browser and multi-device testing (Browserstack – nice to have).

Requerimientos del cargo

  • 2–3 years of experience in test automation with JavaScript.
  • Strong hands-on experience with Cypress for E2E testing (1–2 years minimum).
  • Experience with API testing (Postman, JS libraries).
  • 2+ years of experience with GCP, including Cloud Functions, Workflows, App Engine, and credential management.
  • Experience with CI/CD using GitHub Actions (deployment and PR validation).
  • At least 1 year of experience in functional QA.
  • Fluent English – minimum B2 level.

Soft Skills

  • Excellent interpersonal and communication skills.
  • Proactivity and continuous improvement mindset.
  • Flexibility to alternate between functional QA and automation when required.

Opcionales

  • Knowledge of Angular.
  • Experience with Browserstack.

Benefits

At Devsu, we believe in creating an environment where you can thrive both personally and professionally. By joining our team, you'll enjoy:

  • A stable, long-term contract with opportunities for professional growth
  • Private health insurance
  • A remote culture that promotes work-life balance
  • Ongoing training, mentoring, and learning programs to keep you at the forefront of the industry
  • Free access to AI training resources and cutting-edge AI tools to enhance your daily work
  • A flexible paid time off (PTO) policy and paid holidays
  • Challenging, world-class software projects for clients in the U.S. and Latin America
  • Collaboration with some of the most talented software engineers in Latin America and the U.S., in a diverse work environment

Join Devsu and discover a workplace that values your growth, supports your well-being, and empowers you to make a global impact.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Analista QA Senior
  • BC Tecnología
  • Santiago (Hybrid)
Agile QA Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con enfoque en soluciones para clientes de servicios financieros, seguros, retail y gobierno. Diseñamos soluciones a medida, gestionamos portafolio de proyectos, realizamos outsourcing y selección de profesionales. Nuestro objetivo es formar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, asegurando alta calidad, entrega temprana y valor para el negocio. Participarás en proyectos innovadores para clientes de alto perfil, con un entorno que promueve la inclusión, el aprendizaje continuo y el desarrollo técnico y profesional.

Apply only from getonbrd.com.

Funciones

  • Analizar y diseñar planes de pruebas para garantizar la calidad de plataformas digitales.
  • Desarrollar y mantener automatización de pruebas con Playwright, Cypress o Selenium.
  • Ejecutar pruebas de API (Postman, Newman) y aplicar enfoques de BDD (Cucumber, Gherkin).
  • Trabajar en entornos cloud (AWS) dentro de equipos ágiles, participando en revisiones y mejoras continuas.
  • Colaborar con equipos de desarrollo y producto para definir criterios de aceptación y garantizar la estabilidad de releases.
  • Documentar resultados, crear informes de calidad y proponer mejoras preventivas y correctivas.

Descripción

En BC Tecnología estamos buscando un QA Senior con experiencia en automatización para garantizar la calidad y estabilidad de plataformas digitales. El/la candidato/a ideal debe poseer al menos 3 años de experiencia en QA automatizado, con dominio de herramientas de automatización (Playwright, Cypress o Selenium) y pruebas de API. Se valorará conocimiento en entornos cloud (AWS) y prácticas ágiles. Se busca proactividad, atención al detalle y capacidad de trabajar en equipos multidisciplinarios en un entorno híbrido.

Deseables

  • Experiencia en fintech, retail o medios de pago.
  • Conocimiento en pruebas de rendimiento y seguridad.
  • Certificaciones en QA y metodologías ágiles.
  • Habilidad de comunicación en español e inglés técnico.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1300 Full time
Analista QA (Plazo Fijo)
  • Autofact
SQL QA Selenium TDD

Autofact es la empresa de información y tecnología que más innovaciones ha desarrollado en el proceso de compra y venta de vehículos en la industria automotriz de Chile. Con más de 13 años de trayectoria, nuestro propósito es hacer simple y segura la compra de vehículos.

¡Seguimos creciendo! Nuestro equipo está compuesto por más de 130 personas con gran espíritu de compañerismo, actitud y entusiasmo, quienes día a día buscan desarrollar los mejores productos y servicios para nuestros clientes.

¿Cómo? A través de herramientas digitales y servicios de información, entregando más de 100 mil informes y realizando más de 16 mil transferencias de vehículos mensualmente, todo a través de nuestras aplicaciones.

Si te gusta una dinámica ágil e innovadora y compartir con equipos que les gusta trabajar y celebrar aún más ¡Autofact es para ti!

Apply only from getonbrd.com.

Funciones del cargo

El propósito general del Analista QA en Autofact es planificar y llevar a cabo pruebas exhaustivas, tanto manuales como automatizadas, contribuyendo activamente a la mejora continua de los entregables. Con el objetivo de garantizar la calidad de los desarrollos generados por la célula de trabajo. Entre las responsabilidades del cargo se incluyen, entre otras:

  • Analizar y comprender los requerimientos del negocio a partir del diseño funcional y las historias de usuario, interactuando con el Product Owner y otros interesados.
  • Planificar la realización de actividades QA (análisis, diseño y ejecución de pruebas), estimando el tiempo requerido y velando por cierres de sprint exitosos.
  • Crear casos de prueba funcionales, que permitan verificar el cumplimiento de los criterios de aceptación de las historias de usuario.
  • Ejecutar las pruebas funcionales correspondientes a cada historia de usuario. Generando instancias para el levantamiento de necesidades de automatización de pruebas E2E, de servicios o unitarias al interior de la célula.
  • Aportar con su visión de QA en el refinamiento y en la planning especialmente en los criterios de aceptación.

Requerimientos del cargo

Buscamos un profesional con una experiencia de al menos 2 años como analista QA, titulado en carreras relacionadas como Ingeniería en Computación, en Informática, en Sistemas y afines.

Esperamos que tengas dominio en tecnologías como SQL, Jira y Postman. Se valorará el conocimiento en metodologías ágiles, así como también en automatización de pruebas con Cypress/Selenium y procesos de Firma Electrónica.

En cuanto a habilidades personales, le damos gran importancia al trabajo en equipo, buscamos a un nuevo integrante que tenga desarrollado su pensamiento analítico, que preste atención a los detalles y que entregue trabajos de calidad, siempre teniendo como foco las necesidades del cliente.

Condiciones

  • Proveemos un computador para realizar tu trabajo, junto con los implementos necesarios para equipar tu home office.
  • Horario flexible con una jornada laboral de 37,5 horas semanales, gestionada de manera autónoma dentro de ciertos límites básicos.
  • Esta oferta es por un período fijo de 6 meses.
  • Somos una empresa Cloud First, con toda la arquitectura montada en AWS, lo que permite trabajar con tecnologías de vanguardia.
  • Modalidad de trabajo 100% remoto, para que puedas desempeñarte desde cualquier lugar.
  • Código de vestimenta libre, dentro de límites razonables.
  • Programa de beneficios flexibles a través de puntos que permite personalizar recompensas como día libre por cumpleaños (canjeable hasta un mes posterior), hasta 5 días extras a las vacaciones, bonos para capacitación, giftcards de cumpleaños, alimentación o retail, y otros incentivos según preferencias individuales.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Autofact pays or copays health insurance for employees.
Computer provided Autofact provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
DevOps Engineer
  • Viaro Networks
Python Agile Linux DevOps

Company Description:

Viaro Networks Inc. is a leading organization in the technology sector, recognized for its innovative approach and operational excellence. As we continue to expand, we are looking to add a highly skilled and motivated DevOps Engineer to our team.

Are you passionate about automation, cloud infrastructure, and driving continuous improvement?. This is your chance to make an impact! We’re seeking a skilled DevOps Engineer to join our innovative team, where you’ll play a key role in scaling and optimizing our world-class technology infrastructure.

© getonbrd.com. All rights reserved.

Key Responsibilities

  • Design, build, and maintain scalable and secure cloud infrastructure on AWS to support production workloads and growth trajectories.
  • Automate provisioning, deployment, and operations using Infrastructure as Code (Terraform) to enable repeatable, auditable changes.
  • Develop and optimize CI/CD pipelines to ensure smooth, reliable, and fast releases across environments.
  • Implement and maintain robust security controls, compliance measures, and access governance within the cloud environment.
  • Proactively monitor systems, respond to incidents, and drive continuous improvement through post-incident reviews and automation.
  • Participate in a 24/7 on-call rotation for production incident response and remediation.
  • Support disaster recovery planning and ensure business continuity with defined RPO/RTO targets.
  • Collaborate with development, security, and product teams to define requirements and drive best practices in reliability and performance.

What You’ll Bring

We are seeking a DevOps Engineer with a passion for automation, cloud infrastructure, and continuous improvement. The ideal candidate will have hands-on experience in cloud engineering, a strong foundation in IaC, and an ability to translate ambiguous requirements into scalable, secure solutions. You will thrive in a fast-paced environment, demonstrate strong collaboration and communication skills, and be comfortable working in an agile setting.

Technical Skills: 2+ years in DevOps, SRE, or Cloud Engineering roles; proven expertise with AWS core services; strong proficiency with Terraform; hands-on experience with CI/CD tools (Jenkins, GitHub Actions, etc.); scripting in Python, Bash, or PowerShell; experience with containers and orchestration (Docker, Kubernetes/EKS); familiarity with monitoring and logging stacks (Prometheus, Grafana, ELK) and cloud security and compliance best practices.

Soft Skills: Clear and empathetic communication with technical and non-technical stakeholders; consultative mindset to understand client needs and propose practical solutions; adaptable to new technologies and changing priorities; strong time management to handle multiple projects in an agile environment; analytical problem-solving abilities; proficient English communication skills (minimum ~80% proficiency).

Nice-to-Haves

AWS certifications (Solutions Architect, DevOps Engineer, etc.); experience with Agile/Scrum methodologies; knowledge of Site Reliability Engineering (SRE) practices; experience with advanced monitoring tools (Prometheus, Grafana, ELK Stack); prior experience in security-focused roles or governance frameworks; familiarity with cost optimization in cloud environments.

What We Offer

Join Viaro Networks and work with a talented, collaborative team dedicated to innovation in automation and network infrastructure. We offer opportunities to grow technically and impact the product roadmap, exposure to a modern cloud stack, and a culture that prioritizes reliability and continuous improvement. Flexible work practices and a supportive environment help you balance delivery with growth. If you’re excited to make an impact and drive cloud-native solutions at scale, apply to join our team.

Computer provided Viaro Networks provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Administrador de Sistemas SysOps
  • Genesys Tecnologías de Inform. SpA
  • Bogotá (Hybrid)
Python Linux Sysadmin English
En Genesys Tecnologías de Inform. SpA, somos una empresa de desarrollo de software y servicios TI con más de 30 años de experiencia en Latinoamérica. Buscamos un Administrador de Sistemas (SysOps) para gestionar y mantener nuestro parque de dispositivos Linux, enfocado principalmente en puntos de acceso que operan sobre Linux. El equipo colabora de forma transversal con ingenieros y equipos de infraestructura para garantizar la disponibilidad, rendimiento y seguridad de la plataforma. El proyecto implica fortalecer la automatización, observabilidad y respuesta ante incidencias, manteniendo la documentación actualizada y apoyando la migración y despliegues continuos mediante herramientas de gestión y monitoreo de sistemas.

This offer is exclusive to getonbrd.com.

Funciones

  • Brindar soporte técnico de primer nivel para hardware y servicios basados en Linux.
  • Instalar, actualizar y mantener sistemas operativos Linux, incluyendo parches y scripting básico.
  • Configurar y resolver problemas de conexiones VPN para acceso seguro.
  • Apoyar la automatización de despliegues y configuraciones utilizando Ansible.
  • Monitorear rendimiento y disponibilidad del sistema mediante tableros Grafana.
  • Recopilar, analizar y resolver incidencias usando registros en Graylog.
  • Utilizar herramientas de diagnóstico (nmap, ARP) para identificar y resolver problemas de red.
  • Documentar incidentes, pasos de resolución y soluciones aplicadas.
  • Colaborar con ingenieros senior para escalar casos complejos.

Requisitos y perfil

Buscamos profesional con residencia en Bogotá y disponibilidad para trabajo presencial. Requisitos clave: Inglés fluido (oral y escrito) y sólidos conocimientos en administración de sistemas Linux (certificaciones como LPIC-1/2, CompTIA Linux+, o equivalentes). Debe tener comprensión de fundamentos de redes (TCP/IP, DNS, DHCP, VLANs) y experiencia práctica con VPNs. Se valorará experiencia en automatización y gestión de configuración con Ansible, así como experiencia en monitoreo (Grafana) y gestión de logs (Graylog). Habilidades de resolución de problemas, buena comunicación y capacidad para trabajar en equipo. Conocimientos de scripting o programación (Bash, Python) son deseables.

Deseables

Conocimientos de herramientas de seguridad y auditoría, experiencia en entornos híbridos y en soluciones de red empresariales. Experiencia adicional en cloud y automatización avanzada será considerada un plus.

Beneficios

Ofrecemos un contrato indefinido que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Analista QA Senior
  • Vain
  • Santiago (In-office)
QA Scrum Kanban Jira

En VAIN, una empresa constructora con más de 30 años de experiencia en el área de la construcción, el área de Tecnología realiza desarrollo de software propio para uso interno. La posición de analista QA senior reporta a la Gerencia de Tecnología y busca fortalecer el control de calidad a lo largo del ciclo de vida de los proyectos. El objetivo es liderar las actividades de aseguramiento de calidad dentro del modelo operativo de QA, analizando, diseñando, documentando, ejecutando y gestionando casos de prueba y defectos en Jira-Xray, garantizando la calidad y trazabilidad de los entregables.

Job opportunity published on getonbrd.com.

Responsabilidades

  • Planificar y coordinar las etapas de pruebas dentro de los ciclos del proyecto.
  • Analizar, diseñar y documentar casos de prueba en XRay, basados en requerimientos funcionales.
  • Gestionar y ejecutar pruebas manuales en Jira-Xray.
  • Registrar y gestionar defectos, generar evidencias y reportes de resultados.
  • Coordinar el ciclo completo de pruebas dentro de los periodos de certificación.
  • Colaborar con equipos de desarrollo, negocio y soporte en la resolución de incidencias.

Habilidades requeridas

  • Experiencia comprobable en QA avanzada.
  • Capacidad analítica y compromiso con la calidad.
  • Pensamiento crítico y atención al detalle.
  • Comunicación escrita clara.
  • Priorización por riesgo/impacto.
  • Colaboración con equipos técnicos y de negocio.

Habiliades deseables

  • Manejo de Jira y Xray (nivel avanzado deseable).
  • Conocimientos en metodologías ágiles (Scrum/Kanban).
  • Conocimiento en Gherkin.

Beneficios

  • La empresa no trabaja desde el 24 de diciembre hasta el 02 de enero, ni la semana de fiestas patrias, ni los lunes en que el martes es feriado, ni los viernes en que el jueves es feriado. A cambio se descuentan 5 días de vacaciones.
  • Bonos por cumpleaños, escolaridad, día de la madre, fiestas patrias y Navidad según asistencia.
  • Seguro de vida y seguro de salud complementario para trabajadores con más de 2 años en la empresa.
  • Los viernes se trabaja hasta las 14:30, y el día de tu cumpleaños trabajas hasta las 14:30 si es día hábil.
  • Aportes para estudios en áreas relacionadas con el trabajo para trabajadores con más de un año de antigüedad.

Health coverage Vain pays or copays health insurance for employees.
Computer provided Vain provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2200 - 2800 Full time
DevOps / Infraestructura Cloud
  • Centro Medico del Trabajador
  • Santiago (Hybrid)
DevOps Continuous Integration QA Virtualization

Centro Medico del Trabajador (CMT Salud) es un centro de salud enfocado en exámenes preocupacionales y medicina preventiva, con altos estándares de calidad. Buscamos escalar nuestra operación tecnológica para soportar despliegues por paises, con planes de expansión a nuevos mercados. El equipo técnico se orienta a entregar soluciones confiables, seguras y escalables que faciliten la gobernanza, monitoreo y continuidad operativa en un entorno regulado. Este rol será pieza clave en la separación de ambientes por país, migraciones a la nube y mejoras de rendimiento, trabajando en conjunto con QA, desarrollo y liderazgo técnico para lograr entregas predecibles y controladas.

© getonbrd.com.

🛠️ Funciones del Rol

  • Gestionar y optimizar la infraestructura en AWS (IAM, VPC, cuentas, accesos).
  • Mantener, mejorar y documentar los pipelines CI/CD, idealmente usando CodePipeline, GitHub Actions o Jenkins.
  • Implementar y mantener flujos ETL usando herramientas como AWS Glue o ZeroETL.
  • Optimizar entornos QA, staging y producción con foco en eficiencia, seguridad y confiabilidad.
  • Coordinar con QA y desarrollo los lanzamientos a producción, asegurando orden, visibilidad y rollback.
  • Ser responsable técnico de los procesos de release y despliegue binacional, incluyendo su planificación, documentación y trazabilidad.
  • Liderar mejoras de gobernanza, monitoreo, seguridad y continuidad operativa.
  • Participar en proyectos estratégicos: separación de ambientes por país, gestión de políticas de acceso, mejoras de performance.

📌 Requisitos y perfil

Buscamos profesionales con experiencia comprobable en DevOps / Infraestructura cloud (al menos 2 años). Dominio sólido de AWS (IAM, ECS/EKS, EC2, S3, VPC, CloudWatch, Glue, etc.) y experiencia con herramientas de CI/CD (CodePipeline, GitHub Actions o Jenkins). Habilidad para diseñar, documentar y ejecutar procesos de despliegue a producción, así como gestionar pipelines y ETL's (Glue o Zero ETL). Se valora conocimiento en infraestructura como código (Terraform, CDK) y buenas prácticas de seguridad, monitoreo y continuidad operativa. Capacidad para colaborar con equipos de QA, desarrollo y producto, manteniendo siempre un enfoque de mejora continua.

🧩 Perfil Deseable

  • Autonomía técnica y capacidad para estructurar soluciones sin supervisión directa.
  • Experiencia en equipos con entregas frecuentes y flujos CI/CD activos.
  • Participación en proyectos de estandarización de entornos o mejora continua en infraestructura cloud.
  • Buenas prácticas en seguridad, monitoreo y continuidad operativa en AWS.
  • Capacidad para colaborar con equipos en Chile y Perú, en un entorno distribuido.

🎁 Beneficios y cultura

  • Cursos en udemy: Nos importa que constantemente estés aprendiendo y creciendo profesionalmente.
  • Convenio con gimnasio.
  • Convenio con Caja Los Andes.
  • Exámenes preventivos realizados en el CMT.
  • Seguro complementario de salud.
  • Convenio App MUVU (bienestar corporativo).
  • No dresscode: ¡Vístete como tú quieras!
  • Bar Office: al menos una vez al mes salimos a trabajar a un bar para generar un ambiente distendido.

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior en Automatización de Pruebas
  • CoyanServices
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

This company only accepts applications on Get on Board.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Líder Senior de QA Automation
  • BC Tecnología
  • Santiago (Hybrid)
QA Virtualization Docker Continuous Deployment
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales. Nos enfocamos en crear equipos de trabajo ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, atendiendo a clientes de servicios financieros, seguros, retail y gobierno. El candidato seleccionado formará parte de proyectos innovadores para clientes de alto nivel, contribuyendo a la implementación de prácticas de QA avanzadas y al fortalecimiento de la calidad del software a lo largo del ciclo de desarrollo.

Apply to this job through Get on Board.

Principales responsabilidades

  • Definir e implementar frameworks de automatización de pruebas.
  • Ejecutar y mantener pruebas funcionales, de regresión y smoke.
  • Incorporar suites automatizadas dentro de los pipelines CI/CD.
  • Integrar pruebas en Jenkins, GitLab CI o GitHub Actions.
  • Realizar mentoring técnico al equipo QA en ISTQB y buenas prácticas.
  • Revisar y aprobar pull requests de pruebas automatizadas.
  • Gestionar ambientes de prueba en Docker y Kubernetes.
  • Desarrollar microservicios de apoyo al testing y la calidad continua.
  • Proponer e implementar iniciativas de innovación en QA Automation.

Requisitos y perfil

Buscamos un profesional con 5+ años de experiencia en QA Automation y al menos 2 años liderando equipos o proyectos de automatización. Debe poseer sólidos conocimientos en metodologías ágiles y en testing continuo, así como experiencia práctica con frameworks de automatización y pipelines CI/CD. Se valoran habilidades de liderazgo, comunicación y visión estratégica, orientadas a promover la cultura Shift Left y la excelencia técnica dentro del equipo. Se requiere capacidad para trabajar en entornos de pruebas con Docker y Kubernetes, y para colaborar estrechamente con desarrollo y operaciones para entregar software de alta calidad.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero DevOps – Modalidad Híbrida
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Git Linux
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales, con foco en soluciones para clientes de servicios financieros, seguros, retail y gobierno. En este rol, participarás en proyectos innovadores para clientes de alto nivel, integrando equipos ágiles y promoviendo buenas prácticas DevOps para entregar soluciones tecnológicas escalables y seguras. La posición se realiza bajo modalidad híbrida en Las Condes, con enfoque en crecimiento profesional, aprendizaje continuo y colaboración entre equipos.

Exclusive to Get on Board.

Responsabilidades Principales

  • Diseñar, implementar y mantener pipelines de CI/CD;
  • Automatizar infraestructura con herramientas como Terraform, Ansible o similares;
  • Gestionar configuraciones y despliegues en entornos cloud (Azure, AWS o GCP);
  • Monitorear y garantizar la disponibilidad, rendimiento y seguridad de las aplicaciones;
  • Implementar estrategias de contenedorización y orquestación (Docker, Kubernetes);
  • Establecer políticas de versionamiento, rollback, pruebas automáticas y despliegue continuo;
  • Brindar soporte y asesoría a equipos de desarrollo y operaciones en buenas prácticas DevOps;
  • Participar en la mejora continua y capacitación interna en metodologías DevOps.

Requisitos y Perfil Buscado

Requisitos técnicos: herramientas DevOps (CI/CD: Jenkins, GitLab CI, Azure DevOps, CircleCI); contenedores y orquestadores (Docker, Kubernetes, Helm); infraestructura como código (Terraform, Ansible, CloudFormation); control de versiones (Git, GitHub, GitLab, Bitbucket); monitoreo y logging (Prometheus, Grafana, ELK Stack, Datadog, New Relic); cloud (AWS, Azure, GCP); scripting (Bash, Python, PowerShell). Deseable experiencia en metodologías ágiles (Scrum, Kanban); DevSecOps y pruebas automatizadas; entornos multicloud o híbridos. Experiencia mínima de 3 años en DevOps o roles similares, con evidencia de implementación de pipelines, automatización de despliegues y administración de infra en la nube.

Conocimientos y Habilidades Deseables

Conocimiento en enfoques de seguridad en pipeline y despliegues; experiencia trabajando con equipos multiculturales y distribuidos; capacidad de comunicación efectiva y orientación a resultados; habilidades de resolución de problemas y adopción de buenas prácticas de desarrollo y operaciones. Se valora certificaciones en nube y DevOps, así como experiencia en entornos financieros o regulados.

Beneficios y Entorno de Trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Lead DevOps Engineer
  • Niuro
DevOps Virtualization Big Data BigQuery
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. As a Lead DevOps Engineer within Niuro, you will join a globally distributed, autonomous team focused on delivering robust, scalable cloud-based solutions for data-heavy fintech projects. You will partner with client teams to architect and implement end-to-end cloud operations, automation, and monitoring in a fast-paced, high-impact environment. The role emphasizes hands-on leadership, cross-functional collaboration, and the ability to drive infrastructure excellence across multiple projects, ensuring reliability, security, and rapid delivery. This position offers 100% remote work with opportunities for long-term collaboration and professional growth within a supportive, globally distributed company.

Apply to this job from Get on Board.

Lead DevOps Engineer

  • Own the end-to-end DevOps lifecycle for cloud-based fintech data platforms, including design, deployment, monitoring, and ongoing optimization.
  • Lead architecture decisions around Azure, Terraform, and Cloudflare integrations to deliver scalable, secure, and highly available environments.
  • Implement and manage Grafana-based observability, alerts, and automated remediation to minimize production issues and downtime.
  • Engineer continuous deployment pipelines, implement hotdeploy processes, and oversee cloud operations to support rapid feature delivery with minimal risk.
  • Plan and execute data migrations to data warehouses (e.g., BigQuery) and reporting platforms (e.g., Power BI), coordinating with data engineers and analysts.
  • Containerize applications using Docker and manage container orchestration, ensuring reproducibility and efficient resource usage.
  • Validate changes autonomously, performing risk assessments to ensure minimal bugs and production impact.
  • Collaborate with fintech product teams to translate business requirements into scalable DevOps solutions, maintaining strong emphasis on security and compliance.
  • Mentor junior engineers, promote best practices, and drive continuous improvement in processes and tooling.

What you will bring

We are seeking a senior DevOps engineer with deep expertise in Azure, Terraform, and Cloudflare, complemented by hands-on experience with Grafana, Docker, and data-focused cloud operations. The ideal candidate will have a track record of delivering secure, scalable cloud platforms for fintech or data-intensive applications, with strong communication and autonomous delivery capabilities. You should be comfortable working in a fully remote, globally distributed team, actively collaborating with cross-functional stakeholders to align infrastructure with product goals. Key skills include proficiency in BigQuery, ETL processes, data migration strategies, and experience enabling seamless CI/CD, monitoring, and incident response. Excellent problem-solving, leadership, and a proactive approach to continuous improvement are essential.

Nice-to-have

Desirable qualifications include prior fintech or lending domain exposure, experience with Power BI data modeling, and a demonstrated ability to lead in a matrixed, remote environment. Familiarity with security and compliance standards relevant to financial services (e.g., data protection, access controls, audit trails) is highly valued. Candidates who have led data migrations or large-scale cloud modernization efforts will stand out, along with those who have mentored teams and advanced architectural thinking in DevOps contexts.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 2600 Full time
DevOps GCP – Automatización Mastercard
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL DevOps
En BC Tecnología trabajamos en proyectos de alto impacto para clientes de servicios financieros. Este rol forma parte de un proyecto de automatización por API del proceso de pre-arbitraje Mastercard, enfocado en orquestar flujos en la nube utilizando Google Cloud Platform. El objetivo es entregar soluciones escalables y seguras que optimicen procesos, incrementen la fiabilidad y reduzcan el tiempo de ciclo de operaciones. Trabajarás junto a equipos de Infraestructura, Desarrollo y QA para construir, desplegar y mantener pipelines de automatización, integraciones entre componentes y servicios web, y soluciones basadas en contenedores para entornos de producción y desarrollo. La experiencia y las habilidades del candidato permitirán implementar prácticas de DevOps modernas, facilitar la entrega continua y soportar un entorno de servicios financieros regulados.

Apply at getonbrd.com without intermediaries.

Funciones

  • Diseñar, implementar y mantener pipelines de CI/CD en Google Cloud Platform para automatización de procesos y APIs.
  • Desarrollar microservicios y componentes de automatización utilizando Python, con integración a APIs y Web Services.
  • Configurar y gestionar contenedores (Docker) y orquestación (Kubernetes) para entornos de desarrollo, pruebas y producción.
  • Trabajar con BigQuery y SQL para manejo de datos, validación de procesos y generación de métricas de rendimiento.
  • Automatizar pruebas, monitoreo y logging; asegurar cumplimiento de políticas de seguridad y gobernanza de datos.
  • Colaborar con equipos multifuncionales para definir requisitos, estimaciones y planes de mitigación de riesgos.
  • Participar en revisiones de código, documentar soluciones y promover buenas prácticas de DevOps.

Requisitos

Experiencia comprobable en Google Cloud Platform (GCP) con énfasis en automatización de procesos e integración de APIs.
Conocimientos sólidos en Python, SQL, BigQuery, Docker y Kubernetes.
Experiencia en manejo de APIs y servicios web; capacidad para diseñar soluciones resilientes y escalables.
Historial trabajando en entornos de integración y entrega continua, preferiblemente en proyectos de banca, seguros u otros servicios regulados.
Habilidad para trabajar de forma colaborativa en equipos ágiles, con buenas prácticas de documentación, pruebas y seguridad.
Deseable: experiencia adicional en herramientas de observabilidad (monitoring, tracing), gestión de secretos y seguridad en la nube.

Desirable

Certificaciones en GCP o DevOps (por ejemplo, Google Cloud Professional Cloud Architect, AWS/Azure equivalentes, o certificaciones de Kubernetes).
Conocimientos de herramientas de automatización de flujo de trabajo y orquestación adicional (por ejemplo, Terraform, Ansible, GitOps).
Experiencia previa con entornos de Mastercard o procesos de pre-arbitraje, o en soluciones de pagos digitales.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Senior Freelance
  • CoyanServices
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

This job offer is available on Get on Board.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior AWS Cloud Engineer
  • Merapar
Python Virtualization Amazon Web Services Cloud Computing

Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

Apply to this job from Get on Board.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developer

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Sysadmin (Administrador/a de Sistemas)
  • BC Tecnología
  • Santiago (Hybrid)
SQL NoSQL Sysadmin DevOps
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales para clientes en servicios financieros, seguros, retail y gobierno. Nuestro enfoque es entregar soluciones ágiles y escalables, con equipos especializados en Infraestructura, Desarrollo de Software y Unidades de Negocio. En este rol, te incorporarás a un equipo orientado al soporte y la administración de infraestructuras críticas, participando en proyectos innovadores para clientes de alto nivel y con un compromiso claro de excelencia operativa y customersociedad digital.

Apply without intermediaries through Get on Board.

Funciones principales

  • Atender incidentes, incidencias y solicitudes de servicio de clientes internos en turnos rotativos.
  • Administrar y mantener la infraestructura tecnológica para garantizar alto rendimiento y disponibilidad.
  • Implementar y documentar monitoreo preventivo para experiencias críticas y de negocio.
  • Liderar mesas de incidentes y participar activamente en la resolución de problemas.
  • Supervisar y dar soporte a plataformas y experiencias digitales.
  • Documentar procesos, configuraciones y flujos de trabajo técnicos para mejorar la trazabilidad y escalabilidad.

Descripción

Buscamos un SysAdmin con al menos 2 años de experiencia en roles de administración de sistemas o DevOps. Es deseable experiencia en Kubernetes y/o Docker Swarm (en entornos on-premise o en la nube: GCP, AWS, Azure), así como familiaridad con herramientas de monitoreo (ELK, Datadog, AppDynamics). Es fundamental experiencia con bases de datos SQL y NoSQL (por ejemplo Cassandra, MongoDB) y manejo de herramientas de ticketing (Jira). Se valorarán habilidades para trabajar en entornos colaborativos, con orientación a resultados, buena gestión del tiempo y capacidad para comunicar con claridad a equipos técnicos y no técnicos.

Requisitos deseables

Competencias en automatización de infraestructuras, experiencia en entornos regulados y conocimiento de buenas prácticas de seguridad y cumplimiento. Capacidad para analizar incidentes complejos, proponer soluciones sostenibles y documentar de forma clara. Se valorará certificaciones relacionadas con sistemas, nube y contenedores, así como habilidades de trabajo en equipos ágiles y conocimiento de metodologías de ITIL o similares.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Consultor DBA Senior – Oracle 10g y 19c
  • Lisit
SQL Oracle PL/SQL Database Administrator
En Lisit buscamos un Consultor DBA Senior para liderar un proyecto crítico de migración y actualización de bases de datos Oracle. El candidato será responsable de planificar, coordinar y ejecutar la migración de Oracle 10g a Oracle 19c, asegurando la continuidad operativa del negocio, la integridad de los datos y la optimización del rendimiento en la nueva versión. El proyecto implica gestionar riesgos, diseñar estrategias de backup y recuperación, y garantizar la disponibilidad y seguridad de los entornos de base de datos durante todo el ciclo de migración.

Find this vacancy on Get on Board.

Funciones principales

  • Diseñar y ejecutar la estrategia de migración de bases de datos Oracle en sus diferentes versiones incluyendo 10g y 19c (excluyente), alineando plazos, recursos y mínimos riesgos de downtime.
  • Realizar análisis de compatibilidad de aplicaciones y ajustes de parámetros en la nueva versión
  • Configurar, administrar y monitorizar bases de datos, asegurando rendimiento, disponibilidad y escalabilidad.
  • Diseñar e implementar estrategias de backup, recuperación y alta disponibilidad (RMAN, Data Guard, RAC si aplica).
  • Realizar tuning de rendimiento, revisión de cargas, índices y consultas PL/SQL para optimizar tiempos de respuesta.
  • Coordinar con equipos de infraestructura, desarrollo y operaciones para garantizar una migración sin interrupciones y trazabilidad.
  • Documentar procesos, procedimientos y planes de pruebas, y generar informes de progreso para stakeholders.
  • Definir y ejecutar planes de contingencia y rollback .
  • Gestionar incidentes críticos, realizar root cause analysis y definir planes de mejora.

Requisitos y perfil

Buscamos un DBA Senior con amplia experiencia en migraciones de Oracle y un profundo dominio de Oracle 10g y Oracle 19c. El candidato debe demostrar habilidades técnicas sólidas en administración de bases de datos, diseño de esquemas, tuning de rendimiento y estrategias de alta disponibilidad. Se valorarán certificaciones Oracle (OCS/OCP) y experiencia previa liderando proyectos de migración en entornos empresariales. Capacidad de análisis, comunicación efectiva y habilidad para trabajar de forma autónoma en un equipo distribuido.

Requisitos mínimos: experiencia demostrada en migración de Oracle 10g y 19c; gestión de RMAN y recuperación ante desastres; arquitectura de bases de datos, backup/restore, particionado y mantenimiento de esquemas; familiaridad con entornos Unix/Linux y scripting; conocimiento de PL/SQL y sqlplus; habilidades de resolución de problemas y capacidad de trabajar bajo presión.

Ingeniero en Sistemas, Informática o carrera afín.

Mínimo 8 años de experiencia como DBA Oracle en entornos corporativos.

Familiaridad con DB Links, Packages y Triggers.

Requisitos deseables

Experiencia con Oracle RAC y Data Guard; familiaridad con Oracle 10g, 12c y 19c, Oracle ASM; conocimiento de herramientas de monitoreo (OEM, AWR, ADDM); experiencia en entornos cloud (OCI/AWS) y migraciones a la nube; habilidades de gestión y coordinación con equipos multidisciplinarios; enfoque proactivo y orientado a resultados, con buenas habilidades de comunicación para reportes a dirección.

Beneficios

100% remoto
Horario flexible y equilibrio entre vida personal y trabajo

Equipo colaborativo.

Proceso de selección eficiente y comunicación clara a lo largo de la contratación

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3200 Full time
SRE Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go Virtualization
Sobre TCIT: Somos una empresa líder en desarrollo de software en modalidad cloud con más de 9 años impulsando transformaciones digitales para clientes de distintos sectores. Nuestro equipo trabaja con metodologías ágiles y tecnologías de última generación, enfocándose en soluciones de alta calidad, sostenibles e innovadoras. Buscamos un SRE Senior que lidere iniciativas estratégicas de fiabilidad para nuestro entorno híbrido, colaborando estrechamente con equipos de Gobierno de SRE y Arquitectura para elevar la resiliencia, observabilidad y eficiencia operativa en proyectos críticos. El rol está orientado a generar impacto real, automatizar tareas, mentorizar a un equipo de SREs en formación y definir los estándares técnicos que guiarán nuestras operaciones en la nube (GCP y, cuando sea relevante, AWS).

Apply to this job directly at getonbrd.com.

Funciones principales

  • A. Liderazgo técnico y arquitectura de fiabilidad
    • Dirigir técnicamente al equipo SRE híbrido (internos + servicio) y coordinar con SRE Gobierno (Cloud Engineers) y Arquitectura para definir y validar estándares técnicos transversales (p. ej., Golden Images, módulos de IaC, políticas de seguridad).
    • Diseñar e implementar soluciones de automatización complejas para eliminar toil (trabajo manual y repetitivo) a gran escala, maximizar la eficiencia y la consistencia operativa.
    • Ser referente técnico en el diseño de arquitecturas de servicios resilientes, escalables y observables, participando activamente en Production Readiness Reviews (PRR) para proyectos críticos.
  • B. Mentoría y desarrollo de capacidades internas
    • Función clave: Mentorizar activamente a 6 SREs en formación (ex-SysOps) para desarrollar habilidades en programación (Python/Go), Infraestructura como Código, observabilidad y resolución de problemas complejos.
    • Conducir sesiones de knowledge transfer, dojos prácticos y revisiones de código para elevar el nivel técnico del equipo.
    • Crear y validar runbooks ejemplares y enseñar al equipo a documentar de manera eficaz para operaciones consistentes.
  • C. Gestión estratégica de la fiabilidad
    • Liderar la respuesta técnica durante incidentes mayores (P0/P1), guiando al equipo en la resolución y en el análisis post-mortem para identificar y resolver las causas raíz.
    • Colaborar con desarrollo y negocio para definir e implementar los primeros Service Level Objectives (SLOs) para servicios críticos, promoviendo una cultura de fiabilidad basada en datos.
    • Analizar el stack tecnológico actual (CI/CD, observabilidad) y proponer mejoras estratégicas, evaluando herramientas y procesos que potencien la operación.

Qué esperamos del perfil

Buscamos un SRE Senior orientado a ser un agente de cambio estratégico, no un ejecutor de tickets. El candidato ideal liderará iniciativas de fiabilidad de alto impacto, impulsando una cultura de ingeniería proactiva y sin culpabilidad. Debe combinar habilidades técnicas profundas con capacidad de mentoría y comunicación efectiva para transformar capacidades internas y garantizar la resiliencia de servicios críticos. Requerimos experiencia consolidada en entornos multi-nube (primero GCP, con valor agregado de AWS), infraestructura como código, automatización, observabilidad avanzada y gestión de incidentes complejos. Asimismo, valoramos capacidad para diseñar y medir SLOs/SLIs, construir runbooks robustos y fomentar prácticas de desarrollo que reduzcan toil y aumenten la velocidad segura de entrega.
Competencias clave incluyen: experiencia avanzada en Kubernetes y contenedores, dominio de Terraform y Ansible, programación en Python o Go, scripting en Bash, y manejo de herramientas de observabilidad (Datadog, Prometheus/Grafana, Dynatrace o similares). Se espera autonomía, proactividad, excelentes habilidades de comunicación y un enfoque orientado al negocio, con mentalidad de “Blameless Post-mortem” para incidentes y mejoras continuas.

Conocimientos y habilidades deseables

  • Experiencia demostrable liderando SREs o equipos de fiabilidad en entornos híbridos o multi-nube, con resultados medibles en reducción de incidentes y mejoras de confiabilidad.
  • Capacidad para diseñar y validar estrategias de observabilidad y gobernanza de fiabilidad a nivel organizacional.
  • Familiaridad con prácticas de gestión de incidentes P0/P1, post-mortems sin culpas y mejoras basadas en datos.
  • Fuertes habilidades de mentoría, comunicación y documentación, con experiencia en transferencias de conocimiento y construcción de capacidades internas.
  • Se valora experiencia en proyectos de fintech/retail/logística o sectores con alta criticidad de disponibilidad.

Conditions

Partially remote You can work from your home some days a week.
Computer provided TCIT provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Apply to this job from Get on Board.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VIEW JOB APPLY VIA WEB
Gross salary $4000 - 4800 Full time
Site Reliability Engineer (SRE) Ingeniero de Infraestructura
  • Harmony People
  • Santiago (Hybrid)
Linux Kubernetes English SRE
En Gradotech Soluciones Tecnológicas buscamos un Site Reliability Engineer (SRE) / Ingeniero de Infraestructura para sumarse a un proyecto estratégico de infraestructura crítica en Santiago de Chile. El/la candidato/a ideal aporta experiencia en fiabilidad, monitoreo y automatización para garantizar la disponibilidad y el rendimiento de plataformas críticas. Este rol forma parte de un equipo orientado a la excelencia operativa, con colaboraciones internacionales y enfoque en innovación tecnológica para transformar y optimizar la infraestructura. La empresa opera con un modelo de desarrollo y soporte orientado a servicios críticos para clientes clave, priorizando la resiliencia, la seguridad y la continuidad de negocio.

Send CV through getonbrd.com.

Funciones

  • Administrar y monitorear infraestructura crítica (servidores, almacenamiento, switches y firewalls).
  • Operar y mantener clústeres Kubernetes de misión crítica.
  • Configurar y mantener sistemas de monitoreo y alertas para infraestructura y aplicaciones.
  • Gestionar incidentes y resolver problemas de disponibilidad y rendimiento en entornos productivos.
  • Administrar sistemas operativos Linux y Windows Server; gestionar redes, firewalls y VPNs.
  • Asegurar la continuidad de servicios 24/7 y apoyar planes de recuperación ante desastres.
  • Trabajar en colaboración con equipos internacionales y reportar en inglés y español.

Descripción

Buscamos profesionales Senior o Semi-Senior con foco en fiabilidad, automatización y seguridad. El/la candidato/a ideal es proactivo, con capacidad de documentar procesos y comunicarse efectivamente en idiomas ingles/ español. Debe demostrar experiencia en administración de clústeres Kubernetes, monitoreo de infraestructuras críticas, y en la gestión de incidentes complejos. Manejo de herramientas de observabilidad (Prometheus, Grafana, ELK, Zabbix, etc.). Se valoran habilidades en scripting/automatización, experiencia en entornos on-premise y cloud, y un enfoque orientado a la mejora continua de rendimiento y disponibilidad. Se requiere residencia en Santiago de Chile (Excluyente)

Deseables

.

Beneficios

Proyecto desafiante en una empresa que lidera la transformación digital.
Modalidad híbrida
Cultura colaborativa y enfoque en innovación tecnológica.

Computer provided GRADOTECH provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2600 Full time
AWS Network Engineer
  • Interfell
Virtualization Amazon Web Services Planning Cloud Computing

En Interfell nos especializamos en conectar a las empresas con los mejores profesionales IT de Latinoamérica, impulsando el futuro de los negocios a través del talento remoto.
En este contexto se busca un/a AWS NETWORK ENGINEER con experiencia en AWS para diseñar, implementar y mantener soluciones de red en AWS que sean sólidas y seguras. La persona seleccionada tendrá la oportunidad de liderar la gestión de proyectos relacionados con actividades de red en AWS, incluyendo actualizaciones, implementaciones y migraciones dentro de la nube.

Ubicación; 100% Remoto. Latam
Horario de trabajo: 9 am a 6 pm EST
Inglés:
C1 o superior (será evaluado)
Contratación: 12 meses con renovaciones autómaticas.

Apply to this job without intermediaries on Get on Board.

Job functions

  • Diseñar, implementar y mantener soluciones de red en AWS que sean sólidas y seguras, incluyendo VPCs, subredes, tablas de enrutamiento, grupos de seguridad, listas de control de acceso de red (Network ACLs), Transit Gateways, VPNs (site-to-site, acceso remoto y conexiones basadas en la nube) y Direct Connect.
  • Implementar y gestionar dispositivos de red en AWS (AWS Network Appliances) como Palo Alto Networks, Fortinet, Check Point, entre otros, garantizando su rendimiento y seguridad óptimos dentro del entorno de AWS.
  • Monitorear y gestionar el rendimiento de la red dentro de los entornos de AWS, asegurando la funcionalidad, seguridad y escalabilidad óptima de los recursos en la nube.
  • Colaborar con otros equipos de TI para lograr una integración de red fluida y soporte entre diversas plataformas en la nube y on-premises.
  • Crear, actualizar y mantener documentación completa sobre configuraciones de red en AWS, procedimientos operativos y mejores prácticas.
  • Colaborar con el equipo de Seguridad de TI para implementar controles de seguridad de red sólidos en AWS, incluyendo listas de control de acceso (ACLs), firewalls (como AWS WAF y Network Firewall), sistemas de detección y prevención de intrusiones, y el desarrollo de políticas de seguridad de red en la nube.
  • Brindar soporte técnico a usuarios internos y partes interesadas externas para temas de conectividad de red en AWS y problemas relacionados.
  • Liderar la gestión de proyectos relacionados con actividades de red en AWS, incluyendo actualizaciones, implementaciones y migraciones dentro de la nube.
  • Gestionar y optimizar entornos de red multi-nube (Azure, GCP), incluyendo configuración, seguridad y optimización de recursos, con un enfoque principal en AWS.
  • Colaborar con clientes externos durante todo el ciclo de vida de la red, entregando soluciones de red en AWS que sean confiables y seguras, desde la evaluación inicial hasta la implementación exitosa de cambios.
  • Llenar el timesheet laboral diariamente

Qualifications and requirements

  • Más de 3 años de experiencia dedicada como Ingeniero de Redes en AWS o en un rol altamente especializado en redes de AWS.
  • Inglés C1
  • Experiencia a nivel experto con servicios de redes de AWS, incluidos, entre otros, VPC, Transit Gateway, Direct Connect, VPN, Route 53 y balanceadores de carga.
  • Experiencia comprobada implementando y gestionando dispositivos de red en AWS (por ejemplo, Palo Alto Networks, Fortinet, Check Point, etc.).
  • Experiencia práctica con funciones de seguridad de red en AWS y mejores prácticas.
  • Sólidas habilidades de resolución de problemas y troubleshooting, especialmente en problemas complejos de redes en la nube.
  • Experiencia práctica con herramientas de monitoreo, diagnóstico de redes y administración específicas de AWS.
  • Experiencia comprobada y exitosa en el diseño e implementación de redes en AWS.
  • Experiencia comprobada en planificación de capacidad de red, principios de seguridad de redes y mejores prácticas generales de administración de redes en un entorno en la nube.

Desirable skills

  • Plus: Certificación AWS Certified Advanced Networking - Specialty
  • Plus: Experiencia gestionando entornos de red en la nube en Azure y GCP
  • Plus: Familiaridad con herramientas de automatización en la nube (por ejemplo, Terraform, CloudFormation)
  • Plus: Experiencia con tecnologías locales (on-premises) de enrutadores, switches y firewalls

Conditions

Días de descanso no remunerados

Pago USD

Trabajo remoto - Latam

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $4000 - 5000 Full time
Senior AWS DevOps Cloud Engineer
  • OptConnect
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Continuous Deployment

M2M DataGlobal is a fast-growing Chilean tech company providing IoT connectivity across Latin America. Backed by OptConnect, M2M has the speed of a startup with the support of a global leader, with headquarters in Salt Lake City, Utah and offices throughout Europe.

You’ll be part of a hands-on international team, sharing knowledge with engineers in Chile and the U.S. The Santiago team works in a hybrid setup—some days at home to focus, other days together in a new Providencia office (10 minutes from Metro Tobalaba).

This isn’t just another job. As a senior engineer, you’ll be expected to learn fast, then step up to own and scale our AWS cloud infrastructure. You’ll sharpen our CI/CD pipelines, boost observability, and build tools that make developers’ lives easier.

Our stack: AWS, Kubernetes, AWS CDK (TypeScript), GitHub Actions, and modern observability tools.

Apply without intermediaries from Get on Board.

Key Responsibilities

  • AWS Cloud Infrastructure: Design, engineer, and maintain cloud infrastructure as code using AWS CDK and related IaC tools. Take ownership of core AWS services including EKS (Kubernetes), VPC, Route 53, Security Groups, IAM, EC2, Lambda, Elastic Beanstalk, CloudWatch, and CloudTrail. Ensure all infrastructure decisions prioritize security, scalability, and cost-efficiency.
  • CI/CD & Build Systems: Own and continuously improve the velocity and reliability of developer deployments by designing, maintaining, and evolving GitHub Actions-based CI/CD pipelines. Automate builds, tests, packaging, and deployments to eliminate manual steps, manage GitHub organizations and container registries such as Amazon ECR, and enhance release engineering practices.
  • Observability & Operational Readiness: Maintain and expand a developer-friendly observability stack using OpenTelemetry, ELK, Prometheus, and Grafana. Develop dashboards, logging standards, and alerting mechanisms that enable engineers to quickly analyze performance and troubleshoot. Proactively identify operational bottlenecks and prevent incidents.
  • Database & State Management: Architect and implement scalable and resilient databases including MongoDB, Redis, and Elasticsearch. Automate backup, recovery, monitoring, failover, and enforce security best practices to guarantee availability, durability, and performance with minimal operational overhead.
  • Learn: Grow fast with a Team Lead who speaks Spanish, knows our systems deeply, and will mentor you as you put your skills to work.
  • Own: Take charge of our AWS infrastructure—driving CI/CD, observability, and developer experience. Meeting the bar is required; raising it is success.
  • Lead: Share knowledge, shape best practices, and influence how our engineering teams build and deliver at scale.

Required Skills and Experience

We are seeking a senior DevOps engineer with a minimum of three years’ experience designing, building, and operating cloud-native infrastructure at scale, especially in high-availability environments. The ideal candidate will have deep expertise in creating, operating, and scaling Kubernetes clusters in AWS (EKS), along with strong proficiency in infrastructure as code (preferably AWS CDK) and managing distributed, production-grade systems.

You should bring strong proficiency in Infrastructure as Code (IaC), ideally with AWS CDK, and be comfortable running distributed systems in production. Hands-on experience with automated CI/CD pipelines (GitHub Actions), observability stacks (Prometheus, Grafana, ELK), and containerized workloads is essential.

Strong knowledge of networking fundamentals, HTTP protocols, and diagnostic tooling for rapid incident response is required. You’ll also be expected to apply cloud security best practices across Kubernetes and AWS: non-root containers, network policies, PodSecurity, secure IaC, artifact signing, IAM least privilege, MFA/SSO, vulnerability scanning, and hardened CI/CD workflows.

Excellent English communication skills are necessary to clearly explain complex technical concepts and collaborate across teams in Chile, the United States, and Europe. Candidates must thrive in a fast-paced, autonomous environment while showing rigorous attention to prioritization and delivery quality.

Desirable Skills and Qualifications

  • Experience with Serverless Framework or other AWS deployment automation tools.
  • Advanced knowledge of AWS networking, including VPC peering and Transit Gateway configuration.
  • Familiarity with additional container orchestration platforms beyond Kubernetes.
  • Proficiency in programming languages such as Go or Python for infrastructure automation.
  • Prior experience working remotely across multiple time zones and collaborating with globally distributed teams.
  • A passion for continuous improvement in developer experience and operational excellence.

Benefits

At M2M DataGlobal, we believe that behind every engineer is a person with dreams, values, and a life that deserves balance. A great culture comes first: flexibility, respect, diversity, and well-being are our foundation.

Our culture encourages autonomy, continuous learning, and technical ownership in a supportive, fast-paced setting.

  • Half day off on your birthday
  • Additional days off for personal errands and important moments
  • Health and wellness benefits including Betterfly, VIDA CÁMARA, and Caja Los Andes
  • Real flexibility to balance your personal and professional life
  • A collaborative team where attitude and desire to grow matter most

Here, we don't just build technological solutions. We build human connections with purpose, integrity, and commitment.

Wellness program OptConnect offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage OptConnect pays or copays health insurance for employees.
Commuting stipend OptConnect offers a stipend to cover some commuting costs.
Computer provided OptConnect provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal OptConnect offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Cloud Engineer
  • Coderslab.io
Python Git Linux DevOps

CodersLab is a company dedicated to developing solutions within the IT sector. Currently, we are focused on expanding our teams globally to position our products in more countries across Latin America. For this reason, we are looking for a Cloud Engineer to join our team.

You will be part of a challenging and ambitious team eager to innovate in the market, where your ideas and contributions will be highly valuable to the business.

Apply now for this amazing opportunity!

Apply exclusively at getonbrd.com.

Funciones del cargo

We are seeking a Cloud Engineer with strong expertise in designing, automating, and managing cloud infrastructures, primarily in AWS. The ideal candidate will have at least 3 years of hands-on experience in cloud and DevOps practices, proficiency with tools such as Terraform and GitHub, and a mindset focused on continuous improvement, security, and scalability.

Responsibilities

  • Design, implement, and maintain scalable and secure cloud infrastructures in AWS.
  • Automate deployment and configuration processes using Terraform.
  • Manage code repositories and CI/CD workflows in GitHub.
  • Collaborate with development teams to integrate DevOps practices throughout the software lifecycle.
  • Monitor system performance and optimize cloud resources.
  • Ensure compliance with cloud security policies and best practices.
  • Document architectures, processes, and implemented solutions.

Requerimientos del cargo

Experience

  • Minimum 3 years in cloud engineering or DevOps roles.

Cloud Expertise

  • Strong knowledge of AWS (EC2, S3, IAM, VPC, Lambda, CloudFormation, etc.).
  • Exposure to Azure is a plus.

Infrastructure as Code

  • Advanced experience with Terraform (Helm charts is a plus).

Version Control

  • Professional use of Git/GitHub (pull requests, branching, workflows).

DevOps Tools & Practices

  • Knowledge of CI/CD pipelines, Docker containers, and tools such as Jenkins or GitHub Actions.

Scripting

  • Proficiency in Bash, Python, or similar languages.

Languages

  • Fluent English (mandatory).
  • Spanish (preferred).

Key Competencies

  • Strong analytical thinking and problem-solving skills.
  • Effective communication and teamwork.
  • Proactivity and autonomy.
  • Security-focused mindset and best practices orientation.
  • Adaptability to new technologies.

Condiciones

Location: Remote (LATAM)
Schedule: Miami time (Monday to Friday, 160 hours/month)
Contract: Service contract
Languages: Advanced English & Spanish

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
DevOps AWS Opensearch/Elasticsearch & Containers Engineer
  • Coderslab.io
DevOps Virtualization Amazon Web Services Microservices

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Devops - AWS OpenSearch/ElasticSearch & Containers Engineer to join our team and help drive our mission forward.

Find this job on getonbrd.com.

Funciones del cargo

Role Purpose

Design, implement, and optimize AWS-based solutions focused on OpenSearch/ElasticSearch and containers (ECS/EKS) to support Payless’ omnichannel operations in retail and e-commerce. The role ensures efficient data pipelines, scalable microservices, and robust search capabilities integrating SAP HANA, Retail Pro, e-commerce, POS, and the AWS ecosystem.

Key Responsibilities

  • Deploy, manage, and optimize AWS OpenSearch/ElasticSearch clusters, ensuring performance and high availability.
  • Design and maintain data pipelines for log processing, analytics, and search-driven applications.
  • Manage workloads in Amazon ECS/EKS, ensuring deployment, scaling, and resilience of microservices.
  • Integrate search and container solutions with critical platforms: SAP HANA, Retail Pro, e-commerce, WMS, and CRM.
  • Implement monitoring, alerting, and automated recovery mechanisms for production environments.
  • Optimize costs, performance, and scalability across AWS architectures.
  • Collaborate closely with cloud architects, data engineers, and developers to ensure reliable and scalable digital services.

Requerimientos del cargo

  • Bachelor’s degree in Computer Science, Systems Engineering, or related fields (or equivalent experience).
  • 5+ years of experience in DevOps/Cloud roles with production projects in AWS.
  • Proven experience with OpenSearch/ElasticSearch and ECS/EKS implementations.
  • Strong ability to optimize performance and costs in enterprise cloud environments.
  • Advanced English (spoken and written) and fluent Spanish.

Opcionales

  • Experience integrating cloud architectures with retail and e-commerce systems.
  • Familiarity with SAP HANA, Retail Pro, POS, and inventory/CRM platforms.
  • Knowledge of IaC (Infrastructure as Code) and automation in AWS.
  • Proficiency with monitoring and logging tools (CloudWatch, Prometheus, Grafana, Kibana).

Condiciones

Location: Remote (LATAM)
Schedule: Miami time (Monday to Friday, 160 hours/month)
Contract: 12 months – Service contract
Languages: Advanced English & Spanish

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2600 - 2800 Full time
DevOps/Cloud Engineer Latam
  • BC Tecnología
Python Git Linux DevOps
En BC Tecnología somos una consultora de TI con amplia experiencia en diversos sectores, incluyendo retail, servicios financieros, seguros y gobierno. Participarás en un proyecto situado en el sector retail, orientado a garantizar la disponibilidad, estabilidad y rendimiento de sistemas críticos para el negocio. Nuestra empresa se destaca por ofrecer soluciones a la medida de nuestros clientes, con equipos ágiles que facilitan un desarrollo eficiente y alineado a las necesidades del mercado. Trabajarás en un entorno dinámico que promueve la colaboración y el uso de metodologías ágiles para el éxito de nuestros proyectos.

Apply directly from Get on Board.

Responsabilidades principales

  • Gestionar infraestructura como código utilizando herramientas como Terraform, CloudFormation y Ansible.
  • Automatizar despliegues y mantener pipelines de integración y entrega continua (CI/CD).
  • Administrar contenedores y clusters con Kubernetes y Docker.
  • Monitorear sistemas para asegurar el rendimiento adecuado y responder de forma efectiva a incidentes en producción.
  • Colaborar estrechamente con los equipos de desarrollo para implementar mejoras y solucionar problemas.
  • Documentar procedimientos y runbooks para facilitar la operación y mantenimiento.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en roles relacionados con DevOps, cloud y operaciones. Es fundamental poseer conocimientos sólidos en la gestión de infraestructura como código y experiencia en automatización de despliegues mediante pipelines CI/CD.
Debe manejar tecnologías de contenedores como Kubernetes y Docker, y contar con habilidades para la monitorización y logging usando herramientas tales como Prometheus, Grafana, CloudWatch o el stack ELK.
Las capacidades de scripting en Bash y Python serán clave para la automatización y resolución de incidencias. Es indispensable asimismo contar con experiencia en control de versiones con Git.
Buscamos una persona con alta responsabilidad, capacidad para trabajar en equipos interdisciplinarios, y habilidades comunicativas para documentar procesos y colaborar con otros departamentos.

Conocimientos adicionales valorados

Se valorará experiencia en múltiples plataformas cloud públicas, como AWS (especialmente EC2, EKS y RDS), Azure y Google Cloud Platform. Además, haber trabajado en proyectos del sector retail o en entornos de alta disponibilidad será un plus.
Capacidades para llevar a cabo mejoras continuas, así como interés por nuevas tecnologías y automatización avanzada serán altamente apreciadas.

Cultura y beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Arquitecto Cloud & Data Senior
  • BC Tecnología
  • Santiago (Hybrid)
Agile DevOps Virtualization Big Data
En BC Tecnología, somos una consultora de TI con amplia experiencia en diversas áreas tecnológicas, enfocada en brindar soluciones a clientes en sectores como retail, servicios financieros, seguros y gobierno. Actualmente participamos en un proyecto relevante para el sector retail, ubicado en Mall Alto Las Condes, donde buscamos potenciar las arquitecturas cloud y de datos a través de un enfoque híbrido, combinando sistemas cloud con infraestructuras on-premise para optimizar la integración de plataformas y el manejo de datos.

Apply from getonbrd.com.

Responsabilidades principales

  • Diseñar arquitecturas escalables, seguras y resilientes utilizando AWS y Google Cloud Platform.
  • Gestionar la integración de datos y soluciones Big Data como Redshift, ETL/ELT.
  • Definir patrones de integración asegurando la interoperabilidad entre sistemas legacy, cloud y plataformas SaaS.
  • Liderar workshops para la definición y validación de arquitecturas.
  • Coordinar y liderar equipos técnicos especializados en proyectos de arquitectura cloud y datos.
  • Garantizar la calidad y consistencia de datos a lo largo de todo el flujo de información.

Descripción del perfil requerido

Buscamos un profesional con al menos 5 años de experiencia comprobable en diseño y liderazgo de arquitecturas cloud y de datos. Debe tener conocimientos sólidos en AWS (Lambda, S3, Step Functions, API Gateway, EventBridge, DynamoDB) y Google Cloud Platform orientados a Big Data. Se valoran habilidades para gestionar procesos ETL/ELT así como la integración de microservicios, APIs, buses de eventos y middleware. El candidato debe estar familiarizado con metodologías Agile, DevOps y prácticas CI/CD para asegurar la agilidad y calidad en los desarrollos.
Además, es fundamental que cuente con competencias en liderazgo y comunicación para conducir workshops y coordinar equipos multidisciplinarios, fomentando un entorno colaborativo y orientado a resultados. La capacidad para comprender y conectar sistemas core, middleware y plataformas SaaS en entornos híbridos es clave para el éxito en este rol.
Buscamos también a alguien proactivo, con pensamiento crítico, adaptable a cambios rápidos y con enfoque en la mejora continua y la innovación tecnológica.

Requisitos deseables

Se valorará experiencia adicional en arquitecturas híbridas complejas que integren cloud y entornos on-premise. Conocimientos en plataformas SaaS específicas del sector retail, familiaridad con herramientas avanzadas de análisis de datos y Big Data, y experiencia previa en proyectos con clientes de alto nivel serían un plus. También, será favorable el manejo avanzado de inglés técnico que facilite la interacción con proveedores internacionales y documentación técnica.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3600 Full time
Technical Lead – Cloud Computing & Infrastructure AWS / GCP
  • Coderslab.io
Virtualization Amazon Web Services Docker Kubernetes

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Technical Lead – Cloud Computing & Infrastructure (AWS / GCP) to join our team and help drive our mission forward.

Find this job on getonbrd.com.

Funciones del cargo

General Purpose:
Lead the multi-cloud (AWS and GCP) computing strategy at Payless, optimizing infrastructure and enabling new capabilities for the omnichannel vision. The role aims to enhance customer centricity and improve the experience across both physical stores and e-commerce, ensuring resilience, cost efficiency, and business acceleration.
Key Responsibilities:
  • Design and evolve cloud-native architectures in AWS and GCP.
  • Implement best practices for cost optimization, security, and performance.
  • Enable new cloud capabilities to support the omnichannel strategy.
  • Lead the adoption of cloud-native development and deployment models (DevOps, Infrastructure as Code).
  • Collaborate with business, product, and IT teams to align infrastructure with corporate objectives.

Requerimientos del cargo

Technical Requirements:
  • Proven experience with AWS and GCP.
  • Knowledge of Kubernetes, Docker, Terraform/CloudFormation, and Infrastructure as Code (IaC).
  • Experience designing scalable, secure, and highly available architectures.
  • Advanced English proficiency.
Key Competencies:
  • Strategic thinking with a strong business vision.
  • Technical leadership and team management.
  • Clear and effective communication skills.

Condiciones

Location: Remote LATAM
Working Hours: Miami time
Language Requirements: Advanced English and Spanish
Service Type: Service Provision – 160 hours/month, Monday to Friday

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Arquitecto TI Proyecto Retail
  • BC Tecnología
  • Santiago (Hybrid)
REST API Virtualization Amazon Web Services Continuous Deployment
BC Tecnología es una consultora líder en servicios de TI, reconocida por su experiencia en múltiples áreas tecnológicas, con un enfoque en la creación y desarrollo de equipos ágiles para clientes de sectores como servicios financieros, seguros, retail y gobierno. En esta oportunidad, buscamos incorporar un Arquitecto TI para un importante proyecto en el sector retail, ubicado en Mall Alto Las Condes. Este proyecto se enfoca en diseñar y ejecutar arquitecturas técnicas innovadoras que integren sistemas core con middleware y plataformas cloud/SaaS, destacando la modernización y eficiencia en los procesos tecnológicos de retail a través de soluciones basadas en AWS y Google Cloud Platform.

Apply exclusively at getonbrd.com.

Responsabilidades principales

  • Liderar el diseño, desarrollo e implementación de arquitecturas técnicas robustas alineadas a las necesidades del negocio retail.
  • Relevar y analizar requerimientos técnicos y funcionales en estrecha colaboración con áreas de negocio y tecnológicos.
  • Diseñar y documentar detalladamente las arquitecturas, flujos de datos, componentes y interfaces de integración.
  • Facilitar y conducir sesiones técnicas de discovery y workshops para validar soluciones y consensuar decisiones con stakeholders.
  • Asegurar la interoperabilidad entre sistemas core, middleware y plataformas cloud/SaaS, garantizando la calidad y seguridad de los datos manejados.
  • Coordinar y liderar equipos técnicos multidisciplinarios durante las fases de desarrollo, integración y despliegue.
  • Velar por el cumplimiento normativo y de buenas prácticas en el diseño de arquitecturas seguras y escalables.

Requisitos y habilidades

Buscamos un profesional con más de 8 años de experiencia en arquitectura TI, preferentemente con trayectoria en el sector retail. Es fundamental contar con sólidos conocimientos técnicos en AWS y Google Cloud Platform, así como experiencia en diseñar patrones de integración como API REST, eventos y transferencia de archivos (files).
Conocimientos avanzados en herramientas y tecnologías como Redshift, procesos ETL/ELT y pipelines CI/CD son indispensables. Además, debe poseer capacidad para diseñar arquitecturas seguras que aseguren el cumplimiento de normativas vigentes y estándares de calidad.
Se valoran habilidades de comunicación efectiva, liderazgo técnico y experiencia comprobada en la coordinación de equipos multidisciplinarios, así como en proyectos complejos de migración, integración y modernización tecnológica.
Además, nuestro candidato ideal tendrá un enfoque proactivo hacia el trabajo colaborativo, capacidad para resolver problemas técnicos complejos y adaptarse a metodologías ágiles.

Habilidades y experiencias deseables

Se considerarán positivamente candidatos con experiencia adicional en:
  • Conocimiento profundo de metodologías ágiles aplicadas a proyectos de arquitectura TI.
  • Experiencia en la implementación de soluciones SaaS en entornos de retail.
  • Competencias en manejo de herramientas de monitoreo y gobernanza de datos en la nube.
  • Capacidades para facilitar la gestión del cambio organizacional relacionado a la transformación digital.
Asimismo, el dominio de otros servicios en la nube, buenas prácticas DevOps y conocimientos complementarios en seguridad informática serán valorados.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1000 - 1600 Full time
QA Manual
  • Coderslab.io
  • Lima (Hybrid)
SQL QA ETL Postman

En coderslab.io, somos una organización global en expansión con más de 3,000 empleados en oficinas distribuidas en América Latina y Estados Unidos. Nuestra misión es ayudar a las compañías a transformar y hacer crecer sus negocios a través de soluciones tecnológicas innovadoras. Como parte de nuestro equipo, integrará un entorno colaborativo donde trabajamos con talento de primer nivel y tecnologías de vanguardia, participando en proyectos desafiantes que impulsan el desarrollo profesional y aportan valor real a nuestros clientes y socios.

Applications at getonbrd.com.

Funciones del cargo

Buscamos Analistas de Control de Calidad Semi-Senior con experiencia en pruebas manuales para un proyecto desafiante en el área de Desarrollo TI, dentro de la Gerencia de Operaciones y Sistemas. Serás parte de un equipo dinámico, enfocado en asegurar la calidad y precisión de los procesos y desarrollos tecnológicos.

Responsabilidades

  • Ejecutar pruebas manuales de QA asegurando el cumplimiento de los estándares de calidad establecidos.
  • Realizar consultas en bases de datos para validación de información.
  • Ejecutar y validar servicios mediante Postman y/o APIs.
  • Participar en la ejecución de procesos ETL para verificación de datos.
  • Documentar resultados de pruebas y reportar hallazgos de forma clara y detallada.
  • Colaborar con el equipo de desarrollo para resolver incidencias detectadas.

Requerimientos del cargo

Mínimo 3 años de experiencia en pruebas manuales de QA.

Conocimientos en consultas SQL, ejecución de servicios (Postman/APIs) y ejecución de procesos ETL.

Certificación ISTQB – Fundamentos o equivalente.

Opcionales

Experiencia en banca, especialmente en procesos de conciliación y contabilización de transacciones.

Condiciones

Inicio inmediato.

Modalidad híbrida (presencial 3 veces por semana en Lima, Perú).

Contrato por 9 meses con renovacion

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Senior
  • BC Tecnología
  • Santiago (Hybrid)
SQL QA API Postman
BC Tecnología es una consultora de servicios IT especializada en la gestión de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales en tecnología. Nuestra experiencia abarca múltiples sectores como servicios financieros, seguros, retail y gobierno, formando equipos ágiles adaptados a las necesidades tecnológicas de cada cliente. Desde hace seis años diseñamos soluciones que integran consultoría, desarrollo, soporte y administración IT, con un enfoque claro en la aplicación de metodologías ágiles, cambio organizacional y desarrollo de productos.

Applications are only received at getonbrd.com.

Responsabilidades Principales

  • Diseñar y preparar casos de prueba basados en los requerimientos funcionales.
  • Ejecutar pruebas manuales y automatizadas, documentando resultados y reportando incidencias.
  • Validar servicios mediante herramientas como Postman y realizando pruebas sobre SOAP/XML.
  • Realizar consultas en bases de datos SQL para validar flujos de información y datos.
  • Utilizar herramientas como JIRA y Confluence para la gestión y trazabilidad de pruebas.
  • Asegurar el cumplimiento de las buenas prácticas de calidad en el ciclo de desarrollo de software.

Requisitos Técnicos y Habilidades Personales

Buscamos un profesional con sólida experiencia en diseño y ejecución de pruebas funcionales, que posea conocimientos en pruebas de servicios web (SOAP, XML) y manejo de herramientas como Postman, JIRA, Confluence, y bases de datos relacionales. Es fundamental la capacidad para escribir y ejecutar consultas SQL para validar correctamente los flujos de información.
Además, valoramos habilidades analíticas, atención al detalle y orientación a resultados para garantizar entregas confiables y alineadas a los requerimientos del negocio. La experiencia previa en proyectos de gestión o control documental será valorada positivamente.
En cuanto a habilidades blandas, se requiere buena capacidad y fluidez en comunicación oral y escrita, autonomía para resolver problemas complejos, proactividad, compromiso y trabajo colaborativo en entornos multidisciplinarios. Asimismo, se espera responsabilidad y prolijidad en la documentación técnica, habilidad para diagnosticar problemas técnicos tanto en la aplicación como en los entornos donde esta se ejecuta, y orientación clara a resultados con capacidad para priorizar tareas identificando lo importante y urgente.

Experiencia Deseable

Se valorará experiencia previa en proyectos relacionados con sistemas de gestión o control documental, ya que esto puede facilitar la comprensión del contexto y los procesos involucrados. Asimismo, conocimientos adicionales en automatización avanzada de pruebas o manejo de otras herramientas complementarias serán consideradas un plus.

Beneficios y Cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1400 Full time
QA Funcional
  • TCIT
DevOps QA Azure Cloud Computing
En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

Find this job and more on Get on Board.

Funciones del cargo

En TCIT estamos buscando un/a QA Funcional Semi Senior, orientado/a al análisis crítico, diseño de estrategias de prueba manual y validación de funcionalidades para productos digitales en evolución.

  • Diseñar y ejecutar planes de prueba funcionales.
  • Formular preguntas clave al equipo de producto para detectar condiciones no explícitas en los requerimientos.
  • Aplicar técnicas como partición de equivalencia para diseñar escenarios relevantes y completos.
  • Revisar documentación, logs, y realizar validaciones en entornos web y mobile.
  • Identificar y reportar errores mediante herramientas como JIRA.
  • Priorizar pruebas según impacto en el negocio.
  • Participar en ceremonias ágiles

Requerimientos del cargo

  • Al menos 3 años de experiencia como QA Funcional.
  • Experiencia validando funcionalidades en plataformas web (y deseable en apps móviles).
  • Conocimiento de herramientas de gestión como QMetry, Zephyr, ALM, Azure DevOps, JIRA.
  • Conocimiento de conceptos como partición de equivalencia, análisis de flujo y cobertura de pruebas.
  • Capacidad para identificar condiciones de prueba más allá de los casos explícitos.

Deseables

  • Experiencia en eCommerce o entornos de alta transaccionalidad.
  • Tener 2 dispositivos móviles propios para pruebas (iOS y Android 15 o superior – gama A53/54 o más).
  • Conocimiento en distribución de builds con TestFlight o herramientas similares.
  • Experiencia validando funcionalidades en apps móviles.

VIEW JOB APPLY VIA WEB
Gross salary $700 - 1000 Full time
Junior QA Engineer
  • Lilo AI
  • Santiago (Hybrid)
HTML5 CSS QA English
Lilo AI is a cutting-edge technology company focused on revolutionizing procurement processes specifically for the Commercial Real Estate (CRE) sector. Our platform leverages artificial intelligence to streamline and automate procurement workflows such as invoicing, vendor management, and price comparison. Our solutions cater to diverse CRE clients including hotels, gyms, schools, and senior living facilities. We are proud partners with renowned brands like Fairfield, Hampton Inn, and Hilton, driving transformative efficiency and cost savings across their procurement operations.

© getonbrd.com.

Job Description

We are seeking a detail-oriented and motivated Junior QA Engineer to join our team. In this role, you will collaborate closely with developers, product managers, and senior QA engineers to maintain and enhance software quality. Your key responsibilities will include:
  • Executing manual test cases for newly developed features as well as regression tests to ensure ongoing software stability.
  • Identifying, documenting, and tracking software bugs and issues using established tracking tools such as JIRA.
  • Collaborating with developers to thoroughly understand product features and underlying technical implementations.
  • Contributing to the development and maintenance of test plans and test cases alongside the QA team.
  • Participating actively in Agile ceremonies including sprint planning, daily stand-ups, and reviews to align QA efforts with development timelines.
  • Assisting in the setup and maintenance of testing environments to support efficient QA workflows.
  • Gradually learning and supporting automated testing initiatives to enhance test coverage and efficiency.

Qualifications

We are looking for candidates with a foundational knowledge and passion for software quality assurance. The ideal candidate should possess:
  • A Bachelor’s degree in Computer Science, Engineering, or a related technical field, or equivalent practical experience.
  • Some practical exposure to software testing environments, which may include academic projects or internships.
  • Familiarity with Software Development Life Cycle (SDLC) principles and Agile methodologies.
  • Experience with testing and QA tools, and a general understanding of QA best practices.
  • Strong attention to detail, excellent problem-solving abilities, and a commitment to delivering high-quality software products.
  • Basic knowledge of HTML, CSS, and scripting languages, which is beneficial for testing web-based applications.
  • Excellent communication skills and the ability to work collaboratively within cross-functional teams.
  • C1-C2 English level proficiency.

Nice to Have

While not mandatory, the following skills and experiences will be advantageous for this role:
  • Hands-on experience with automated testing tools such as Selenium, Postman, or bug tracking tools like JIRA.
  • Exposure to API testing or mobile application testing to broaden testing scope.
  • Understanding of automation testing frameworks and basic programming knowledge to support automation efforts.

What We Offer

  • Competitive salary.
  • Hybrid work model offering a flexible combination of remote and office work.
  • Health insurance coverage to support your wellbeing.
  • Opportunities for learning and professional development within a dynamic startup environment.
Join Lilo AI and become part of a pioneering team dedicated to transforming procurement processes with AI-driven innovation. We foster a collaborative and empowering workplace culture focused on continuous improvement and long-term impact.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Lilo AI pays or copays health insurance for employees.
Computer provided Lilo AI provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Lilo AI gives you paid vacations over the legal minimum.
Beverages and snacks Lilo AI offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Senior Infrastructure Engineer (AWS)
  • Niuro
Python Linux DevOps Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
We empower projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. With a strong focus on professional growth, Niuro offers continuous training in technical and soft skills as well as leadership development to ensure success in innovative and challenging projects. We also manage all administrative tasks including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Joining Niuro means working within a collaborative environment where talent can grow and reach its full potential, participating in impactful and technically rigorous industrial data projects that drive innovation and professional growth.

Apply to this job opportunity at getonbrd.com.

Technical Snapshot & Key Responsibilities

  • Architect and maintain multi-account infrastructure in AWS using Terraform, including reusable modules, remote state management, drift detection, and enforcement of security and cost policies.
  • Operate Kubernetes/EKS clusters and large-scale EC2 fleets with features such as autoscaling, right-sizing, and blue/green deployments (surge and rollback).
  • Automate golden AMI pipeline creation using tools like Packer and AWS Systems Manager (SSM).
  • Manage critical Windows Server workloads and IIS in production: hardening, patching, centralized log management, and scaling IIS behind ALB/NLB.
  • Implement end-to-end observability solutions, unifying logs, metrics, and traces across CloudWatch, OpenSearch/ELK, Datadog, FluentBit, and Winlogbeat, creating dashboards and alerts that reduce 5xx errors and accelerate root cause analysis.
  • Conduct infrastructure sweeps and tuning to improve reliability, fix misconfigurations, optimize RDS (failover, replicas, connection management) and FSx, and enforce checks through CI/CD pipelines.
  • Design and execute performance readiness testing including load and stress tests with tools like k6, Locust, JMeter, and Python scripts to validate scaling and eliminate bottlenecks before peak traffic periods.

Requirements

  • 5+ years experience in DevOps, Infrastructure Engineering, or Site Reliability Engineering (SRE) roles.
  • Advanced expertise in AWS services including RDS, FSx, CloudWatch, EC2, and ELB.
  • Hands-on experience with Terraform and Kubernetes, strongly preferred expertise with EKS.
  • Practical production experience managing Windows Server and IIS workloads on AWS including patching, scaling, and integrating IIS logs.
  • Expertise in EC2 scaling strategies and golden AMI image workflows.
  • Proven skills deploying and managing observability stacks that provide actionable alerts and diagnostics.
  • Strong background in performance and load testing methodologies.
  • Proficient scripting skills in Python and Bash; PowerShell experience is a plus.
  • Excellent communication skills, systems thinking ability, and meticulous attention to detail.

Nice-to-Have Skills

  • Experience with policy-as-code tools such as Open Policy Agent (OPA) or Sentinel.
  • Knowledge of service mesh or serverless architecture patterns.
  • Expertise in security automation frameworks including CIS benchmarks and AWS Inspector.
  • Familiarity with cost-optimization tooling in cloud environments.
  • Leadership experience managing high-traffic incidents and operational response.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python REST API Linux
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Applications are only received at getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2900 Full time
DevOps
  • Coderslab.io
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this posting directly on Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

VIEW JOB APPLY VIA WEB
Gross salary $2700 - 3500 Full time
DevOps
  • Coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job offer is on Get on Board.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
AWS Engineer (Semi Senior / Senior)
  • Niuro
DevOps Virtualization Amazon Web Services Docker
Niuro is a dynamic company that connects elite technology teams with leading U.S. companies, focusing on simplifying global talent acquisition through innovative, efficient solutions. We specialize in providing autonomous, high-performance tech teams that excel in delivering cutting-edge projects, chiefly within the industrial data space. Our teams engage in technically challenging and impactful initiatives that foster innovation and professional growth. By partnering with Niuro, you become part of a collaborative environment dedicated to excellence, continuous learning, and leadership development. Our commitment extends beyond technical contributions; we manage all administrative responsibilities such as hiring, payments, and training, enabling our engineers to focus wholly on delivering outstanding results.

This posting is original from the Get on Board platform.

Role and Responsibilities

As an AWS Engineer at Niuro, your primary responsibility will be designing, deploying, and maintaining scalable, secure, and efficient infrastructure solutions on AWS. You will work closely with cross-functional US-based teams to define architecture and automation using infrastructure as code.

  • Design and implement cloud infrastructure using AWS services such as IAM, S3, VPC, Lake Formation, CloudFormation, and CloudWatch.
  • Develop and maintain deployment pipelines and infrastructure automation primarily through Terraform and CI/CD tools.
  • Ensure system security, monitoring, and performance tuning to meet high availability and reliability standards.
  • Collaborate with development and operations teams to integrate cloud-based systems smoothly and optimize workflows.
  • Participate actively in code reviews, technical discussions, and knowledge sharing sessions.
  • Support incident response and troubleshoot complex infrastructure issues efficiently.

Required Skills and Experience

We are looking for a Semi Senior to Senior AWS Engineer with a strong background in cloud infrastructure design and deployment. The ideal candidate must demonstrate proficiency in a broad range of AWS services such as IAM (Identity and Access Management), S3 (Simple Storage Service), VPC (Virtual Private Cloud), Lake Formation, CloudFormation, and CloudWatch.
Experience with DevOps practices and tools like Terraform and CI/CD pipelines is essential to ensuring the reliable delivery and automation of infrastructure.
The candidate should have conversational-level English skills, enabling effective communication and collaboration with US-based teams. A proactive mindset, problem-solving abilities, and passion for continuous improvement are highly valued.
Soft skills such as teamwork, adaptability, and a results-oriented attitude are vital for success in our fast-paced and collaborative environment.

Desirable Additional Skills

While not mandatory, experience and familiarity with FastAPI, Gunicorn, Pydantic, Boto3, Aestiva HTML/OS, Docker, TeamCity, GitHub, or Gitea will be considered a strong advantage. Knowledge in these areas will enable deeper integration and more versatile contributions within our technology stack and DevOps workflows.
Exposure to containerization technologies such as Docker and continuous integration servers like TeamCity can enhance overall effectiveness in deployment automation and system reliability.

Benefits and Work Environment

At Niuro, we provide a flexible 100% remote working structure tailored for professionals residing within LATAM, empowering you to work from your preferred location without compromising professional growth.
We foster a culture of continuous learning, offering professional development through ongoing technical and soft skills training, in addition to leadership development opportunities.
Our projects are technically challenging and impactful, driving innovation in the industrial data domain, which supports your career advancement.
Niuro handles all administrative aspects including hiring, payments, and training, allowing you to focus on what matters most — your work and career growth.
There is potential for long-term engagement and transition to stable full-time employment following the successful completion of the initial contract.
Join Niuro and become part of a global community committed to excellence, collaboration, and innovation.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Find this vacancy on Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Automation Engineer Python/Robot Framework
  • Coderslab.io
Android iOS Python Agile
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job at getonbrd.com.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Especialista en Sistemas Linux y Automatización
  • BC Tecnología
  • Santiago (Hybrid)
Git Linux UML Virtualization
En BC Tecnología somos una consultora de Servicios IT que, desde hace 6 años, diseñamos soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno. Contamos con un portafolio integral que incluye consultoría, desarrollo de proyectos, outsourcing y servicios de soporte y administración IT. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos, formando equipos de trabajo especializados para potenciar cada proyecto. El especialista Linux se integrará a un equipo técnico dedicado a proyectos desafiantes de alto impacto, participando en iniciativas que impulsan la innovación tecnológica en un entorno profesional sólido.

Official job site: Get on Board.

Funciones y responsabilidad del puesto

El profesional seleccionado tendrá la responsabilidad principal de administrar y optimizar entornos RedHat Linux, garantizando la eficiencia y estabilidad de los sistemas operativos. Deberá desarrollar scripts en Shell/Bash para automatizar tareas operativas y de mantenimiento, mejorando los procesos internos del proyecto. También será encargado de gestionar repositorios de código y versiones utilizando herramientas de control como Git, ya sea en GitHub o GitLab. Además, debe crear y mantener documentación técnica detallada y diagramas UML para soportar el desarrollo y mantenimiento del sistema, facilitando el conocimiento transversal y la continuidad del proyecto.
Este rol requiere una participación activa en el equipo, colaborando en la resolución de incidencias y la implementación de mejoras técnicas, siempre orientado a cumplir con los objetivos del proyecto con calidad y eficiencia.

Requisitos y habilidades necesarias

Buscamos a un profesional con sólida experiencia comprobable en administración y operación de sistemas Linux, especialmente en distribuciones RedHat, capaz de manejar entornos productivos complejos con autonomía y criterio técnico.
Debe poseer amplias habilidades en scripting Shell/Bash para automatizar múltiples procesos de administración de sistemas, logrando reducir errores y aumentar la productividad del equipo. Es indispensable el conocimiento práctico en herramientas de control de versiones Git, ya sea en plataformas como GitHub o GitLab, para gestionar colaborativamente el código fuente.
Es fundamental contar con competencias para elaborar documentación técnica clara y precisa, así como diagramas UML que ayuden a visualizar arquitecturas y flujos de procesos, facilitando el trabajo en equipo y la transferencia de conocimiento.
Se valorará especialmente la experiencia o conocimientos adicionales en soluciones en la nube como AWS S3 y la gestión de protocolos de transferencia de archivos (FTP). También es deseable haber trabajado con integración de sistemas mediante protocolos SAMBA/CIFS, especialmente en entornos de almacenamiento virtualizado (VMS).
Además, el candidato ideal debe tener capacidad para el trabajo colaborativo bajo metodologías ágiles, orientación al detalle, pensamiento analítico y proactividad ante la identificación de oportunidades de mejora.

Habilidades y conocimientos deseables

Se valorará positivamente la experiencia en administración y manejo de servicios en la nube, especialmente en AWS, como el uso de AWS S3 para almacenamiento y gestión de datos. Es deseable conocimiento en protocolos FTP que faciliten la transferencia segura y eficiente de archivos.
También resulta importante la experiencia en integración de sistemas utilizando SAMBA/CIFS para compartir recursos en entornos de almacenamiento virtualizado, orientados a mejorar la interoperabilidad dentro de las arquitecturas de TI.
Conocimientos adicionales en seguridad informática, monitoreo y optimización del rendimiento de sistemas Linux serán considerados un plus para fortalecer el perfil técnico del candidato.

VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • Coderslab.io
JavaScript Java Python Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Official job site: Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

VIEW JOB APPLY VIA WEB
Net salary $1000 - 1400 Full time
Analista QA
  • Defontana
  • Santiago (Hybrid)
Amazon Web Services Quality Assurance Performance Testing Test Planning

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Apply directly through getonbrd.com.

Funciones del cargo

Ser parte de la gestión de calidad de los productos asignados para realización de QA: diseño y ejecución integral de pruebas sobre el ERP Defontana según las necesidades de sus productos. Todas ellas creadas con el objetivo de detección temprana de errores durante el proceso de desarrollo.

Se busca en específico un analista QA que trabaje directamente con el equipo encargado de la Transformación Digital de la compañia, el cual esta compuesto por 2 celulas, siendo el responsable el Gerente del área misma (Gerencia de Transformación Digital), quien sera ademas jefatura directa de quien postule al cargo.
Alguna de las tareas que se deben desempeñar son las sgtes :

  • Realizar planes de pruebas
  • Ejecutar testing de productos
  • Simular ejecuciones de productos y su rendimiento
  • Evaluar exhaustivamente los resultados
  • Revisar especificaciones de servicios y productos
  • Asegurar un funcionamiento óptimo del software
  • Potenciar las estrategias de prueba

Requerimientos del cargo

Para este cargo se debe tener conocimiento o el perfil apropiado en algunos temas, tales como:

  • Tener y aplicar conocimiento sobre las distintas tipos de pruebas
  • Documentación de procesos.
  • Proponer soluciones a diferentes errores que se encuentren, de manera de no tan solo realizar pruebas, sino que aportar en las soluciones de las mismas.

Opcionales

Deseables:

  • Conocimiento en desarrollo de software: ciclos de vida, desarrollo ágil, etc.
  • Conocimientos básicos en AWS.

Condiciones

- Bono trimestral, según resultados de la empresa y antigüedad.
- Se entrega computador de trabajo.
- Trabajo remoto dos días a la semana.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • ARKHO
Python Analytics Virtualization Amazon Web Services
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

Apply at getonbrd.com without intermediaries.

🎯 Objetivo del rol

Liderar y ejecutar el desarrollo de pipelines de datos en proyectos de analytics, con una visión integral de arquitectura de datos end to end. Se espera que aplique su experiencia técnica para fomentar la mejora continua, el cumplimiento de objetivos y la entrega de productos tecnológicos de alta calidad. Será un referente técnico dentro del equipo, aportando conocimientos en herramientas, lenguajes e infraestructura, y participando activamente en la generación de soluciones robustas y escalables.
Funciones Principales:
  • Colaborar estrechamente con el líder de equipo y el equipo de implementación, entregando visibilidad técnica del avance de las iniciativas.
  • Apoyar en la definición, estimación y planificación de tareas para productos analíticos bajo metodologías ágiles.
  • Liderar la gobernanza técnica de la solución junto al cliente, participando en decisiones clave.
  • Diseñar e implementar arquitecturas de soluciones de datos en la nube de forma colaborativa.
  • Participar en el modelado de datos y desarrollo de modelos analíticos corporativos.
  • Investigar y profundizar en tecnologías necesarias para alcanzar los objetivos del proyecto.

🏹 Perfil del Archer

En ARKHO valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:
  • Al menos 3 años en proyectos de analítica de datos.
  • Dominio avanzado de al menos un lenguaje de programación, preferiblemente Python.
  • Sólidos conocimientos en herramientas y servicios de datos en AWS (Glue, Lambda, S3, Athena, Redshift, Step Functions).
  • Experiencia en el uso de AWS CDK (Cloud Development Kit) para la definición de infraestructuras como código (altamente valorada).
  • Experiencia en diseño de pipelines de datos y orquestación (por ejemplo, Airflow, Step Functions).
  • Familiaridad con arquitecturas modernas de datos como Data Lakes, Data Warehouses o Lakehouses.
  • Experiencia o conocimientos en modelado de datos utilizando enfoques como modelo dimensional, estrella y copo de nieve.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.
📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
🩺 Seguro Complementario de Salud (Chile) o Bono de Salud
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🧘‍♀️ ARKHO Open Doors

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Education stipend ARKHO covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Consultor(a) Senior de Gobierno de Datos
  • Devups
  • Santiago (Hybrid)
Data Science Continual improvement process Data governance Information Security
En Devups, como parte de nuestro servicio de staff augmentation, buscamos un Consultor(a) Senior de Gobierno de Datos para liderar el diseño e implementación del modelo de Gobierno de Datos basado en DAMA-DMBOK. Este rol coordinará con áreas de negocio, TI y analítica para asegurar madurez de gobernanza, definición de roles (Data Owners y Data Stewards), y la creación de políticas, procesos y hojas de ruta. El proyecto implica gestionar el cambio organizacional mediante capacitaciones y métricas de adopción, y reportar avances y riesgos a la Gerencia de TI. Trabajarás en un entorno dinámico, con foco en metadatos, linaje, seguridad y master data, utilizando marcos de referencia reconocidos y buenas prácticas de gobierno de datos.

Find this vacancy on Get on Board.

Funciones principales

  • Realizar diagnóstico de madurez de Gobierno de Datos por área y definir un programa de mejora.
  • Definir roles y responsabilidades (Data Owners, Data Stewards) y asignar dueños de datos clave.
  • Diseñar políticas, procesos, controles y hojas de ruta para la gobernanza de datos.
  • Gestionar el cambio organizacional: capacitaciones, comunicación y métricas de adopción.
  • Coordinar actividades entre equipos de datos, arquitectura y tecnología, asegurando la alineación con objetivos de negocio.
  • Preparar reportes de avances, riesgos y impacto para la Gerencia de TI y partes interesadas.
  • Aplicar buenas prácticas de DAMA-DMBOK y gestionar aspectos de metadatos, linaje, seguridad y master data.

Requisitos y perfil

Buscamos un profesional con 5+ años de experiencia en Gobierno de Datos o Gestión de Calidad. Formación en Ingeniería, Sistemas o afines. Conocimiento sólido de marcos DAMA-DMBOK, y habilidades en liderazgo, facilitación y comunicación ejecutiva. Se valorará experiencia en gestión de metadatos, trazabilidad de datos (linaje), seguridad de la información y master data. Certificaciones como CDMP u otras similares serán consideradas un plus. Capacidad para trabajar de forma colaborativa con stakeholders de negocio y tecnología, orientado a resultados y con enfoque en la mejora continua.

Competencias y capacidades deseables

Deseable certificaciones en Gobierno de Datos (CDMP u otras), experiencia en entornos de servicios de consultoría o staff augmentation, y habilidades para dirigir talleres ejecutivos. Se valorará proactividad, pensamiento analítico, habilidades de facilitación y excelentes capacidades de comunicación para presentar avances y riesgos con claridad ante la alta dirección.

Beneficios y condiciones

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer ( Latam)
  • Playbypoint
Java Python Analytics SQL

Playbypoint is building the future of racquet sports by delivering a cutting-edge club management platform that enhances player engagement and streamlines operations for clubs around the world. As a member of the Data & Insights team, you will help turn raw data into actionable insights that guide product strategy and operational decisions. This role contributes to scalable data infrastructure, data quality initiatives, and data-driven decision making across engineering, product, and business stakeholders. You will collaborate with backend engineers, data scientists, and business leaders to design and implement data pipelines, data lakes, and analytics that empower growth, improve club performance, and ultimately deliver exceptional experiences to players and clubs globally.

Apply only from getonbrd.com.

Key Responsibilities

Design, develop, and maintain scalable data pipelines to support real-time and batch analytics across the product and business domains.
Own data flow architecture, ensuring data is clean, accessible, and reliable for engineering, product, and analytics teams.
Build and optimize pipelines using Kafka, Airflow, and cloud-native tooling; manage data lakes and warehouses with Iceberg, S3, and Snowflake/ClickHouse/Redshift.
Ensure data quality and governance across the entire data lifecycle, implementing monitoring, testing, and observability practices.
Collaborate closely with analysts and engineers to define metrics, dashboards, and ML workflows; contribute to internal tooling for data visibility and developer experience.
Improve data reliability, scalability, and performance; empower stakeholders with trusted data to drive product decisions and business outcomes.

Role Overview & Requirements

We are seeking a highly skilled Data Engineer who thrives in a fast-paced startup environment and loves building scalable data systems. You will join a collaborative Data & Insights team dedicated to turning data into strategic value for the business.
What you’ll do: Design and implement end-to-end data pipelines, maintain data quality, and enable trusted analytics for product, growth, and operations teams. You will work with streaming technologies (Kafka), orchestration (Airflow), and cloud data platforms to support both real-time and batch processing. You will also contribute to data governance, observability, and tooling that improves the developer experience and accelerates decision-making across the organization.
Your impact: Deliver reliable data infrastructure that supports key metrics, business intelligence, A/B testing, and ML workflows. Your work will directly influence product strategy, club operations, and the player experience on a global scale.
What we expect: 5+ years in data engineering; strong Python and SQL skills; experience with streaming and orchestration tools; familiarity with OLAP databases and cloud platforms (AWS preferred); a proactive mindset with a passion for data quality and scalable design.

Desirable Skills & Experience

Experience with ClickHouse, Snowflake, Redshift, or similar OLAP databases; hands-on knowledge of DataOps or MLOps at scale; exposure to data versioning formats (Parquet, Iceberg, Delta Lake); familiarity with LLMs, agents, and AI-powered data workflows; certifications in AWS, Snowflake, or related platforms.
Strong communication skills and collaboration with cross-functional teams; problem-solving mindset with a bias for action; ability to balance speed with data quality and governance in a dynamic startup setting.

Benefits & Why Join Playbypoint

💻 Fully remote work
🤝 Relaxed work environment
🕰️ Flexible work schedules
💰 Competitive benefits
💡 There will always be room for new ideas
🏕️ Attend retreats and connect with our team
📚 Grow your knowledge and access online resources
🚀 Experience accelerated growth and have more opportunities
🥇 Make history with a global brand driven by the best Latin American talent…
And the best is yet to come 😉

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Time for side projects Playbypoint allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Data Engineer (Azure / AWS)
  • Devups
Python SQL Virtualization Amazon Web Services

En Devups, ofrecemos un servicio de staff augmentation que permite incorporar desarrolladores y técnicos a tu empresa sin gestionar reclutamiento, contratación ni costes asociados. Nuestro enfoque flexible facilita añadir, intercambiar o reducir recursos de desarrollo de forma rápida, manteniendo la responsabilidad y reduciendo la fricción operativa. Trabajamos para que nuestros clientes escalen sus capacidades tecnológicas con rapidez y sin la carga de una estructura interna permanente.

Como parte de nuestro equipo, el proyecto de Data Engineering se centrará en diseñar soluciones robustas y escalables para flujos de datos en la nube, colaborando con analítica y ciencia de datos para decisiones basadas en datos de calidad. Buscamos un perfil que contribuya a la modernización de pipelines, data lakes y data warehouses, aplicando buenas prácticas de seguridad, gobernanza y costo-eficiencia para entornos Azure y AWS.

Apply without intermediaries from Get on Board.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en entornos cloud (Azure Data Factory, Databricks, Synapse; AWS Glue, Lambda, S3).
  • Integrar, transformar y limpiar grandes volúmenes de datos provenientes de múltiples fuentes para su consumo en analítica y ML.
  • Administrar y optimizar data lakes y data warehouses (Snowflake, Redshift, Synapse, BigQuery según el stack del cliente).
  • Implementar versionado, gobernanza, seguridad y monitoreo continuo de datos; gestionar costos y performance tuning en nube.
  • Colaborar estrechamente con equipos de analítica, ciencia de datos y desarrollo para entregar soluciones centradas en negocio.
  • Participar en prácticas de CI/CD y, si aplica, contenerización con Docker y flujos de orquestación (Airflow, Prefect o similar).

Descripción

Buscamos un Data Engineer con experiencia en el diseño, construcción y optimización de pipelines de datos en la nube ( Azure o AWS ). El objetivo es asegurar el flujo confiable, escalable y seguro de datos desde múltiples fuentes hacia sistemas analíticos o de machine learning, soportando decisiones de negocio basadas en información de calidad. Requisitos clave: +3 años de experiencia en Data Engineering, experiencia en Azure (Data Factory, Databricks, Synapse) o AWS (Glue, Redshift, Lambda, S3), sólidos conocimientos en Python y SQL, modelado de datos, pipelines, APIs y orquestación (Airflow, Prefect o similar), inglés técnico. Se valoran Docker, CI/CD, herramientas de MLOps y certificaciones en Azure o AWS. Ofrecemos un proyecto desafiante con tecnologías cloud y trabajo remoto con horarios flexibles, en un equipo técnico de alto nivel.

Desirable

Experiencia adicional en seguridad de datos, costos y performance tuning en cloud. Conocimientos de seguridad de datos, cumplimiento de normativas y experiencia con herramientas de monitoreo y observabilidad. Capacidad para trabajar de forma autónoma, con buen manejo de prioridades y comunicación clara en entornos multiculturales. Preferible experiencia trabajando en proyectos con impacto directo en negocio y con clientes o equipos remotos.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Arquitecto de Datos / Sector Bancario
  • Devsu
  • Quito (In-office)
Python SQL Virtualization Amazon Web Services

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo, aprendizaje continuo y la flexibilidad serán elementos muy presentes.

Buscamos un Arquitecto de Datos, para trabajar de forma presencial desde Quito, Ecuador en proyectos retadores del sector financiero/bancario.

Applications at getonbrd.com.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en tiempo real (NRT) y por lotes usando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para asegurar integración y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • +5 años de experiencia en arquitectura de datos.
  • Experiencia práctica con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Sólidos conocimientos en servicios de AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Dominio en arquitecturas basadas en eventos, procesamiento en tiempo real (real-time), Data Lakes y Lake Houses.
  • Experiencia con herramientas de infraestructura como código: Terraform o CloudFormation.
  • Conocimiento en lenguajes y frameworks como: Python, SQL, Spark / PySpark.

Opcionales

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telecomunicaciones (telcos).
  • Conocimiento en herramientas de visualización como Power BI, Looker o Tableau.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
Gross salary $4000 - 6000 Full time
Senior Data Engineer
  • RH Vision
  • Ciudad de México (Hybrid)
Java PostgreSQL DevOps Microservices

You will be joining a critically important initiative focused on modernizing and optimizing the core database layer that underpins our entire global platform.

This isn't just a maintenance role—it's a strategic transformation. The project’s main goal is to implement our Point of Arrival (POA) database technologies, specifically moving toward modern, scalable solutions like Postgres and leveraging Spark for data processing.

This job is published by getonbrd.com.

Key Responsibilities

- Wide breath of engineering experience.
- Proven experience leading teams of engineers.
- Hands-on expertise with application design, software development, and automated testing.
- Experience with distributed (multi-tiered) systems, algorithms, and relational databases.
- Bachelor’s degree in computer science, computer science engineering, or related experience required; advanced degree preferred.
- Deep understanding of database domain and industry standards (e.g., Partitioning, lock management, SQL optimization, capacity planning, Data Migrations, etc...).

Required Skills & Experience

Java: 4+ years.
Spark: 3+ years.
RDBMs: 5+ years
gRPC
Microservices

Desirable:

Proven experience leading and mentoring engineering teams, including setting technical direction and driving execution across multiple initiatives.
FinTech, Banking domain knowledge
Expertise in designing and developing distributed systems with a focus on performance, scalability, and security.
Database migration experience
Cloud experience
Familiarity with modern DevOps practices and CI/CD pipelines.
Strong collaboration and communication skills, with experience engaging cross-functional teams including product, design, and infosec.
Knowledge and experience with:
- Postgres
- Vertex
- Cloud

Conditions

Partially remote You can work from your home some days a week.
Vacation over legal RH Vision gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Ingeniero de Datos
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo, aprendizaje continuo y la flexibilidad serán elementos muy presentes.

Buscamos un Ingeniero de Datos, para trabajar de forma hibrida desde Quito, Ecuador en proyectos retadores del sector financiero/bancario.

Apply only from getonbrd.com.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer Senior – Especialista en Databricks (AWS)
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL NoSQL Business Intelligence
En BC Tecnología trabajamos como consultora de TI que administra portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales para clientes en servicios financieros, seguros, retail y gobierno. Como Data Engineer Senior – Especialista en Databricks (AWS), te incorporarás a un equipo orientado al análisis y disponibilidad de datos estratégicos para la toma de decisiones del negocio. Participarás en proyectos de datos en la nube, diseñando soluciones escalables y eficientes que aprovechen Databricks sobre AWS, manteniendo y mejorando pipelines y ETLs para entregar datos confiables a usuarios y perfiles analíticos.
La posición se alinea con nuestra apuesta por soluciones en la nube, prácticas de desarrollo ágil y enfoque al cliente, con oportunidades de crecimiento profesional dentro de un entorno colaborativo y dinámico.

Job opportunity on getonbrd.com.

Funciones

  • Diseñar y desarrollar ETLs y Data Pipelines escalables sobre Databricks.
  • Operar con alta autonomía, gestionando backlog y entregables de forma independiente.
  • Gestionar la ingesta, transformación y almacenamiento de datos desde múltiples fuentes.
  • Implementar y optimizar soluciones cloud (preferencia AWS).
  • Traducir requerimientos de negocio en soluciones analíticas efectivas.
  • Promover buenas prácticas de ingeniería de datos y apoyar técnicamente a perfiles mid.

Descripción

Buscamos un Data Engineer Senior altamente autónomo y orientado a resultados, capaz de diseñar, construir y mantener pipelines de datos robustos y eficientes en entornos cloud, con foco en Databricks. Su misión será facilitar el acceso e interpretación de datos estratégicos que potencien la toma de decisiones del negocio.
Requisitos clave incluyen experiencia sólida en Databricks, conocimiento en reportería (Power BI o Metabase) y habilidades de autogestión y liderazgo técnico individual. Se valora experiencia en retail, conocimientos en cloud (ideal AWS), SQL, NoSQL y Data Warehouses, y familiaridad con servicios AWS (Glue, Airflow, Redshift, etc.).

Deseables

Experiencia previa en retail. Conocimientos en cloud computing (ideal AWS). Experiencia en SQL, NoSQL, Data Warehouses. Familiaridad con servicios AWS (Glue, Airflow, Redshift, etc.). Conocimientos básicos en Python o Java. Mentalidad analítica orientada al negocio. Experiencia con metodologías ágiles.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Technical Lead
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile Git
BC Tecnología es una consultora de TI con amplio expertise en áreas de Infraestructura, Desarrollo de Software y Servicios de outsourcing. Participamos en proyectos para clientes de servicios financieros, seguros, retail y gobierno, diseñando soluciones escalables y alineadas a los objetivos del negocio. Nuestra propuesta incluye gestión de portafolio, desarrollo de proyectos y formación de equipos ágiles, con enfoque en cambio organizacional y desarrollo de productos. En este role, el Data Technical Lead liderará arquitecturas de datos avanzadas en AWS dentro de proyectos innovadores, asegurando soluciones seguras y eficientes que impulsen el negocio de nuestros clientes.

Apply directly on the original site at Get on Board.

Funciones

  • Diseñar e implementar arquitecturas de datos avanzadas en AWS, enfocadas en soluciones escalables, seguras y alineadas a los objetivos del negocio.
  • Definir estándares técnicos, tomar decisiones sobre herramientas y tecnologías, y actuar como referente técnico dentro del equipo.
  • Ejecutar y guiar la ejecución de prácticas de mentoría técnica para el desarrollo del equipo y la transferencia de conocimiento a stakeholders.
  • Participar en la definición de estrategias de gobernanza de datos, seguridad, cumplimiento y optimización de costos en entornos cloud.
  • Liderar iniciativas de procesamiento batch y near real-time (por ejemplo, AWS Lambda, Step Functions, MWAA/Airflow) y orquestación de flujos de datos.
  • Trabajar con tecnologías de almacenamiento y procesamiento (Parquet, Iceberg), y gestionar SQL/NoSQL con AWS Glue Catalog e Infraestructura como código (Terraform/CloudFormation).
  • Colaborar con equipos de ingeniería, producto y negocio para traducir requerimientos en soluciones técnicas efectivas, dentro de metodologías ágiles (Scrum/Kanban).

Descripción

Buscamos un profesional senior para liderar la estrategia técnica de datos dentro de proyectos en AWS. El/la candidato/a ideal posee experiencia comprobable en arquitecturas Medallion en entornos cloud, desarrollo y orquestación de pipelines batch y near real time, y un sólido dominio de Python, Java o Scala, Spark/Pandas y programación distribuida. Deberá demostrar experiencia en arquitecturas serverless (EMR, Glue, Lambda), manejo de formatos como Parquet e Iceberg, control de versiones (Git), prácticas de CI/CD y conocimiento de gobernanza y seguridad en AWS. Se valora experiencia en mentoría técnica, liderazgo en entornos ágiles y capacidad de comunicar ideas complejas a stakeholders.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

VIEW JOB APPLY VIA WEB
$$$ Full time
Head of Data & Automation
  • Lemontech
  • Santiago (Hybrid)
Python Analytics Git Virtualization

En Lemontech aceleramos el futuro de la industria legal a través de tecnología SaaS. Nuestra misión es transformar la manera en que los abogados trabajan, impulsando eficiencia, productividad y decisiones basadas en datos.

Buscamos a un/a Head of Data & Automation que lidere nuestra estrategia de datos y automatización, convirtiendo la información en decisiones que impulsen el crecimiento, la rentabilidad y la innovación.

Además serás responsable de liderar y optimizar el uso de datos dentro de la organización, actuando como un socio estratégico del C-Level y de las distintas unidades de negocio. Tu misión será posicionar la data como una palanca de toma de decisiones, eficiencia operacional y ventaja competitiva.

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar e implementar el marco de Data Governance, asegurando calidad, trazabilidad y consistencia en los KPIs.
  • Traducir datos en insights accionables que guíen decisiones de producto, pricing, go-to-market y customer success.
  • Implementar modelos predictivos (churn scoring, LTV forecasting, cohortes de clientes) y detectar oportunidades de valor.
  • Diseñar y ejecutar proyectos de automatización de procesos que aumenten la productividad y reduzcan costos.
  • Liderar el desarrollo de modelos avanzados de analítica, machine learning y AI para impulsar eficiencia e innovación.
  • Evolucionar del reporting operativo hacia escenarios estratégicos y simulaciones de negocio.
  • Promover una cultura data-driven, elevando el nivel de alfabetización analítica en toda la compañía.

Requerimientos del cargo

  • Experiencia liderando funciones de Data Science, Analytics o Automation en empresas SaaS o entornos tecnológicos.
  • Dominio de Python o R, bibliotecas de machine learning (scikit-learn, TensorFlow, PyTorch) y herramientas de RPA (Airflow, dbt, Zapier/Make).
  • Conocimientos sólidos en estadística avanzada, optimización matemática y automatización de workflows.
  • Experiencia con Jupyter Notebooks, Git y AWS SageMaker (nivel intermedio).
  • Fuertes habilidades de pensamiento estratégico, storytelling con datos, innovación y orientación a la eficiencia.

Opcionales

  • Experiencia en industria SaaS y/o LegalTech

Condiciones

🌍 Work From Anywhere (WFA): Flexibilidad para trabajar desde cualquier lugar.
🌅 Semana extra de vacaciones: Una semana adicional a los días legales por país.
🏡 Horarios flexibles: Trabaja desde casa o nuestra oficina.
🍏 Espacios de descanso: Lounge con snacks y frutas para desconectar.
🚀 Cultura de equipo: Trabajamos juntos para alcanzar objetivos y disfrutar el proceso.
💼 Co-financiamiento de estudios: Apoyo para tu desarrollo profesional.
🏥 Seguro complementario (solo en Chile): Para tu bienestar y tranquilidad.
🍼 Postnatal parental de 1 mes: Para disfrutar con tu bebé.

Postúlate ahora y acompáñanos a transformar el futuro del LegalTech! 🌟

Te compartimos nuestro aviso de Privacidad de Postulantes

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Commuting stipend Lemontech offers a stipend to cover some commuting costs.
Computer provided Lemontech provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job offer is on Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL Business Intelligence
BC Tecnología es una consultora de TI que acompaña a sus clientes en la gestión de proyectos, outsourcing y selección de profesionales. El/la Ingeniero/a de Datos reportará al área de Data y trabajará en proyectos innovadores para clientes de diversos sectores, principalmente en soluciones basadas en nube (AWS y Google Cloud) y en entornos de gobierno y control de datos. El proyecto se enfocará en garantizar calidad, trazabilidad y gobernanza de datos en el datalake corporativo, facilitando el acceso a insights a través de dashboards y reportes para áreas de negocio y BI.

Find this job on getonbrd.com.

Principales funciones

  • Diseñar, desarrollar y mantener procesos ETL/ELT para ingestión y transformación de datos.
  • Implementar y administrar soluciones de almacenamiento y procesamiento en AWS (S3, Glue, Athena) y Google Cloud cuando corresponda.
  • Ejecutar auditorías de calidad de datos, asegurando consistencia y cumplimiento de estándares.
  • Documentar estructuras, modelos y flujos mediante diccionarios y catálogos técnicos.
  • Desarrollar y mantener dashboards analíticos en Looker Studio y Metabase.
  • Participar en mesas de calidad y riesgo de datos, aportando análisis técnicos y propuestas de mejora.
  • Colaborar con equipos de Arquitectura, BI y Seguridad en la reingeniería de la arquitectura de datos.
  • Automatizar procesos de carga y monitoreo mediante scripting en Python o PySpark.

Requisitos y habilidades

Buscamos un/a Ingeniero/a de Datos con experiencia demostrable diseñando y manteniendo flujos de datos para operaciones analíticas y reporting. Se requiere un enfoque sólido en calidad, integridad y trazabilidad de datos, así como capacidad de trabajar en entornos de gobernanza y cumplimiento. Se valorará habilidades para colaborar con múltiples equipos y para traducir necesidades de negocio en soluciones técnicas escalables.
Requisitos mínimos:
  • Experiencia en diseño, desarrollo y puesta en producción de procesos ETL/ELT.
  • Conocimientos avanzados de AWS (S3, Glue, Athena) y experiencia con al menos una nube adicional (GCP o similar).
  • Conocimientos de bases de datos y modelado de datos, diccionarios y catálogos técnicos.
  • Experiencia en herramientas de BI y visualización de datos (Looker Studio, Metabase o similares).
  • Habilidad para escribir scripts en Python o PySpark para automatización y monitoreo.
  • Buenas habilidades de comunicación y trabajo en equipo, orientación a resultados y capacidad de gestionar prioridades en entornos dinámicos.
Deseables:
  • Conocimientos de gobernanza de datos, calidad de datos y marcos de cumplimiento.
  • Experiencia en orquestación de flujos y soluciones de data lake en entornos multi-nube.
  • Conocimiento de SQL avanzado y optimización de consultas.
  • Participación en prácticas ágiles y metodología DevOps para datos.

Requisitos deseables

Se valorarán certificaciones en AWS o Google Cloud, experiencia en proyectos de transformación de datos, y la capacidad de trabajar en un entorno con clientes de diversos sectores. Buscamos personas proactivas, con mentalidad de aprendizaje continuo, pensamiento analítico y habilidades para comunicar hallazgos técnicos a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Web server
BC Tecnología es una consultora de TI que implementa soluciones para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Senior Data Engineer para liderar y ejecutar iniciativas de datos de alto impacto dentro de un entorno ágil. El equipo de datos se enfoca en diseñar soluciones escalables de ingesta, procesamiento y gobierno de datos, alineadas a objetivos de negocio y a las mejores prácticas de arquitectura de datos moderno. El rol implica colaborar con líderes técnicos, arquitectos de datos y equipos multidisciplinarios para entregar pipelines robustos que impulsen decisiones basadas en datos y la generación de valor para los clientes. Formarás parte de proyectos innovadores y de alto nivel, con un enfoque en calidad, rendimiento y gobernanza de datos.

Apply to this posting directly on Get on Board.

Funciones principales

  • Diseñar y construir pipelines de datos eficientes para mover, transformar y procesar grandes volúmenes de información.
  • Asegurar la calidad, resiliencia y confiabilidad de procesos mediante pruebas, monitoreo y prácticas de observabilidad.
  • Implementar flujos CI/CD para integración y despliegue continuo en entornos de desarrollo y producción.
  • Aplicar patrones de diseño avanzados en pipelines (resiliencia, idempotencia, event-driven).
  • Contribuir al gobierno y la calidad de datos mediante gestión de metadatos, catálogos y trazabilidad de datos.
  • Colaborar con equipos multidisciplinarios para mejorar la eficiencia y escalabilidad de las soluciones de datos.
  • Adherirse a guías y mejores prácticas definidas por líderes técnicos y arquitectos de datos.

Qué esperamos del candidato

Buscamos un profesional con más de 2 años de experiencia en diseño y construcción de pipelines de datos, capaz de trabajar con volumen, variedad y velocidad de datos. Debe dominar lenguajes de programación como Python, SQL y, preferiblemente, Scala. Se valorarán conocimientos en tecnologías de orquestación como Apache Airflow, Mage, NiFi u otros orquestadores equivalentes, así como experiencia con herramientas de CI/CD (Git, Jenkins, GitLab CI o similares). El candidato ideal entiende conceptos de calidad y gobierno de datos, y tiene experiencia con programación distribuida o frameworks como Spark o Databricks. Se valorarán habilidades de comunicación, trabajo en equipo, orientación a resultados y capacidad para resolver problemas complejos en entornos dinámicos.

Requisitos deseables

Conocimientos en arquitecturas modernas de datos, experiencia con herramientas de data catalog y linaje de datos, y exposición a entornos regulados. Experiencia práctica en entornos de nube (AWS, y experiencia en diseño de soluciones de datos para sectores regulados. Capacidad de interpretar requerimientos de negocio y traducirlo en soluciones técnicas escalables, con habilidades de liderazgo técnico para guiar a equipos más jóvenes.

Beneficios y entorno de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI que aporta soluciones y servicios a clientes de sectores como finanzas, seguros, retail y gobierno. En este rol, participarás en proyectos de datos complejos, diseñando y construyendo pipelines escalables y resilientes que alimentan decisiones críticas del negocio. Colaborarás con equipos multidisciplinarios y con líderes técnicos para aplicar prácticas de gobierno de datos, calidad de datos y arquitectura moderna, garantizando entregas confiables y alineadas con objetivos estratégicos. Tendrás la oportunidad de trabajar con tecnologías y herramientas de vanguardia en un entorno que promueve la innovación, la mejora continua y la adopción de mejores prácticas de DevOps y CI/CD dentro de proyectos de datos a gran escala.

Apply to this job directly at getonbrd.com.

Funciones

  • Diseñar y construir pipelines de datos eficientes para mover, transformar y procesar grandes volúmenes de información.
  • Asegurar la consistencia y confiabilidad de procesos mediante pruebas unitarias, monitoreo continuo y métricas de calidad.
  • Implementar flujos CI/CD que faciliten la integración y despliegue en entornos de desarrollo y productivos.
  • Aplicar patrones de diseño avanzados en pipelines (resiliencia, idempotencia, event-driven).
  • Contribuir al gobierno y calidad de datos mediante gestión de metadatos, catálogos y linaje de datos.
  • Colaborar con equipos multidisciplinarios para optimizar la eficiencia y escalabilidad de soluciones de datos.
  • Seguir lineamientos y buenas prácticas definidas por líderes técnicos y arquitectos de datos.

Descripción

Senior Data Engineer es responsable de diseñar y desarrollar soluciones complejas de datos, asegurando calidad, resiliencia y escalabilidad de los pipelines. Este rol aplica prácticas avanzadas de ingeniería de datos, integra tecnologías modernas y promueve el gobierno de datos. Colabora estrechamente con líderes técnicos y arquitectos de datos para asegurar soluciones alineadas con los objetivos del negocio. Requiere dominio de lenguajes como Python, SQL y experiencia con herramientas de orquestación y arquitectura de datos moderna.

Requisitos deseables

Conocimientos en Spark, Databricks o marcos de procesamiento distribuido; experiencia con herramientas como Airflow, Mage, NiFi u otros orquestadores; experiencia en CI/CD (Git, Jenkins, GitLab CI o similares); experiencia en gobierno de datos y catalogación de metadatos; capacidad para trabajar en entornos multi-equipo, comunicación efectiva y proactividad para resolver problemas complejos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist Senior
  • Global Mobility Apex, S.A.
Python Analytics SQL Virtualization

Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y alianzas estratégicas con gigantes como PepsiCo y AB InBev. En los últimos años, hemos impulsado una expansión global que nos ha llevado a estructurarnos en cuatro unidades de negocio: Apex (transformación digital), CBC (distribución), Beliv (innovación en bebidas) y Bia (alimentos). La unidad Apex se enfoca en liderar la transformación digital a través de soluciones tecnológicas innovadoras, con equipos multidisciplinarios encargados del desarrollo de portales web, aplicaciones y sistemas digitales que apoyan y optimizan los procesos del negocio a nivel global.

Apply without intermediaries through Get on Board.

Funciones del cargo

Propósito del rol

Como Data Scientist Senior, tu propósito será liderar el desarrollo de modelos analíticos de alto impacto que generen valor tangible para el negocio. Serás responsable de diseñar soluciones avanzadas basadas en datos, integrando diversas fuentes de información y aplicando técnicas de inteligencia artificial, machine learning y analítica avanzada. Tu trabajo impulsará decisiones estratégicas que optimicen procesos, maximicen resultados y fortalezcan la cultura data-driven en la organización.


Responsabilidades principales

  • Liderar el diseño, desarrollo, validación e implementación de modelos analíticos robustos y escalables que aporten valor medible a las operaciones y a la estrategia de negocio.
  • Ejecutar análisis estadísticos, predictivos y prescriptivos avanzados para obtener insights accionables, anticipar comportamientos y optimizar resultados.
  • Colaborar estrechamente con traductores (Translators), equipos comerciales y de negocio para comprender desafíos y proponer soluciones analíticas sostenibles y alineadas con los objetivos estratégicos.
  • Coordinar con arquitectos, ingenieros de datos y especialistas digitales para entregar soluciones de analítica avanzada de punta a punta, desde la ingesta hasta la puesta en producción.
  • Promover buenas prácticas de modelado, versionamiento y documentación, asegurando trazabilidad, calidad y reproducibilidad de los desarrollos.
  • Asegurar el monitoreo, mantenimiento y mejora continua de los modelos productivos, garantizando su vigencia, estabilidad y valor en el tiempo.
  • Liderar la experimentación estructurada (A/B testing, pruebas de hipótesis y evaluación causal) para medir el impacto de las soluciones analíticas y orientar la toma de decisiones.
  • Participar activamente en la definición de estándares, frameworks y lineamientos técnicos que fortalezcan la disciplina de Ciencia de Datos dentro de la organización.

Requerimientos del cargo

Requisitos del perfil:

  • Experiencia mínima de 5 años en modelamiento estadístico, machine learning y desarrollo de soluciones de analítica avanzada en entornos productivos.
  • Dominio de Python, SQL y PySpark, y experiencia en plataformas modernas de datos y analítica (Databricks, Azure, AWS o GCP).
  • Conocimiento sólido en estadística aplicada, inferencia causal, series de tiempo, optimización y modelado predictivo.
  • Experiencia implementando soluciones end-to-end (desde la exploración hasta el despliegue) bajo buenas prácticas de MLOps, MLflow, y control de versiones de modelos.
  • Capacidad para liderar técnicamente proyectos analíticos complejos y guiar a otros científicos de datos, promoviendo la adopción de prácticas de excelencia.
  • Habilidad para traducir hallazgos técnicos en insights de negocio de alto impacto.
  • Deseable: Experiencia regional o multinacional, gestionando proyectos de analítica a escala o multipaís.

Opcionales (Plus+)

Experiencia o conocimiento avanzado en Generative AI y Large Language Models (LLMs), incluyendo:

  • Fine-tuning o prompt engineering en modelos fundacionales (GPT, Claude, Llama, Mistral, etc.).
  • Integración de LLMs en productos analíticos o pipelines de negocio (por ejemplo, asistentes internos, generación automática de reportes o clasificación de texto).
  • Evaluación de calidad y governance de modelos generativos.

Condiciones

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python Data Analysis SQL

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Official source: getonbrd.com.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer + Cloud
  • DWConsulware de Perú
Analytics Git SQL Business Intelligence
DWConsulware de Perú es una consultoría de negocios especializada en Tecnologías de la Información, fundada en 1998. Somos líderes en soluciones para la administración del desempeño corporativo (CPM). Nuestros productos y servicios permiten a las organizaciones planificar, presupuestar y pronosticar, monitorear con alertas y tableros de control, y analizar con inteligencia de negocios. Este rol de Data Engineer + Cloud participará en la automatización de modelos y pipelines de datos, integrando procesos en entornos on-premise y en la nube, a través de ingestas o ETL, para soportar soluciones CPM y analítica avanzada para clientes.

Find this vacancy on Get on Board.

Funciones del Perfil

  • Automatizar modelos y pipelines de datos, creando o modificando artefactos en entornos on-premise y en la nube.
  • Diseñar, implementar y mantener procesos de ingesta, transformación y orquestación de datos (ETL/ELT) para alimentar soluciones de CPM, dashboards e informes ejecutivos.
  • Trabajar con servicios en la nube (AWS) y bases de datos para optimizar rendimiento, escalabilidad y costos.
  • Colaborar con equipos de datos, BI y desarrollo para asegurar la calidad, seguridad y gobernanza de la información.
  • Participar en la definición de arquitectura de datos, best practices y estándares de desarrollo.

Descripción

Buscamos un Data Engineer con enfoque en nube (AWS) para diseñar y operar soluciones de datos que respalden procesos de gestión del desempeño corporativo. El candidato trabajará con herramientas y tecnologías como AWS S3, Athena y Dynamo, integrando datos en entornos híbridos y gestionando pipelines de ingesta y procesamiento. Se requieren habilidades intermedias en Teradata, SQL y Shell Unix, con conocimiento básico de Git y Control-M. Se valorará capacidad analítica, orientación a la calidad de datos, y experiencia en proyectos de BI/analítica. El rol requiere capacidad para trabajar de forma colaborativa en equipo, gestionar prioridades y comunicarse efectivamente con stakeholders.

Requisitos Deseables

Experiencia demostrable en implementación de soluciones de CPM y analítica operativa. Conocimientos en modelado de datos, particionamiento y optimización de consultas en SQL. Familiaridad con herramientas de orquestación (p. ej., Control-M) y prácticas de DevOps para datos. Certificaciones en AWS (por ejemplo, Solutions Architect o Data Analytics) serán valoradas. Habilidades de comunicación en español e inglés, proactividad y capacidad para resolver problemas complejos de datos en entornos dinámicos.

Beneficios

- 2 gratificaciones por año
- CTS
- Vacaciones de 30 días
- Participación en utilidades
- EPS

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage DWConsulware de Perú pays or copays health insurance for employees.
Computer provided DWConsulware de Perú provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Analista de Gobierno de Datos
  • DWConsulware de Perú
  • Lima (Hybrid)
Agile Excel Virtualization Amazon Web Services
DWConsulware de Perú es una consultoría de negocios líder en soluciones de tecnología de la información, fundada en 1998. Nos especializamos en administración del desempeño corporativo (CPM) y soluciones de gobierno y calidad de datos. El equipo de Gobierno de Datos colabora con áreas de negocio y tecnología para establecer estándares, políticas y métricas que aseguren la confiabilidad, integridad y utilidad de los datos a nivel organizacional. Buscamos un Analista de Gobierno de Datos para integrarse a un equipo multidisciplinario y apoyar iniciativas estratégicas de datos, asegurando la calidad, trazabilidad y cumplimiento de normativas a través de herramientas y procesos de gobierno de datos.

Apply directly through getonbrd.com.

Funciones del perfil

Ejecutar estándares, políticas y procesos técnicos que regulen el uso, desarrollo y gestión de datos a nivel corporativo.
  • Desarrollar e implementar controles de calidad de datos mediante KPIs definidos con los Data Owners y ejecutar planes de remediación con el equipo de Data Officers.
  • Gestionar herramientas de gobierno y calidad de datos, incluida la administración del diccionario de datos.
  • Acompañar iniciativas estratégicas asegurando el cumplimiento de lineamientos de datos y estándares de calidad.
  • Colaborar con usuarios de negocio para facilitar la interpretación y presentación de datos ante gerencias.
  • Participar en proyectos de gobierno y calidad de datos, con experiencia en marcos y metodologías ágiles (Scrum, Kanban, etc.).
  • Trabajar con herramientas cloud para ETL, análisis, calidad y gobierno de datos (con preferencia a GCP) y dashboards/indicadores en Looker, Power Apps, Excel u otras herramientas de explotación de datos.
  • Conocer y gestionar herramientas de gobierno como Alation, Collibra, Informática, Anjana, Dataplex, AWS Data Catalog, entre otras.

Requisitos

Perfil con al menos 3 años de experiencia en áreas y puestos similares. Requisitos clave:
  • Experiencia en el marco de trabajo DAMA (excluyente).
  • Participación en proyectos de gobierno y calidad de datos (mínimo 1 año).
  • Capacidad analítica, atención al detalle y enfoque a resultados.
  • Habilidad para comunicarse con usuarios de negocio y presentar ante gerencias.
  • Conocimientos en gestión de proyectos ágiles (Scrum, Kanban) y procesos organizacionales.
  • Experiencia con herramientas cloud (ETL, análisis, calidad y gobierno); preferible experiencia en GCP.
  • Dominio en desarrollo y mantenimiento de dashboards e indicadores (KPIs) en Looker, Power Apps, Excel u otras herramientas de explotación de datos.
  • Conocimiento y manejo de herramientas de gobierno como Alation, Collibra, Informática, Anjana, Dataplex, AWS Data Catalog, entre otras.

Conocimientos y habilidades deseables

Se valorará experiencia adicional en arquitectura de datos, modelado dimensional, y habilidades para gestionar diccionarios de datos y metadatos a escala. Competencias de comunicación avanzada, capacidad para influir en stakeholders y seguimiento de buenas prácticas de gobierno de datos, seguridad y cumplimiento normativo.

Beneficios

- 2 gratificaciones por año
- CTS
- Vacaciones a 30 días
- Participación en utilidades
- Seguro de vida obligatorio al 100%
- EPS

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage DWConsulware de Perú pays or copays health insurance for employees.
Computer provided DWConsulware de Perú provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer Senior
  • Coderslab.io
  • Santiago (Hybrid)
Agile Web server Big Data BigQuery

En Coderslab.io nos encontramos en una etapa de expansión y transformación de nuestra plataforma de datos. Buscamos un Data Engineer Senior para unirse a nuestro equipo de Data Product Support asignado al proyecto Data Operativa BFPE-Datalake 2.0. El profesional trabajará dentro de una organización global con más de 3,000 empleados, colaborando con equipos de producto, analítica, tecnología y negocio para diseñar soluciones de datos robustas que impulsen decisiones basadas en datos.

Job opportunity on getonbrd.com.

Funciones y responsabilidades

  • Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables utilizando Apache Airflow sobre Google Cloud Platform (GCP).
  • Modelar nuevas estructuras de datos en BigQuery, alineadas con requerimientos del negocio y evolución del Data Lake institucional.
  • Implementar procesos de ingesta, transformación y validación de datos desde diversas fuentes, asegurando calidad y trazabilidad.
  • Colaborar con equipos de producto, analítica, tecnología y negocio para traducir necesidades funcionales en soluciones técnicas robustas.
  • Monitorear y optimizar el rendimiento de ETL/ELT, aplicando buenas prácticas de ingeniería de datos.
  • Documentar soluciones técnicas, flujos de trabajo y estructuras de datos usando Confluence, asegurando trazabilidad y acceso colaborativo.
  • Utilizar GitLab para control de versiones, gestión de código fuente y automatización de despliegues.
  • Participar activamente en equipos ágiles, aplicando Scrum y contribuyendo en dailies, sprint planning y retros.
  • Apoyar en la resolución de incidencias y en la mejora continua de productos de datos existentes.
  • Contribuir a la evolución de la arquitectura de datos del banco, proponiendo mejoras y nuevas soluciones.

Requisitos y perfil deseado

Habilidades/Conocimientos obligatorios:
  • Experiencia diseñando, desarrollando y manteniendo pipelines de datos con Apache Airflow en Google Cloud Platform (GCP).
  • Modelado de estructuras de datos en BigQuery, orientado a entornos financieros y evolución de Data Lake.
  • Experiencia en ingesta, transformación y validación de datos desde múltiples fuentes, con foco en calidad y trazabilidad.
  • Colaboración con múltiples squads y áreas para traducir necesidades en soluciones técnicas sólidas.
  • Monitoreo y optimización de rendimiento de procesos ETL/ELT; buenas prácticas de ingeniería de datos.
  • Documentación técnica en Confluence; uso de GitLab para control de versiones y despliegues.
  • Participación en equipos ágiles (Scrum); gestión de incidencias y mejora continua.
  • Contribución a la evolución de la arquitectura de datos para decisiones basadas en datos.
Formación y experiencia:
  • Licenciatura en Ciencias de la Computación, Ingeniería en Sistemas o campos afines; 5+ años de experiencia en Data Engineering.
  • Certificaciones en GCP, Airflow o BigQuery serán valoradas.
  • Comunicación efectiva en español; capacidad para trabajar en entornos multiculturales y con equipos remotos.

Deseables

Experiencia en entornos bancarios o fintech, conocimiento de gestión de metadatos, Data Governance y seguridad de datos. Habilidad para mentoría técnica y liderazgo de iniciativas de datos. Capacidad para priorizar tareas y gestionar múltiples stakeholders. Enfoque en soluciones escalables y orientadas a resultados, con pensamiento analítico y atención al detalle.

Beneficios

Además de un equipo internacional con acceso a tecnologías de punta, ofrecemos oportunidades de desarrollo profesional, capacitación continua, y un entorno de trabajo colaborativo en el que la diversidad y el talento se valoran.

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2500 Full time
Semi Senior Power BI con Inglés Avanzado
  • I2B Technologies
Data Analysis SQL Power BI English
En I2B Technologies trabajamos en un proyecto global del sector energético. Buscamos un/a Power BI Developer Semi Senior para participar en el desarrollo y mantenimiento de dashboards de alcance internacional. El rol implica transformar y modelar datos provenientes de SQL y Snowflake, colaborar con equipos técnicos para mejorar la calidad y consistencia de los reportes, y contribuir a la automatización y optimización de procesos de análisis de datos. Formarás parte de un equipo multi‑regional, trabajando en iniciativas que impactan directamente en la eficiencia operativa y la toma de decisiones estratégicas de clientes globales.

Apply directly through getonbrd.com.

Qué harás

  • Participar en el desarrollo y mantenimiento de dashboards en Power BI de alcance internacional.
  • Transformar y modelar datos provenientes de SQL y Snowflake para reportes confiables y escalables.
  • Colaborar con equipos técnicos para mejorar la calidad, consistencia y gobernanza de los reportes.
  • Diseñar modelos de datos, DAX y Power Query para optimizar procesos de análisis y automatizar flujos de trabajo.
  • Participar en la definición de requerimientos, validación de entregables y entrega de insights accionables a stakeholders globales.

Requisitos y habilidades

Buscamos un/a profesional con 3 a 4 años de experiencia en desarrollo de reportes y visualizaciones con Power BI. Es imprescindible un buen dominio de SQL y conocimientos en Snowflake. Se requiere manejo de DAX, modelado de datos y Power Query. Nivel de inglés avanzado (C1) para comunicarse con equipos globales. Se valorará una actitud proactiva, compromiso con la calidad y pasión por el análisis de datos. Se espera capacidad para trabajar de forma autónoma, buena gestión del tiempo y habilidad para colaborar en equipos distribuidos. Se valoran también buenas prácticas de análisis de negocio, interpretación de métricas y orientación a resultados.

Requisitos deseables

Se valorarán conocimientos en herramientas de visualización adicionales, experiencia con soluciones en la nube (Azure o AWS), familiaridad con informes paginados de Power BI, experiencia en entornos de datos energéticos o industriales, certificaciones en Power BI o SQL, y habilidades básicas de scripting para automatización. Si tienes experiencia trabajando en proyectos internacionales o con equipos multiculturales, también es considerado un plus. Se aprecia proactividad, buenas habilidades de comunicación y capacidad para adaptarse a cambios de alcance y prioridades.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Wellness program I2B Technologies offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Digital library Access to digital books or subscriptions.
Computer provided I2B Technologies provides a computer for your work.
Fitness subsidies I2B Technologies offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Senior Power BI con Inglés Avanzado
  • I2B Technologies
SQL Power BI English Data Visualization
En I2B Technologies trabajamos en transformar industrias a través de soluciones de alto impacto. Nuestro equipo global desarrolla proyectos en el sector energético, con un enfoque en inteligencia de negocios y transformación digital. El proyecto para el rol de Senior Power BI Developer es global y busca entregar dashboards de alto rendimiento que faciliten decisiones estratégicas para clientes en LATAM y a nivel mundial. Buscamos combinar la experiencia en datos con prácticas ágiles y colaboración internacional para entregar valor real a usuarios finales y stakeholders.

This posting is original from the Get on Board platform.

Funciones principales

  • Diseñar, desarrollar y mantener dashboards de Power BI de alto rendimiento.
  • Conectar, transformar y modelar datos desde SQL y Snowflake.
  • Garantizar la calidad e integridad de la información utilizada en reportes estratégicos.
  • Colaborar con equipos internacionales en entornos ágiles y multi-timezone.
  • Optimizar consultas, modelado de datos y implementación de DAX para soluciones escalables.
  • Participar en revisiones de requerimientos, definir métricas y gobernanza de datos.

Descripción

Buscamos un/a Senior Power BI Developer con más de 5 años de experiencia comprobable en desarrollo de Power BI. El/la candidato/a ideal dominará SQL y Snowflake, tendrá sólida experiencia en DAX, modelado de datos y optimización de consultas. Se espera un perfil analítico, proactivo y orientado a resultados, con capacidad para comunicarse en Inglés avanzado (C1) para interactuar con equipos globales. Será responsable de entregar dashboards de alta calidad que agreguen valor estratégico a nuestros clientes del sector energético y más allá, manteniendo buenas prácticas de desarrollo y gobernanza de datos.

Requisitos deseables

  • Experiencia trabajando en entornos internacionales y equipos distribuidos.
  • Conocimientos en performance tuning y optimización de modelos de datos en Power BI.
  • Capacidad para mentoría y apoyo a colegas con menos experiencia.
  • Habilidades de comunicación en español e inglés para interacción con stakeholders.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Wellness program I2B Technologies offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Digital library Access to digital books or subscriptions.
Computer provided I2B Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
BI Engineer
  • OpenLoop
  • Lima (Hybrid)
Python Analytics SQL Business Intelligence

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Find this job on getonbrd.com.

Funciones del cargo

  • Data Modeling and Transformation: Design and maintain efficient data models (star/snowflake schemas) to support self-service analytics and dashboard creation.
  • Data Transformation: Work with raw data from various sources and ensure proper transformation and enrichment before visualization.
  • Dashboard and Report Development: Build and optimize dashboards and visualizations using tools such as Power BI, Tableau, or Zoho Analytics, with performance and scalability in mind.
  • Dashboard Optimization: Support performance and scalability of dashboards; help automate data refreshes and improve usability.
  • Data Integration Support: Collaborate with data engineers to validate data pipelines and ensure correct ingestion and transformation of data sources.
  • Stakeholder Collaboration: Partner with BI Analysts and business teams (finance, ops, customer success) to understand reporting needs and translate them into scalable technical solutions.
  • Performance Metrics: Develop and track key performance indicators (KPIs) to measure the success of business initiatives.
  • Documentation and Best Practices: Maintain technical documentation and advocate for BI standards and best practices within the organization.
  • Performance Optimization: Troubleshoot and optimize dashboard performance, SQL queries, and data refresh cycles.
  • Other duties as assigned.

Requerimientos del cargo

  • 2–4 years of experience in analytics, BI, or data roles.
  • Bachelor’s degree in Data Science, Engineering, Statistics, Computer Science, or a related field.
  • Strong skills in SQL and data transformation (e.g., dbt, Snowflake, or similar).
  • Experience with BI tools (Power BI, Tableau, Looker, or Zoho Analytics).
  • AWS skills
  • Understanding of dimensional modeling and semantic layer concepts.
  • Coding experience (e.g., Python) is a plus, but not mandatory.
  • Strong communication and collaboration skills with both technical and non-technical teams.
  • Self-driven, autonomy, teamwork and strategic mindset.
  • Strong analytical skills with attention to detail and accuracy.

Condiciones

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos AWS (Latam)
  • BC Tecnología
Python SQL Virtualization Amazon Web Services
En BC Tecnología buscamos un/a Ingeniero/a de Datos para LATAM, que se sume a un proyecto estratégico de pricing, con el desafío de diseñar, implementar y optimizar arquitecturas de datos escalables, asegurando la calidad, trazabilidad y disponibilidad de la información. El rol implica diseñar y mantener pipelines de ingestión, transformación y publicación de datos, así como implementar modelos de datos para análisis, reportería y pricing dinámico. Se trabajará con datos de múltiples fuentes, incluyendo sistemas legacy y plataformas cloud, promoviendo gobernanza y buenas prácticas.

This job offer is available on Get on Board.

Funciones principales

  • Diseñar y mantener pipelines de ingestión, transformación y publicación de datos.
  • Implementar modelos de datos para análisis, reportería y pricing dinámico.
  • Asegurar calidad y gobernanza de datos mediante métricas y herramientas (dbt, Great Expectations).
  • Integrar datos de múltiples fuentes, incluyendo sistemas legacy y plataformas cloud.
  • Brindar mentoría técnica a otros ingenieros y participar en decisiones de arquitectura.

Descripción del rol

Buscamos un/a Ingeniero/a de Datos con >=3 años de experiencia en ingeniería de datos, preferentemente en sectores de retail o pricing. Debe dominar Python (PySpark, Pandas) y SQL a nivel avanzado, así como experiencia en AWS (Glue, Athena, Redshift, EMR, MWAA) y orquestación (Airflow). Se valoran conocimientos en arquitecturas event-driven y microservicios, así como experiencia en CI/CD (GitLab, Terraform, Docker/Kubernetes). Se espera proactividad, capacidad de liderazgo técnico y aptitud para trabajar de forma colaborativa en equipos multidisciplinarios.

Competencias y perfiles deseados

Competencias clave incluyen proactividad, liderazgo técnico, orientación a resultados y alta capacidad de análisis. Se valorará experiencia en ambientes ágiles, habilidad para comunicar conceptos técnicos a stakeholders y capacidad de mentoría para equipos de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist Senior Freelance AWS/Sagemaker
  • CoyanServices
Python SQL Virtualization Big Data

CoyanServices busca apoyar a un cliente regional a través de una empresa tecnológica privada. El proyecto es 100% remoto y freelance, abierto a profesionales de cualquier país de Latinoamérica. Trabajarás en un entorno tecnológico moderno, con foco en soluciones analíticas para decisiones estratégicas. El equipo utiliza AWS para desplegar soluciones de ML/AI y necesitamos un Data Scientist Senior para diseñar, entrenar y desplegar modelos end‑to‑end, estandarizar ingesta y gobierno de datos en el Data Lake, y traducir insights técnicos en productos analíticos utilizables para decisiones de negocio.

Objetivos del rol:

Diseñar, entrenar y desplegar modelos de ML/AI end-to-end sobre infraestructura AWS.

Estandarizar procesos de ingesta, limpieza y gobierno de datos en el Data Lake.

Traducir insights técnicos en productos analíticos útiles para la toma de decisiones.

Official job site: Get on Board.

Funciones

Ingeniería de datos: Pipelines en S3, Glue, Lambda, Athena. Feature engineering, validación y monitoreo de calidad.

Modelado estadístico y ML: Regresión, clasificación, series de tiempo, NLP. Evaluación rigurosa y documentación técnica.

Deployment y MLOps: Productización en SageMaker/Lambda. CI/CD, versionamiento y monitoreo de modelos.

Análisis y comunicación: Dashboards, storytelling y soporte a decisiones estratégicas.

Gobierno y ética de datos: Mejores prácticas, documentación, reproducibilidad y cumplimiento normativo.

Requisitos y perfil

Formación en Ingeniería, Estadística, Matemáticas, Ciencias de la Computación o afines.

Python avanzado (pandas, numpy, scikit-learn, PyTorch/TensorFlow deseable).

Experiencia comprobable con AWS: S3, Athena, Data Lake, Lambda, SageMaker Studio.

Sólida base en estadística aplicada e inferencia. • Experiencia completa en ciclos de vida ML/AI.

SQL avanzado (Athena, Presto, Redshift).

Control de versiones, documentación y testing de modelos/datos.

Deseables: Conocimientos en PySpark o SparkSQL. • Visualización con herramientas como Power BI.

Habilidades blandas

Pensamiento crítico y enfoque científico.

Autonomía, comunicación efectiva y colaboración.

Curiosidad y aprendizaje continuo.

Beneficios

Freelancer. Oportunidad de trabajar con una empresa tecnológica líder y un cliente regional. Modalidad 100% remota, flexible, con posibilidad de crecimiento profesional. Participación en proyectos estratégicos y exposición a tecnologías punteras en AWS y ML/AI. Agenda y horarios acordes al trabajo remoto. Si te interesa, te invitamos a aplicar para conversar sobre el encaje y próximos pasos.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $4000 - 4500 Full time
Data Engineer Senior
  • Improving South America
Python English Back-end Data Engineer

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply exclusively at getonbrd.com.

Funciones del cargo

  • Diseñar, desarrollar y mantener ETLs y pipelines de datos eficientes y escalables.
  • Implementar y automatizar procesos de ingesta y transformación de datos con Airflow.
  • Realizar debugging, validaciones y optimización de consultas en Snowflake.
  • Colaborar con equipos de datos y negocio para garantizar la calidad y disponibilidad de la información.
  • Implementar buenas prácticas de versionado, monitoreo y documentación de procesos.
  • Dar soporte a incidentes relacionados con cargas de datos y proponer mejoras continuas.

Requerimientos del cargo

Experiencia comprobable en Python y Airflow para la orquestación de pipelines.

Conocimientos sólidos en Snowflake (validación, monitoreo y debugging).

Experiencia con Snowpipe será considerada un plus importante.

Familiaridad con metodologías ágiles y trabajo en entornos colaborativos.

Habilidades analíticas y orientación a la resolución de problemas.

Inglés intermedio-avanzado o avanzado

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Analytics Git SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply from getonbrd.com.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Ingeniero/a de Datos AWS (Latam)
  • BC Tecnología
Python Hadoop Virtualization Big Data
En BC Tecnología diseñamos soluciones de TI para clientes de sectores financieros, seguros, retail y gobierno. Como parte de nuestro equipo de datos, lideramos iniciativas de arquitectura y desarrollo de soluciones de datos en la nube (AWS) para LATAM. Nuestro objetivo es entregar plataformas escalables, seguras y costo-eficientes que soporten operaciones críticas y análisis estratégicos. Trabajamos en un entorno ágil con enfoque en gobernanza de datos, seguridad y excelencia operativa, colaborando estrechamente con equipos de negocio para traducir requerimientos en soluciones técnicas robustas.

Apply to this job directly at getonbrd.com.

Funciones principales

Diseñar e implementar arquitecturas de datos escalables en AWS, priorizando rendimiento, seguridad y costos. Definir estándares y buenas prácticas en pipelines de datos y data engineering. Gestionar grandes volúmenes (Big Data) con herramientas como EMR, Redshift, Spark/Hadoop, asegurando ingestión, procesamiento y almacenamiento eficientes. Seleccionar servicios AWS adecuados para resolver desafíos técnicos y entregar soluciones alineadas con la estrategia del negocio. Liderar, guiar y desarrollar a ingenieros junior y semi-senior mediante revisión de código, mentoría y coaching técnico. Garantizar gobernanza de datos, políticas de seguridad y cumplimiento, así como monitoreo de operaciones y optimización de costos. Orquestar procesos con Airflow o Step Functions, asegurando trazabilidad y resiliencia de las pipelines. Colaborar con equipos de negocio para traducir requerimientos técnicos en soluciones efectivas y escalables.

Descripción del rol

Buscamos un Ingeniero/a de Datos con al menos 4 años de experiencia trabajando en entornos de nube especializados en AWS. El/la candidato/a ideal liderará iniciativas de arquitectura de datos, diseñará pipelines robustos y funcionará como referente técnico dentro del equipo. Debe tener experiencia en liderar equipos técnicos bajo metodologías ágiles, capacidad de comunicación para traducir problemas complejos a soluciones prácticas y un enfoque proactivo hacia la optimización de rendimiento, seguridad y costos. Se valorará experiencia con modelos de datos medallion y herramientas de observabilidad y monitoreo (CloudWatch, X-Ray).
Deseable experiencia en proyectos FinTech o servicios financieros, conocimiento de Python, Java o Scala, experiencia con Pandas y PySpark, y manejo de herramientas de CI/CD (Git, versionamiento de código). Conocimiento en DBT, Glue Data Catalog y formatos de datos como Parquet o Iceberg. Certificaciones de AWS (por ejemplo, AWS Data Analytics o AWS Solutions Architect) serán valoradas. Excelentes habilidades de comunicación y capacidad de trabajar en un entorno colaborativo y de alto rendimiento.

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con enfoque en soluciones para clientes de servicios financieros, seguros, retail y gobierno. Buscamos fortalecer nuestro equipo de datos para un proyecto de pricing que requiera arquitecturas escalables, pipelines de ingestión, transformación y publicación de datos, así como gobernanza y calidad de datos. El proyecto combina desafíos en datos históricos y en tiempo real, integración de fuentes legadas y plataformas en la nube, y búsqueda de soluciones que permitan pricing dinámico y analítica avanzada. Formarás parte de un equipo orientado a soluciones para cliente final, trabajando en un entorno ágil y colaborativo, con oportunidades de mentoría técnica y crecimiento profesional dentro de la organización.

This job is exclusive to getonbrd.com.

Funciones

  • Diseñar y mantener pipelines de ingestión, transformación y publicación de datos para proyectos de pricing y analítica.
  • Construir modelos de datos para análisis, reporting y pricing dinámico, asegurando escalabilidad y rendimiento.
  • Garantizar la calidad y gobernanza de datos mediante métricas, pruebas y herramientas como dbt y Great Expectations.
  • Integrar datos desde múltiples fuentes, incluyendo sistemas legados y plataformas en la nube, con procesos de ETL/ELT eficientes.
  • Trabajar con arquitecturas event-driven y microservicios para garantizar flujos de datos confiables.
  • Participar en revisiones de arquitectura y proporcionar mentoría técnica y soporte en decisiones de diseño.
  • Contribuir a la implementación y mejora de pipelines mediante prácticas de CI/CD (GitLab, Terraform, Docker/Kubernetes).

Descripción

Buscamos un Ingeniero/a de Datos con más de 3 años de experiencia en entornos de retail o pricing para diseñar soluciones de datos robustas y escalables. Deberá dominar Python (incluyendo PySpark y Pandas) y SQL, y tener experiencia con AWS (Glue, Athena, Redshift, EMR, MWAA). Se valorará conocimiento de orquestación de flujos con Airflow, arquitecturas event-driven y experiencia en entornos de microservicios. Se requiere experiencia en entornos de CI/CD y herramientas como GitLab, Terraform, Docker y Kubernetes. Buscamos perfiles con enfoque analítico, orientados a resultados, con capacidad de trabajar en equipo y comunicar decisiones técnicas de forma clara.

Deseables

Experiencia adicional en gobierno de datos, calidad de datos, y diseño de soluciones para pricing y reporting. Conocimiento de herramientas de visualización y BI, experiencia en entornos regulados o con requisitos de cumplimiento, y habilidades de gestión de stakeholders. Se valorará hablar inglés y tener experiencia en proyectos con clientes de servicios financieros o bancos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2200 - 2400 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Virtualization Amazon Web Services Cloud Computing Data Engineer
BC Tecnología es una consultora de TI con enfoque en soluciones para clientes de servicios financieros, seguros, retail y gobierno. El proyecto actual se centra en data engineering con AWS, buscando optimizar la ingesta, procesamiento y gobernanza de datos dentro de una arquitectura escalable y segura. El rol forma parte de un equipo orientado a entregar soluciones innovadoras en un entorno con metodologías ágiles, enfocándose en pipelines de datos y en garantizar calidad y gobernanza de la información para clientes de alto perfil.

Apply to this job opportunity at getonbrd.com.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos en AWS, asegurando rendimiento, escalabilidad y confiabilidad.
  • Participar en la definición de arquitectura de datos, modelado y gobernanza de datos.
  • Colaborar con equipos de ingeniería, análisis y negocio para traducir requerimientos en soluciones técnicas robustas.
  • Implementar prácticas de monitoreo, logging y seguridad de datos; optimizar costos y recursos en la nube.
  • Realizar pruebas, validación de datos y aseguramiento de calidad en flujos de datos complejos.
  • Documentar soluciones y promover buenas prácticas de desarrollo y deployment.

Descripción

  • Buscamos un Data Engineer con experiencia en AWS para un proyecto de 5 meses en el sector tecnológico. El candidato ideal tendrá al menos 3 años de experiencia en entornos AWS, con experiencia en diseño y manejo de pipelines de datos y conocimientos en gobierno y modelamiento de datos.
  • El rol requiere colaboración estrecha con equipos multidisciplinarios, implementación de soluciones de datos escalables y adherentes a políticas de seguridad y cumplimiento.
  • Se trabajará en un entorno híbrido, con 2-3 días presenciales en Mall Alto Las Condes, y la posibilidad de flexibilidad según las necesidades del proyecto y del equipo.

Requisitos Deseables

  • Experiencia con herramientas de orquestación (por ejemplo, Apache Airflow) y servicios de datos en AWS (Redshift, S3, Glue, Athena, Lambda).
  • Conocimientos en gobierno de datos, modelado dimensional y normalización de datos.
  • Capacidad para trabajar en entornos ágiles, orientación a resultados y buenas habilidades de comunicación.
  • Certificaciones en AWS o similares serán valoradas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Power BI Developer
  • Signant Health
SQL Power BI Data Visualization Snowflake
This could be the Opportunity of Your Life!
At Signant Health, we’re transforming the clinical trial experience through technology and innovation. We support the world’s leading biopharma companies with eClinical solutions that make trials faster, easier, and more reliable — improving lives across the globe. As part of our continued growth, we’re looking for a creative and results-driven Power BI - Data Business Intelligence Developer, to join our global team.
Where do you fit in?

We are seeking an experienced Bilingual Power BI Developer to join our analytics team. The ideal candidate will have a strong background in designing and developing Power BI solutions, with advanced expertise in DAX, Paginated Reports, and SQL. Experience with Snowflake is a plus.

Apply at getonbrd.com without intermediaries.

Job functions

  • Design, develop, and maintain Power BI dashboards and reports
  • Write complex DAX queries and calculations to support business requirements
  • Create and manage Paginated Reports for operational and regulatory needs
  • Develop and optimize SQL queries for data extraction and transformation
  • Collaborate with business stakeholders to gather requirements and deliver actionable insights
  • Ensure data accuracy, security, and performance across all reporting solutions
  • Integrate data from various sources, including Snowflake (nice to have)

Qualifications and requirements

  • 3+ years of hands-on Power BI development experience
  • Advanced proficiency in DAX and Power BI data modeling
  • Advanced English level
  • Strong experience with Paginated Reports (Report Builder/SSRS)
  • Expert-level SQL skills (T-SQL, query optimization, stored procedures)
  • Experience working with large datasets and complex data models
  • Excellent problem-solving and communication skills
  • Experience with Snowflake is a plus

Desirable skills

  • Experience with Snowflake data warehouse
  • Knowledge of AWS

Conditions

Pet-friendly Pets are welcome at the premises.
Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2,500 Full time
Data Analyst
  • TECLA
Python Data Analysis Excel SQL

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Find this vacancy on Get on Board.

Job Details:

We are seeking a mid-to-senior level Data Analyst / Analytics Engineer to join our team and take ownership of our core data layer, ensuring clean, accurate, and actionable datasets to support our finance, sales, and RevOps teams.

This role is focused on managing, enriching, and automating large datasets across Salesforce and other systems, driving efficiency and supporting a sales team focused on upscale luxury hotels and event spaces. The ideal candidate will be highly analytical, detail-oriented, and comfortable working independently with minimal oversight.

This position plays a key role in enabling the team to identify and connect with the right contacts, streamline operations, and ensure the accuracy of customer and account records.

Key Responsibilities:

  • Own and manage core datasets across Salesforce and related systems, ensuring data is clean, accurate, and actionable.
  • Identify and enrich target contacts for the sales team to optimize outreach efforts.
  • Build, maintain, and improve automated processes for data management and reporting.
  • Collaborate closely with sales, finance, and RevOps teams to deliver high-quality, reliable datasets.
  • Provide actionable insights and recommendations based on data analysis.
  • Ensure compliance with best practices for data integrity and privacy.

Required Skills & Experience:

  • 3+ years of experience as a Data Analyst or Analytics Engineer, ideally in a high-growth environment.
  • Strong proficiency in Python, SQL, and Excel/Google Sheets.
  • Proven experience working with large datasets and optimizing data workflows.
  • Salesforce expertise, with a deep understanding of data structures and reporting.
  • Experience with Clay (or similar data enrichment tools), ideally as a power user.
  • Excellent problem-solving skills with a focus on automation and process improvement.
  • Strong written and verbal communication skills.
  • Highly detail-oriented, with a commitment to accuracy and reliability.

Preferred Qualifications:

  • Experience supporting sales teams, particularly in hospitality, luxury, or events industries.
  • Background in RevOps, data engineering, or analytics engineering.
  • Experience with data pipeline automation and integration across multiple tools.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Technical Leader – Azure & AI
  • Devups
Analytics Virtualization Amazon Web Services Continuous Deployment

En Devups trabajamos como una solución de staff augmentation que permite a las empresas escalar equipos de desarrollo sin incurrir en procesos de reclutamiento y costes fijos. Nuestro enfoque está en liderar iniciativas de datos, IA y arquitecturas en la nube, con un equipo multidisciplinario que colabora para entregar soluciones de alto impacto. El/la Technical Leader – Azure & AI será parte de un equipo que diseña, guía y supervisa la implementación de soluciones complejas en Azure y servicios cognitivos, asegurando buenas prácticas, escalabilidad y calidad del código. El rol combina visión estratégica con ejecución técnica, impulsando la adopción de tecnologías punteras y la mejora continua en proyectos de macrodatos, IA y automatización. Trabajamos con modalidades de trabajo remoto global, fomentando un entorno flexible y orientado al desarrollo profesional.

Apply through Get on Board.

Funciones y responsabilidades

• Liderar técnicamente proyectos de datos e inteligencia artificial, definiendo la visión arquitectónica y asegurando la gobernanza de soluciones en la nube.
• Guiar equipos multidisciplinarios (ingenieros de datos, ML engineers, DevOps) para entregar soluciones de analítica avanzada, IA y plataformas de datos a gran escala.
• Diseñar e impulsar la implementación de soluciones en Azure (Data Factory, Databricks, Azure Foundry, Fabric, Cognitive Services) y, cuando sea necesario, evaluar integraciones con AWS.
• Establecer prácticas de desarrollo, CI/CD, IaC, redes y monitoreo para garantizar calidad, rendimiento y seguridad.
• Participar en la resolución de problemas complejos, revisar código y promover buenas prácticas de diseño y gobernanza.
• Comunicarse con stakeholders, traducir requerimientos de negocio en soluciones técnicas y presentar avances de forma clara y concisa.
• Estar al tanto de tendencias en IA, modelos de lenguaje, visión por computadora y procesamiento de voz, proponiendo mejoras y nuevas oportunidades.

Descripción de perfil y habilidades

Buscamos un líder técnico con al menos 5 años de experiencia como desarrollador o en roles de explotación de datos, arquitectura o IA, y con mínimo 2 años liderando la ejecución de soluciones de analítica avanzada, IA o arquitecturas. El/la candidato/a debe tener formación en Ingeniería, Estadística, Matemáticas o carreras afines, y un nivel mínimo de inglés B2. Se valorarán experiencia práctica en Azure (y preferiblemente AWS), conocimiento profundo de herramientas de Azure como Data Factory, Databricks, Cognitive Services, así como experiencia en PySpark, CI/CD, IaC y conceptos de redes. Habilidades de visión estratégica, capacidad de guiar equipos, pensamiento analítico, comunicación efectiva y orientación a resultados son esenciales.

Requisitos deseables

Experiencia adicional en arquitecturas de datos a gran escala, experiencia con Databricks en entornos multi-nube, familiaridad con generación y despliegue de modelos de IA en producción, conocimiento de seguridad en la nube y cumplimiento normativo, así como habilidades de mentoría y gestión de stakeholders. Se valora proactividad, capacidad de influencia sin autoridad directa y capacidad para traducir necesidades de negocio en soluciones técnicas concretas.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación y el crecimiento profesional son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, facilitando el equilibrio entre vida personal y profesional.

Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos a la vanguardia.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $4000 - 5000 Full time
SAP Data Migration Manager
  • Coderslab.io
SAP Jira User Testing Data governance

Coderslab.io is a global company that drives business transformation and growth through innovative technology solutions. With more than 3,000 employees across Latin America and the United States, we work on challenging, high-impact projects, integrating elite teams to deliver results that propel careers and companies forward. Our ecosystem fosters continuous learning through collaboration with senior professionals and the use of cutting-edge technologies.

Originally published on getonbrd.com.

Funciones del cargo

Role Summary

We are seeking a hands-on SAP Data Migration Manager to lead the end-to-end migration from SAP Business One (SAP B1) to S/4HANA Public Cloud. You will define the data migration strategy, coordinate execution using SAP Migration Cockpit and SAP Data Services, ensure ALM traceability, and drive quality through cleansing, validation, and post-migration reconciliation.

Key Responsibilities

  • Define the data migration strategy for SAP B1 → S/4HANA Public Cloud.
  • Design, plan, and coordinate migration waves using SAP Migration Cockpit and SAP Data Services.
  • Lead the data cleansing, enrichment, and validation workstream across business and technical teams.
  • Ensure end-to-end traceability, documentation, and change control in SAP ALM (Application Lifecycle Management).
  • Orchestrate and execute post-migration reconciliation tests; resolve defects and data gaps.
  • Track and report status, risks, and issues to the Head of SAP; drive mitigation plans.
  • Establish data quality KPIs and acceptance criteria; secure sign-offs with stakeholders.
  • Align cutover activities with project and release plans; coordinate with functional and integration teams.

Requerimientos del cargo

Requirements

  • 8+ years of experience in SAP data migration leading full lifecycle projects.
  • At least 1 end-to-end project on S/4HANA Public Cloud.
  • Proven experience with SAP ALM for traceability, documentation, and testing.
  • Solid understanding of SAP B1 data structures and mapping to S/4HANA objects.
  • Proficiency with SAP Migration Cockpit and SAP Data Services (task design, loads, error handling).
  • Working knowledge of Jira, SAP ALM, and Solution Manager (SolMan).
  • Native Spanish and intermediate English communication skills.
  • Based in LATAM, available during regional business hours.

Nice to Have

  • SAP certifications in Data Migration and/or S/4HANA Data Management (preferred, not required).
  • Experience setting up data governance and master data ownership models.

Condiciones

Location: LATAM (remote)
Work Hours: Regional LATAM business hours
Languages: Native Spanish; Advanced English

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2200 - 2400 Full time
Data Engineer AWS – Proyecto Híbrido
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Web server
BC Tecnología es una consultora de TI con enfoque en soluciones para clientes de servicios financieros, seguros, retail y gobierno. Diseñamos soluciones acorde a las necesidades de nuestros clientes, implementando proyectos de datos, infraestructura y desarrollo de software. En este proyecto híbrido, participarás en el diseño, desarrollo y operación de pipelines de datos en AWS para apoyar iniciativas de analítica y negocio, colaborando con equipos multidisciplinarios para entregar datos limpios, consistentes y disponibles a los usuarios finales.

Exclusive to Get on Board.

Funciones

  • Diseñar, desarrollar y mantener pipelines de datos en AWS (S3, Redshift, Glue, EMR, Athena, etc.).
  • Garantizar la calidad, consistencia y disponibilidad de los datos a través de procesos robustos de ETL/ELT.
  • Optimizar consultas y procesos para manejar grandes volúmenes de información.
  • Colaborar con equipos de negocio y analítica para comprender requerimientos y traducirlos en soluciones técnicas escalables.
  • Aplicar prácticas de gobernanza de datos, seguridad y cumplimiento en entornos de nube.
  • Automatizar orquestación de flujos de datos con herramientas como Apache Airflow para orquestación de pipelines.
  • Participar en la revisión de código, pruebas y despliegues, promoviendo buenas prácticas de desarrollo.
  • Contribuir a la mejora continua de la arquitectura de datos y del rendimiento de las soluciones.

Descripción

Buscamos un Ingeniero de Datos con experiencia en AWS para un proyecto desafiante, con modalidad híbrida en Las Condes (Mall Alto Las Condes). Requisitos: +3 años de experiencia como Ingeniero de Datos o Ingeniero de Software; dominio de Python y Git; experiencia con bases de datos relacionales y NoSQL; sólidos conocimientos en AWS (S3, Redshift, Glue, EMR, Athena, etc.); experiencia en Apache Airflow para orquestación de pipelines; nivel avanzado en SQL. Se valorarán habilidades de comunicación, trabajo en equipo y capacidad para trabajar en entornos dinámicos y orientados a resultados.

Deseables

Experiencia en diseño de soluciones de datos para sectores regulados, conocimiento de seguridad y gobernanza de datos, herramientas de visualización y experiencia trabajando en equipos ágiles. Habilidades de resolución de problemas, proactividad y capacidad para aprender rápidamente nuevas tecnologías. Inglés técnico intercambiaría con equipos internacionales según el proyecto.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Desarrollador Cloud GCP
  • TCIT
Python SQL Big Data BigQuery

Una de nuestras misiones en TCIT es descubrir y potenciar a los mejores talentos, por lo que te Buscamos un/a Desarrollador/a Semi-Senior en Google Cloud Platform (GCP) para integrarse a un proyecto estratégico en el Banco de Chile. La persona seleccionada será responsable de la extracción, transformación y exposición de datos mediante soluciones en la nube, trabajando en conjunto con un arquitecto y un líder técnico.

Exclusive to Get on Board.

Funciones del cargo

  • Extraer y transformar datos desde un Data Lake hacia BigQuery.
  • Construir y optimizar vistas de información para diferentes áreas del banco.
  • Implementar y mantener procesos ETL.
  • Desarrollar Cloud Functions para mover datos a Cloud Spanner y exponerlos como APIs para consumo de otros sistemas internos.
  • Colaborar con el equipo técnico, siguiendo lineamientos de arquitectura definidos.

Requerimientos del cargo

  • Experiencia: al menos 3 años trabajando en proyectos con Google Cloud Platform (GCP).
  • Dominio de BigQuery y procesos de Data Lake / ETL.
  • Conocimientos sólidos en SQL (requisito fundamental).
  • Buen nivel en Python para automatización y procesamiento de datos.
  • Perfil semi-senior, acostumbrado/a a trabajar en equipos técnicos bajo supervisión de arquitectos/líderes.

VIEW JOB APPLY VIA WEB
Gross salary $3200 - 3700 Full time
Senior Data Architect
  • INTEGRATZ
  • Viña del Mar (Hybrid)
Python SQL Scala Virtualization

Integratz es una empresa dedicada a la automatización inteligente y la integración precisa de sistemas, con un fuerte enfoque en la innovación tecnológica y la transformación digital para empresas B2B. Recientemente establecidos en Chile, respondemos a una creciente demanda regional impulsando la eficiencia operativa de nuestros aliados comerciales a través de soluciones basadas en inteligencia artificial, integración de datos y automatización de procesos. Nuestro equipo trabaja colaborativamente para diseñar e implementar tecnologías de vanguardia que facilitan la toma de decisiones y la agilidad de negocio, poniendo especial atención en la calidad, gobernanza y seguridad de los datos.

Apply to this job without intermediaries on Get on Board.

Responsabilidades principales

Como Senior Data Architect en Integratz, liderarás el diseño e implementación de arquitecturas de datos modernas, escalables y seguras que soportan nuestra plataforma de analítica avanzada y automatización inteligente.

  • Diseñar e implementar arquitecturas nativas en la nube centradas en Databricks, Delta Lake y metodologías lakehouse para optimizar el manejo y almacenamiento de datos.
  • Definir estrategias y estándares de datos a nivel empresarial para habilitar soluciones de inteligencia artificial, analítica escalable y agilidad en la operación.
  • Colaborar estrechamente con equipos técnicos y de negocio para asegurar que la arquitectura de datos esté alineada con los objetivos operativos, reglamentarios y de desempeño.
  • Liderar la implantación de marcos de gobernanza de datos que incluyen gestión de metadatos, trazabilidad, control de accesos por rol y cumplimiento con normativas como GDPR y CCPA.
  • Diseñar e implementar estrategias de integración y migración para consolidar datos desde sistemas heterogéneos hacia un ecosistema confiable y unificado.
  • Desarrollar soluciones de Master Data Management (MDM) para garantizar fuentes de verdad precisas y consistentes en dominios críticos como clientes, productos y proveedores.
  • Establecer y hacer cumplir estándares rigurosos de calidad de datos, asegurando precisión, completitud y confiabilidad.
  • Trabajar junto a ingenieros y analistas para que las decisiones arquitectónicas soporten adecuadamente los casos de uso de análisis y visualización.
  • Promover la alfabetización en datos y el uso responsable de la información en toda la organización.
  • Brindar mentoría y liderazgo técnico a equipos de ingeniería y analítica, fomentando su desarrollo profesional y capacidades técnicas.

Requisitos del perfil

Buscamos un profesional con sólida formación en Ingeniería en Computación, Sistemas de Información, Ciencia de Datos o carreras afines, que aporte un mínimo de 7 años de experiencia comprobable en arquitectura de datos, especialmente en soluciones a gran escala.

  • Mínimo 3 años de experiencia práctica con Databricks y tecnologías asociadas como Spark, Delta Lake y conceptos lakehouse.
  • Dominio profundo de plataformas cloud públicas (Azure, AWS o Google Cloud Platform) y sistemas distribuidos, junto con las mejores prácticas de seguridad de datos.
  • Experiencia consolidada en diseño e implementación de pipelines ETL/ELT, modelado de datos (modelos estrella, copo de nieve, schema-on-read) y optimización de almacenamiento.
  • Conocimientos avanzados en gobernanza de datos, privacidad y cumplimiento normativo (especialmente GDPR y CCPA).
  • Manejo experto de SQL y al menos un lenguaje de scripting como Python o Scala.
  • Excelentes habilidades comunicativas y de liderazgo, siendo capaz de traducir complejidades técnicas en valor agregado para el negocio.
  • Certificaciones vigentes en Databricks.
  • Nivel de inglés intermedio-alto o avanzado, tanto oral como escrito, para comunicación con stakeholders internacionales.

Valoramos la capacidad analítica, pensamiento estratégico, liderazgo colaborativo, orientación al detalle y motivación por la innovación continua.

Habilidades y experiencias deseables

  • Experiencia trabajando con Power BI, incluyendo modelado de datos, diseño de dashboards y manejo de DAX.
  • Conocimiento de herramientas de catalogación y gobierno de datos como Unity Catalog, Microsoft Purview o Collibra.
  • Familiaridad con plataformas low-code/no-code como Microsoft Power Platform para facilitar integraciones rápidas.
  • Interés y habilidades en data storytelling, comprendiendo cómo las decisiones arquitectónicas impactan en la visualización y comunicación de datos.
  • Certificaciones adicionales en plataformas cloud y frameworks de gobernanza de datos.

Lo que ofrecemos

En Integratz promovemos un ambiente de trabajo flexible e inclusivo, con un esquema híbrido que permite trabajar remoto desde cualquier lugar de Chile combinado con encuentros en oficina para colaboración y conexión entre equipos.

Ofrecemos un salario competitivo acompañado de beneficios adaptados al mercado local, con oportunidades reales de desarrollo profesional y acceso a certificaciones que potencian tu carrera.

Formarás parte de un equipo que trabaja con tecnologías de punta en proyectos internacionales de alto impacto, en una cultura organizacional que valora la innovación, el respeto y el crecimiento conjunto.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided INTEGRATZ provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer Senior
  • Equifax Chile
  • Santiago (Hybrid)
Python SQL Big Data BigQuery
Equifax Chile es un líder global confiable en datos, análisis y tecnología cuyo propósito es entregar insights que impulsan decisiones que avanzan a las personas y organizaciones. En nuestro núcleo comercial, los datos son mucho más que un recurso: son el fundamento de cada decisión estratégica que tomamos. Nuestra área de análisis de datos es clave para garantizar la calidad, integridad y utilidad de esta información vital a través de proyectos que potencian la inteligencia comercial, operaciones más eficientes, innovación en la gestión de datos y la automatización de procesos. Trabajamos con plataformas de análisis avanzadas y tecnologías cloud líderes para asegurar que los datos sean accesibles, confiables y estratégicos en cada área del negocio.

Exclusive offer from getonbrd.com.

Responsabilidades del Puesto

  • Gestionar el ciclo completo de vida de los datos, desde la extracción, procesamiento y análisis hasta la interpretación y presentación de resultados mediante visualizaciones avanzadas.
  • Desarrollar análisis estadísticos profundos utilizando técnicas cuantitativas para identificar tendencias, patrones, inconsistencias y oportunidades que apoyen la toma de decisiones.
  • Diseñar e implementar automatizaciones para optimizar los flujos de trabajo y reducir el tiempo requerido para la generación de reportes y dashboards.
  • Colaborar estrechamente con equipos de negocio y áreas comerciales para comprender sus necesidades y traducirlas en soluciones analíticas efectivas y escalables.
  • Elevar los estándares de calidad del dato, detectando inconsistencias y definiendo mejores prácticas para garantizar la fiabilidad y la integridad de la información utilizada en todos los procesos.
  • Implementar soluciones escalables que fortalezcan la confianza en los procesos y reportes generados por la organización.
  • Participar activamente en equipos multifuncionales, asegurando la alineación de las soluciones analíticas con los objetivos estratégicos de la compañía.

Perfil y Competencias Requeridas

Buscamos un profesional con formación en Ingeniería Informática, Estadística, Matemática o carreras afines, con al menos 4 años de experiencia consolidada en análisis y manipulación de datos. Se requiere dominio avanzado en SQL, BigQuery y Python para el manejo y consulta de grandes volúmenes de datos, así como experiencia práctica en herramientas de visualización como Looker Studio o plataformas similares para presentar insights de manera efectiva.

El candidato ideal tendrá experiencia comprobada en la implementación de mejores prácticas para el manejo y control de calidad de datos, asegurando la integridad y consistencia en los procesos y resultados. Se valoran habilidades avanzadas de análisis estadístico y capacidad para interpretar información compleja y traducirla en soluciones de negocio claras.
En lo personal, se espera un perfil con pensamiento crítico, capacidad para resolver problemas complejos, comunicación efectiva, autonomía y proactividad, capaz de liderar iniciativas que generen impacto tangible en el negocio.

Habilidades y Conocimientos Deseables

Se valorará experiencia y conocimiento en herramientas y plataformas Cloud como Google Cloud Platform (GCP), Amazon Web Services (AWS) y Microsoft Azure, así como la participación en proyectos relacionados con modelado y arquitectura de datos. Contar con certificaciones o cursos especializados en GCP será un plus importante.
La experiencia en gestión de proyectos de tecnologías de la información y en ambientes colaborativos multifuncionales también será altamente apreciada, aportando al liderazgo y coordinación de iniciativas que integren las áreas técnicas y de negocio.

Beneficios y Cultura Organizacional

Ofrecemos una modalidad de trabajo híbrido con horarios flexibles que posibilitan un equilibrio saludable entre la vida personal y laboral. Además, concedemos días libres adicionales para fomentar el bienestar de nuestros colaboradores.
Nuestro paquete integral de compensación incluye seguro médico complementario y convenio con gimnasio para promover un estilo de vida saludable. Contamos con beneficios especiales para madres y padres dentro de la organización.
Facilitamos acceso a una plataforma de aprendizaje en línea para el desarrollo profesional continuo, junto con programas de reconocimiento que valorizan la contribución de cada integrante del equipo. Todo esto en un entorno de trabajo diverso, multicultural y enfocado en el crecimiento y la carrera profesional.

Wellness program Equifax Chile offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax Chile pays or copays life insurance for employees.
Health coverage Equifax Chile pays or copays health insurance for employees.
Dental insurance Equifax Chile pays or copays dental insurance for employees.
Computer provided Equifax Chile provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Equifax Chile gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $2600 - 2800 Full time
Senior Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Git Virtualization Amazon Web Services Continuous Deployment
En BC Tecnología somos una consultora de servicios IT con más de 6 años diseñando soluciones tecnológicas adaptadas a las necesidades de nuestros clientes. Formamos equipos ágiles y especializados que trabajan en distintos sectores como servicios financieros, seguros, retail y gobierno. Actualmente, estamos buscando un Senior Data Engineer para integrarse a un proyecto clave en el sector retail, ubicado en Mall Alto Las Condes, modalidad híbrida. Este proyecto tiene como objetivo potenciar la arquitectura de datos para manejar grandes volúmenes de información con soluciones escalables, eficientes y seguras, contribuyendo a la transformación digital del cliente retail.

This posting is original from the Get on Board platform.

Funciones principales

  • Diseñar, desarrollar y mantener arquitecturas de datos escalables y seguras en la nube, principalmente utilizando servicios AWS como Glue, EMR, Redshift, Lambda, Step Functions y S3.
  • Implementar pipelines de datos robustos y automatizados con herramientas como PySpark, Pandas, DBT, Airflow o Step Functions para la orquestación.
  • Definir y aplicar estándares, prácticas óptimas y patrones de diseño en los procesos de ingesta, transformación y almacenamiento de datos, siguiendo modelos como Medallion.
  • Gestionar la integración continua y despliegue continuo (CI/CD) de soluciones de datos, utilizando Git para el control de versiones.
  • Brindar mentoría y acompañamiento a perfiles junior y semi senior, fomentando su desarrollo técnico y profesional.
  • Trabajar colaborativamente con áreas de negocio y tecnología para alinear las soluciones de datos con la estrategia organizacional y los objetivos comerciales.
  • Participar activamente en metodologías ágiles, contribuyendo a la planificación, revisión y mejora continua del trabajo del equipo.

Requisitos del puesto

  • Más de 4 años de experiencia comprobable en ingeniería de datos, preferentemente en entornos cloud.
  • Conocimientos avanzados y experiencia práctica en AWS, especialmente Glue, EMR, Redshift, Lambda, Step Functions y S3.
  • Dominio en programación y manipulación de datos con PySpark y Pandas.
  • Sólidos conocimientos en modelado de datos, especialmente siguiendo arquitecturas Medallion y en transformación de datos utilizando DBT.
  • Experiencia en la orquestación de workflows y pipelines de datos mediante Airflow o Step Functions.
  • Conocimiento y práctica en arquitecturas serverless y en procesos CI/CD con Git.
  • Capacidades demostradas de liderazgo técnico y mentoring de equipos.
  • Habilidad para trabajar en equipos multidisciplinarios bajo metodologías ágiles, con capacidad de comunicación efectiva y orientación a resultados.
  • Proactividad, pensamiento analítico y capacidad para resolver problemas complejos relacionados con datos y arquitecturas cloud.

Habilidades y conocimientos deseables

  • Experiencia previa en proyectos del sector retail u otras industrias con alto volumen de datos.
  • Conocimientos en herramientas adicionales de cloud computing y big data.
  • Familiaridad con sistemas de gobernanza y calidad de datos.
  • Certificaciones AWS relacionadas con ingeniería de datos o arquitectura cloud.
  • Experiencia en automatización y monitoreo avanzado de pipelines de datos.
  • Capacidades para la innovación y propuesta de mejoras continuas en las arquitecturas existentes.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3600 Full time
Technical Lead – Big Data & Intelligence
  • Coderslab.io
Java Python SQL Scala
At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for aTechnical Lead – Big Data & Intelligence to join our team and help drive our mission forward.

This posting is original from the Get on Board platform.

Funciones del cargo

General Purpose:
Define and execute Payless’ data governance, exploitation, and availability strategy, ensuring transversal use of data across all business areas and enabling advanced analytics for strategic decision-making.
Key Responsibilities:
  • Design and implement a comprehensive Big Data strategy.
  • Build and manage data platforms (Data Lakes, Data Warehouses, Data Mesh).
  • Develop data models and advanced analytics (ML/AI) for multiple business areas.
  • Ensure data quality, security, and governance.
  • Collaborate with business units to leverage data in e-commerce, physical retail, supply chain, and marketing.

Requerimientos del cargo

Technical Requirements:
  • Proven experience with Big Data technologies (Hadoop, Spark, Kafka, Databricks, Flink).
  • Knowledge of data governance, MDM, and data lineage.
  • Experience with analytical models using Python, R, SQL, and BI tools (Power BI, Tableau).
  • Familiarity with cloud data platforms (AWS Redshift, Google BigQuery, Azure Synapse).
Key Competencies:
  • Analytical and strategic thinking.
  • Leadership in cross-functional projects.
  • Strong communication skills to translate data into actionable insights.

Condiciones

Working Hours: Miami time
Language Requirements: Advanced English and Spanish
Service Type: Service Provision – 160 hours/month, Monday to Friday

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2400 Full time
Especialista Power BI y Tcp
  • Lisit
SQL Business Intelligence Big Data Power BI

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software orientados a la automatización y optimización, siempre con un fuerte compromiso con la innovación y los desafíos tecnológicos. Nos especializamos en acompañar a nuestros clientes para que logren una operatividad eficiente y exitosa mediante estrategias integrales y prácticas consultivas que facilitan su transformación digital.

Actualmente, buscamos fortalecer nuestro equipo con un especialista en gobierno y catalogación de datos que participe en proyectos clave relacionados con arquitectura y gestión de datos para diversas industrias.

Apply without intermediaries through Get on Board.

Responsabilidades principales

  • Diseñar y mantener políticas de gobierno de datos robustas que aseguren la calidad, integridad y seguridad de la información.
  • Ejecutar procesos de catalogación y clasificación de datos para facilitar su acceso y uso eficiente dentro de la organización.
  • Diseñar y desarrollar dashboards, reportes y visualizaciones utilizando Power BI para apoyar la toma de decisiones estratégicas.
  • Aplicar protocolos y estándares relacionados con la gestión de TCP (Transmission Control Protocol) en el contexto del manejo de datos y sistemas.
  • Colaborar con equipos multidisciplinarios para identificar oportunidades de mejora en los flujos y almacenamiento de datos.
  • Supervisar y optimizar el ciclo de vida de los datos, incluyendo su captura, almacenamiento, procesamiento y distribución.
  • Participar en la elaboración de documentación técnica y reportes asociados a proyectos de datos.

Perfil y requisitos

Buscamos un profesional semi senior con experiencia comprobable en gobernanza y catalogación de datos. Debe contar con habilidades técnicas sólidas en Power BI para desarrollo de informes y visualización de datos.
Se requiere conocimiento práctico de TCP, preferentemente aplicado en entornos de gestión o transmisión de datos.
Es fundamental el pensamiento analítico, capacidad para trabajar bajo metodologías ágiles y excelente comunicación para colaborar eficazmente con diversos equipos.
Valoramos la autonomía, la proactividad y la capacidad para adaptarse y dar seguimiento a procesos complejos relacionados con datos.
Es imprescindible experiencia previa en proyectos de gobierno de datos y manejo de herramientas de BI con un enfoque orientado al valor de negocio.

Competencias y conocimientos deseables

Conocimientos adicionales en otras herramientas de visualización de datos como Tableau o QlikView.
Experiencia en gestión de bases de datos SQL y tecnologías asociadas.
Familiaridad con arquitecturas de big data o cloud computing.
Certificaciones relacionadas con gestión de datos o análisis de negocio.
Habilidades avanzadas en scripting o programación para automatización de procesos de datos.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 4000 Full time
Senior Data Scientist
  • MAS Analytics
  • Santiago (Hybrid)
Virtualization Amazon Web Services Azure Artificial Intelligence

MAS Analytics es una consultora de datos e inteligencia artificial que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día estamos con un crecimiento importante en proyectos de AI y necesitamos ingeniero/as con experiencia y apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Opportunity published on Get on Board.

Funciones del cargo

Estamos buscando un profesional apasionado por las soluciones basadas en Inteligencia Artificial y Machine Learning, con experiencia en el desarrollo y aplicación de modelos avanzados para clientes de diversas industrias. El candidato ideal será capaz de trabajar bajo la metodología de consultoría, comprendiendo las necesidades del cliente y proponiendo soluciones innovadoras que agreguen valor a sus negocios.

  • Diseñar, desarrollar e implementar soluciones de AI, Machine Learning y Deep Learning para clientes de diversas industrias
  • Colaborar estrechamente con clientes para entender sus retos y necesidades, proponiendo soluciones personalizadas
  • Mantenerse actualizado sobre las últimas tendencias y herramientas en AI y ML
  • Trabajar con herramientas y plataformas en la nube para el desarrollo y despliegue de soluciones
  • Medir el impacto generado por las soluciones implementadas

Requerimientos del cargo

  • Título universitario en Ciencias de la Computación, Ingeniería, Estadística o carreras afines
  • 2-4 años de experiencia en desarrollo de soluciones basadas en AI, Machine Learning o Deep Learning
  • Experiencia trabajando con herramientas y plataformas en la nube (ej. AWS, Google Cloud, Azure)
  • Profundo conocimiento en frameworks y librerías como TensorFlow, PyTorch, Keras, Scikit-learn, entre otros
  • Capacidad analítica y habilidad para trabajar en equipos multidisciplinarios
  • Familiaridad con la metodología de consultoría y enfoque orientado al cliente

Deseables

Certificaciones Cloud orientadas a AI o Machine Learning serán valoradas positivamente.

Condiciones

  1. Horario flexible
  2. Seguro complementario 🧑‍⚕️
  3. Ropa relajada 😍😍
  4. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  5. Ambiente laboral joven
  6. Viernes medio día
  7. Vacaciones extra 🌞🏝
  8. Celebraciones de cumpleaños 🎁🎊
  9. Actividades de empresa 🍻⚽
  10. Y muchos más que podrás conocer…

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Data Scientist – LLM Expert
  • Niuro
Python Virtualization Amazon Web Services Azure
Niuro collaborates with leading U.S. companies by connecting them with elite, autonomous, high-performance tech teams worldwide. Through innovative solutions, Niuro simplifies global talent acquisition ensuring maximum efficiency and quality. Our teams focus on challenging projects involving advanced industrial data, where continuous professional growth and leadership development are core values. By handling the administrative side—hiring, payments, training—Niuro empowers specialists to deliver exceptional results while advancing their careers in a collaborative and stimulating environment.

Official job site: Get on Board.

About the Role

At Niuro, we are seeking a Data Scientist with expertise in Large Language Models (LLMs) to become an integral part of our engineering team. Your role will involve building intelligent agents that seamlessly integrate data, tools, and various models to produce measurable and impactful outcomes.
You will own the entire development loop: from framing complex problems and defining success criteria to developing, deploying, and maintaining efficient, trustworthy, and maintainable AI-powered solutions over time. Your work will be essential in advancing our data science capabilities and delivering reliable, production-grade features that leverage AI and LLM technologies.

Requirements

  • Solid, hands-on experience in classical Data Science techniques, including modeling, feature engineering, statistics, and experimentation.
  • Strong proficiency in Python programming is mandatory.
  • Proven production experience shipping AI/ML or LLM-powered features to live environments.
  • Experience working with at least one major cloud platform such as AWS, Azure, or Google Cloud Platform (GCP).
  • Professional proficiency in English to effectively communicate in a global team.
  • Systems thinking with the ability to understand data flows, failure modes, and optimize trade-offs related to cost, latency, and throughput.
  • Commitment to writing clean, testable, and maintainable code that meets industry best practices.
  • A strong respect for privacy, security, and operational reliability in AI systems.

Nice to Have

  • Experience building or maintaining Retrieval-Augmented Generation (RAG) systems, enhancing LLM responses with external knowledge bases.
  • Familiarity with tool/function calling mechanisms and Multi-Component Processing (MCP)-based integrations to extend AI capabilities.

Why Join Niuro?

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and foster professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere in the world. We invest in your career development through continuous training programs and leadership opportunities, ensuring that you grow and succeed alongside us.
Following successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with team members.
Join Niuro to be part of a global community committed to technological excellence, supported by a strong administrative infrastructure that lets you focus fully on delivering impactful work.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Ga4 & Google Tag Manager Developer
  • Niuro
JavaScript HTML5 Analytics Front-end
Niuro partners with leading U.S. companies by providing elite technology teams that drive innovation and deliver high-impact solutions. As part of Niuro's global network, this position involves working on advanced web analytics projects focused on optimizing digital measurement and insights to enhance business decision-making. Our projects revolve around integrating and perfecting analytics platforms to capture conversion, eCommerce, and user interaction data accurately, using cutting-edge tools and best practices.
This role is embedded in cross-functional teams including product managers, marketing strategists, and engineers, aiming to bridge technical implementation with business objectives to ensure data quality and actionable insights. By joining Niuro, you will contribute to high-profile, data-driven initiatives that empower U.S.-based clients while benefiting from a supportive environment focused on professional growth and innovation.

Apply to this job opportunity at getonbrd.com.

Role and Responsibilities

  • Lead the implementation, management, and optimization of Google Analytics 4 (GA4) and Google Tag Manager (GTM) setups to ensure precise tracking of user behavior, conversions, and eCommerce events.
  • Develop and maintain tags, triggers, and variables within GTM, ensuring they are aligned with evolving product and marketing goals.
  • Diagnose and resolve issues in front-end code related to tag implementation, including working directly with HTML, JavaScript, and the dataLayer structure.
  • Validate data quality using diagnostic and debugging tools such as Google Tag Assistant and other analytics validation utilities.
  • Collaborate closely with product teams, marketing departments, and software developers to synchronize analytics implementations with strategic business objectives.
  • Stay current with privacy regulations such as GDPR and CCPA to incorporate necessary consent management and ensure compliance in data collection processes.
  • Provide clear and effective communication to both technical and non-technical stakeholders, translating complex analytics concepts into understandable insights.

Required Skills and Experience

The ideal candidate must demonstrate strong expertise in GA4 and Google Tag Manager, with hands-on experience implementing complex tracking solutions for websites and web applications.
A solid understanding of JavaScript programming and HTML markup is essential to effectively troubleshoot and customize tracking code within GTM environments. Expertise in the structure and manipulation of the dataLayer is critical, as this is the backbone of event data collection.
Experience diagnosing and resolving tag-related problems in front-end codebases ensures the reliability and accuracy of analytics data. Candidates should be comfortable working in iterative environments, collaborating across teams and adapting implementations based on evolving product needs.
Excellent communication skills are required to liaise effectively between technical teams and marketing or business stakeholders. Conversational English proficiency is necessary due to close collaboration with U.S.-based teams.
Additionally, a keen awareness of privacy laws such as GDPR and CCPA is required to embed consent management mechanisms and support ethical, compliant data collection practices.
Soft skills such as problem-solving, attention to detail, and the ability to work independently while embracing teamwork will contribute to success in this role.

Preferred Qualifications

Experience with other analytics platforms such as Adobe Analytics, Mixpanel, or Segment adds value by broadening your digital measurement expertise.
Knowledge of tag auditing and governance tools can enhance your effectiveness in maintaining scalable and clean tagging implementations.
Familiarity with server-side tagging and advanced consent management solutions is considered a plus, reflecting a forward-thinking approach to analytics architecture and privacy compliance.
Background in A/B testing and optimization platforms, as well as understanding marketing technologies like CRM or CDP integration, will enable more comprehensive analytics execution aligned with digital marketing strategies.
Experience working in agile teams and using project management tools enhances collaboration and delivery efficiency.

What We Offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model within LATAM, offering flexibility and work-life balance while connecting you to top-tier U.S. companies.
We invest in career development through ongoing training programs in both technical skills and leadership development, ensuring continuous professional growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence with a robust administrative infrastructure that allows you to focus on what you do best.

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos Senior
  • foris.ai
Artificial Intelligence English Data Engineer Continual improvement process

Somos una empresa líder en Latinoamérica que ofrece soluciones cloud basadas en Inteligencia Artificial y servicios de consultoría para optimizar procesos críticos en la Educación Superior. Nuestro objetivo es transformar la experiencia digital de alumnos, docentes y staff académico mediante una suite de productos que automatizan más del 50% de las tareas manuales, optimizan hasta un 25% los costos y contribuyen a la reducción de la deserción estudiantil.

Contamos con más de 65 instituciones educativas clientes en 10 países, alcanzando a un millón de estudiantes. Buscamos expandir nuestra tecnología disruptiva a nuevos mercados internacionales, diseñando sistemas escalables capaces de soportar un crecimiento importante y diferentes ecosistemas complejos.

Somos un equipo multicultural y multidisciplinario que combina capacidades en ingeniería, matemáticas, desarrollo, diseño y consultoría, enfocados en llevar al sector EdTech a un nuevo nivel usando inteligencia artificial avanzada.

Apply only from getonbrd.com.

¿En qué consistirá tu trabajo?

  • Ser experto funcional de nuestra suite de soluciones, comprendiendo y dominando a fondo la lógica y arquitectura de cada aplicación.
  • Liderar la implementación y puesta en marcha de nuestros productos y sus integraciones para asegurar despliegues fluidos y exitosos en nuestros clientes.
  • Trabajar con consultas SQL avanzadas para explotar, transformar y analizar grandes volúmenes de datos con rigor y eficiencia.
  • Diseñar, desarrollar e implementar procesos ETL robustos para manejar grandes flujos de información alineados con las necesidades de las universidades y Foris.
  • Aplicar modelado, análisis y automatización de datos utilizando Python de forma estructurada y escalable.
  • Colaborar estrechamente con equipos internos multidisciplinarios y con clientes externos para diseñar soluciones técnicas innovadoras que aporten valor real al negocio.
  • Documentar detalladamente cada solución para garantizar su trazabilidad, mantenibilidad y calidad a largo plazo.

Stack de herramientas y tecnologías :
Herramientas:

  • Athena
  • Glue data catalog
  • Amazon S3
  • Cloudwatch AWS
  • IAM AWS
  • AWS CLI
  • Postman
  • JSON / RESTful APIs

Lenguajes

  • TrinoSql
  • MySQL
  • SparkSql
  • PySpark
  • Python
  • PostgresSql
  • YAML

Perfil del cargo

Buscamos profesionales con formación técnica rigurosa en Ingeniería de Sistemas, Matemáticas, Inteligencia Artificial, Ciencia de Datos o carreras afines. Es indispensable haber complementado cualquier formación que no sea estrictamente técnico-científica con educación y experiencia práctica.

El candidato ideal cuenta con al menos 5 años de experiencia profesional consolidada y mínima experiencia de 3 años en consultoría tecnológica y/o procesamiento y análisis avanzado de datos. Este puesto no es para perfiles juniors ni para quienes buscan un rol intermedio; está destinado a quienes desean escalar profesionalmente resolviendo desafíos complejos y reales.

Es fundamental poseer un entendimiento profundo tanto del negocio educativo como del ecosistema de datos y tecnología que soporta nuestras soluciones. Debe ser capaz de identificar ineficiencias, proponer soluciones innovadoras y ejecutar sin necesidad de supervisión constante.

Además, el rol requiere excelentes habilidades de comunicación, particularmente en redacción y verificación de información, tanto en español como en inglés, debido a la interacción con herramientas de Inteligencia Artificial generativa y de optimización. Se valoran especialmente competencias en generación y curaduría de prompts para IA.

Buscamos una persona proactiva, orientada a la mejora continua, capaz de transformar procesos, productos y flujos de trabajo mediante modelos de datos, visualización y automatización, que aporte prácticas y referencias que eleven el estándar técnico del equipo desde el primer día.

Competencias y conocimientos deseables

Se valorará experiencia previa en ambientes EdTech o en la educación superior, conocimiento avanzado en plataformas de nube, especialmente en arquitecturas escalables para grandes volúmenes de datos y familiaridad con herramientas de IA aplicadas a la optimización operacional.

Habilidades en manejo de metodologías ágiles y coordinación de equipos multidisciplinarios serán un plus para facilitar la integración y entrega de soluciones.

Además, se considerarán positivamente conocimientos en visualización avanzada de datos, manejo de tecnologías de integración de datos en tiempo real, y experiencia en diseño de arquitecturas data-driven.

Beneficios y cultura organizacional

En Foris valoramos la diversidad y el bienestar de nuestros colaboradores. Ofrecemos horarios flexibles que permiten compatibilizar trabajo con otras actividades, además de permitir días libres para trámites administrativos, cumpleaños y festividades importantes.

Contamos con jornadas reducidas cada quince días los viernes, iniciando a las 9:00 y finalizando a las 15:00 hrs, junto con un día completo de vacaciones canjeable para celebrar tu cumpleaños.

Nuestra cultura promueve un ambiente multicultural e inclusivo, con un equipo equilibrado en género y conformado por profesionales de diversas nacionalidades. No exigimos códigos de vestimenta para el día a día, salvo eventos con clientes.

Organizamos actividades de integración, viajes y retiros corporativos para fortalecer el espíritu de equipo en entornos distendidos y agradables.

El trabajo será hibrido en Bogotá, Colombia y remoto desde Chile.

Internal talks foris.ai offers space for internal talks or presentations during working hours.
Company retreats Team-building activities outside the premises.
Computer repairs foris.ai covers some computer repair expenses.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $2300 - 2500 Full time
Analista Power BI
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis Excel SQL Business Intelligence
En BC Tecnología somos una consultora de Servicios IT con amplia experiencia en consultoría, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos de trabajo ágiles en áreas de Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, para clientes de sectores financieros, seguros, retail y gobierno. En este proyecto estratégico de 6 meses, nos enfocamos en la generación de dashboards y soluciones analíticas mediante Power BI, que permitan apoyar la toma de decisiones basada en datos dentro de la organización y sus áreas internas.

Apply directly at getonbrd.com.

Responsabilidades

  • Diseñar y mantener dashboards e informes utilizando Power BI.
  • Analizar datos para identificar oportunidades de mejora y resolver problemas de negocio.
  • Levantar requerimientos con áreas internas y proponer soluciones analíticas adecuadas.
  • Promover la alfabetización digital y el uso efectivo de herramientas analíticas en la organización.
  • Aplicar buenas prácticas en modelamiento de datos, visualización y asegurar la calidad de la información.

Requisitos

  • Dominio avanzado de Power BI, incluyendo DAX, modelado y visualización de datos.
  • Conocimientos sólidos en SQL y Excel, además de experiencia con herramientas como Tableau.
  • Deseable experiencia en plataformas cloud como BigQuery, AWS Redshift u otras similares.
  • Excelentes habilidades de comunicación y capacidad de análisis orientada al cliente interno.

Deseable

Se valorará experiencia adicional en manejo de plataformas en la nube para gestión y análisis de datos que complementen el trabajo en Power BI. También es deseable conocimiento en procesos de transformación digital y en promover el uso de analítica avanzada en diferentes áreas de la organización.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2500 Full time
Consultor Data Analyst Semisenior/Senior
  • Lisit
  • Santiago (Hybrid)
Data Analysis SQL Artificial Intelligence Data Visualization

En Lisit, somos una empresa dedicada a crear, desarrollar e implementar soluciones de software que proporcionan herramientas de automatización y optimización. Nuestro enfoque se centra en acompañar a nuestros clientes a lo largo de sus procesos de transformación digital, combinando innovación, eficiencia operativa y consultoría especializada. Formarías parte de un equipo apasionado por enfrentar desafíos técnicos complejos mediante el uso de tecnologías avanzadas para entregar valor tangible y sostenible a nuestros clientes.

Applications are only received at getonbrd.com.

Responsabilidades del puesto

Como Consultor Data Analyst SemiSenior o Senior, serás responsable de analizar, modelar y transformar datos para extraer insights valiosos que impulsen la toma de decisiones estratégicas. Trabajarás en colaboración con equipos multidisciplinarios para diseñar soluciones basadas en datos que mejoren los procesos internos y la experiencia del cliente.

  • Realizar modelados de datos robustos y eficientes.
  • Desarrollar consultas avanzadas y optimizar bases de datos utilizando SQL.
  • Interpretar y tratar grandes volúmenes de datos para proporcionar análisis claros y accionables.
  • Preparar reportes y visualizaciones que faciliten la comprensión del negocio.
  • Colaborar con áreas técnicas y de negocio para entender requerimientos y traducirlos en soluciones analíticas.
  • Garantizar la calidad y consistencia de los datos procesados.

Requisitos del candidato

Buscamos un profesional con más de 3 años de experiencia en modelado y tratamiento de datos, que posea un conocimiento avanzado en lenguaje SQL y manejo de bases de datos. Es fundamental contar con certificación PL-300, la cual es excluyente para esta posición, dado que asegura competencia en análisis y visualización de datos con tecnologías Microsoft. Además, es deseable tener la certificación DP-600, que indica experiencia en desarrollo de soluciones con inteligencia artificial y bases de datos en Microsoft Azure.

Además de las habilidades técnicas, valoramos cualidades como pensamiento analítico, capacidad para resolver problemas complejos, atención al detalle, y facilidad para comunicar hallazgos a distintos niveles dentro de la organización.

Habilidades y certificaciones valoradas

La certificación DP-600 será altamente valorada, ya que implica conocimientos avanzados en soluciones basadas en inteligencia artificial y bases de datos dentro del ecosistema Microsoft Azure. También se considera un plus la experiencia previa en proyectos de transformación digital, manejo de herramientas de visualización complementarias, y capacidades de trabajo en equipo en entornos ágiles.

Beneficios de trabajar con nosotros

En Lisit promovemos un ambiente laboral dinámico, basado en la innovación constante y el crecimiento profesional. Formarás parte de un equipo que acompaña a clientes en procesos de transformación digital, aplicando las mejores prácticas y tecnologías actuales.

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

This company only accepts applications on Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Analista Desarrollador de Datos
  • Coderslab.io
  • Lima (Hybrid)
PostgreSQL SQL Oracle ETL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista Desarrollador de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications are only received at getonbrd.com.

Job functions

Buscamos Analistas Desarrolladores de Datos Semi Senior para sumarse a un proyecto estratégico dentro del área de Operaciones y Sistemas. Serán responsables del diseño, desarrollo y automatización de procesos de integración de datos, participando en una célula ágil orientada a la eficiencia operativa.

🛠️ Responsabilidades

  • Desarrollar procesos ETL utilizando Informatica PowerCenter y/o IDMC.
  • Diseñar, implementar y optimizar consultas y procedimientos en bases de datos Oracle, PostgreSQL y SQL Server.
  • Automatizar procesos recurrentes vinculados a la integración y tratamiento de datos.
  • Documentar desarrollos y flujos implementados.
  • Colaborar con el equipo técnico y funcional para entender los requerimientos y proponer soluciones eficientes.
  • Asegurar la calidad, seguridad y disponibilidad de los datos procesados.
  • Participar de reuniones de seguimiento del proyecto bajo metodología ágil.

Qualifications and requirements

  • Mínimo 3 años de experiencia en desarrollo con Informatica PowerCenter y/o IDMC.
  • Mínimo 3 años de experiencia en desarrollo sobre Oracle, PostgreSQL y SQL.
  • Mínimo 1 año de experiencia en automatización de procesos.
  • Disponibilidad inmediata.

Desirable skills

Deseables

  • Conocimientos en herramientas de scheduling como Control M.
  • Experiencia en procesos bancarios, especialmente conciliación y contabilización de transacciones.

Conditions

Modalidad de contratación: Plazo fijo
Duración del proyecto: 4 - 9 meses
Hibrido en Lima Peru

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

This job offer is on Get on Board.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB