We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Arquitecto de Infraestructura
  • Lisit
Redis PostgreSQL SaaS Cybersecurity
En Lisit promovemos la creación, desarrollo e implementación de servicios de software orientados a la automatización y optimización, con un fuerte foco en la innovación y la transformación digital de nuestros clientes. Nuestro equipo diseña y despliega soluciones de IA conversacional y Pipelines de LLM para soportar procesos críticos de negocio, desde prototipos (POC) hasta producción y escalado comercial. El proyecto central implica la construcción de una infraestructura robusta, escalable y segura que soporte Flowise y otras plataformas de IA conversacional, garantizando rendimiento, disponibilidad y costos optimizados en todos los niveles de madurez: piloto, desarrollo, comercial inicial y producción. Trabajamos de forma 100% remota, con colaboraciones multidisciplinares y un enfoque práctico hacia resultados medibles para clientes.

Send CV through getonbrd.com.

Perfil de Cargo

  • Diseñar, implementar y mantener la infraestructura tecnológica necesaria para soportar soluciones conversacionales basadas en IA, incluyendo Flowise y otras plataformas, garantizando disponibilidad, escalabilidad, seguridad, rendimiento y continuidad operativa.
  • Evaluación y diseño de infraestructura: analizar requerimientos técnicos, diseñar arquitecturas en nubes públicas (Azure, AWS, GCP), definir capacidad para Piloto, Desarrollo, Comercial Inicial y Producción, estimar recursos y diseñar topologías resilientes (HA, balanceo, redundancia).
  • Implementación y operación: provisionar recursos en Azure (principal) u otras nubes, desplegar servidores, workers, balanceadores, almacenamiento, BBDD y monitorización; configurar entornos Flowise / LLM gateways / assist pipelines; administrar contenedores (Docker/Kubernetes).
  • Gestión de bases de datos: diseñar, administrar y optimizar PostgreSQL y Azure SQL; implementar backups, réplicas, versionamiento, retención y failover.
  • Cache y mensajería: integrar Redis, gestionar cache de contexto, persistencia y colas de trabajo; diseñar procesos asincrónicos para alto throughput.
  • Storage y costos: diseñar almacenamiento escalable (Blob/S3), políticas de retención y costos; separar almacenamiento conversacional, logs y archivos anexos.
  • Seguridad: IAM/RBAC, protección de endpoints, rotación de tokens, seguridad de red (WAF, VNet, VPN), cifrado en tránsito y en reposo.
  • Observabilidad: monitoreo de logs, métricas y alertas; seguimiento de rendimiento, tiempos de respuesta y colas.
  • Optimización de costos: dimensionamiento eficiente, revisión continua de gastos, recomendaciones de right-sizing y proyección de crecimiento.
  • Colaborar con equipos multidisciplinarios para definir parámetros de escalamiento y asegurar la estabilidad y seguridad de entornos de IA.

Descripción

Buscamos un Arquitecto de Infraestructura con sólida experiencia en entornos de nube y plataformas IA para liderar la construcción de la infraestructura necesaria para soluciones conversacionales basadas en IA. El rol implica definir, desarrollar y mantener un stack tecnológico que permita escalar operaciones desde POC hasta producción. El candidato ideal debe poseer capacidad analítica, enfoque en seguridad y optimización de costos, además de habilidades de documentación y comunicación para colaborar con equipos multifuncionales. Se valorará experiencia previa en SaaS y herramientas conversacionales (Flowise) y un historial comprobable de gestión de infraestructuras complejas en entornos empresariales.

Requisitos Deseables

Experiencia de 4+ años administrando plataformas cloud, con conocimientos en bases de datos gestionadas, contenedores, redes e Infra as Code. Deseable experiencia previa en productos SaaS o herramientas de IA conversacional (Flowise). Formación en Ingeniería en Computación/Informática/Sistemas o equivalente. Habilidades de comunicación, documentación clara y capacidad de trabajar en equipos multidisciplinarios. Nivel avanzado en Azure (deseable) y experiencia en AWS/GCP es un plus.

Beneficios

100% remoto

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1300 - 1500 Full time
Site Reliability Engineer (SRE)
  • RebajaTusCuentas.com
DevOps Virtualization Docker Continuous Deployment

Somos una empresa financiera no bancarizada fundada en noviembre de 2017 en Perú y en Julio de 2019, iniciamos operaciones en México. RTC es una entidad financiera alternativa que ayuda a personas y pequeños negocios a acceder a créditos formales usando inmuebles como garantía, nuestros créditos se fondean mediante emisiones destinadas a inversionistas institucionales, lo que nos da flexibilidad y respaldo en cada operación.

Ayudamos a las personas a mejorar su salud financiera, desarrollado un ecosistema de productos y procesos pensados para quienes han sido históricamente excluidos del sistema financiero.

Nuestro SRE ideal será un apasionado por la automatización, la estabilidad y la eficiencia de sistemas a gran escala, experto en la convergencia de las disciplinas de desarrollo de software y operaciones, enfocándose en construir y mantener una infraestructura confiable, escalable y con un rendimiento óptimo.

Send CV through getonbrd.com.

Funciones del cargo

  1. Disponibilidad & Monitoreo
    • Definir y mantener SLOs/SLAs de sistemas clave (ej. scoring, desembolsos, cobranza digital).
    • Implementar y gestionar herramientas de monitoreo (logs, alertas, dashboards).
  2. Automatización & DevOps
    • Desarrollar pipelines de CI/CD para despliegues rápidos y seguros.
    • Automatizar procesos de infraestructura (infra as code, scripts, backups, recupero).
  3. Gestión de Incidentes
    • Liderar la respuesta a incidentes críticos (downtime, caídas de scoring, fallas en originación).
    • Documentar post-mortems y generar planes de prevención.
  4. Escalabilidad & Performance
    • Optimizar infraestructura para soportar crecimiento de cartera proyectada (S/400M a 2029).
    • Identificar y resolver cuellos de botella en performance (APIs, bases de datos, integraciones).
  5. Seguridad & Cumplimiento
    • Implementar prácticas de seguridad y resiliencia (backups, cifrado, control de accesos).

Requerimientos del cargo

  • Formación: Ingeniería de sistemas Ingeniería de Software o a fines.
  • Dominio de ingles, verbal y escrito B1 - B2
  • Experiencia:
    • 3–5 años en roles de DevOps, Infraestructura o SRE.
    • Experiencia en sistemas financieros, fintech o de alta criticidad es un plus.
  • Conocimientos técnicos:
    • Cloud.
    • Contenedores y orquestación (Docker, Kubernetes).
    • CI/CD (GitLab CI, GitHub Actions).
    • Monitoreo y logging (Prometheus, Grafana).
    • Bases de datos (relacionales).
    • Seguridad y compliance básico (ISO 27001, OWASP)

Cualidades Deseadas (Plus)

  • Conocimiento de bases de datos SQL y NoSQL.
  • Habilidades probadas en la depuración de problemas de rendimiento complejos.
  • Certificaciones relevantes en la Nube (p. ej., AWS Certified DevOps Engineer - Professional).

Condiciones

  • Sueldo base :( pago fin de mes plataforma Deel).
  • Trabajar de forma remota de lunes a viernes, horario de 9:00 am a 6:00 pm. (Hora Perú).
  • Si estas en Lima-Perú, te damos una laptop para tu uso en caso de ser necesario. Si no te encuentras en Lima, te pedimos que trabajes con tu propio equipo.
  • Reembolsos por gastos de salud (Trabajadores en el extranjero): Te reembolsamos cualquier gasto de salud o pago de seguros de salud hasta por un monto de USD $55 (cincuenta y cinco y 00/100 dólares americanos).
  • Bono Diciembre: En diciembre recibes un sueldo adicional proporcional al tiempo que has trabajado en el año. Ejemplo: Si ingresas en Abril, recibes (9 meses laborados) / (12 meses) de sueldo en diciembre.
  • Día de cumpleaños libre.
  • Aprendizaje: En RTC creemos fielmente en el apoyo a tu desarrollo personal y profesional.
  • Ofrecemos capacitaciones constantes: reuniones de equipo y entrenamientos semanales.
  • Vacaciones extra: RTC otorga vacaciones pagadas adicionales al mínimo legal.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks RebajaTusCuentas.com offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage RebajaTusCuentas.com pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal RebajaTusCuentas.com gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Arquitecto Cloud / Sector Bancario
  • Devsu
  • Quito (In-office)
DevOps Virtualization Amazon Web Services Docker

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo, aprendizaje continuo y la flexibilidad serán elementos muy presentes.

Buscamos un Arquitecto Cloud, para trabajar de forma presencial desde Quito, Ecuador en proyectos retadores del sector financiero/bancario.

Job source: getonbrd.com.

Funciones del cargo

  • Diseñar arquitecturas cloud: Analizar requisitos técnicos y de negocio para definir la mejor estrategia de nube (AWS, Azure, Google Cloud).
  • Implementar soluciones: Configurar y desplegar infraestructura cloud usando herramientas de automatización (Terraform, CloudFormation, Azure ARM).
  • Optimizar y gestionar: Evaluar el uso de recursos, optimizar costos y asegurar el rendimiento y la escalabilidad de las soluciones.
  • Desarrollar estrategias de migración: Diseñar planes para migrar aplicaciones y datos locales a la nube minimizando riesgos.
  • Asegurar la seguridad: Aplicar mejores prácticas de seguridad y compliance en todas las soluciones implementadas.
  • Colaborar y documentar: Trabajar con equipos multidisciplinarios y mantener documentación técnica clara y precisa.

Requerimientos del cargo

Formación: Título en Ingeniería en Sistemas, Ciencias de la Computación o afines.

Experiencia: Mínimo 3 años en roles similares, preferiblemente en el sector financiero.

Conocimiento técnico:

  • Plataformas Cloud: AWS, Azure (Experiencia y/o conocimiento en ambas)
  • Modelos de servicio: IaaS, PaaS, SaaS.
  • Arquitectura de microservicios, APIs, mensajería, eventos.
  • Bases de datos en la nube: relacionales y no relacionales.
  • Redes y conectividad: VPN, redes virtuales, interconexión entre nubes.
  • DevOps y CI/CD: Azure DevOps, Docker, Kubernetes.
  • Seguridad: Gestión de identidades, prácticas de seguridad cloud.
  • Monitoreo: CloudWatch, Azure Monitor, Stackdriver.

Habilidades de programación: Automatización y scripting (Terraform, CloudFormation, Azure ARM).

Habilidades blandas: Comunicación efectiva, resolución de problemas y trabajo en equipo.

Opcionales

Certificaciones: Valorable AWS Certified Solutions Architect, Azure Administrator, u otras certificaciones cloud.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$2000 - 2400 Full time
DevOps Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL DevOps Virtualization

BC Tecnología, una consultora de TI con enfoque en soluciones ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, busca incorporar a su equipo a un DevOps Engineer para un proyecto asociado a la Automatización por API del proceso de pre-arbitraje de Mastercard. El rol se desempeña en modalidad híbrida, con foco en automatización, integración y optimización de procesos en entornos de nube y contenedores. El proyecto implica desarrollo y despliegue de componentes en Python, integración mediante APIs y Web Services, y gestión de entornos en Kubernetes y Docker, así como mejoras en CI/CD y monitoreo en GCP. Participarás en un equipo multidisciplinario y colaborarás con clientes de alto nivel en un entorno que valora la innovación y la excelencia operativa.

Apply without intermediaries from Get on Board.

Funciones

  • Desarrollar y desplegar componentes en Python orientados a la automatización de procesos.
  • Diseñar e implementar integraciones mediante APIs y Web Services.
  • Configurar y gestionar entornos en contenedores (Docker) y orquestación (Kubernetes).
  • Optimizar procesos de CI/CD, incluyendo pipelines, pruebas y validaciones en GCP.
  • Participar en la monitorización, logging y performance de soluciones implementadas.
  • Colaborar con equipos de desarrollo, infraestructura y negocio para asegurar entregas de alto impacto.

Descripción

Buscamos un profesional con al menos 3 años de experiencia en roles DevOps o desarrollo backend, con dominio de Python y experiencia trabajando con APIs y Web Services. Se valorarán conocimientos en SQL, Google Cloud Platform (GCP), BigQuery, Kubernetes y Docker. El candidato ideal será proactivo, orientado a resultados, con buenas habilidades de comunicación y capacidad para trabajar en entornos dinámicos y multiculturales. Se espera capacidad para resolver problemas complejos, gestionar prioridades y mantener altos estándares de calidad en entrega y operación.

Requisitos Deseables

Experiencia previa en proyectos de automatización API en entornos financieros; familiaridad con herramientas de observabilidad y monitoreo; certificaciones en Kubernetes, Google Cloud o DevOps; capacidad para documentación clara y colaborativa; enfoque en seguridad y cumplimiento normativo. Se valora experiencia en Mastercard o procesos de pre-arbitraje y generación de valor a través de soluciones escalables.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Comunicaciones
  • BLUE SMILE TECHNOLOGY
  • Santiago (In-office)
REST API Linux JSON Virtualization
BLUE SMILE TECHNOLOGY es una empresa global y visionaria que se posiciona como líder en la transformación digital de sus clientes, generando soluciones tecnológicas de alto nivel que les permiten crecer de forma sostenible y consolidarse como actores relevantes en sus mercados. La división a la que se integrará el Ingeniero de Comunicaciones trabaja en proyectos innovadores de infraestructura y redes de comunicación, diseñando, implementando y manteniendo sistemas que soportan la conectividad y seguridad esenciales para las operaciones de clientes nacionales e internacionales.
Esta área es clave para asegurar el buen funcionamiento de las comunicaciones y la transmisión de datos, aprovechando las últimas tecnologías en redes definidas por software (SDN), nube pública y seguridad para garantizar soluciones robustas y eficientes.

© getonbrd.com.

Responsabilidades principales

Este rol tiene como objetivo asegurar el diseño, la implementación y el mantenimiento óptimo de redes de comunicación para nuestros clientes y proyectos. Entre sus funciones principales se incluyen:
  • Diseñar arquitecturas de redes LAN/WAN, SDN y SD-WAN, integrando tecnologías de transmisión de datos avanzadas.
  • Implementar soluciones de conectividad seguras y escalables, incluyendo VPNs y equipos de telecomunicaciones como switches y routers.
  • Gestionar y optimizar el tráfico de red mediante análisis detallados para mejorar el rendimiento y la eficiencia.
  • Supervisar la seguridad de redes, aplicando protocolos y políticas para proteger la infraestructura frente a amenazas.
  • Administrar y mantener infraestructura en sistemas Linux, y utilizar tecnologías de contenedores como Kubernetes y Docker para desplegar y orquestar aplicaciones relacionadas.
  • Documentar procesos, configuraciones y desarrollos relacionados con redes y telecomunicaciones.
  • Colaborar con equipos interdisciplinarios en proyectos de transformación digital, aportando experiencia técnica y recomendaciones para la evolución tecnológica.

Requisitos del puesto

Buscamos un profesional titulado o egresado en Ingeniería, Ingeniería Civil, Ingeniería de Ejecución en Computación o Informática, o carreras afines. El candidato ideal debe contar con al menos 2 años de experiencia en telecomunicaciones o redes de comunicación, demostrando competencias en diseño, implementación y mantenimiento de redes.
Es imprescindible contar con al menos cuatro certificaciones reconocidas entre las siguientes:
  • CompTIA Network+ o similar.
  • CCNA (Cisco Certified Network Associate) o equivalente.
  • Certificaciones en tecnologías SDN (Cisco ACI, AWS, Azure, NSX VMware).
  • Certificación Palo Alto Networks (PCSFE).
  • Certificación en equipamiento de seguridad de redes.
  • Especialización o Maestría en Telecomunicaciones, Redes de Datos o áreas relacionadas.
  • Cursos complementarios en gestión de proyectos (PMI) o administración.
Además, el candidato debe demostrar profundos conocimientos en al menos seis de las siguientes áreas:
  • Tecnologías de red como SDN, SD-WAN, LAN/WAN, VPNs.
  • Protocolos de comunicación TCP/IP, UDP.
  • Tecnología DWDM (Dense Wavelength Division Multiplexing).
  • Conocimientos avanzados en sistemas Linux.
  • Programación y manejo de datos en JSON, API REST, XSLT, XML.
  • Gestión y orquestación con contenedores Kubernetes y Docker.
  • Manejo y configuración de equipos de telecomunicaciones como switches y routers.
  • Seguridad en redes y análisis de tráfico para optimización.
  • Sistemas de transmisión de datos.
  • Capacidad para analizar tráfico y mejorar la eficiencia de las redes.
Se valoran además habilidades blandas como trabajo en equipo, proactividad, capacidad analítica, resolución de problemas, y buena comunicación tanto técnica como interdepartamental.

Habilidades y certificaciones deseables

Es valorable contar con certificaciones adicionales o especializaciones en gestión avanzada de proyectos (PMI), experiencia en entornos cloud como AWS o Azure relacionados con redes, conocimientos en seguridad avanzada de redes más allá de lo básico y dominio de nuevas tendencias en redes definidas por software y virtualización de funciones de red.
Asimismo, se aprecia una actitud de aprendizaje permanente, capacidad para adaptarse a entornos ágiles y dinámicos, y experiencia previa en proyectos internacionales o con alcance global.

Beneficios y entorno de trabajo

Trabajamos en un entorno innovador dentro de una empresa global que impulsa el desarrollo profesional mediante formación continua y proyectos desafiantes que potencian el crecimiento personal y técnico.
Fomentamos un ambiente colaborativo y flexible, ofreciendo modalidad remota local para adaptarnos a las necesidades de cada colaborador.

VIEW JOB APPLY VIA WEB
Gross salary $2300 - 2800 Full time
DevOps Senior
  • Coderslab.io
  • Santiago (Hybrid)
Agile Git Linux DevOps
Coderslab.io busca incorporar a su equipo a un(a) DevOps Senior para el Proyecto Penicilina. El/la profesional será parte de una unidad centrada en garantizar la eficiencia, escalabilidad y confiabilidad de la infraestructura, implementando prácticas de automatización y gestión de configuración. El Proyecto Penicilina es una iniciativa innovadora dentro de nuestra área tecnológica, con un enfoque en arquitecturas modernas y mejora continua, contribuyendo al crecimiento y la competitividad de nuestros clientes a nivel global. La modalidad de trabajo es híbrida, con días presenciales acordados con el equipo, y una estructura de colaboración internacional que impulsa el desarrollo profesional en un entorno desafiante y colaborativo. Duración del proyecto: 7 meses.

Apply to this job through Get on Board.

Funciones

  • Implementar y mantener Cookbooks de Chef y playbooks de Ansible para gestionar infraestructura y despliegues.
  • Gestionar y optimizar procesos de CI/CD, garantizando entregas rápidas, confiables y reproducibles.
  • Administrar contenedores y orquestadores (Docker, Kubernetes) para entornos de producción y desarrollo.
  • Definir y mantener infraestructura como código (Terraform, Pulumi) para garantizar escalabilidad y seguridad.
  • Garantizar la seguridad y escalabilidad de la infraestructura, gestionando incidentes y realizando mejoras continuas.
  • Colaborar en la definición e implementación de estrategias de monitoreo (Prometheus, Grafana, ELK, Datadog) y observabilidad.
  • Trabajar en entornos ágiles (Scrum, Kanban) y promover la cultura DevOps en la organización.
  • Gestión de secretos (Vault u herramientas equivalentes) y administración de redes y seguridad (firewalls, balanceo de carga).
  • Comunicación efectiva y colaboración con equipos multidisciplinarios para cumplir objetivos y plazos.

Descripción

Buscamos un(a) DevOps Senior para integrarse a nuestro equipo en el Proyecto Penicilina. El/la profesional será responsable de garantizar la eficiencia, escalabilidad y confiabilidad de nuestra infraestructura, implementando mejores prácticas de automatización y gestión de configuración. Requisitos técnicos obligatorios incluyen experiencia de 3+ años en DevOps o administración de infraestructura, 2+ años en administración de sistemas Linux, experiencia en entornos ágiles y conocimientos en herramientas como Terraform, Pulumi, Git/GitLab, Docker, Kubernetes, Chef, Ansible, Terraform, Azure o GCP, y gestión de secretos (Vault). Habilidades blandas como trabajo en equipo, orientación a resultados y proactividad son esenciales. El rol implica implementación y mantenimiento de infraestructuras como código, CI/CD, monitoreo y respuesta a incidentes, con un enfoque en seguridad y escalabilidad.

Requisitos deseables

Conocimientos en API Management (Apigee, Kong), mensajería con RabbitMQ y experiencia en entornos de nube pública (Azure o GCP). Se valorará experiencia en Kubernetes avanzado (GKE, AKS), así como habilidades de scripting/automatización avanzada y capacidad para trabajar en ambientes dinámicos y multiculturales. Capacidad de priorizar, comunicarse efectivamente y adaptarse a cambios rápidos dentro de una organización en crecimiento.

Beneficios

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
DevOps Engineer
  • Viaro Networks
Python Agile Linux DevOps

Company Description:

Viaro Networks Inc. is a leading organization in the technology sector, recognized for its innovative approach and operational excellence. As we continue to expand, we are looking to add a highly skilled and motivated DevOps Engineer to our team.

Are you passionate about automation, cloud infrastructure, and driving continuous improvement?. This is your chance to make an impact! We’re seeking a skilled DevOps Engineer to join our innovative team, where you’ll play a key role in scaling and optimizing our world-class technology infrastructure.

© getonbrd.com. All rights reserved.

Key Responsibilities

  • Design, build, and maintain scalable and secure cloud infrastructure on AWS to support production workloads and growth trajectories.
  • Automate provisioning, deployment, and operations using Infrastructure as Code (Terraform) to enable repeatable, auditable changes.
  • Develop and optimize CI/CD pipelines to ensure smooth, reliable, and fast releases across environments.
  • Implement and maintain robust security controls, compliance measures, and access governance within the cloud environment.
  • Proactively monitor systems, respond to incidents, and drive continuous improvement through post-incident reviews and automation.
  • Participate in a 24/7 on-call rotation for production incident response and remediation.
  • Support disaster recovery planning and ensure business continuity with defined RPO/RTO targets.
  • Collaborate with development, security, and product teams to define requirements and drive best practices in reliability and performance.

What You’ll Bring

We are seeking a DevOps Engineer with a passion for automation, cloud infrastructure, and continuous improvement. The ideal candidate will have hands-on experience in cloud engineering, a strong foundation in IaC, and an ability to translate ambiguous requirements into scalable, secure solutions. You will thrive in a fast-paced environment, demonstrate strong collaboration and communication skills, and be comfortable working in an agile setting.

Technical Skills: 2+ years in DevOps, SRE, or Cloud Engineering roles; proven expertise with AWS core services; strong proficiency with Terraform; hands-on experience with CI/CD tools (Jenkins, GitHub Actions, etc.); scripting in Python, Bash, or PowerShell; experience with containers and orchestration (Docker, Kubernetes/EKS); familiarity with monitoring and logging stacks (Prometheus, Grafana, ELK) and cloud security and compliance best practices.

Soft Skills: Clear and empathetic communication with technical and non-technical stakeholders; consultative mindset to understand client needs and propose practical solutions; adaptable to new technologies and changing priorities; strong time management to handle multiple projects in an agile environment; analytical problem-solving abilities; proficient English communication skills (minimum ~80% proficiency).

Nice-to-Haves

AWS certifications (Solutions Architect, DevOps Engineer, etc.); experience with Agile/Scrum methodologies; knowledge of Site Reliability Engineering (SRE) practices; experience with advanced monitoring tools (Prometheus, Grafana, ELK Stack); prior experience in security-focused roles or governance frameworks; familiarity with cost optimization in cloud environments.

What We Offer

Join Viaro Networks and work with a talented, collaborative team dedicated to innovation in automation and network infrastructure. We offer opportunities to grow technically and impact the product roadmap, exposure to a modern cloud stack, and a culture that prioritizes reliability and continuous improvement. Flexible work practices and a supportive environment help you balance delivery with growth. If you’re excited to make an impact and drive cloud-native solutions at scale, apply to join our team.

Computer provided Viaro Networks provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $900 - 1500 Full time
Back-end & QA Automation Engineer
  • Guinea Mobile SAC (Cuy Móvil)
JavaScript Python PostgreSQL QA
Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.
Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.
Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.
Se encuentra en la búsqueda de Programador Backend + QA testing para conformar el equipo de TEC.

Job source: getonbrd.com.

Funciones del cargo

  1. Diseñar y mantener suites de pruebas automatizadas de backend, web y mobile.
  2. Asegurar que las APIs sean idempotentes, seguras y fácilmente testeables.
  3. Implementar pipelines de CI/CD con pruebas automáticas y métricas de calidad.
  4. Automatizar procesos y flujos operativos en n8n, con control de errores y alertas.
  5. Analizar métricas de cobertura, rendimiento y defectos para impulsar mejoras continuas.
  6. Colaborar con los equipos de desarrollo y DevOps para mantener la calidad en producción.

Requerimientos del cargo

QA y Automatización

  • Pruebas automáticas de API con frameworks como Pytest o Postman/Newman.
  • Validación de contratos OpenAPI, escenarios de integración, regresión y smoke tests.
  • Automatización en CI/CD: ejecución por rama o PR, reportes, artefactos y quality gates.
  • Experiencia en herramientas como Playwright, Cypress o Appium.
  • Diseño de workflows de automatización con n8n o herramientas similares: webhooks, colas, control de concurrencia y notificaciones.
  • Versionado de workflows, manejo de credenciales seguras, logs, alertas y creación de nodos personalizados en JS o TS.

Backend

  • Dominio de Python.
  • Construcción de APIs REST: routing, middlewares, validaciones y manejo de errores.
  • Conexión a bases de datos PostgreSQL mediante ORM o drivers nativos.
  • Migraciones, consultas optimizadas y transacciones seguras.
  • Contenedores con Docker y docker-compose.
  • Buenas prácticas de código: limpieza, modularidad y pruebas unitarias.

Integraciones

  • Conexión con Slack, Gmail, Google Sheets, Airtable, CRM o pasarelas de pago.
  • Automatización de tareas internas, monitoreo y manejo de fallos.

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior en Automatización de Pruebas
  • CoyanServices
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

This company only accepts applications on Get on Board.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer Cypress + JS (Mid)
  • Apptec
  • Santiago (Hybrid)
JavaScript CSS Git Node.js

En MobySuite somos una empresa joven de desarrollo de software con mas de 10 años de experiencia, centrados en tecnologías Web y Móviles. Nuestro proyecto destacado es MobySuite, una PropTech que digitaliza la gestión comercial y de postventa inmobiliaria mediante nuestro CRM. Buscamos un/a QA Engineer para asegurar la calidad end-to-end de nuestras apps web, con foco en automatización y pruebas manuales, que colabore estrechamente con Dev y Product Owner para liberar con confianza y sin regresiones. El rol es clave para elevar la velocidad de releases y la cobertura de pruebas, contribuyendo a una cultura de mejora continua y entregas de software confiables.

Apply to this job from Get on Board.

QA Engineer (Cypress + JavaScript)

  • Diseñar, implementar y mantener la suite E2E en Cypress + JavaScript (POM, fixtures, mocks/stubs).
  • Ejecutar pruebas manuales (funcionales, regresión, smoke, exploratorias, UAT) sobre entregables de los developers.
  • Probar APIs REST/GraphQL, validando contratos y escenarios edge.
  • Gestionar defectos en Jira: redacción clara, severidad/prioridad, trazabilidad hasta el cierre.
  • Definir y socializar la estrategia de QA por release (cobertura, datos, ambientes, DoR/DoD) y reportar métricas (escape rate, flaky tests, tiempo de detección, cobertura de flujos críticos).

Requisitos y perfil

Buscamos un/a QA Engineer con 3–5 años en QA y 2+ años automatizando con Cypress + JavaScript/TypeScript (Node/npm). Debes poseer fundamentos de testing (partición de equivalencia, análisis de límites, risk-based testing, diseño de casos y pruebas exploratorias). Se valora experiencia práctica con DOM/CSS selectors, intercepts, waits explícitos y buenas prácticas anti-flakiness. Competencia en Git y CI/CD; experiencia con contenedores (Docker) es deseable. Herramientas de gestión como Jira/Confluence y una comunicación clara para desafiar criterios de aceptación y proponer mejoras son importantes.

Requisitos deseables

Experiencia en entornos Agile y filosofía DevOps, conocimiento de pruebas de API avanzadas, capacidad para diseñar pruebas basadas en contratos, experiencia con herramientas de monitoreo de calidad y métricas de pruebas. Habilidades de colaboración y comunicación proactiva, orientación a resultados y actitud de aprendizaje continuo.

Beneficios

📚 Cultura de aprendizaje continuo: recursos para aprender y crecer.

🎮 Tardes de videojuegos: PS5, arcade y simulador de Fórmula 1.

🎂 Día libre en tu cumpleaños para celebrarlo.

🎧 Ambiente relajado y buena música: playlist colaborativa.

🍻 Happy Hours para celebrar logros del equipo.

Viernes corto: terminamos a las 17:00 para iniciar el fin de semana.

🖥️ Apoyo tecnológico: equipo necesario para trabajar cómodo.

Pet-friendly Pets are welcome at the premises.
Partially remote You can work from your home some days a week.
Health coverage Mobysuite pays or copays health insurance for employees.
Computer provided Mobysuite provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Mobysuite offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Líder Senior de QA Automation
  • BC Tecnología
  • Santiago (Hybrid)
QA Virtualization Docker Continuous Deployment
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales. Nos enfocamos en crear equipos de trabajo ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, atendiendo a clientes de servicios financieros, seguros, retail y gobierno. El candidato seleccionado formará parte de proyectos innovadores para clientes de alto nivel, contribuyendo a la implementación de prácticas de QA avanzadas y al fortalecimiento de la calidad del software a lo largo del ciclo de desarrollo.

Apply to this job through Get on Board.

Principales responsabilidades

  • Definir e implementar frameworks de automatización de pruebas.
  • Ejecutar y mantener pruebas funcionales, de regresión y smoke.
  • Incorporar suites automatizadas dentro de los pipelines CI/CD.
  • Integrar pruebas en Jenkins, GitLab CI o GitHub Actions.
  • Realizar mentoring técnico al equipo QA en ISTQB y buenas prácticas.
  • Revisar y aprobar pull requests de pruebas automatizadas.
  • Gestionar ambientes de prueba en Docker y Kubernetes.
  • Desarrollar microservicios de apoyo al testing y la calidad continua.
  • Proponer e implementar iniciativas de innovación en QA Automation.

Requisitos y perfil

Buscamos un profesional con 5+ años de experiencia en QA Automation y al menos 2 años liderando equipos o proyectos de automatización. Debe poseer sólidos conocimientos en metodologías ágiles y en testing continuo, así como experiencia práctica con frameworks de automatización y pipelines CI/CD. Se valoran habilidades de liderazgo, comunicación y visión estratégica, orientadas a promover la cultura Shift Left y la excelencia técnica dentro del equipo. Se requiere capacidad para trabajar en entornos de pruebas con Docker y Kubernetes, y para colaborar estrechamente con desarrollo y operaciones para entregar software de alta calidad.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero DevOps – Modalidad Híbrida
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Git Linux
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales, con foco en soluciones para clientes de servicios financieros, seguros, retail y gobierno. En este rol, participarás en proyectos innovadores para clientes de alto nivel, integrando equipos ágiles y promoviendo buenas prácticas DevOps para entregar soluciones tecnológicas escalables y seguras. La posición se realiza bajo modalidad híbrida en Las Condes, con enfoque en crecimiento profesional, aprendizaje continuo y colaboración entre equipos.

Exclusive to Get on Board.

Responsabilidades Principales

  • Diseñar, implementar y mantener pipelines de CI/CD;
  • Automatizar infraestructura con herramientas como Terraform, Ansible o similares;
  • Gestionar configuraciones y despliegues en entornos cloud (Azure, AWS o GCP);
  • Monitorear y garantizar la disponibilidad, rendimiento y seguridad de las aplicaciones;
  • Implementar estrategias de contenedorización y orquestación (Docker, Kubernetes);
  • Establecer políticas de versionamiento, rollback, pruebas automáticas y despliegue continuo;
  • Brindar soporte y asesoría a equipos de desarrollo y operaciones en buenas prácticas DevOps;
  • Participar en la mejora continua y capacitación interna en metodologías DevOps.

Requisitos y Perfil Buscado

Requisitos técnicos: herramientas DevOps (CI/CD: Jenkins, GitLab CI, Azure DevOps, CircleCI); contenedores y orquestadores (Docker, Kubernetes, Helm); infraestructura como código (Terraform, Ansible, CloudFormation); control de versiones (Git, GitHub, GitLab, Bitbucket); monitoreo y logging (Prometheus, Grafana, ELK Stack, Datadog, New Relic); cloud (AWS, Azure, GCP); scripting (Bash, Python, PowerShell). Deseable experiencia en metodologías ágiles (Scrum, Kanban); DevSecOps y pruebas automatizadas; entornos multicloud o híbridos. Experiencia mínima de 3 años en DevOps o roles similares, con evidencia de implementación de pipelines, automatización de despliegues y administración de infra en la nube.

Conocimientos y Habilidades Deseables

Conocimiento en enfoques de seguridad en pipeline y despliegues; experiencia trabajando con equipos multiculturales y distribuidos; capacidad de comunicación efectiva y orientación a resultados; habilidades de resolución de problemas y adopción de buenas prácticas de desarrollo y operaciones. Se valora certificaciones en nube y DevOps, así como experiencia en entornos financieros o regulados.

Beneficios y Entorno de Trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Automation Engineer
  • Ria Money Transfer
  • Santiago (Hybrid)
JavaScript Java C Agile

Ria Money Transfer, a business segment of Euronet Worldwide, Inc. (NASDAQ: EEFT), delivers innovative financial services including fast, secure, and affordable global money transfers to millions of customers along with currency exchange, mobile top-up, bill payment and check cashing services, offering a reliable omnichannel experience. With over 600,000 locations in nearly 200 countries and territories, our purpose remains to open ways for a better everyday life.

We believe we can create a world in which people are empowered to build the life they dream of, no matter who they are or where they are. One customer, one family, one community at a time.

We’re looking for a QA Engineer in Santiago, Chile, to help ensure the quality and reliability of our software through thorough testing and validation. Ideal candidates are detail-oriented, analytical, and passionate about delivering top-quality products.

This company only accepts applications on Get on Board.

Job functions

  • Design, develop, and maintain scalable automation frameworks for functional, regression, integration, and performance testing across web, mobile, and API layers.
  • Create robust, reusable test scripts using modern automation tools and languages (e.g., Selenium, Playwright, Cypress, REST-assured, etc.).
  • Integrate AI-powered testing tools (e.g., model-based testing, intelligent defect prediction, self-healing scripts) to enhance test coverage and reduce manual effort.
  • Implement CI/CD-integrated test pipelines using platforms like Azure DevOps, GitHub Actions, or Jenkins to enable continuous testing and rapid feedback loops.
  • Collaborate closely with developers, product owners, and data scientists to align test strategies with evolving product requirements and AI-driven features.
  • Perform intelligent defect triaging using bug tracking tools (e.g., Azure Boards, Jira) and link issues to test failures and root causes.
  • Continuously optimize test execution by applying parallelization, containerization (e.g., Docker), and cloud-based test environments.
  • Stay current with emerging trends in AI-assisted testing, autonomous QA, and DevTestOps to drive innovation in quality engineering practices.
  • Deliver actionable insights through detailed test reports, dashboards, and analytics to inform stakeholders and guide release decisions.

Position Requirements

  • Bachelor’s degree in Computer Science, Information Technology, or a related field.
  • Experience: You have proven work experience (min 3 years) in Mobile App Testing and Web Browser Testing.
  • Tech Stack: Ideally, you have knowledge of following points:
    • Programming Language & Frameworks: Basic knowledge in Java, JavaScript, C#, TestNG, Selenium.
    • Databases & OS used: MySQL, MariaDB, Windows, Linux, RedHat, CentOS
    • Tools & Utilities: Notepad++, Git, MySQL client, SoapUI and Postman
    • Debug & Test Programs: FinSim and PostMan
    • Protocols: JSON, SOAP and REST
  • Excellent analytical and problem-solving skills.
  • Strong attention to detail and a commitment to delivering high-quality software.
  • Good understanding of Agile/Scrum development methodologies.
  • Strong communication skills in both English and Spanish.

Benefits

  • Free Life Insurance
  • Supplemental Medical Insurance and Dental Insurance
  • Birthday day off
  • Various discounts as a member of Caja Los Andes
  • Euronet Stock Purchase Plan (NASDAQ)
  • Annual salary reviews
  • Agreement with Smart Fit (Gym)

Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ria Money Transfer pays or copays health insurance for employees.
Computer provided Ria Money Transfer provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero DevOps
  • Agilesoft SpA
Agile DevOps Virtualization Docker
En Agilesoft SpA, empresa de desarrollo de software Web y Móvil, buscamos un Ingeniero Devops para integrarse a una nueva célula de trabajo, colaborando directamente con uno de nuestros clientes estratégicos. Formarás parte de un equipo orientado a calidad, agilidad y colaboración, participando en proyectos desafiantes con oportunidades de crecimiento técnico y liderazgo, dentro de un entorno remoto.
Tu misión será crear y configurar todo el flujo de despliegue automatizado en los diferentes ambientes (DEV / QA / STG / PROD). Buscamos candidatos que residan en República Dominicana, Colombia o Chile, apasionados por la innovación, con enfoque práctico para entregar soluciones robustas y de alto rendimiento, y con capacidad de colaborar en los distintos equipos de manera cercana y efectiva.

Apply to this posting directly on Get on Board.

Funciones del cargo

  • Apoyo al equipo ágil con lo relacionado al despliegue automatizado (pipelines).
  • Coordinar y dar seguimiento a los requisitos para despliegues en los ambientes DEV, QA, STG y PRD.

Requerimientos del cargo

Debes tener experiencia en:
  • Los principios DevOps y Agile.
  • Creación de Pipeline de integración continua, entrega continua (canalización de CI/CD)
  • Utilizar herramienta de GitOps ARGOCD Docker, Kubernetes y Gitlab

Condiciones

- Ambiente laboral grato, flexible, entretenido y dinámico.
- Computador de trabajo.
- Contrato indefinido
- Modalidad: 100% Remota
- Caja de compensación Los Andes (CHILE)
- Seguro complementario de Salud y Dental. (CHILE)
- Seguro Yunen (REPUBLICA DOMINICANA)

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Lead DevOps Engineer
  • Niuro
DevOps Virtualization Big Data BigQuery
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. As a Lead DevOps Engineer within Niuro, you will join a globally distributed, autonomous team focused on delivering robust, scalable cloud-based solutions for data-heavy fintech projects. You will partner with client teams to architect and implement end-to-end cloud operations, automation, and monitoring in a fast-paced, high-impact environment. The role emphasizes hands-on leadership, cross-functional collaboration, and the ability to drive infrastructure excellence across multiple projects, ensuring reliability, security, and rapid delivery. This position offers 100% remote work with opportunities for long-term collaboration and professional growth within a supportive, globally distributed company.

Apply to this job from Get on Board.

Lead DevOps Engineer

  • Own the end-to-end DevOps lifecycle for cloud-based fintech data platforms, including design, deployment, monitoring, and ongoing optimization.
  • Lead architecture decisions around Azure, Terraform, and Cloudflare integrations to deliver scalable, secure, and highly available environments.
  • Implement and manage Grafana-based observability, alerts, and automated remediation to minimize production issues and downtime.
  • Engineer continuous deployment pipelines, implement hotdeploy processes, and oversee cloud operations to support rapid feature delivery with minimal risk.
  • Plan and execute data migrations to data warehouses (e.g., BigQuery) and reporting platforms (e.g., Power BI), coordinating with data engineers and analysts.
  • Containerize applications using Docker and manage container orchestration, ensuring reproducibility and efficient resource usage.
  • Validate changes autonomously, performing risk assessments to ensure minimal bugs and production impact.
  • Collaborate with fintech product teams to translate business requirements into scalable DevOps solutions, maintaining strong emphasis on security and compliance.
  • Mentor junior engineers, promote best practices, and drive continuous improvement in processes and tooling.

What you will bring

We are seeking a senior DevOps engineer with deep expertise in Azure, Terraform, and Cloudflare, complemented by hands-on experience with Grafana, Docker, and data-focused cloud operations. The ideal candidate will have a track record of delivering secure, scalable cloud platforms for fintech or data-intensive applications, with strong communication and autonomous delivery capabilities. You should be comfortable working in a fully remote, globally distributed team, actively collaborating with cross-functional stakeholders to align infrastructure with product goals. Key skills include proficiency in BigQuery, ETL processes, data migration strategies, and experience enabling seamless CI/CD, monitoring, and incident response. Excellent problem-solving, leadership, and a proactive approach to continuous improvement are essential.

Nice-to-have

Desirable qualifications include prior fintech or lending domain exposure, experience with Power BI data modeling, and a demonstrated ability to lead in a matrixed, remote environment. Familiarity with security and compliance standards relevant to financial services (e.g., data protection, access controls, audit trails) is highly valued. Candidates who have led data migrations or large-scale cloud modernization efforts will stand out, along with those who have mentored teams and advanced architectural thinking in DevOps contexts.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 2600 Full time
DevOps GCP – Automatización Mastercard
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL DevOps
En BC Tecnología trabajamos en proyectos de alto impacto para clientes de servicios financieros. Este rol forma parte de un proyecto de automatización por API del proceso de pre-arbitraje Mastercard, enfocado en orquestar flujos en la nube utilizando Google Cloud Platform. El objetivo es entregar soluciones escalables y seguras que optimicen procesos, incrementen la fiabilidad y reduzcan el tiempo de ciclo de operaciones. Trabajarás junto a equipos de Infraestructura, Desarrollo y QA para construir, desplegar y mantener pipelines de automatización, integraciones entre componentes y servicios web, y soluciones basadas en contenedores para entornos de producción y desarrollo. La experiencia y las habilidades del candidato permitirán implementar prácticas de DevOps modernas, facilitar la entrega continua y soportar un entorno de servicios financieros regulados.

Apply at getonbrd.com without intermediaries.

Funciones

  • Diseñar, implementar y mantener pipelines de CI/CD en Google Cloud Platform para automatización de procesos y APIs.
  • Desarrollar microservicios y componentes de automatización utilizando Python, con integración a APIs y Web Services.
  • Configurar y gestionar contenedores (Docker) y orquestación (Kubernetes) para entornos de desarrollo, pruebas y producción.
  • Trabajar con BigQuery y SQL para manejo de datos, validación de procesos y generación de métricas de rendimiento.
  • Automatizar pruebas, monitoreo y logging; asegurar cumplimiento de políticas de seguridad y gobernanza de datos.
  • Colaborar con equipos multifuncionales para definir requisitos, estimaciones y planes de mitigación de riesgos.
  • Participar en revisiones de código, documentar soluciones y promover buenas prácticas de DevOps.

Requisitos

Experiencia comprobable en Google Cloud Platform (GCP) con énfasis en automatización de procesos e integración de APIs.
Conocimientos sólidos en Python, SQL, BigQuery, Docker y Kubernetes.
Experiencia en manejo de APIs y servicios web; capacidad para diseñar soluciones resilientes y escalables.
Historial trabajando en entornos de integración y entrega continua, preferiblemente en proyectos de banca, seguros u otros servicios regulados.
Habilidad para trabajar de forma colaborativa en equipos ágiles, con buenas prácticas de documentación, pruebas y seguridad.
Deseable: experiencia adicional en herramientas de observabilidad (monitoring, tracing), gestión de secretos y seguridad en la nube.

Desirable

Certificaciones en GCP o DevOps (por ejemplo, Google Cloud Professional Cloud Architect, AWS/Azure equivalentes, o certificaciones de Kubernetes).
Conocimientos de herramientas de automatización de flujo de trabajo y orquestación adicional (por ejemplo, Terraform, Ansible, GitOps).
Experiencia previa con entornos de Mastercard o procesos de pre-arbitraje, o en soluciones de pagos digitales.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Sysadmin (Administrador/a de Sistemas)
  • BC Tecnología
  • Santiago (Hybrid)
SQL NoSQL Sysadmin DevOps
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales para clientes en servicios financieros, seguros, retail y gobierno. Nuestro enfoque es entregar soluciones ágiles y escalables, con equipos especializados en Infraestructura, Desarrollo de Software y Unidades de Negocio. En este rol, te incorporarás a un equipo orientado al soporte y la administración de infraestructuras críticas, participando en proyectos innovadores para clientes de alto nivel y con un compromiso claro de excelencia operativa y customersociedad digital.

Apply without intermediaries through Get on Board.

Funciones principales

  • Atender incidentes, incidencias y solicitudes de servicio de clientes internos en turnos rotativos.
  • Administrar y mantener la infraestructura tecnológica para garantizar alto rendimiento y disponibilidad.
  • Implementar y documentar monitoreo preventivo para experiencias críticas y de negocio.
  • Liderar mesas de incidentes y participar activamente en la resolución de problemas.
  • Supervisar y dar soporte a plataformas y experiencias digitales.
  • Documentar procesos, configuraciones y flujos de trabajo técnicos para mejorar la trazabilidad y escalabilidad.

Descripción

Buscamos un SysAdmin con al menos 2 años de experiencia en roles de administración de sistemas o DevOps. Es deseable experiencia en Kubernetes y/o Docker Swarm (en entornos on-premise o en la nube: GCP, AWS, Azure), así como familiaridad con herramientas de monitoreo (ELK, Datadog, AppDynamics). Es fundamental experiencia con bases de datos SQL y NoSQL (por ejemplo Cassandra, MongoDB) y manejo de herramientas de ticketing (Jira). Se valorarán habilidades para trabajar en entornos colaborativos, con orientación a resultados, buena gestión del tiempo y capacidad para comunicar con claridad a equipos técnicos y no técnicos.

Requisitos deseables

Competencias en automatización de infraestructuras, experiencia en entornos regulados y conocimiento de buenas prácticas de seguridad y cumplimiento. Capacidad para analizar incidentes complejos, proponer soluciones sostenibles y documentar de forma clara. Se valorará certificaciones relacionadas con sistemas, nube y contenedores, así como habilidades de trabajo en equipos ágiles y conocimiento de metodologías de ITIL o similares.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Apply to this job from Get on Board.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VIEW JOB APPLY VIA WEB
Gross salary $2400 - 2500 Full time
Ingeniero de Operaciones en Sistemas Linux
  • Robotia
  • Santiago (Hybrid)
Python PostgreSQL Perl Linux

En Robotia, una empresa joven con gran potencial de crecimiento regional y líder en tecnología de visión artificial para minería e industria, trabajarás en el área de operaciones de sistemas Linux. Formarás parte de un equipo técnico multidisciplinario enfocado en garantizar la continuidad, escalabilidad y eficiencia de soluciones tecnológicas desplegadas para clientes industriales. Participarás en proyectos de operación, automatización y soporte de infraestructuras críticas, colaborando estrechamente con desarrollo, clientes y jefaturas de proyectos, para entregar soluciones robustas y de alto rendimiento.

This job offer is available on Get on Board.

Principales funciones y responsabilidades

  • Ejecutar tareas de operación y soporte técnico en sistemas Linux (Debian y RedHat) en entornos virtualizados, asegurando su correcto funcionamiento y disponibilidad.
  • Diagnosticar y resolver incidentes técnicos relacionados con las soluciones desplegadas, identificando causas raíz y aplicando soluciones efectivas.
  • Desarrollar y mantener scripts en Bash, Perl y Python para automatizar procesos, extracción de datos, generación de reportes y tareas de mantenimiento.
  • Gestionar tareas programadas en Linux (cron, systemd timers) para automatización de procesos recurrentes.
  • Trabajar con comandos fundamentales del sistema Linux (ssh, scp, sftp, rsync, find, awk, grep, sed, pgrep, cd, cp, mv, su), creación de enlaces simbólicos y duros, configuración de archivos de entorno y depuración de servicios de sistema.
  • Administrar contenedores Docker y Docker Compose, manteniendo archivos YAML y asegurando su correcto despliegue y operación.
  • Manipular archivos multimedia y metadata, incluyendo ocasional uso de herramientas como ffmpeg para codificación de video.
  • Integrar y consumir APIs REST para cruzar información y generar reportes o realizar tareas específicas.
  • Participar en despliegues, actualizaciones y mejoras en los sistemas en colaboración con el equipo de desarrollo y clientes.
  • Documentar procedimientos, incidencias y cambios en los sistemas operativos y soluciones implementadas.
  • Colaborar con los equipos de soporte y atención al cliente, comunicando hallazgos técnicos de forma clara y efectiva.

Requisitos técnicos y perfil deseado

Formación: Ingeniería en Sistemas, Computación o afines.

Experiencia: Mínimo 3 años de experiencia en soporte y operación de sistemas Linux (Debian y RedHat).

Conocimientos técnicos: - Scripting en Bash, Perl y Python. - Gestión de servicios y procesos en Linux (systemd). - Uso avanzado de comandos Linux y shell scripting. - Controles de virtualización y contenedores (Docker y Docker Compose). - Automatización de tareas con cron y systemd timers. - Manejo de archivos multimedia y metadata (deseable uso de ffmpeg). - Conocimiento de APIs REST y consumo de servicios web. - Gestión de paquetes en Linux (yum, apt) e instalación/desinstalación de software. - Acceso remoto seguro (SSH) y herramientas relacionadas. - Deseable experiencia con bases de datos (PostgreSQL) y herramientas de monitoreo (Prometheus, Grafana).

Habilidades blandas: - Alta capacidad de análisis y resolución de problemas. - Comunicación efectiva, tanto oral como escrita. - Proactividad y autonomía en la gestión de tareas. - Trabajo en equipo y colaboración interdepartamental. - Flexibilidad para adaptarse a nuevas tecnologías y procesos.

Deseable pero no imprescindible

Conocimientos o experiencia adicional en orquestación y automatización (Ansible, Terraform), experiencia en entornos de alto rendimiento (SLA/uptime), familiaridad con metodologías ágiles y gestión de incidencias escalables. Valoramos la capacidad de aprendizaje rápido y la iniciativa para proponer mejoras que aumenten la estabilidad y eficiencia de la plataforma.

Beneficios y cultura

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

o Seguro Complementario de Salud

Partially remote You can work from your home some days a week.
Health coverage Robotia pays or copays health insurance for employees.
Computer provided Robotia provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Robotia offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Cloud Engineer
  • Coderslab.io
Python Git Linux DevOps

CodersLab is a company dedicated to developing solutions within the IT sector. Currently, we are focused on expanding our teams globally to position our products in more countries across Latin America. For this reason, we are looking for a Cloud Engineer to join our team.

You will be part of a challenging and ambitious team eager to innovate in the market, where your ideas and contributions will be highly valuable to the business.

Apply now for this amazing opportunity!

Apply exclusively at getonbrd.com.

Funciones del cargo

We are seeking a Cloud Engineer with strong expertise in designing, automating, and managing cloud infrastructures, primarily in AWS. The ideal candidate will have at least 3 years of hands-on experience in cloud and DevOps practices, proficiency with tools such as Terraform and GitHub, and a mindset focused on continuous improvement, security, and scalability.

Responsibilities

  • Design, implement, and maintain scalable and secure cloud infrastructures in AWS.
  • Automate deployment and configuration processes using Terraform.
  • Manage code repositories and CI/CD workflows in GitHub.
  • Collaborate with development teams to integrate DevOps practices throughout the software lifecycle.
  • Monitor system performance and optimize cloud resources.
  • Ensure compliance with cloud security policies and best practices.
  • Document architectures, processes, and implemented solutions.

Requerimientos del cargo

Experience

  • Minimum 3 years in cloud engineering or DevOps roles.

Cloud Expertise

  • Strong knowledge of AWS (EC2, S3, IAM, VPC, Lambda, CloudFormation, etc.).
  • Exposure to Azure is a plus.

Infrastructure as Code

  • Advanced experience with Terraform (Helm charts is a plus).

Version Control

  • Professional use of Git/GitHub (pull requests, branching, workflows).

DevOps Tools & Practices

  • Knowledge of CI/CD pipelines, Docker containers, and tools such as Jenkins or GitHub Actions.

Scripting

  • Proficiency in Bash, Python, or similar languages.

Languages

  • Fluent English (mandatory).
  • Spanish (preferred).

Key Competencies

  • Strong analytical thinking and problem-solving skills.
  • Effective communication and teamwork.
  • Proactivity and autonomy.
  • Security-focused mindset and best practices orientation.
  • Adaptability to new technologies.

Condiciones

Location: Remote (LATAM)
Schedule: Miami time (Monday to Friday, 160 hours/month)
Contract: Service contract
Languages: Advanced English & Spanish

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2600 - 2800 Full time
DevOps/Cloud Engineer Latam
  • BC Tecnología
Python Git Linux DevOps
En BC Tecnología somos una consultora de TI con amplia experiencia en diversos sectores, incluyendo retail, servicios financieros, seguros y gobierno. Participarás en un proyecto situado en el sector retail, orientado a garantizar la disponibilidad, estabilidad y rendimiento de sistemas críticos para el negocio. Nuestra empresa se destaca por ofrecer soluciones a la medida de nuestros clientes, con equipos ágiles que facilitan un desarrollo eficiente y alineado a las necesidades del mercado. Trabajarás en un entorno dinámico que promueve la colaboración y el uso de metodologías ágiles para el éxito de nuestros proyectos.

Apply directly from Get on Board.

Responsabilidades principales

  • Gestionar infraestructura como código utilizando herramientas como Terraform, CloudFormation y Ansible.
  • Automatizar despliegues y mantener pipelines de integración y entrega continua (CI/CD).
  • Administrar contenedores y clusters con Kubernetes y Docker.
  • Monitorear sistemas para asegurar el rendimiento adecuado y responder de forma efectiva a incidentes en producción.
  • Colaborar estrechamente con los equipos de desarrollo para implementar mejoras y solucionar problemas.
  • Documentar procedimientos y runbooks para facilitar la operación y mantenimiento.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en roles relacionados con DevOps, cloud y operaciones. Es fundamental poseer conocimientos sólidos en la gestión de infraestructura como código y experiencia en automatización de despliegues mediante pipelines CI/CD.
Debe manejar tecnologías de contenedores como Kubernetes y Docker, y contar con habilidades para la monitorización y logging usando herramientas tales como Prometheus, Grafana, CloudWatch o el stack ELK.
Las capacidades de scripting en Bash y Python serán clave para la automatización y resolución de incidencias. Es indispensable asimismo contar con experiencia en control de versiones con Git.
Buscamos una persona con alta responsabilidad, capacidad para trabajar en equipos interdisciplinarios, y habilidades comunicativas para documentar procesos y colaborar con otros departamentos.

Conocimientos adicionales valorados

Se valorará experiencia en múltiples plataformas cloud públicas, como AWS (especialmente EC2, EKS y RDS), Azure y Google Cloud Platform. Además, haber trabajado en proyectos del sector retail o en entornos de alta disponibilidad será un plus.
Capacidades para llevar a cabo mejoras continuas, así como interés por nuevas tecnologías y automatización avanzada serán altamente apreciadas.

Cultura y beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2200 Full time
QA Automatizador Latam
  • BC Tecnología
JavaScript Java Python Linux
Somos BC Tecnología, una consultora líder en Servicios IT con amplia experiencia en diversas áreas tecnológicas. Gestionamos portafolios, desarrollamos proyectos, realizamos outsourcing y seleccionamos profesionales para clientes de sectores como servicios financieros, seguros, retail y gobierno. En este proyecto del sector retail, ofrecemos un desafío significativo en testing automatizado donde el profesional podrá aportar en la mejora continua de la calidad del software mediante la automatización y la integración en pipelines de CI/CD dentro de un entorno ágil y dinámico.

Send CV through Get on Board.

Responsabilidades principales

  • Automatizar pruebas funcionales, de regresión y smoke para garantizar la calidad del software.
  • Diseñar e implementar frameworks de automatización adaptados a las necesidades del proyecto.
  • Integrar las pruebas automatizadas en pipelines CI/CD para asegurar entregas continuas y efectivas.
  • Colaborar en la automatización de pruebas para microservicios, APIs y interfaces de usuario (UI), asegurando cobertura integral.

Descripción y requisitos del puesto

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas, con sólida capacidad para diseñar, mantener e integrar frameworks de testing en pipelines CI/CD. Es fundamental contar con conocimientos en las siguientes tecnologías y herramientas:
  • Frameworks de automatización: Playwright, Cypress, Robot Framework, Selenium.
  • Testing de APIs: Postman, REST Assured, Karate.
  • Herramientas de integración continua y despliegue: GitHub Actions, Jenkins, GitLab CI.
  • Experiencia con contenedores y orquestación: Docker y Kubernetes.
  • Lenguajes de programación y scripting: Java, JavaScript, TypeScript, Python y Bash.
Además de experiencia técnica, valoramos la capacidad para trabajar colaborativamente en equipos multidisciplinarios y con metodologías ágiles, atención al detalle y enfoque en la calidad y mejora continua.

Habilidades y experiencia deseables

Se valorarán conocimientos adicionales en pruebas de rendimiento y seguridad, experiencia previa en entornos multinube, y familiaridad con metodologías DevOps. La experiencia en proyectos de retail o sectores relacionados será considerada un plus. También se aprecian habilidades comunicativas y capacidad para documentar procesos y resultados de testing de manera clara y efectiva.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3600 Full time
Technical Lead – Cloud Computing & Infrastructure AWS / GCP
  • Coderslab.io
Virtualization Amazon Web Services Docker Kubernetes

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Technical Lead – Cloud Computing & Infrastructure (AWS / GCP) to join our team and help drive our mission forward.

Find this job on getonbrd.com.

Funciones del cargo

General Purpose:
Lead the multi-cloud (AWS and GCP) computing strategy at Payless, optimizing infrastructure and enabling new capabilities for the omnichannel vision. The role aims to enhance customer centricity and improve the experience across both physical stores and e-commerce, ensuring resilience, cost efficiency, and business acceleration.
Key Responsibilities:
  • Design and evolve cloud-native architectures in AWS and GCP.
  • Implement best practices for cost optimization, security, and performance.
  • Enable new cloud capabilities to support the omnichannel strategy.
  • Lead the adoption of cloud-native development and deployment models (DevOps, Infrastructure as Code).
  • Collaborate with business, product, and IT teams to align infrastructure with corporate objectives.

Requerimientos del cargo

Technical Requirements:
  • Proven experience with AWS and GCP.
  • Knowledge of Kubernetes, Docker, Terraform/CloudFormation, and Infrastructure as Code (IaC).
  • Experience designing scalable, secure, and highly available architectures.
  • Advanced English proficiency.
Key Competencies:
  • Strategic thinking with a strong business vision.
  • Technical leadership and team management.
  • Clear and effective communication skills.

Condiciones

Location: Remote LATAM
Working Hours: Miami time
Language Requirements: Advanced English and Spanish
Service Type: Service Provision – 160 hours/month, Monday to Friday

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
DevOps
  • Coderslab.io
  • Santiago (Hybrid)
Python Linux DevOps Virtualization
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPS para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Find this vacancy on Get on Board.

Funciones del cargo

Ingeniero de Plataforma con sólida experiencia en la gestión e implementación de infraestructura como código (IaC) y automatización de plataformas híbridas y multicloud. Especialista en Oracle Cloud Infrastructure (OCI), con dominio avanzado de Oracle Linux (8 y 9), incluyendo hardening, tuning y troubleshooting de sistemas en
entornos productivos críticos.
Competente en el diseño y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD, y Kong API Gateway, garantizando despliegues seguros, reproducibles y escalables. Fuerte orientación a la seguridad y gestión de secretos mediante HashiCorp Vault, cumpliendo estándares como PCI-DSS
y buenas prácticas de ciberseguridad.
Habilidad avanzada en scripting con Bash y Python para automatización de procesos, integración de pipelines y monitoreo. Experiencia práctica en diseño de pipelines CI/CD robustos, infraestructura autoservicio y GitOps.
Ideal con experiencia en otros motores como MSSQL, Postgresql y mysql

Requerimientos del cargo

Stack Principal
Cloud: Oracle Cloud (OCI), incluyendo Networking, IAM, Compute, VCN, Object
Storage, Vulnerability Scanning, WAF
Linux: Oracle Linux 8/9 (hardening, performance tuning, SELinux, systemd)
IaC & Automatización: Terraform (módulos reutilizables, workspaces, state remotos),
GitLab CI, ArgoCD
Contenedores: Docker, Kubernetes, Helm, Argo Workflows, Kong Ingress
Seguridad: HashiCorp Vault, integración con OCI IAM, gestión de tokens y políticas
Scripting: Bash avanzado, Python (scripts para automatización, integración con APIs
REST)
Docker: gestion de imagenes docker.
Fortalezas
Implementación de infraestructura reproducible y versionada en OCI con Terraform.
Automatización de despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en
GitLab.
Integración segura de servicios mediante Kong y políticas personalizadas.
Gestión de secretos y credenciales dinámicas en entornos sensibles usando Vault.
Experiencia en entornos bancarios y regulados, con foco en cumplimiento y resiliencia.

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 15 meses con renovacion

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python REST API Linux
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Applications are only received at getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2900 Full time
DevOps
  • Coderslab.io
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this posting directly on Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
AWS Engineer (Semi Senior / Senior)
  • Niuro
DevOps Virtualization Amazon Web Services Docker
Niuro is a dynamic company that connects elite technology teams with leading U.S. companies, focusing on simplifying global talent acquisition through innovative, efficient solutions. We specialize in providing autonomous, high-performance tech teams that excel in delivering cutting-edge projects, chiefly within the industrial data space. Our teams engage in technically challenging and impactful initiatives that foster innovation and professional growth. By partnering with Niuro, you become part of a collaborative environment dedicated to excellence, continuous learning, and leadership development. Our commitment extends beyond technical contributions; we manage all administrative responsibilities such as hiring, payments, and training, enabling our engineers to focus wholly on delivering outstanding results.

This posting is original from the Get on Board platform.

Role and Responsibilities

As an AWS Engineer at Niuro, your primary responsibility will be designing, deploying, and maintaining scalable, secure, and efficient infrastructure solutions on AWS. You will work closely with cross-functional US-based teams to define architecture and automation using infrastructure as code.

  • Design and implement cloud infrastructure using AWS services such as IAM, S3, VPC, Lake Formation, CloudFormation, and CloudWatch.
  • Develop and maintain deployment pipelines and infrastructure automation primarily through Terraform and CI/CD tools.
  • Ensure system security, monitoring, and performance tuning to meet high availability and reliability standards.
  • Collaborate with development and operations teams to integrate cloud-based systems smoothly and optimize workflows.
  • Participate actively in code reviews, technical discussions, and knowledge sharing sessions.
  • Support incident response and troubleshoot complex infrastructure issues efficiently.

Required Skills and Experience

We are looking for a Semi Senior to Senior AWS Engineer with a strong background in cloud infrastructure design and deployment. The ideal candidate must demonstrate proficiency in a broad range of AWS services such as IAM (Identity and Access Management), S3 (Simple Storage Service), VPC (Virtual Private Cloud), Lake Formation, CloudFormation, and CloudWatch.
Experience with DevOps practices and tools like Terraform and CI/CD pipelines is essential to ensuring the reliable delivery and automation of infrastructure.
The candidate should have conversational-level English skills, enabling effective communication and collaboration with US-based teams. A proactive mindset, problem-solving abilities, and passion for continuous improvement are highly valued.
Soft skills such as teamwork, adaptability, and a results-oriented attitude are vital for success in our fast-paced and collaborative environment.

Desirable Additional Skills

While not mandatory, experience and familiarity with FastAPI, Gunicorn, Pydantic, Boto3, Aestiva HTML/OS, Docker, TeamCity, GitHub, or Gitea will be considered a strong advantage. Knowledge in these areas will enable deeper integration and more versatile contributions within our technology stack and DevOps workflows.
Exposure to containerization technologies such as Docker and continuous integration servers like TeamCity can enhance overall effectiveness in deployment automation and system reliability.

Benefits and Work Environment

At Niuro, we provide a flexible 100% remote working structure tailored for professionals residing within LATAM, empowering you to work from your preferred location without compromising professional growth.
We foster a culture of continuous learning, offering professional development through ongoing technical and soft skills training, in addition to leadership development opportunities.
Our projects are technically challenging and impactful, driving innovation in the industrial data domain, which supports your career advancement.
Niuro handles all administrative aspects including hiring, payments, and training, allowing you to focus on what matters most — your work and career growth.
There is potential for long-term engagement and transition to stable full-time employment following the successful completion of the initial contract.
Join Niuro and become part of a global community committed to excellence, collaboration, and innovation.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Experienced DevOps Engineer
  • Coderslab.io
Redis Agile PostgreSQL Git

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This posting is original from the Get on Board platform.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de CI/CD para mejorar la entrega continua de software.
  • Administrar y optimizar entornos de contenedores y orquestación con Docker, Kubernetes y otras tecnologías.
  • Implementar prácticas robustas de monitoreo, seguridad y alta disponibilidad.
  • Gestionar infraestructura mediante Infraestructura como Código (IaC) y herramientas de automatización.
  • Documentar, estandarizar y optimizar procesos y arquitecturas DevOps.
  • Colaborar con equipos de desarrollo y operaciones para fomentar la cultura DevOps y metodologías ágiles.

Requerimientos del cargo

Experiencia

  • Más de 3 años en roles de DevOps o administración de infraestructura.
  • Más de 2 años en administración de sistemas Linux (sysadmin).
  • Experiencia en entornos ágiles como Scrum y Kanban.
  • Familiaridad con la cultura y prácticas DevOps.

Conocimientos Clave

  • Oracle WL/OSB.
  • Infraestructura como Código (IaC): Terraform, Pulumi.
  • Control de versiones y CI/CD: GIT/GitLab, ArgoCD.
  • Contenedores y orquestación: Docker, Containerd, Swarm, Kubernetes (GKE, AKS).
  • Automatización y configuración: Chef, Ansible.
  • Cloud Computing: experiencia en Azure o GCP.
  • Gestión de secretos: Vault u otras herramientas similares.
  • Monitoreo y observabilidad: Prometheus, Grafana, ELK, Datadog.
  • Redes y seguridad: protocolos, balanceo de carga, firewalls.

Conocimientos Deseables

  • API Management: Apigee, Kong.
  • Mensajería: RabbitMQ.
  • Bases de datos: Postgres, Redis, MongoDB.

¿Qué ofrecemos?

  • Trabajo en un entorno dinámico y tecnológico.
  • Oportunidades de crecimiento y aprendizaje continuo.
  • Cultura colaborativa y orientada a la innovación.
  • Flexibilidad y modalidad de trabajo a negociar.

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Find this vacancy on Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • Coderslab.io
JavaScript Java Python Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Official job site: Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net DevOps Virtualization
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Originally published on getonbrd.com.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

VIEW JOB APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Data Engineer (Azure / AWS)
  • Devups
Python SQL Virtualization Amazon Web Services

En Devups, ofrecemos un servicio de staff augmentation que permite incorporar desarrolladores y técnicos a tu empresa sin gestionar reclutamiento, contratación ni costes asociados. Nuestro enfoque flexible facilita añadir, intercambiar o reducir recursos de desarrollo de forma rápida, manteniendo la responsabilidad y reduciendo la fricción operativa. Trabajamos para que nuestros clientes escalen sus capacidades tecnológicas con rapidez y sin la carga de una estructura interna permanente.

Como parte de nuestro equipo, el proyecto de Data Engineering se centrará en diseñar soluciones robustas y escalables para flujos de datos en la nube, colaborando con analítica y ciencia de datos para decisiones basadas en datos de calidad. Buscamos un perfil que contribuya a la modernización de pipelines, data lakes y data warehouses, aplicando buenas prácticas de seguridad, gobernanza y costo-eficiencia para entornos Azure y AWS.

Apply without intermediaries from Get on Board.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en entornos cloud (Azure Data Factory, Databricks, Synapse; AWS Glue, Lambda, S3).
  • Integrar, transformar y limpiar grandes volúmenes de datos provenientes de múltiples fuentes para su consumo en analítica y ML.
  • Administrar y optimizar data lakes y data warehouses (Snowflake, Redshift, Synapse, BigQuery según el stack del cliente).
  • Implementar versionado, gobernanza, seguridad y monitoreo continuo de datos; gestionar costos y performance tuning en nube.
  • Colaborar estrechamente con equipos de analítica, ciencia de datos y desarrollo para entregar soluciones centradas en negocio.
  • Participar en prácticas de CI/CD y, si aplica, contenerización con Docker y flujos de orquestación (Airflow, Prefect o similar).

Descripción

Buscamos un Data Engineer con experiencia en el diseño, construcción y optimización de pipelines de datos en la nube ( Azure o AWS ). El objetivo es asegurar el flujo confiable, escalable y seguro de datos desde múltiples fuentes hacia sistemas analíticos o de machine learning, soportando decisiones de negocio basadas en información de calidad. Requisitos clave: +3 años de experiencia en Data Engineering, experiencia en Azure (Data Factory, Databricks, Synapse) o AWS (Glue, Redshift, Lambda, S3), sólidos conocimientos en Python y SQL, modelado de datos, pipelines, APIs y orquestación (Airflow, Prefect o similar), inglés técnico. Se valoran Docker, CI/CD, herramientas de MLOps y certificaciones en Azure o AWS. Ofrecemos un proyecto desafiante con tecnologías cloud y trabajo remoto con horarios flexibles, en un equipo técnico de alto nivel.

Desirable

Experiencia adicional en seguridad de datos, costos y performance tuning en cloud. Conocimientos de seguridad de datos, cumplimiento de normativas y experiencia con herramientas de monitoreo y observabilidad. Capacidad para trabajar de forma autónoma, con buen manejo de prioridades y comunicación clara en entornos multiculturales. Preferible experiencia trabajando en proyectos con impacto directo en negocio y con clientes o equipos remotos.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • Coderslab.io
  • Santiago (Hybrid)
Java Python Git SQL

Coderslab.io es una empresa global que impulsa a las organizaciones a través de soluciones tecnológicas innovadoras. Formamos parte de un grupo en expansión con más de 3,000 empleados a nivel mundial, con oficinas en América Latina y Estados Unidos. Trabajarás en equipos diversos, integrados por el top 1% del talento tecnológico, involucrados en proyectos desafiantes e innovadores que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y trabajar con tecnologías de vanguardia en un entorno que prioriza la excelencia. El rol se orienta a liderar iniciativas de arquitectura de soluciones empresariales, gestión de órdenes y servicios para telecomunicaciones, y la implementación de estándares y marcos de referencia para fábricas de software.

Exclusive offer from getonbrd.com.

Funciones del cargo

🎯 Misión del Cargo

El Data Engineer será responsable de diseñar, implementar y optimizar soluciones de datos en Google Cloud Platform (GCP), garantizando la calidad, disponibilidad y eficiencia de los pipelines que soportan los procesos analíticos y de negocio.

⚙️ Tareas a Ejecutar

  1. Diseñar, construir y mantener capacidades que soporten los pipelines de ingesta y transformación de datos en GCP.
  2. Implementar mejoras continuas en desarrollos que soportan los data pipelines en ambientes de prueba y producción.
  3. Optimizar consultas y procesos en BigQuery para mejorar el rendimiento y la eficiencia.
  4. Resolver incidencias, errores o cuellos de botella en procesos ETL.
  5. Participar en mejoras de la arquitectura de datos, asegurando buenas prácticas de versionado y despliegue con CI/CD.
  6. Documentar soluciones técnicas, flujos y dependencias entre componentes.
  7. Participar activamente en ceremonias ágiles del equipo (dailys, refinamientos, retrospectivas).

Requerimientos del cargo

🧠 Requisitos Técnicos y Conocimientos

Google Cloud Platform (GCP):

  • BigQuery
  • Cloud Storage
  • Pub/Sub
  • Composer (Airflow)
  • Dataproc
  • Cloud Run

Lenguajes de Programación:

  • Python (scripts, ETL, API integration)
  • Java (preferencia para conectores, SDKs o entornos específicos)

Contenedores y Orquestación:

  • Docker
  • Kubernetes (GKE o experiencia general)

Frameworks / Herramientas:

  • Apache Beam (usado con Dataflow)
  • Apache Airflow
  • Git / GitLab CI-CD

Bases de Datos y Formatos de Datos:

  • SQL avanzado
  • NoSQL (Firestore, MongoDB)
  • Formatos: AVRO, JSON, Parquet

Otros Conocimientos Valorados:

  • Monitoreo y observabilidad (Cloud Logging)
  • Buenas prácticas DevOps / Infraestructura como Código (Terraform opcional)

VIEW JOB APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job offer is on Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $900 - 1500 Full time
Data Engineer BI Developer
  • Guinea Mobile SAC (Cuy Móvil)
UX Python PostgreSQL SQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer - BI Developer para conformar el equipo de TEC.

Send CV through getonbrd.com.

Funciones del cargo

  • Modelar capa dimensional (hechos/dimensiones), métricas consistentes y semantic layer en Looker.
  • Construir dashboards de impacto con performance (PDTs/materializaciones, BI Engine, caching).
  • Definir y versionar KPIs con negocio; documentar fuentes y criterios de cálculo.
  • Establecer RLS/CLS y gobernanza de acceso por dominio/rol.
  • Diseñar flujo de publicación (staging → prod) con validaciones de frescura/completitud.
  • Impulsar self-service analytics (plantillas, guías, catálogo) y soporte a stakeholders.

Requerimientos del cargo

Procesamiento de Datos

  • Núcleo común (GCP): batch/stream en Dataflow (Apache Beam), BigQuery Streaming, particionamiento, ventanas y backfills.
  • Infra/DataOps:Pub/Sub, Dataflow o Dataproc (Spark), orquestación con Cloud Composer.
  • BI: preparación de datasets analíticos en BigQuery; agregaciones, métricas y SCD con dbt.

Bases de Datos y Almacenamiento

  • Núcleo común:BigQuery como DWH; Cloud Storage (GCS) para data lake; Cloud SQL (PostgreSQL) cuando aplique.
  • Infra/DataOps: diseño de particiones/clustering, tablas externas en GCS, Bigtable (plus) para time-series.
  • BI: modelado dimensional (estrella/copo), vistas materializadas y semantic layer para Looker.

ETL/ELT

  • Núcleo común:dbt (BigQuery) con modelos, tests y documentación; Cloud Composer para dependencias.
  • Infra/DataOps: pipelines con Dataflow, backfills parametrizados, Great Expectations (o similar).
  • BI: transformación orientada a métricas/negocio con dbt; data contracts básicos.

Programación

  • Núcleo común:Python para datos (pandas/pyarrow), CLIs y testing.
  • Infra/DataOps: libs internas, jobs contenedorizados (Docker), rendimiento y paralelismo en Beam/Spark.
  • BI: SQL productiva, macros dbt, cálculos de métricas y validaciones.

Cloud Computing

  • Núcleo común:IAM, service accounts, costos en BigQuery; Cloud Build para CI.
  • Infra/DataOps:Terraform (IaC), Cloud Monitoring/Logging, lineage/catálogo con Dataplex/Data Catalog.
  • BI: Looker/Looker Studio, gobernanza de datasets y RLS/CLS sobre BigQuery.

Calidad y Seguridad de Datos

  • Núcleo común: validación, profiling y documentación.
  • Infra/DataOps: alertas SLO/SLA, detección de drift/duplicados; DLP, KMS, VPC-SC (plus).
  • BI: definiciones únicas de métricas, control de acceso y data freshness antes de publicar.

Optimización de Consultas y Modelado

  • Núcleo común: tuning de consultas y costos en BigQuery.
  • Infra/DataOps: particionamiento/clustering, Reservations/slots, Storage API.
  • BI: diseño de hechos/dimensiones (grain correcto) y BI Engine (plus).

Perfil del colaborador

  • Criterio de negocio: entiende preguntas y las traduce en métricas/KPIs.
  • Storytelling con datos: claridad visual, UX de dashboard y foco en decisiones.
  • Disciplina semántica: métricas únicas, definiciones versionadas y documentación.
  • Excelencia en SQL/LookML: modelos limpios, reutilizables y testeados.
  • Partner del negocio: gestiona prioridades, feedback y adopción de tableros.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VIEW JOB APPLY VIA WEB
Gross salary $900 - 1500 Full time
Data Engineer Infra/DataOps Engineer
  • Guinea Mobile SAC (Cuy Móvil)
UI Design Python PostgreSQL SQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer - Infra/DataOps Engineer para conformar el equipo de TEC.

Apply exclusively at getonbrd.com.

Funciones del cargo

  • Diseñar Pub/Sub → Dataflow → BigQuery con SLA/SLO y observabilidad end-to-end.
  • Implementar CI/CD de datos (Cloud Build/Deploy), IaC con Terraform y ambientes reproducibles.
  • Gestionar esquema evolutivo (schema evolution), data contracts y backfills seguros.
  • Optimizar costos y performance en BigQuery (particiones, clustering, slots, materializaciones).
  • Establecer data quality automatizada (dbt tests/Great Expectations) con alertas en Cloud Monitoring.
  • Asegurar gobernanza y seguridad (permisos por dominio, DLP/KMS, auditoría, VPC-SC cuando aplique).

Requerimientos del cargo

Procesamiento de Datos

  • Núcleo común (GCP): batch/stream en Dataflow (Apache Beam), BigQuery Streaming, particionamiento, ventanas y backfills.
  • Infra/DataOps:Pub/Sub, Dataflow o Dataproc (Spark), orquestación con Cloud Composer.
  • BI: preparación de datasets analíticos en BigQuery; agregaciones, métricas y SCD con dbt.

Bases de Datos y Almacenamiento

  • Núcleo común:BigQuery como DWH; Cloud Storage (GCS) para data lake; Cloud SQL (PostgreSQL) cuando aplique.
  • Infra/DataOps: diseño de particiones/clustering, tablas externas en GCS, Bigtable (plus) para time-series.
  • BI: modelado dimensional (estrella/copo), vistas materializadas y semantic layer para Looker.

ETL/ELT

  • Núcleo común:dbt (BigQuery) con modelos, tests y documentación; Cloud Composer para dependencias.
  • Infra/DataOps: pipelines con Dataflow, backfills parametrizados, Great Expectations (o similar).
  • BI: transformación orientada a métricas/negocio con dbt; data contracts básicos.

Programación

  • Núcleo común:Python para datos (pandas/pyarrow), CLIs y testing.
  • Infra/DataOps: libs internas, jobs contenedorizados (Docker), rendimiento y paralelismo en Beam/Spark.
  • BI: SQL productiva, macros dbt, cálculos de métricas y validaciones.

Cloud Computing

  • Núcleo común:IAM, service accounts, costos en BigQuery; Cloud Build para CI.
  • Infra/DataOps:Terraform (IaC), Cloud Monitoring/Logging, lineage/catálogo con Dataplex/Data Catalog.
  • BI: Looker/Looker Studio, gobernanza de datasets y RLS/CLS sobre BigQuery.

Calidad y Seguridad de Datos

  • Núcleo común: validación, profiling y documentación.
  • Infra/DataOps: alertas SLO/SLA, detección de drift/duplicados; DLP, KMS, VPC-SC (plus).
  • BI: definiciones únicas de métricas, control de acceso y data freshness antes de publicar.

Optimización de Consultas y Modelado

  • Núcleo común: tuning de consultas y costos en BigQuery.
  • Infra/DataOps: particionamiento/clustering, Reservations/slots, Storage API.
  • BI: diseño de hechos/dimensiones (grain correcto) y BI Engine (plus).

Perfil del colaborador

  • Mentalidad SRE/automatización: “todo como código”, resiliencia y recuperación.
  • Obseso por observabilidad: logs, métricas, tracing y lineage accionable.
  • Afinidad con performance/costos: tuning de slots, particiones, throughput.
  • Rigor en seguridad/gobernanza: mínimos privilegios, auditoría, cumplimiento.
  • Comunicación técnica clara: runbooks, postmortems y diseño de interfaces entre equipos.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python Data Analysis SQL

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Official source: getonbrd.com.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos AWS (Latam)
  • BC Tecnología
Python SQL Virtualization Amazon Web Services
En BC Tecnología buscamos un/a Ingeniero/a de Datos para LATAM, que se sume a un proyecto estratégico de pricing, con el desafío de diseñar, implementar y optimizar arquitecturas de datos escalables, asegurando la calidad, trazabilidad y disponibilidad de la información. El rol implica diseñar y mantener pipelines de ingestión, transformación y publicación de datos, así como implementar modelos de datos para análisis, reportería y pricing dinámico. Se trabajará con datos de múltiples fuentes, incluyendo sistemas legacy y plataformas cloud, promoviendo gobernanza y buenas prácticas.

This job offer is available on Get on Board.

Funciones principales

  • Diseñar y mantener pipelines de ingestión, transformación y publicación de datos.
  • Implementar modelos de datos para análisis, reportería y pricing dinámico.
  • Asegurar calidad y gobernanza de datos mediante métricas y herramientas (dbt, Great Expectations).
  • Integrar datos de múltiples fuentes, incluyendo sistemas legacy y plataformas cloud.
  • Brindar mentoría técnica a otros ingenieros y participar en decisiones de arquitectura.

Descripción del rol

Buscamos un/a Ingeniero/a de Datos con >=3 años de experiencia en ingeniería de datos, preferentemente en sectores de retail o pricing. Debe dominar Python (PySpark, Pandas) y SQL a nivel avanzado, así como experiencia en AWS (Glue, Athena, Redshift, EMR, MWAA) y orquestación (Airflow). Se valoran conocimientos en arquitecturas event-driven y microservicios, así como experiencia en CI/CD (GitLab, Terraform, Docker/Kubernetes). Se espera proactividad, capacidad de liderazgo técnico y aptitud para trabajar de forma colaborativa en equipos multidisciplinarios.

Competencias y perfiles deseados

Competencias clave incluyen proactividad, liderazgo técnico, orientación a resultados y alta capacidad de análisis. Se valorará experiencia en ambientes ágiles, habilidad para comunicar conceptos técnicos a stakeholders y capacidad de mentoría para equipos de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con enfoque en soluciones para clientes de servicios financieros, seguros, retail y gobierno. Buscamos fortalecer nuestro equipo de datos para un proyecto de pricing que requiera arquitecturas escalables, pipelines de ingestión, transformación y publicación de datos, así como gobernanza y calidad de datos. El proyecto combina desafíos en datos históricos y en tiempo real, integración de fuentes legadas y plataformas en la nube, y búsqueda de soluciones que permitan pricing dinámico y analítica avanzada. Formarás parte de un equipo orientado a soluciones para cliente final, trabajando en un entorno ágil y colaborativo, con oportunidades de mentoría técnica y crecimiento profesional dentro de la organización.

This job is exclusive to getonbrd.com.

Funciones

  • Diseñar y mantener pipelines de ingestión, transformación y publicación de datos para proyectos de pricing y analítica.
  • Construir modelos de datos para análisis, reporting y pricing dinámico, asegurando escalabilidad y rendimiento.
  • Garantizar la calidad y gobernanza de datos mediante métricas, pruebas y herramientas como dbt y Great Expectations.
  • Integrar datos desde múltiples fuentes, incluyendo sistemas legados y plataformas en la nube, con procesos de ETL/ELT eficientes.
  • Trabajar con arquitecturas event-driven y microservicios para garantizar flujos de datos confiables.
  • Participar en revisiones de arquitectura y proporcionar mentoría técnica y soporte en decisiones de diseño.
  • Contribuir a la implementación y mejora de pipelines mediante prácticas de CI/CD (GitLab, Terraform, Docker/Kubernetes).

Descripción

Buscamos un Ingeniero/a de Datos con más de 3 años de experiencia en entornos de retail o pricing para diseñar soluciones de datos robustas y escalables. Deberá dominar Python (incluyendo PySpark y Pandas) y SQL, y tener experiencia con AWS (Glue, Athena, Redshift, EMR, MWAA). Se valorará conocimiento de orquestación de flujos con Airflow, arquitecturas event-driven y experiencia en entornos de microservicios. Se requiere experiencia en entornos de CI/CD y herramientas como GitLab, Terraform, Docker y Kubernetes. Buscamos perfiles con enfoque analítico, orientados a resultados, con capacidad de trabajar en equipo y comunicar decisiones técnicas de forma clara.

Deseables

Experiencia adicional en gobierno de datos, calidad de datos, y diseño de soluciones para pricing y reporting. Conocimiento de herramientas de visualización y BI, experiencia en entornos regulados o con requisitos de cumplimiento, y habilidades de gestión de stakeholders. Se valorará hablar inglés y tener experiencia en proyectos con clientes de servicios financieros o bancos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $7000 - 10000 Full time
Data Analyst: Constructor
  • Constructor
Python Data Analysis Excel SQL

Constructor is a U.S.-based, high-growth tech company building the next-generation search and discovery platform for e-commerce. The Merchant Intelligence Team focuses on empowering merchandisers by delivering actionable analytics and insights through the customer dashboard. Your work will enhance the dashboard experience, support real-time analytics, and influence merchandising decisions that improve key e-commerce KPIs. You will collaborate with product research, engineering, and customer interviews to iterate on prototypes, build end-to-end data pipelines, and turn vast data into practical insights for non-technical stakeholders.

Apply exclusively at getonbrd.com.

Functions

As a Data Analyst on the Merchant Intelligence Team, you will translate business questions into analytical solutions that drive measurable outcomes for merchandisers and product teams. You will:

  • Prototype and deliver analytics dashboards and reports that surface actionable insights for merchandising decisions.
  • Perform data exploration to understand user behavior, shopping patterns, and performance of recommendations.
  • Build and maintain end-to-end data pipelines to support real-time and batch analytics of essential business metrics.
  • Collaborate with product managers, engineers, and stakeholders to define metrics, requirements, and success criteria.
  • Present findings to cross-functional teams in clear, business-focused language and visuals.
  • Contribute to experimentation design, A/B testing, and evaluation of feature impact on KPIs.
  • Stay current with data governance, quality, and privacy considerations while delivering scalable analytics solutions.

Description

We are seeking a data-savvy analyst who thrives at the intersection of data, product, and business impact. You should be proficient in BI tools, capable of turning raw data into meaningful insights for both engineers and non-technical stakeholders, and comfortable working with large data sets in a fast-paced environment. You will translate business requests into technical requirements, explore data to uncover trends, and build dashboards that empower merchandisers to optimize e-commerce performance. A strong communicator who can balance rigorous analysis with pragmatic recommendations will excel in this role.

Required experience includes SQL proficiency, exploratory data analysis with Python (pandas, numpy, visualization libraries), familiarity with the big data stack (Spark, Hive, Databricks), and experience delivering analytical support for e-commerce initiatives. The role emphasizes collaboration, customer-focused problem solving, and the ability to report business performance effectively at a cross-functional level. A background in statistics and a passion for data-driven decision making are highly valued.

Desirable

Experience with data visualization and dashboarding for both technical and non-technical audiences; strong storytelling with data; experience in product analytics and understanding of e-commerce funnels; familiarity with ClickHouse, cube.js, Docker, Git; comfort with rapid prototyping and stakeholder communication; curiosity about customer behavior and product optimization; statistical mindset for hypothesis testing and experimentation; ability to work independently in a remote, fast-growing organization.

Benefits

We offer a fully remote team with a focus on work-life balance, including unlimited vacation with a recommended minimum, a home office stipend, and Apple laptops for new employees. We provide a dedicated training and development budget, generous parental leave, and a collaborative environment with opportunities for professional growth. The base salary ranges from $80k to $120k USD, with variation based on knowledge, experience, and interview results. We also host regular team offsites and support a diverse, inclusive workplace.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Company retreats Team-building activities outside the premises.
Computer provided Constructor provides a computer for your work.
Education stipend Constructor covers some educational expenses related to the position.
Fitness subsidies Constructor offers stipends for sports or fitness programs.
Vacation over legal Constructor gives you paid vacations over the legal minimum.
Parental leave over legal Constructor offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python Analytics SQL

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

Find this vacancy on Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

This company only accepts applications on Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

This job offer is on Get on Board.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Scientist
  • Niuro
Big Data BigQuery Docker Artificial Intelligence
Niuro connects projects with elite tech teams, specializing in collaboration with leading U.S. companies. The position is part of Niuro's international team focused on delivering impactful, data-driven solutions. These projects leverage advanced industrial data science techniques such as predictive maintenance, causal modeling, time series analysis, forecasting, classification, regression, and recommender systems. Niuro empowers tech teams with continuous growth opportunities and handles all administrative tasks, enabling team members to focus on cutting-edge innovation within global client projects.

Apply without intermediaries from Get on Board.

Responsibilities

As a Senior Data Scientist at Niuro, you will be a key contributor to diverse data science projects across various industries. Your main responsibilities include designing and implementing models for predictive maintenance, causal inference, time series forecasting, classification and regression tasks, and recommender systems. You will collaborate with cross-functional teams to develop robust solutions that generate actionable insights for global clients.
You will also be expected to apply your deep knowledge of mathematical engineering and AI to solve complex problems, mentor junior data scientists, and ensure best practices in data preparation, modeling, and deployment, primarily using technologies like Google Cloud Platform (GCP) and BigQuery.
This role requires strong communication skills to translate technical findings into business value and participate in strategic decision-making.

Requirements

We are seeking candidates with a degree in Mathematical Engineering or related fields in Artificial Intelligence. You should have extensive experience working on a variety of data science projects, including but not limited to predictive maintenance, causal modeling, time series analysis, forecasting, classification and regression, causality analysis, and recommender systems.
Proficiency in Google Cloud Platform (GCP) and BigQuery is essential for this role. Experience with cloud-based data infrastructure and scalable data processing pipelines is required.
We value candidates with a strong analytical mindset, problem-solving skills, and a collaborative approach. Ability to work fully remotely with global teams while maintaining high engagement and communication standards is important.
Bonus experience includes working in sectors such as mining, mechanical systems, or finance, where domain-specific knowledge can enhance project impact.

Preferred Qualifications

Experience with additional cloud platforms, advanced causal inference frameworks, and big data technologies is highly desirable. Familiarity with containerization and orchestration tools like Docker and Kubernetes can be a plus.
Prior work in industrial or mechanical sectors, especially mining and finance, is beneficial to understand domain-specific challenges and tailor data solutions accordingly.
Strong leadership skills and experience mentoring junior data scientists will be considered valuable.

What We Offer

We offer the opportunity to engage in technically rigorous, impactful industrial data projects fostering professional growth and innovation. Our environment promotes technical excellence and continual learning.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere around the globe.
Continuous career development is encouraged through training programs and leadership growth opportunities.
Following successful initial collaboration, there is the possibility of transitioning into a stable, long-term full-time position.
Joining Niuro means becoming part of a global tech community backed by strong administrative support that allows you to focus on delivering exceptional results.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
NLP Engineer
  • Wird
Python Virtualization Amazon Web Services Docker
Wird es una empresa en crecimiento que se especializa en mejorar la comunicación entre las empresas y sus clientes mediante soluciones basadas en Inteligencia Artificial. Su misión es transformar los procesos de ventas para aumentar la cantidad de cierres, reducir las tasas de fuga y mejorar la satisfacción del cliente. Además, se enfocan en rentabilizar las conversaciones, incrementando la eficiencia y la felicidad de los equipos de trabajo. La empresa está orientada a crear valor social en cada interacción y utiliza tecnologías de punta en IA, promoviendo un ambiente laboral agradable y colaborativo donde las contribuciones individuales son visibles y valoradas.

This job offer is available on Get on Board.

Funciones del cargo

Como NLP Engineer, tu misión principal será diseñar, desarrollar e implementar soluciones de procesamiento del lenguaje natural (NLP) que resuelvan problemas específicos del negocio, mejorando la eficiencia de los sistemas basados en texto.
Tus responsabilidades incluirán:
  • Diseñar y desarrollar pipelines de NLP end-to-end: limpieza, tokenización, vectorización, modelado y despliegue.
  • Implementar y adaptar modelos preentrenados (BERT, RoBERTa, GPT, Llama, Mistral), aplicando fine-tuning, prompt engineering y evaluación de desempeño.
  • Experimentar con técnicas de optimización (quantization, pruning, distillation) para mejorar eficiencia y latencia.
  • Desarrollar e integrar APIs y servicios que conecten los modelos NLP con los sistemas internos o productos de la empresa.
  • Analizar métricas de rendimiento (accuracy, F1, perplexity, latency) y realizar iteraciones basadas en evidencia.
  • Investigar y aplicar el estado del arte en aprendizaje profundo, embeddings semánticos, RAG (Retrieval-Augmented Generation) y agentes conversacionales.
  • Colaborar con equipos de Revenue y Produc

Requerimientos del cargo

Buscamos un profesional con experiencia comprobable en el diseño, desarrollo y optimización de soluciones de NLP.
  • Experiencia comprobable en procesamiento de lenguaje natural y desarrollo de modelos basados en Deep Learning.
  • Dominio de Python y bibliotecas como Hugging Face Transformers, PyTorch o TensorFlow.
  • Conocimientos en entrenamiento, fine-tuning y evaluación de modelos de lenguaje.
  • Experiencia con preprocesamiento de texto, embeddings, clasificación de texto, análisis de sentimientos o chatbots.
  • Familiaridad con MLOps, despliegue de modelos en entornos productivos (Docker, FastAPI, AWS/GCP/Azure).
  • Buen entendimiento de algoritmos de optimización, métricas de desempeño y manejo de datos desbalanceados.

Opcionales

Valoramos especialmente perfiles con una mentalidad analítica avanzada y entusiasmo por resolver problemas técnicos complejos.
  • Experiencia con LLM en plataformas como AI Foundry o Bedrock.
  • Capacidad para trabajar de forma colaborativa y efectiva en equipos multidisciplinarios, tanto técnicos como no técnicos.
  • Pasión por el aprendizaje continuo, la proactividad y la habilidad para tomar decisiones autónomas en contextos cambiantes.

Condiciones

  • Dias extra se vacaciones
  • Seguro de salud
  • Día libre de cumpleaños
  • Capacitaciones

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Microsoft AI Developer
  • Devsu
Python Virtualization Docker Azure

With over 10 years of experience creating innovation for companies, from startups to major corporations in the United States and Latin America across various industries such as entertainment, banking, healthcare, retail, education, and insurance.

At Devsu, you'll be working with the best professionals from whom you'll have the opportunity to constantly learn and participate in exciting and challenging projects for global clients. Our team operates from over 18 countries around the world, working on various software products and fields.

You'll have the chance to be in a multicultural environment with a flat structure, where teamwork, continuous learning, and flexibility will be prominent elements.

In your role as Senior Microsoft AI Developer, you’ll have the unique opportunity to design and build advanced Generative AI tools, plug-ins, microservices, and extensions.

© Get on Board. All rights reserved.

Responsibilities

  • Lead the design, development, and implementation of large-scale AI-driven software solutions using Microsoft 365 Agents Toolkit and Azure technologies
  • Translate business requirements into technical specifications and deliver effective AI and automation solutions
  • Develop, test, and deploy product features, ensuring they align with client needs and quality standards
  • Support agile product delivery by working closely with cross-functional teams and adopting Agile Scrum methodologies
  • Utilize Azure AI Foundry, Azure OpenAI, Graph connectors, API plugins, and Azure AI Search to deliver robust solutions
  • Guide integration of APIs and microservices architectures for scalable and secure applications
  • Implement best practices in source code management, CI/CD, and DevOps using tools like GitHub and Azure DevOps
  • Collaborate with UX teams to incorporate user feedback and optimize end-user experiences
  • Troubleshoot complex issues and provide support throughout the software development lifecycle
  • Act as a subject matter expert, mentoring team members and contributing to continuous improvement initiatives.

Requirements

  • Bachelor’s or Master’s degree in Computer Science or similar field
  • Microsoft .Net Development Certification and Azure Services certifications are preferred
  • Hands-on experience in agile teams delivering software solutions at scale
  • Proficiency in service-oriented, event-driven, and microservices architectures
  • Expertise in Azure AI tools including OpenAI, Foundry, Functions, Logic Apps, and Teams Toolkit
  • Experience with Python, containerization (Docker/Kubernetes), and CI/CD pipelines
  • Strong knowledge of RDBMS (MS SQL, Dataverse) and API-based integration development
  • Ability to solve complex problems with creativity and critical thinking
  • Excellent written and verbal communication skills for internal and client-facing interactions
  • Team-oriented mindset with a passion for continuous learning and staying up to date with emerging technologies
  • Proficient English communication skills (written and verbal).

Benefits

At Devsu, we believe in creating an environment where you can thrive both personally and professionally. By joining our team, you’ll enjoy:

• A stable, long-term contract with opportunities for career growth

• Private health insurance

• A remote-friendly culture that promotes work-life balance

• Continuous training, mentorship, and learning programs to keep you at the forefront of the industry

• Free access to AI training resources and state-of-the-art AI tools to elevate your daily work

• A flexible Paid Time Off (PTO) policy as well as paid holiday days

• Challenging, world-class software projects for clients in the US and LatAm

• Collaboration with some of the most talented software engineers in Latin America and the US, in a diverse work environment

Join Devsu and discover a workplace that values your growth, supports your well-being, and empowers you to make a global impact.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply at getonbrd.com without intermediaries.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend NeuralWorks covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3200 Full time
Ingeniero/a MLOps
  • Coderslab.io
JavaScript Python Git REST API
Coderslab.io es una empresa dedicada a ayudar a compañías a transformarse y crecer mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en rápida expansión con más de 3,000 empleados a nivel global, con oficinas en Latinoamérica y Estados Unidos. Trabajarás en equipos diversos, conformados por el 1% del mejor talento tecnológico, participando en proyectos innovadores y exigentes que impulsarán tu desarrollo profesional.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Responsabilidades
● Diseñar, implementar y automatizar pipelines de MLOps (entrenamiento,
empaquetado, pruebas, versionado y despliegue).
● Construir y mantener CI/CD para modelos y servicios .
● Desplegar y operar modelos/servicios en Google Cloud (Cloud Run), con
observabilidad end-to-end (logging, métricas, alertas).
● Desarrollar y exponer API REST para servir inferencia online/batch.
● Colaborar/Desarollar con Data/Producto para integrar modelos con BigQuery y
fuentes de datos productivas para LLM.
● Crear front-ends ligeros con Next.js para dashboards operativos o frontend.
● Documentar procesos y promover buenas prácticas de seguridad, escalabilidad y
costo.

Requerimientos del cargo

Formación académica
● Lic. en Sistemas / Informática / Datos / Ing. o afines (o experiencia equivalente).
Experiencia
● 2+ años en roles de MLOps / ML Engineer / DevOps para ML (con experiencia
comprobable en Python y Google Cloud).
Conocimientos técnicos específicos
Excluyentes
● Google Cloud (Compute, Cloud Run, Cloud Storage, Pub/Sub, BigQuery).
● Python (2+ años) para data/ML, empaquetado y servicios.
● Next.js (1+ años) para front-ends internos/dashboards.
● Docker y conceptos de Kubernetes.
● CI/CD (Gitlab) y control de versiones (Git).
● API REST (diseño, versionado y seguridad básica).

Opcionales

Deseables
● Vertex AI / MLflow (registry, tracking).
● Frameworks para prototipado de UIs de ML (Streamlit / Gradio) o CSS.
● Monitoreo de modelos (drift, performance) y A/B testing.
Competencias
● Proactividad, orientación a resultados y resolución de problemas.
● Excelentes habilidades de comunicación y trabajo en equipo.
● Aprendizaje rápido y mentalidad de mejora continua.

Condiciones

Modalidad: 100% remoto, horarios flexibles. Contratación temporal por 6 meses.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. We focus on innovative and challenging projects that foster continuous professional growth and technological excellence.

Apply without intermediaries from Get on Board.

About the Role:

We’re looking for an AI Engineer to help us develop intelligent agent systems that automate the processing of structured and semi-structured documents. Your work will improve user experience and internal workflows, focusing on automation, accuracy, and scalability.

Requirements:

  • Fluent English (written and spoken)
  • Strong programming skills in Python
  • Experience working with large language models (LLMs) such as OpenAI API or similar
  • Ability to design and build APIs using FastAPI
  • Familiarity with AWS or other cloud platforms

Nice-to-have:

  • Experience with Docker, Gunicorn, and Amazon ECS
  • Knowledge of Amazon Bedrock, Amazon Textract, BAML, and Pydantic AI
  • Familiarity with Aestiva HTML/OS and Streamlit for prototyping
  • Experience with frontend testing using Playwright and backend testing using pytest
  • Experience with monitoring tools like CloudWatch, Prometheus, and Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $1000 - 1500 Full time
Desarrollador/a Joven de IA
  • Catchai
  • Santiago (Hybrid)
JavaScript Python Front-end Git

En CatchAI es cri bir a Andres 9 catchai punto ai estamos construyendo el futuro del trabajo con agentes de inteligencia artificial que ya están operando en empresas reales de América Latina. No hablamos de promesas: ya estamos automatizando procesos de venta, postventa, análisis de datos y más, generando ahorro de tiempo y aumento de productividad real para nuestros clientes.

Estamos formando un equipo técnico ágil y creativo que diseñe, entrene y despliegue agentes de IA en ambientes productivos, utilizando herramientas modernas como OpenAI, LangChain, n8n y servicios cloud. Nuestro foco es claro: resolver problemas reales con tecnología simple, rápida y efectiva.

Queremos sumar a personas que no solo sepan programar, sino que tengan curiosidad, autonomía y ganas de probar, fallar, iterar y lanzar. Si te motiva el mundo de la IA aplicada y quieres trabajar en productos que impactan hoy (no en 10 años), te estamos buscando.

This job offer is available on Get on Board.

¿Qué valoramos en ti?

  • Bases sólidas en Python y/o JavaScript (Node.js, React)
  • Experiencia integrando APIs RESTful
  • Conocimiento básico en Docker, redes, cloud y microservicios
  • Capacidad de autogestión e investigación técnica
  • GitHub con proyectos propios, pruebas o prototipos
  • Buena comunicación remota y experiencia en equipos ágiles, incluso si es en proyectos personales

🧠 ¿Qué ofrecemos?

Buscamos un/a desarrollador/a con ganas de aprender rápidamente y con actitud startup: resolver problemas, lanzar productos y mejorar constantemente. Valoramos la curiosidad y el empuje para crecer profesionalmente en un entorno dinámico con impacto real. La experiencia en desarrollo de software se combina con habilidades de autogestión y comunicación efectiva para integrarse en un equipo pequeño y flexible.

Además, es importante contar con bases técnicas sólidas en Python y/o JavaScript (Node.js y React), tener experiencia en la integración de APIs RESTful, y un conocimiento básico de herramientas y conceptos como Docker, redes, cloud y microservicios. La participación activa en comunidades tecnológicas o proyectos personales demostrables en GitHub es un plus.

✨ Bonus que nos encantan (no excluyentes):

  • Experiencia probando tecnologías como OpenAI, HuggingFace, LangChain, LlamaIndex y n8n
  • Trabajo con automatización o herramientas no-code/low-code
  • Participación en hackathons, emprendimientos o side-projects

Ofrecemos un espacio para crecer rápidamente con impacto real, trabajo remoto y horario flexible. Somos un equipo pequeño, dinámico y sin burocracia, con buen clima laboral. El sueldo es competitivo y existe la posibilidad de acceso a participación accionaria (equity) en el futuro.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

This company only accepts applications on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Scientist & Machine Learning Engineer
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

Apply to this job opportunity at getonbrd.com.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
AI Engineer
  • Niuro
JavaScript UX HTML5 Python
Niuro is a company that connects projects with elite tech teams, collaborating with leading U.S. companies to simplify global talent acquisition. Our mission is to provide autonomous, high-performance tech teams that partner with top-tier U.S. companies. We emphasize continuous professional growth, technical and soft skills training, and leadership development. We also take care of all administrative tasks, such as hiring, payments, and training, so our teams can focus on delivering exceptional results. This AI Engineer position is part of our efforts to develop intelligent agent systems that automate processing of structured and semi-structured documents, improving platform user experience, internal workflows, and ensuring data accuracy and security.

Send CV through Get on Board.

About the Role:

We are looking for an experienced AI Engineer to lead the development of intelligent agent systems that automate the processing of structured and semi-structured documents. The role aims to enhance the user experience on our platform by streamlining internal processes such as information validation and extraction. The AI Engineer will focus on improving accuracy, efficiency, and protecting sensitive data.
The engineer will be responsible for designing, implementing, and maintaining automation solutions using AI technologies and ensuring seamless integration within the platform's architecture. They will also collaborate with cross-functional teams to optimize workflows and monitor system performance through advanced monitoring tools.

Requirements:

  • Fluent English (both written and spoken) to communicate effectively in a distributed international team.
  • Proven experience building intelligent agents for document automation, demonstrating mastery of related AI concepts and frameworks.
  • Strong skills in improving user experience (UX) and internal workflows through automation, focusing on delivering value and efficiency.
  • Prioritize cost-efficiency, accuracy, and the protection of sensitive data when designing and deploying solutions.
  • Experience with the following technology stack:
    • Languages: Python, HTML, JavaScript
    • AI/Agent Frameworks: BAML, Pydantic AI, Amazon Bedrock, Amazon Textract
    • Infrastructure: FastAPI, Gunicorn, Docker, Amazon ECS
    • Frontend: Aestiva HTML/OS, Streamlit (primarily for prototyping)
    • Testing frameworks: pytest (backend), Playwright (frontend)
    • Monitoring tools: CloudWatch, Prometheus, Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
MLOps Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Apply to this job without intermediaries on Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Docente Introducción a Herramientas DevOps Sede Melipilla
  • Duoc UC
  • Santiago (In-office)
DevOps Virtualization Amazon Web Services Docker

Duoc UC Sede Melipilla, Escuela de Informática y Telecomunicaciones, requiere contratar docente para la asignatura de Introducción a Herramientas DevOps con disponibilidad en jornada diurna y vespertina, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Find this vacancy on Get on Board.

Funciones del cargo

Duoc UC Sede Melipilla, Escuela de Informática y Telecomunicaciones, requiere contratar docente para la asignatura de Introducción a Herramientas DevOps con disponibilidad en jornada diurna y vespertina, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requerimientos del cargo

Es requisito contar con:

  • Formación: Se requiere un Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín
  • Experiencia: 3 años de experiencia en desarrollo de proyectos implementados en DevOps en forma avanzada. Manejo de AWS, Azure, Docker.
  • Disponibilidad: Jornada Diurna y Vespertina (horario a definir)
  • Otros requisitos: Es deseable que cuente con certificación en alguna nube.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
Senior Telecom Platform Engineer
  • Devups
MySQL PostgreSQL Oracle Linux
Acerca de Devups – Somos una empresa global que ofrece servicios de staff augmentation para el sector tecnológico. Nuestro objetivo es impulsar el crecimiento de nuestros clientes permitiendo sumar, cambiar o reducir recursos de desarrollo de forma ágil, sin asumir la carga operativa de reclutamiento, contratos y gestión de talento. En Devups promovemos flexibilidad, innovación y aprendizaje continuo, con un enfoque global que facilita trabajar desde cualquier ubicación. Nuestro proyecto con una empresa líder en telecomunicaciones abarca la integración y operación de plataformas críticas de red, con alcance internacional.

Send CV through Get on Board.

Funciones y responsabilidades

  • Instalar, administrar, integrar y actualizar productos de telecomunicaciones como FlowOne, NAC, NOrC y UIV.
  • Realizar troubleshooting de configuraciones, rendimiento y gestión de fallas.
  • Brindar soporte remoto y gestionar cambios de software para clientes globales.
  • Ejecutar chequeos de salud del sistema y mantenimiento preventivo en plataformas EMS/NMS.
  • Asegurar cumplimiento OSS con auditorías internas/externas.
  • Apoyar la integración de elementos de red 2G, 3G y 4G.

Requisitos y perfil deseado

6 a 10 años de experiencia en roles similares dentro de telecomunicaciones o infraestructuras de red avanzadas. Formación en Ingeniería, Ciencias de la Computación o afines (B.E./B.Tech/MCA). Inglés avanzado. Excelentes habilidades de comunicación, trabajo en equipo y adaptabilidad para operar en entornos globales y con husos horarios diversos. Disponibilidad para viajar de forma ocasional si es necesario.
Conocimientos técnicos clave: Linux Red Hat / Unix, Docker, Kubernetes, OpenShift; VNF/CNF; pipelines CI/CD; automatización con Helm, Ansible, Puppet; bases de datos Oracle, MySQL, PostgreSQL; herramientas de monitoreo como Grafana; fundamentos de redes (IP, routers, switches); scripting en Shell; herramientas de ticketing como Remedy, Salesforce, Dynamics.

Requisitos deseables

Certificaciones relevantes (p. ej., OCP, CKA) y experiencia adicional en entornos de telecomunicaciones de gran escala. Conocimiento práctico de redes celulares 2G/3G/4G y experiencia en entornos multicliente con altos niveles de disponibilidad. Habilidades de liderazgo técnico y capacidad para trabajar de forma proactiva en un equipo distribuido.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB