Skills relacionados:
$$$ Full time
Software Engineer (Python)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Python Agile Front-end
BC Tecnología es una consultora de TI con experiencia en administrar portafolio, desarrollar proyectos, realizar outsourcing y seleccionar profesionales para clientes en servicios financieros, seguros, retail y gobierno. Somos un equipo que crea soluciones ágiles en infraestructuras, desarrollo de software y unidades de negocio. El proyecto se orienta a una solución digital en un entorno colaborativo, con enfoque en prácticas ágiles, integración de APIs y consumo de servicios dentro de un portafolio de soluciones para clientes de alto perfil. Incorporarse a un equipo técnico que mantiene y evoluciona soluciones actuales, con posibilidad de crecimiento y desarrollo profesional en un entorno dinámico y orientado al cliente.

This company only accepts applications on Get on Board.

El/la Software Engineer Semi Senior se integrará a un equipo de desarrollo para participar en el ciclo completo de vida de software: análisis de requerimientos, diseño, implementación, pruebas y despliegue de soluciones. Sus principales responsabilidades incluyen el desarrollo backend en Python, desarrollo frontend con React, y la implementación de componentes de calidad y automatización. Deberá colaborar con equipos multifuncionales en un entorno ágil, garantizar la calidad del código, participar en revisiones y contribuir a la mejora continua de procesos y prácticas de desarrollo. Será responsable de integrar APIs y servicios en la nube, así como de cubrir aspectos de rendimiento, seguridad y escalabilidad de las soluciones.
Buscamos un/a Software Engineer Semi Senior con al menos 2 años de experiencia en desarrollo de software. Requisitos clave: experiencia sólida en Python para desarrollo backend, conocimientos de JavaScript y experiencia en desarrollo frontend con React, y experiencia en Cloud Computing (AWS, GCP o Azure). Debe ser capaz de trabajar en equipos colaborativos y seguir metodologías ágiles. Se valorará experiencia en proyectos del rubro Retail y en integración y consumo de APIs. Se esperan habilidades de resolución de problemas, buenas prácticas de código, proactividad y capacidad para comunicarse efectivamente en un entorno de equipo. Se valoran también habilidades de aprendizaje continuo y adaptación a nuevas tecnologías.
Es altamente deseable experiencia en proyectos del rubro Retail, experiencia en integración y consumo de APIs, conocimiento de arquitecturas de microservicios, y familiaridad con herramientas de DevOps. Se valora iniciativa, capacidad de trabajo en entornos multiculturales y orientación al cliente. Competencias de comunicación, trabajo en equipo, y disponibilidad para asumir responsabilidades adicionales conforme crezca el proyecto.
En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Desarrollador y Arquitecto de SW
  • SONDA
  • Santiago (Hybrid)
JavaScript Java CSS C

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, buscamos a un Desarrollador y Arquitecto de SW.

Find this vacancy on Get on Board.

Funciones del cargo

· Diseñar y guiar la implementación de arquitecturas de software escalables, seguras y resilientes.

· Efectuar desarrollos de alta complejidad o urgencia.

· Acompañar y mentorear a los equipos de desarrollo, fomentando buenas prácticas y calidad técnica.

· Definir lineamientos de arquitectura, estándares de desarrollo y patrones reutilizables.

· Participar en la modernización de aplicaciones, migraciones a la nube y adopción de nuevas tecnologías.

· Elaborar y comunicar documentación de arquitectura (modelos, diagramas C4, ADRs).

· Evaluar tecnologías, frameworks y herramientas para proponer soluciones que agreguen valor.

· Conectar visión técnica con estrategia de negocio, actuando como facilitador en la toma de decisiones.

Requerimientos del cargo

· Título: Ingeniería Civil en Computación, Ingeniería de Software, Ingeniería Informática o afín.

· Deseable: Magíster en Ingeniería de Software, Arquitectura de Software, Transformación Digital o MBA Tecnológico.

· 10+ años de experiencia en desarrollo de software, con dominio en al menos tres lenguajes y frameworks (Java, C#, Python, Node.js, Go, Spring Boot, Spring Framework, Spring Security, Spring Batch, Angular, JavaScript, Bootstrap, Vue.js).

· Conocimiento profundo de principios y patrones de diseño de software (SOLID, DDD, Clean Architecture, Hexagonal).

· Experiencia en arquitecturas basadas en microservicios, APIs REST/GraphQL, mensajería (Kafka, RabbitMQ).

· Experiencia en bases de datos relacionales y NoSQL (PostgreSQL, MySQL, MongoDB, Redis).

· Conocimiento en integración y despliegue continuo (CI/CD), contenedores (Docker, Kubernetes) y cloud (AWS, Azure o GCP).

· Manejo de modelos de documentación de arquitectura (C4, ADRs).

· Experiencia en metodologías ágiles (Scrum, SAFe, DevOps).

Opcionales

Y mucho mejor si destacas por: ​

· Experiencia en modernización de aplicaciones legacy y migración a cloud.

· Conocimiento de arquitecturas event-driven, serverless y reactivas.

· Familiaridad con frameworks de arquitectura empresarial (TOGAF, Zachman, ArchiMate).

· Certificaciones en cloud (AWS/Azure/GCP), Kubernetes o Arquitectura de Software.

· Experiencia en seguridad de aplicaciones (OAuth2, JWT, Zero Trust, DevSecOps).

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Gross salary $2800 - 3900 Full time
Ingeniero de Software Senior
  • Checkr
  • Santiago (Hybrid)
Java Ruby Python Continuous Deployment

En Checkr estamos construyendo la infraestructura de personas para el futuro del trabajo. Fundada en 2014, usamos tecnología de vanguardia y aprendizaje automático para hacer más ágil y justa la selección de talento, ofreciendo experiencias rápidas y seguras.

Con más de 100.000 clientes, como DoorDash, Coinbase, Lyft, Instacart y Airtable, somos uno de los mayores proveedores de datos en EE. UU., ayudando a las organizaciones a tomar decisiones fundamentadas que protegen a sus equipos y clientes.

Buscamos un Ingeniero de Software Senior para trabajar en proyectos de alto impacto que den forma al futuro de la contratación, creando soluciones seguras que conecten a millones de personas con nuevas oportunidades

Apply directly on Get on Board.

Responsabilidades del cargo

  • Aprender sobre los sistemas ATS y cómo interactúan con Checkr.
  • Crear nuevas funciones para las integraciones ATS y probarlas.
  • Comunicarte con desarrolladores internos y externos para crear soluciones que mejoren su productividad.
  • Definir los requisitos para ampliar las API públicas de Checkr con el fin de cubrir las funciones nuevas y existentes de los productos.
  • Ayudar a identificar, clasificar y resolver errores.

Calificaciones y Requisitos del cargo

  • Familiaridad con la creación y el uso de diferentes tipos de API, por ejemplo, ReST, SOAP, gRPC.
  • Conocimientos de lenguajes de programación orientados a objetos, preferiblemente Ruby, Java o Python.
  • Curiosidad por descubrir cómo crear código limpio, robusto y escalable.
  • Experiencia con al menos uno o más de los siguientes: herramientas CI/CD, microservicios, servicios de infraestructura (sistemas de publicación-suscripción, puertas de enlace API, marcos RPC, estrategias de pruebas de alto nivel) o software de código abierto.
  • Experiencia al crear sistemas distribuidos fiables y puedes discutir en profundidad las ventajas e inconvenientes.
  • Buena comunicación para generar acuerdos entre grupos de personas con diferentes niveles de experiencia técnica.
  • Dominio avanzado del inglés verbal y escrito

Que ofrecemos?

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $2300 - 3200 Full time
JavaScript Python Front-end Django

YesLawyer is a software platform connecting consumers with local attorneys. We are building a professional legal services marketplace designed to connect consumers with qualified legal professionals to resolve needs efficiently. Our current focus is a professional legal services app serving customers in the United States, with plans to expand to additional countries. This project emphasizes a user-centric frontend experience across outward-facing websites, customer portals, and lawyer portals, built to scale with a growing, international team. You will contribute to a fast-moving, collaborative environment where frontend work directly impacts how people access legal services online.

Find this vacancy on Get on Board.

Job functions

  • Maintain and enhance the web application including the outward-facing site, customer portal, and lawyer portal.
  • Develop new components and pages, focusing on performance, accessibility, and responsive design.
  • Integrate APIs from the backend team and ensure robust data handling and state management.
  • Develop testing, logging, and monitoring procedures to ensure quality and reliability.
  • Review code and mentor junior frontend developers to promote design consistency and best practices.

Qualifications and requirements

We are seeking a seasoned Front-end Engineer with a strong track record in delivering polished React-based applications. Ideal candidates have 5+ years of JavaScript experience, with substantial React experience and exposure to React Native. Must have at least 3+ years in a senior role with direct reports, and a solid foundation in computer science or related field. Experience with Django is a plus (backend familiarity is beneficial but not required). Excellent communication skills in English (C1 level or higher). A proactive, collaborative mindset with the ability to work effectively with peers from LatAm and the US, and a desire to contribute to a growing, international product team.

Desirable

Tenured senior frontend professionals (10+ years) with advanced React/JS expertise, leadership experience guiding teams, and a track record of building scalable UI architectures. Graduate degree in CS or related field, higher English proficiency (C2), and additional experience with Django or other backend frameworks are highly valued. Candidates who thrive in a fast-paced, cross-cultural environment and demonstrate strong problem-solving and mentoring capabilities will stand out.

Benefits

  • We offer a close-knit, collaborative environment within a united team, with broad opportunities for professional growth and technical skill development on projects using cutting-edge technology.
  • The contract is temporary, full-time with 100% remote modality, ideal for professionals who value flexibility and working with international teams.

Fully remote You can work from anywhere in the world.
$$$ Full time
Python PostgreSQL SQL Docker
Niuro connects ambitious projects with elite tech teams to deliver high-impact solutions for leading U.S. companies. The selected candidate will join a fintech-focused environment where data integrity, reliability, and scalability are paramount. You will contribute to building autonomous, high-performance backend systems that ingest, normalize, validate, and store market data at scale. This role emphasizes robust data pipelines, production-grade services, and seamless API-based integrations, enabling real-time and historical market data workflows for analytics and trading applications. The project culture values technical excellence, continuous improvement, and a collaborative global team committed to delivering measurable value while maintaining a strong administrative support backbone to allow engineers to focus on impactful work.

Apply directly through getonbrd.com.

Core Responsibilities

Design, implement, and maintain asynchronous Python services for market-data ingestion in a fintech setting. Build clean, well-typed, maintainable Python code using modern best practices. Design and operate microservice-based architectures using Docker. Optimize concurrency, throughput, and resource usage in asynchronous systems. Own services end-to-end: development, debugging, monitoring, and long-term improvements.
  • Data Pipelines & Reliability: Build and maintain robust API-based ingestion pipelines. Handle real-world failure modes including partial data, retries, idempotency, and upstream instability. Monitor ingestion success, latency, and data quality metrics. Conduct root-cause analyses on data incidents and implement durable fixes. Ensure deterministic behavior under load.
Database & Data Integrity: Work directly with PostgreSQL and TimescaleDB using raw SQL where appropriate. Design and maintain normalized schemas for time-series and reference data. Ensure data correctness, consistency, and traceability across ingestion layers. Maintain and debug production databases. Design scalable data structures to support growing data volume and query load.

Required Experience & Skills

• 5+ years of professional experience building backend systems in Python.
• Strong experience with async Python (asyncio, async I/O patterns).
• Excellent knowledge of PostgreSQL, raw SQL, and database performance tuning.
• Experience designing and operating production distributed systems.
• Strong understanding of failure modes, backpressure, retries, and idempotency.
• Proven ability to own systems end-to-end in production.

Bonus – Fintech & Data Awareness

• Experience with financial or market data.
• Familiarity with time-series modeling and high-volume data ingestion.
• Ability to reason about how data quality impacts downstream trading or analytics systems.
• Experience supporting analytics or front-end consumers of market data.

Benefits

We provide opportunities to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing global flexibility. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from strong administrative support that enables you to focus on impactful work without distractions.

Informal dress code No dress code is enforced.
Gross salary $6700 - 9200 Full time
Python PostgreSQL Docker GraphQL
Company: Flow RMS
Overview: Flow RMS is building the operational backbone for the industrial supply chain, serving manufacturers, sales rep firms, and distributors. Our platform replaces slow, manual workflows—CRM, orders, commissions, product data, reporting—with an AI-first, automation-driven system that mirrors how this industry operates. We move fast, ship daily, and expect engineers to think, not just code. This role contributes to core backend systems powering CRM workflows, AI-driven document ingestion, and data-heavy operational services, delivering scalable, reliable capabilities that directly impact field operations and business outcomes.

Apply without intermediaries through Get on Board.

What you will do

  • Build and maintain async-first Python services in production.
  • Design and implement GraphQL APIs and supporting service layers.
  • Own backend systems powering CRM workflows and AI document processing.
  • Write clean, well-typed, maintainable Python code.
  • Apply strong architectural patterns consistently across the codebase.
  • Collaborate directly with frontend, AI, and product leadership.
  • Ship improvements continuously without introducing technical debt.
  • Operate in an environment that values correctness, maintainability, and performance.

Requirements and expectations

We are seeking a Senior Python Backend Engineer with deep experience in async systems to help scale Flow RMS’s core backend. You will work in a production codebase that values correctness and performance, with ownership over architecture and long-term maintainability. You will engage in building robust data-heavy services, including CRM workflows and AI-driven document processing, while aligning with product goals and customer needs.
Technical focus: Python 3.11+ (preferably 3.13), async I/O patterns, FastAPI or similar async frameworks, Pydantic for data validation and settings, PostgreSQL with advanced features, SQLAlchemy 2.0 async ORM, Alembic migrations, GraphQL (Strawberry preferred), REST API design, API versioning, and clean, layered architectures. You will implement repository patterns, dependency injection, and service layers, with SOLID principles at the core.
AI-oriented coding: This role requires active, real-world use of AI-assisted development. You must apply agentic coding methods, break work into specs for AI tools, delegate subtasks, and leverage AI to accelerate development while preserving correctness. Stay current on AI tooling, patterns, and LLM capabilities, combining strong typing with structured outputs.
Desirable environment: Multi-tenant databases, vector stores, embeddings, semantic search, and integration with AI/ML tooling. We value an engineer who ships quickly yet avoids technical debt, with a strong bias towards high-quality code, clear communication, and collaboration across teams.

Desirable qualifications and traits

AI/ML experience: LLM integrations (OpenAI, Anthropic Claude, Groq), structured frameworks (e.g., pydantic-ai), vector databases (Qdrant, Pinecone, Weaviate), and AI agents with tool registration and structured outputs.
Infrastructure and DevOps: Docker, Kubernetes, Redis, TaskIQ or Celery, CI/CD (GitHub Actions), serverless platforms (Modal or equivalents), and S3-compatible storage. Observability tooling (Datadog or similar), and experience with PDF/DOCX/OCR document processing.
Data tooling: Polars or Pandas for data processing, and robust data modeling for multi-tenant scenarios.

Benefits and how we work

We offer a collaborative, high-impact environment with ownership over meaningful systems. While specifics may vary by location, we provide competitive compensation, opportunities for growth, and a culture that emphasizes continuous learning and low-ceremony engineering. You’ll join a team that values autonomy, clear communication, and principled decision-making. We encourage a healthy work-life balance and provide the resources you need to succeed, including mentorship, modern tooling, and opportunities to contribute to a fast-growing enterprise-grade platform.

Fully remote You can work from anywhere in the world.
Gross salary $2500 - 4000 Full time
JavaScript Java C Python

Cordada es un Asset Manager de alto crecimiento enfocado en deuda en LatAm. Somos una fintech con claras ventajas en originación e inversión basadas en productos de financiamiento escalables, apalancados en tecnología y datos. Nuestra misión es empoderar a las pequeñas y medianas empresas (PyMEs) en toda la región, colaborando con prestamistas locales para entregar soluciones financieras innovadoras que satisfagan las necesidades únicas de diversos mercados.

Unirse a Cordada significa formar parte de un entorno dinámico que prioriza el bienestar de los empleados y promueve un equilibrio saludable entre el trabajo y la vida personal.

© Get on Board. All rights reserved.

Qué harás en tu día a día

  • Si eres Backend: diseñar, implementar y mantener servicios robustos, lógica de negocio compleja y optimización de bases de datos.
  • Si eres Frontend: construir interfaces intuitivas, escalables y de alto rendimiento usando React para mejorar la experiencia del usuario.
  • Contribuir a la arquitectura y escalabilidad de sistemas distribuidos, reforzando rendimiento y confiabilidad.
  • Participar en code reviews, escribir pruebas unitarias e integrales y mantener una base de código limpia.
  • Automatización y propiedad: colaborar en mejoras de herramientas de CI/CD y entornos de desarrollo. En Cordada, "eres dueño de lo que construyes", por lo que participarás en el monitoreo y resolución de problemas de tus propios desarrollos.

Sobre ti

Somos una empresa que busca ingenieros con fuerte dominio técnico en su área de especialización, curiosidad por entender el resto del sistema y pasión por resolver problemas complejos. Buscamos excelencia técnica y capacidad de aprendizaje autónomo. Requisitos mínimos:

  • Título universitario en Ciencias de la Computación, Ingeniería Civil Informática o carrera afín.
  • Especialización técnica en desarrollo Backend o Frontend.
  • Lenguajes y frameworks:
    • Backend (Python, C#, Java o similares). Frameworks: FastAPI, Django.
    • Frontend (JavaScript/TypeScript). Frameworks: React, Redux/Context API, Next.js u librerías de componentes.
  • Inglés nivel intermedio (lectura y escritura).
  • Fundamentos de ingeniería: Git y Linux/terminal básico.
  • Resolución de problemas y pensamiento analítico.
  • Conocimientos en APIs (REST/GraphQL), bases de datos y principios de diseño de software.

Deseable (Nice to have)

Según tu perfil, valoramos experiencia adicional en:

  • Experiencia trabajando en otras Fintech o empresas de la industria financiera.
  • Infraestructura: Docker, Kubernetes o Terraform (cultura DevOps).
  • Cloud & Datos: Google Cloud (GCP), PostgreSQL o BigQuery.
  • Monitoreo: Datadog o Sentry.

Qué puedes esperar

El Equipo de Ingeniería: entorno horizontal donde la responsabilidad es compartida. No dependemos de un equipo externo para desplegar o monitorear; todos tenemos visibilidad sobre dónde corren nuestras aplicaciones. Cultura de Ingeniería: entorno ágil con pipelines de CI/CD, sin cambios manuales en producción y un fuerte énfasis en la disciplina técnica.

Beneficios: opciones de trabajo híbrido, día libre por tu cumpleaños y día libre por mudanza, seguro de salud complementario, horario de verano y salida temprana los viernes, postnatal extendido, acceso a snack machine y presupuesto mensual para uso personal. ¡Únete a nosotros y genera un impacto duradero en la misión de impulsar a las PyMEs en América Latina! 🌟

Library Access to a library of physical books.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Cordada pays or copays health insurance for employees.
Computer provided Cordada provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Cordada offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Cordada offers paid parental leave over the legal minimum.
Gross salary $2500 - 3500 Full time
HTML5 Python REST API Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. This role focuses on joining a global, remote-first engineering team to design and deliver GenAI-driven solutions for production workloads across diverse industries. You will work on building scalable LLM-based agents, RAG pipelines, and AI-powered APIs deployed in cloud environments, contributing to a portfolio of high-impact projects with top-tier clients. As part of Niuro, you will benefit from continuous professional growth, structured training, and leadership development while collaborating with cross-functional product and engineering teams to drive measurable outcomes for our customers.

Apply at the original job on getonbrd.com.

Role

Design and implement LLM-powered systems, including agents, retrieval-augmented generation (RAG) pipelines, and AI-driven workflows. Build and maintain backend APIs using Python and FastAPI, with robust integration of multiple LLM providers (e.g., OpenAI, AWS Bedrock, and others). Deploy, monitor, and operate AI services in cloud environments, ensuring reliability, performance, and observability in production. Collaborate closely with product managers, engineers, and stakeholders to translate business requirements into scalable AI solutions. Foster best practices in software engineering, security, and data governance within GenAI projects. Continuously evaluate emerging AI technologies and architectures to drive innovation and maintain a competitive edge. Participate in code reviews, testing, and documentation to uphold quality standards and maintainability.

Requirements

Excellent English communication skills, both written and spoken. Strong soft skills including ownership, collaboration, and the ability to convey complex technical concepts clearly to cross-functional teams. A robust technical foundation in software engineering and AI, with demonstrated hands-on experience in deploying GenAI/LLM systems to production. Proficiency in Python and building REST APIs using FastAPI. Practical experience with LLMs/GenAI in production environments and integrating various LLM providers. Experience designing and implementing scalable cloud-based solutions on platforms such as AWS (or similar). Familiarity with containerization (Docker) and deployment orchestration (ECS, Kubernetes). Knowledge of LangChain or similar frameworks, LangGraph, RAG architectures, and experience with services like Amazon Bedrock, Textract, Pydantic AI, BAML. Prototyping tools such as Streamlit or Aestiva HTML/OS. Testing practices (pytest, Playwright) and monitoring/observability tools (CloudWatch, Prometheus, Grafana).

Desirable

Experience with end-to-end GenAI product development, including design, deployment, and lifecycle management. Familiarity with data privacy, security, and governance concerns in AI systems. Prior experience working with distributed, remote teams and delivering projects for U.S.-based clients. Knowledge of performance optimization, cost management, and reliability engineering in AI workloads. Strong analytical mindset, problem-solving abilities, and a proactive approach to learning and experimentation.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Gross salary $2500 - 3500 Full time
JavaScript Java Python Redis
Niuro connects projects with elite tech teams, enabling collaborations with leading U.S. companies. As an Integration Engineer on our global teams, you will contribute to building autonomous, high-performance integrations that connect complex internal and external systems. You will work on technically rigorous industrial data projects, benefitting from continuous professional growth, leadership development, and a strong administrative support structure so you can focus on delivering impactful results. You will have opportunities to contribute to cutting-edge integration initiatives, foster cross-functional collaboration, and be part of a culture that emphasizes technical excellence and innovation—from anywhere in the world.

Exclusive to Get on Board.

Functions and responsibilities

As an Integration Engineer (Full Stack), you will design, develop, and maintain integrations between internal and external systems using RESTful APIs, webhooks, and other data exchange mechanisms. You will build and maintain full-stack applications (backend + frontend) to support integration needs, rapidly prototyping solutions with high quality and minimal dependencies on other teams. You will ensure integrations are scalable, secure, and optimized for performance, and implement CI/CD pipelines and deployment automation. You will work with containerization (Docker) and, when needed, basic orchestration. You will collaborate closely with product, operations, and engineering to translate business requirements into practical technical solutions. You will write clean, testable code with unit and integration tests, participate in code reviews, and promote best practices for integration and full-stack development. You will stay informed about security, reliability, and observability concerns, and contribute to the evolution of the platform architecture to support future growth.

Required skills and experience

We are seeking a hands-on backend-focused engineer with strong full-stack capabilities. Required: strong experience with .NET Core (required), Python, or Node.js for backend development; solid understanding of REST APIs, authentication and authorization (OAuth2, JWT, OpenID Connect); frontend proficiency in Angular (required), with knowledge of React or Next.js; experience with relational databases (SQL Server, PostgreSQL) and caching (Redis); fintech experience and Plaid; familiarity with CI/CD pipelines (GitHub Actions, GitLab CI, Azure DevOps) and deployment automation; practical experience with Docker for development and deployment; strong debugging, logging, monitoring, and production troubleshooting skills; excellent problem-solving, communication, and collaboration abilities. Desirable: experience with event-driven systems and message brokers (Kafka, RabbitMQ), cloud platforms (Azure, AWS, GCP), serverless architectures (AWS Lambda, Azure Functions, GCP Cloud), microservices exposure.

Desirable but not required

Familiarity with event-driven architectures and messaging systems (Kafka, RabbitMQ) is a plus. Experience in fintech workflows and with Plaid is highly valued. Knowledge of cloud platforms (Azure, AWS, GCP) and serverless patterns (Lambda, Functions, Cloud) is beneficial. Exposure to microservices and modern deployment strategies will help you thrive in our fast-paced environment. Strong collaboration, adaptability, and a customer-focused mindset are essential to succeed in cross-functional teams.

Benefits

Join Niuro’s 100% remote work model with global flexibility. We invest in your professional development through ongoing training programs and leadership opportunities, ensuring continuous growth. You’ll be part of a global community dedicated to technological excellence, supported by a robust administrative infrastructure that lets you focus on impactful work. Upon successful completion of the initial contract, there may be opportunities for long-term collaboration and full-time employment. You’ll enjoy a collaborative culture that values technical excellence, continuous innovation, and work-life balance, along with opportunities to participate in technically rigorous projects that drive real-world impact.

Informal dress code No dress code is enforced.
$$$ Full time
Desarrollador Web Python/HTML5
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python SQL Big Data
BC Tecnología es una consultora de TI con experiencia en diseñar soluciones para clientes de servicios financieros, seguros, retail y gobierno. Nuestro enfoque es entregar proyectos de desarrollo y migración de funcionalidades, con equipos ágiles y foco en la continuidad operativa y la evolución de canales digitales. En esta posición, formarás parte de iniciativas que buscan migrar funcionalidades desde aplicaciones móviles (APK) hacia plataformas Web, asegurando soluciones eficientes, escalables y alineadas a los estándares corporativos del banco.
Trabajarás en proyectos que requieren integración de datos, migraciones de funcionalidades, y desarrollo de soluciones que optimicen la experiencia del usuario final, manteniendo la calidad y la trazabilidad documental necesarias para entornos regulados.

Find this job and more on Get on Board.

Funciones y responsabilidades

  • Desarrollar funcionalidades de gestión de canal utilizando Python y HTML5, abarcando tanto Backend como Frontend.
  • Migrar funcionalidades desde APK a plataformas Web, asegurando transiciones sin pérdidas de rendimiento ni integridad de datos.
  • Participar en la elaboración de documentación funcional de los desarrollos, manteniendo trazabilidad y claridad para equipos de operación y negocio.
  • Colaborar en la definición técnica y en la revisión de código para garantizar adherencia a estándares del banco y buenas prácticas.
  • Trabajar de forma colaborativa con equipos de UI/UX, QA y DevOps para entregar soluciones escalables y mantenibles.
  • Identificar, registrar y proponer mejoras continuas en procesos, rendimiento y seguridad de las aplicaciones.

Requisitos y perfil buscado

Requisitos técnicos obligatorios:
  • HTML5
  • Python
  • SQL Server
  • BigQuery
  • GitLab
  • ETLs
Experiencia entre 2 y 3 años como desarrollador, con antecedentes en desarrollo web y migración de funcionalidades. Se valorará experiencia en el sector financiero o en industrias afines. Capacidad para trabajar en entornos colaborativos, orientados a resultados y con buenas habilidades de comunicación para documentar y coordinar cambios con stakeholders.

Deseables

Experiencia previa en migraciones desde apps móviles a plataformas web, conocimiento adicional de arquitecturas de microservicios, y familiarity con procesos de gobierno de datos y seguridad en entornos regulados.Idiomas: español fluido; inglés técnico deseable.

Beneficios y entorno de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1000 - 1300 Full time
Desarrollador Web
  • Coderslab.io
  • Lima (Hybrid)
HTML5 Python SQL Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Desarrollador Web para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Find this job on getonbrd.com.

Funciones del cargo

  • Desarrollo de funcionalidad de gestión del canal con python y html5, tanto Backend como Frontend.
  • Migración de funcionalidades hacia web.
  • Documentación funcional de los desarrollos.
  • Carrera sistemas o relacionados.
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Requerimientos del cargo

Experiencia entre 2 y 3 años

  • Experiencia en HTML5
  • Experiencia en SQL Server
  • Experiencia en Python
  • Experiencia en BigQuery
  • Experiencia en Gitlab
  • Experiencia en ETLs
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Condiciones

Modalidad de contratación: Recibo por honorarios
Modalidad: Hibrida (3 veces a oficina)

Gross salary $4000 - 5000 Full time
Python Developer
  • ClickIT Smart Technologies
Python MySQL Virtualization Amazon Web Services

ClickIT: DevOps and Software Development is a Cloud and DevOps Agency who has developed cloud based solutions for almost 10 years, for customers from all around the world. Our core competencies are Financial Services, Healthcare, MarTech, Ecommerce, Big Data & Analytics and our Experience comes with startups and mid-large enterprises. We are AWS and GCP certified partners with an experience of helping more than 200 product and service-centric companies based out of the US with their cloud migration and DevOps initiatives. This position its to be part of our team ClickIT is looking for a Mobile Developer with experience in React Native, iOS and Android.

Exclusive to Get on Board.

Funciones del cargo

We are seeking a highly skilled Python Developer to join our technology team and help build the next generation of data, modeling, and analytics systems that power our U.S. consumer credit investment platform. In this role, you will develop scalable data pipelines, implement ML-driven financial tools, and work closely with quantitative researchers to optimize forecasting algorithms. You will work extensively with Python, Jupyter, Databricks, MySQL, Amazon Batch, and Claude to support large-scale data ingestion, processing, and automation. This position requires strong problem-solving skills, a passion for high-performance computing, and the ability to deliver high-quality solutions in a fast-paced FinTech environment.

● Develop and maintain scalable data ingestion, transformation, and processing pipelines.

● Build analytical workflows using Python, Jupyter Notebooks, and Databricks (Spark, Delta Lake).

● Optimize and orchestrate large-scale compute jobs using Amazon Batch.

● Design, implement, and maintain backend services and APIs to support data and modeling workflows.

● Collaborate with the quantitative research team to enhance forecasting algorithms and ML-driven financial models.

● Develop and improve ML-powered financial analytics tools for credit and portfolio insights.

● Integrate internal systems with FinTech platforms and financial institutions.

● Use Claude and other LLMs to support automation, data exploration, documentation, and workflow optimization.

● Ensure reliability, accuracy, and performance across data systems and production pipelines.

● Troubleshoot and resolve issues across data pipelines, models, and integrations.

● Write clear, maintainable, and well-documented code following industry best practices.

● Participate in code reviews, technical discussions, and continuous improvement initiatives.

● Collaborate closely with cross-functional teams, including engineering, research, and product.

Requerimientos del cargo

● 5+ years of professional software development experience in production environments.
● Strong proficiency in Python, including data processing, scripting, and backend development.
● Hands-on experience with Jupyter Notebooks for exploratory data analysis and modeling.
● Practical experience working with Databricks (Spark, Delta Lake, ETL workflows).
● Solid understanding of MySQL, including schema design, complex queries, and query optimization.
● Experience managing and optimizing batch and distributed compute workloads using Amazon Batch.
● Familiarity with Claude or other LLMs for workflow automation, data exploration, and documentation support.
● Strong understanding of data structures, algorithms, and software engineering best practices.
● Experience building APIs or microservices in Python.
● Ability to work with cloud-based infrastructures (AWS preferred).
● Excellent analytical, problem-solving, and debugging skills.
● Strong communication and teamwork abilities, collaborating effectively with engineering and research teams.
● Bachelor’s degree in Computer Science, Engineering, or a related technical field.

Condiciones

  • Fully Remote: flexible hours and 100% home office
  • Medical Insurance: protected by Safety Wing
  • Payment in dollars: through Deel or Payoneer
  • Vacation days since your 2nd month: 12 days your first year and annual vacation day increase
  • Certifications and Courses
  • English classes: up to 3 hours a week of online conversational classes
  • Wellness Program: up to 5 psychology sessions through Terapify, E-books, online yoga and meditation
  • Referral bonus
  • Integration activities: remote integration activities with a chance to win great prizes
  • Recognition program: recognition for completion of projects
  • ClickIT Academy: opportunity to give conferences
  • Career plan: design of a career plan after 6 months at the company
  • Bonus for personal use of computer equipment: $50 USD per month

Fully remote You can work from anywhere in the world.
Gross salary $4300 - 7000 Full time
JavaScript Python Front-end Go

At Wavvest, we’re building a next-generation audio intelligence platform that turns real-time acoustic data into actionable insights. You’ll join a small, senior engineering team with high ownership and autonomy, working on everything from system design to implementation. This team sits at the core of Wavvest’s mission: enabling organizations to understand and respond to complex acoustic environments in real time. If you enjoy hard technical problems, fast iteration, and meaningful impact, you’ll fit right in.

Apply exclusively at getonbrd.com.

Senior Software Engineer (Python, FastAPI, React, AWS)

We’re looking for a senior engineer, who can own and drive complex projects end-to-end. You’ll be responsible for designing and building key product features, coordinating work across functions, and making thoughtful technical tradeoffs with minimal oversight. You should be comfortable taking a loosely defined problem, shaping it into a clear plan, and executing quickly.

This is a hands-on technical role. You’ll spend most of your time designing systems and writing code. You thrive in ambiguity, ask the right questions, figure things out independently, and have a strong “get stuff done” mindset without needing much hand-holding.

Qualifications and requirements

TECH STACK

  • MUST Backend: Python, FastAPI, Pydantic v2
  • Frontend: React, TypeScript, React Native(Expo)
  • Infrastructure: AWS (Lambda, DynamoDB, API Gateway, AWS CDK)
  • Integrations: Apex Ascend API, Plaid, Stripe
  • Agentic coding: Cursor
  • Optional: AI/ML: GPT-4, Claude, LangGraph (Yes, we have an agentic AI product.)
  • Optional Future: Golang microservices for performance-critical services

REQUIREMENTS

  • 7+ years full-stack development, 2+ years fintech
  • Highly autonomous: owns implementation decisions end-to-end, yet communicates clearly and keeps everyone aligned.
  • Strong hands-on Python, Golang(future), React, Microservices, AWS serverless, API development.
  • System design and architecture experience
  • Experience leading small engineering teams (2-5 engineers)
  • Fast-paced startup experience
  • Must use AI-assisted / agentic development tools (e.g., Cursor or similar) and using them to achieve faster prototyping, refactoring, and test generation while maintaining code quality and architectural consistency
  • Nice to have: Apex Ascend API experience, Golang, React Native, AI/ML integration

Desirable skills

Fintech experience, US wealth management expereice

Conditions

Informal dress code No dress code is enforced.
Gross salary $110000 - 170000 USD/year Full time
Python PostgreSQL SQL Django

Where You’ll Create Impact

  • Design and build core backend systems using Python
  • Build APIs, services, and infrastructure that handle real-time, business-critical, and complex accounting logic
  • Launch production-ready features from scratch, including CI/CD pipelines and deployment
  • Work with product to turn complex finance workflows into performant, secure systems
  • Manage complexity in a business-logic-heavy product, including data migrations and scale challenges
  • Integrate third-party tools and external systems — proactively managing edge cases and risk
  • Own your work from architecture to testing, monitoring, and post-release care

Find this job and more on Get on Board.

About DualEntry

Founded in 2024, DualEntry is one of NYC’s fastest-growing AI startups.

DualEntry is changing the future of finance. Our AI-native ERP lets teams achieve more in less time. $5M-ARR businesses and NYSE-listed companies trust DualEntry to automate away busywork and fuel their growth with powerful reporting and insights. We’re making the one-person finance team a reality and putting the pain of legacy ERPs from the 1990s in the past.

We operate with urgency and ownership. We move fast.

Why This Role Matters Now

Since launching 18 months ago, we’ve raised $100M with backing from Lightspeed, Khosla, and Google Ventures. We got there by moving incredibly fast and hiring the best and brightest talent. To accelerate that momentum, we’re growing our team. Come and join us at one of NYC’s fastest-growing startups and have an impact on our product from day one.

This is an intense, hands-on role with full ownership.

You’ll be joining at an early and defining moment. Your work will directly shape our product, customers, and trajectory.

You’ll architect features and systems end-to-end at an incredible pace.

This is an opportunity to own critical infrastructure at the early stage of a category-defining AI company. Build the first, true AI accounting product with your own hands - alongside our elite team.

What sets you up for success

  • Hardcore work ethic and high agency
  • 8+ years of experience in backend engineering
  • Proven track record in high-growth, high-ownership environments
  • Strong skills in PostgreSQL, SQL, ORMs, migrations, and schema design
  • Experience with AWS or comparable cloud infrastructure
  • Strong API design and testing experience
  • Understanding of CI/CD, deployment, and production readiness
  • Bonus: expertise in Python and modern frameworks (FastAPI, Flask, or Django)
  • Ability to manage complex systems with evolving requirements
  • Fluent English (C1+) with clear communication

Where you'll create impact

  • You’ll own end-to-end execution for backend systems and infrastructure
  • You’ll build APIs, services, and real-time systems handling complex accounting logic
  • You’ll collaborate with founders, product, and frontend engineering to turn complex workflows into secure, performant systems
  • You’ll design, implement, and ship production-ready features at high speed
  • You’ll manage data migrations, scaling challenges, external integrations, and end-to-end reliability
  • You’ll drive measurable outcomes that accelerate DualEntry’s product velocity and stability

Benefits

  • Base Salary: $100K–$165K USD
  • Equity: ~$50K USD
  • Contract type: B2B
  • Remote-first team - the fastest team you will have ever worked with
  • Time Off: 15 PTO days + 12 public holidays
  • Early-stage role with high autonomy and real long-term upside

Computer provided DualEntry provides a computer for your work.
Gross salary $1800 - 2800 Full time
Consultor Full-Stack
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Analytics Front-end
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar proyectos innovadores ligados a la ingeniería de software, ingeniería de datos, ciencias de datos y algoritmos inteligentes, necesitamos desarrolladores integrales que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar en múltiples ámbitos, este es tu lugar! 💪 .

Send CV through Get on Board.

Funciones del cargo

En Microsystem LAB somos un equipo de 9 personas que combinamos tecnología, creatividad y propósito para desarrollar soluciones innovadoras en proyectos de inteligencia artificial, analítica de datos y desarrollo de software.
Buscamos a alguien con pasión por resolver problemas, conectar con los desafíos del cliente y transformar ideas en productos digitales que generen impacto real.

💼 Tus principales funciones

  • Entender el negocio del cliente: interpretar sus contextos, desafíos y objetivos estratégicos.
  • Levantar y traducir requerimientos: transformar las necesidades del cliente en requerimientos funcionales y técnicos de software claros y accionables.
  • Desarrollar soluciones end-to-end: programar y mantener componentes backend y frontend según las necesidades de cada proyecto.
  • Prototipar e iterar: crear MVPs, validar hipótesis con usuarios y ajustar rápidamente a partir del feedback.
  • Aplicar IA y automatización: usar herramientas basadas en inteligencia artificial (ChatGPT, Copilot, n8n, etc.) para acelerar el desarrollo y aumentar la eficiencia del código.
  • Colaborar con el equipo LAB: participar activamente con analistas, diseñadores, data scientists y project managers en el diseño e implementación de soluciones.
  • Contribuir a la mejora continua: proponer nuevas herramientas, buenas prácticas y patrones de diseño que optimicen el flujo de trabajo.
  • Documentar y comunicar: mantener claridad técnica en los entregables y comunicar avances de forma efectiva tanto al equipo interno como a los clientes.
  • forma efectiva tanto al equipo interno como a los clientes.

Requerimientos del cargo

🧠 Lo que esperamos de ti

  • Capacidad analítica para comprender problemas complejos y convertirlos en soluciones simples.
  • Curiosidad por aprender y adaptarte a distintos contextos tecnológicos.
  • Buen criterio técnico y orientación a la calidad en el desarrollo.
  • Comunicación clara, empatía y disposición al trabajo colaborativo.
  • Creatividad para diseñar soluciones que aporten valor real al cliente.

⚙️ Conocimientos y herramientas deseables

  • Lenguajes: Python, JavaScript (Node.js, React o Vue.js)
  • Bases de datos: PostgreSQL, MySQL o MongoDB
  • Versionamiento: Git / GitHub
  • APIs REST, integración con servicios cloud (AWS, Azure, GCP)
  • Familiaridad con herramientas de IA y automatización (ej. ChatGPT, Copilot, n8n)
  • Buen manejo de entornos colaborativos (Jira, Notion, Slack, GitHub Projects)

Suma puntos

Conocer Docker.
Conocer infraestructura en la nube (AWS y Azure).
Conocer React Native!
Programar en Java Spring Boot
Habilidades de comunicación

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
$$$ Full time
Desarrollador Back-end ( APIs y Microservicios)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python MySQL
Acerca de BC Tecnología: Somos una consultora de TI con una sólida trayectoria en administrar portafolio, desarrollar proyectos, realizar outsourcing y seleccionar profesionales para clientes de servicios financieros, seguros, retail y gobierno. Nuestro equipo diseñará soluciones en infraestructuras, desarrollo de software y unidades de negocio, apoyando a clientes con enfoques ágiles y orientación a resultados. El proyecto actual es un compromiso de 3 meses, con posibilidad de extensión, orientado a construir APIs y microservicios escalables para procesos y sistemas críticos.

© Get on Board. All rights reserved.

Funciones y responsabilidades

  • Diseñar, desarrollar y mantener APIs RESTful y/o GraphQL.
  • Documentar APIs utilizando Swagger/OpenAPI.
  • Participar en la definición e implementación de arquitecturas de Microservicios.
  • Desarrollar integraciones entre sistemas (sincrónicas y asincrónicas).
  • Escribir código limpio, eficiente y con pruebas unitarias/integración.
  • Optimizar rendimiento, identificar cuellos de botella y mejorar tiempos de respuesta.
  • Colaborar con equipos técnicos y analistas de negocio para alinear soluciones con requerimientos.

Requisitos y perfil buscado


  • 3+ años de experiencia como Desarrollador Backend.
  • Dominio avanzado en al menos uno de los siguientes lenguajes: Java (Spring Boot), Python (Django/Flask), .NET Core o Node.js.
  • Experiencia sólida desarrollando APIs RESTful.
  • Conocimientos prácticos en microservicios.
  • Manejo de bases de datos relacionales: SQL Server, PostgreSQL o MySQL.
  • Experiencia con Docker (deseable Kubernetes).
  • Uso avanzado de Git.

Requisitos deseables

Experiencia con bases de datos NoSQL (MongoDB, Redis).

  • Experiencia con herramientas CI/CD.
  • Conocimientos en mensajería (Kafka, RabbitMQ u otros).
  • Deseable experiencia en Retail.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $2800 - 3000 Full time
JavaScript Python Agile Front-end

Coderslab.io es una empresa global líder en soluciones tecnológicas con más de 3,000 colaboradores en todo el mundo, incluyendo oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos compuestos por talento de alto desempeño para proyectos desafiantes de automatización y transformación digital. Colaborarás con profesionales experimentados y trabajarás con tecnologías de vanguardia para impulsar la toma de decisiones y la eficiencia operativa a nivel corporativo.

Apply to this job directly at getonbrd.com.

Funciones del cargo

Buscamos un/a Desarrollador/a Full Stack con fuerte dominio en Python y experiencia en Node.js, para sumarse al equipo responsable de una de las plataformas más estratégicas de la compañía: la aplicación que utilizan la fuerza de ventas, jefaturas y otros perfiles comerciales para gestionar la relación con clientes.

Este equipo lidera la modernización de la operación comercial mediante una arquitectura serverless en AWS, con aplicaciones web y móviles desarrolladas en React y React Native.

El rol tendrá foco principal en backend, pero también participará en el desarrollo frontend, asegurando una integración fluida entre ambas capas.

🧩 Responsabilidades

  • Diseñar, desarrollar y mantener APIs y microservicios en AWS utilizando Python y Node.js.
  • Evolucionar la aplicación utilizada por la fuerza de ventas, garantizando rendimiento, seguridad y escalabilidad.
  • Integrar servicios AWS: Lambda, API Gateway, AppSync, DynamoDB, RDS, S3, Secrets Manager, CloudWatch y Cognito.
  • Desarrollar interfaces web y móviles en React / React Native, colaborando con el equipo de UX/UI.
  • Implementar y mantener APIs REST y GraphQL, optimizando la comunicación entre frontend y backend.
  • Aplicar buenas prácticas de testing automatizado (Pytest, Jest, Mocha).
  • Participar en code reviews, definición de estándares técnicos y documentación de desarrollos.
  • Colaborar con equipos de mobile, QA, datos e infraestructura para asegurar integraciones eficientes.
  • Contribuir a la automatización CI/CD mediante GitHub Actions u otras herramientas similares.

Requerimientos del cargo

+4 años de experiencia en desarrollo backend con Python (FastAPI, Flask u otro framework similar).

Experiencia en Node.js para microservicios y funciones Lambda.

Conocimientos sólidos de servicios AWS (API Gateway, Lambda, AppSync, Cognito, RDS, DynamoDB, S3, Secrets Manager).

Experiencia en desarrollo frontend con React y React Native.

Experiencia en consumo de APIs REST y GraphQL.

Conocimientos de testing automatizado, control de versiones (Git) y buenas prácticas de desarrollo.

Formación universitaria en Ingeniería en Computación, Software o Informática.

Capacidad para trabajar en entornos ágiles, comunicarse efectivamente y adaptarse a un entorno en constante evolución.

Opcionales

  • Experiencia en aplicaciones B2B o de campo, especialmente orientadas a fuerza de ventas o gestión de clientes.
  • Conocimientos en sincronización offline-first, BLE o geolocalización en apps móviles.
  • Certificación o formación en AWS Cloud Practitioner / Developer Associate / Solutions Architect.
  • Experiencia con CI/CD, GitHub Actions y herramientas ágiles como Jira o Confluence.

Condiciones

Modalidad: 100 % home office.

Contrato: 6 meses, con posibilidad de extensión.

El colaborador deberá contar con un equipo físico con solución de antivirus con EDR (Endpoint Detection and Response) previamente configurado.

Gross salary $2000 - 3000 Full time
JavaScript Python Front-end Vue.js
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply from getonbrd.com.

Responsibilities

  • Collaborate as a Senior Full-Stack Engineer with a focus on Python and JavaScript to build scalable web applications.
  • Design, implement, and maintain robust backend services and responsive frontend components using modern frameworks.
  • Lead technical decisions, establish coding standards, and mentor junior teammates to promote a culture of technical excellence.
  • Ensure code quality through reviews, automated tests, and adherence to best practices for clean, maintainable architectures.
  • Architect and optimize APIs, data models, and system integrations to support high availability and performance.
  • Collaborate with cross-functional teams across time zones, translating requirements into practical solutions.
  • Contribute to continuous improvement initiatives, focusing on delivery speed, quality, and reliability.

What you bring

We are seeking a Senior Full-Stack Developer proficient in Python and JavaScript with strong engineering fundamentals and leadership abilities. You should have hands-on experience building scalable, production-grade applications, and a solid understanding of modern frontend frameworks (e.g., Vue.js and/or Svelte is a plus). You’ll thrive in a fast-paced, collaborative environment and be comfortable mentoring peers while driving technical excellence and delivery focus.
Key skills include: clean code practices, scalable architecture, test-driven development, and a proactive, autonomous mindset. Excellent communication and teamwork are essential as you collaborate with global teams to deliver high-impact projects.

Nice-to-have

Experience with Vue.js and/or Svelte frameworks, strong leadership and mentorship capabilities, track record of delivering complex projects on time, and familiarity with industrial data projects. Fluency in English and ability to collaborate effectively with international teams.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
$$$ Full time
Agile MySQL Node.js Virtualization

CoyanServices busca incorporar a un Desarrollador Full Stack Senior para trabajar en un proyecto estratégico para un cliente regional a través de una empresa tecnológica privada. La posición es 100% remota y freelance, abierta a profesionales de cualquier país de Latinoamérica. El proyecto implica desarrollo de soluciones serverless y nativas en la nube, con foco en rendimiento, seguridad y capacidad de escalar. El candidato trabajará en un entorno colaborativo, con equipos multidisciplinarios, para entregar una solución integral que soporte las necesidades del negocio y defina arquitecturas prácticas para operaciones.

Apply without intermediaries through Get on Board.

Objetivos del rol

  • Desarrollar aplicaciones serverless y nativas cloud tanto en front-end como en back-end.
  • Asegurar desarrollos performantes, responsivos y con altos estándares de seguridad.
  • Participar en definiciones funcionales, de negocio y de arquitectura para garantizar su aplicabilidad práctica.
  • Anticipar riesgos y comunicar a líderes y equipos sobre posibles problemas que afecten la entrega de proyectos.

Responsabilidades

  • Desarrollo full stack (front y back) con foco en rendimiento y seguridad.
  • Implementación de arquitecturas de microservicios y APIs.
  • Desarrollo en entornos serverless sobre AWS.
  • Participación en definiciones de especificaciones, funcionalidades y reglas de negocio.
  • Colaboración en diseño de arquitecturas prácticas para operaciones.
  • Comunicación de riesgos y bloqueos en células ágiles.

Requisitos Técnicos & Habilidades blandas

  • Requisitos Técnicos:
    • Formación universitaria en Informática, Computación, Electrónica, Ingeniería Industrial o carreras afines.
    • Mínimo 3 años de experiencia en desarrollo de soluciones (front y back).
    • Conocimientos y experiencia en Angular, Node.js y MySQL.
    • Experiencia en arquitectura de microservicios, APIficación y AWS serverless.
    • Deseable: Python, Aurora y bases de datos NoSQL.
    • Experiencia trabajando con usuarios de negocio (key users y process owners).
    • Conocimiento en metodologías ágiles (células, ceremonias, entregables).
  • Habilidades blandas:
    • Colaboración con equipos multidisciplinarios.
    • Comunicación efectiva con usuarios de negocio.
    • Adaptabilidad a metodologías ágiles.
    • Autonomía y orientación a resultados.

Beneficios

  • Freelancer

Fully remote You can work from anywhere in the world.
Gross salary $3000 - 4500 Full time
Staff Software Engineer
  • Checkr
  • Santiago (Hybrid)
Python Agile PostgreSQL Git

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.

Como uno de los mayores proveedores de recursos de datos de antecedentes en los Estados Unidos, Checkr permite a las agencias de informes de los consumidores y a las empresas tomar decisiones bien informadas que protegen a sus organizaciones, empleados y clientes.

Apply from getonbrd.com.

Responsabilidades del cargo

  • Dirigir el desarrollo del producto desde la ideación, el diseño y la implementación hasta el lanzamiento.
  • Colaborar con otros ingenieros y con el jefe de producto en el diseño y la arquitectura de nuevos sistemas.
  • Diseñar, desarrollar, probar, desplegar, mantener y mejorar el software
  • Gestionar las prioridades, los plazos y los resultados de cada proyecto.
  • Entregar código de alto rendimiento, fiable, escalable y seguro.

Calificaciones y Requisitos del cargo

  • Más de 10 años de experiencia en la industria como ingeniero de software, y experiencia significativa trabajando con Python
  • Capacidad de liderazgo, y una pasión por la tutoría de los ingenieros más jóvenes
  • Experiencia en la ejecución de rituales Scrum (planificación de sprints, standup diario, revisión de sprints y retrospectiva)
  • Experiencia práctica con AWS
  • Gran conocimiento de la infraestructura de arquitectura de microservicios, incluida la familiaridad con Kubernetes
  • Experiencia diseñando e implementando APIs REST
  • Experiencia con CI/CD
  • Experiencia trabajando con almacenes de datos como Postgres, MongoDB
  • Experiencia con Git, GitLab o Github y proceso de revisión PR/MR
  • Pasión por la optimización de servicios para escala y velocidad
  • Muchas ganas de aprender, colaborar, mejorar e innovar
  • Manejo de Ingles verbal a nivel avanzado

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

$$$ Full time
Software Engineer I
  • Wherex
  • Santiago (Hybrid)
JavaScript Python PHP Redis

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

This company only accepts applications on Get on Board.

Job functions

Desarrollador de software con fuerte interés en construir soluciones tecnológicas basadas en IA. Serás parte del equipo de Sourcing, participando en el desarrollo de nuevas funcionalidades, resolución de issues en producción y mejora continua del sistema.

Funciones principales:

  • Diseñar, desarrollar y mantener funcionalidades de la plataforma.
  • Atender y dar solución a incidencias operativas.
  • Colaborar en la revisión de código y decisiones técnicas.
  • Participar activamente en ceremonias ágiles y trabajo colaborativo.

Qualifications and requirements

Requisitos técnicos:

  • Titulo universitario de Ingeniero Civil en Informática, Ingeniero en Informática.
  • 1 a 2 años de experiencia en desarrollo de software (incluye prácticas profesionales de alta exigencia).
  • Experiencia práctica con al menos 2 de los siguientes lenguajes: PHP, Python, Go, JavaScript, React.
  • Conocimientos en bases de datos relacionales (PostgreSQL, MySQL) y no relacionales (MongoDB, Redis, etc.).
  • Manejo de control de versiones con Git.
  • Experiencia con contenedores Docker.
  • Conocimientos en metodologías ágiles (Scrum, Kanban).
  • Interés o experiencia en desarrollo asistido por Inteligencia Artificial (IA).

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

$$$ Full time
JavaScript Ruby Ruby on Rails HTML5

SONDA es una empresa líder en transformación digital en Latinoamérica, comprometida con el desarrollo tecnológico y social en las comunidades donde opera. Nuestra misión es mejorar la calidad de vida de las personas mediante la innovación y soluciones tecnológicas que transforman negocios y procesos. Actualmente, buscamos un Desarrollador Full Stack para integrarse al proyecto Fonasa, donde se desarrollan aplicaciones orientadas a optimizar y modernizar sistemas y procesos de información en el sector público, aportando valor al cliente final mediante tecnología de punta y trabajo colaborativo.

Apply exclusively at getonbrd.com.

Responsabilidades y funciones principales

  • Desarrollar aplicaciones siguiendo los diseños técnicos y funcionales definidos.
  • Generar soluciones innovadoras y efectivas frente a los problemas técnicos o de negocio detectados.
  • Realizar la mantención y mejora continua de aplicaciones existentes para asegurar su operatividad y calidad.
  • Analizar los requisitos del sistema y procesos de negocio existentes para identificar oportunidades de mejora y asegurar la alineación con las necesidades del cliente.
  • Diseñar y construir pruebas unitarias robustas que garanticen la calidad de las soluciones desarrolladas.
  • Contribuir activamente a la elaboración técnica global de las soluciones, colaborando con los equipos multidisciplinarios.

Perfil requerido y conocimientos técnicos

  • Buscamos un profesional con título en Ingeniería en Informática, Sistemas o carreras afines, quien cuente con un mínimo de 2 años de experiencia directa en roles similares de desarrollo Full Stack y al menos 5 años en el ámbito tecnológico, demostrando un sólido conocimiento del ciclo completo de desarrollo de software.
  • Es fundamental poseer habilidades técnicas en frontend, con experiencia en HTML, CSS, JavaScript y el manejo de frameworks o librerías populares como React o Angular. En el backend, se requiere conocimiento en programación con lenguajes como Node.js, Python y frameworks asociados como FastAPI, Express, Django o Rails.
  • Además, debe contar con experiencia en la gestión y manejo de bases de datos tanto relacionales (MySQL, PostgreSQL, Oracle DB) como NoSQL (MongoDB), para garantizar el adecuado almacenamiento y consulta de la información.
  • Se valorará el conocimiento en herramientas de integración y entrega continua (CI/CD), uso de contenedores como Docker, y experiencia con servicios en la nube, especialmente AWS, aportando a la modernización y automatización de los entornos de desarrollo y producción.
  • Además de las habilidades técnicas, buscamos una persona con capacidad analítica, orientación a la solución de problemas, y aptitudes para trabajar en equipo dentro de un ambiente colaborativo y diverso, siempre promoviendo la innovación y la mejora continua.

Conocimientos adicionales valorados

  • Es deseable contar con experiencia práctica en proyectos que impliquen despliegue en entornos cloud y microservicios, así como manejo avanzado en técnicas de testing automatizado e infraestructura como código.
  • Se valorará también la habilidad para adaptarse rápidamente a nuevas tecnologías y metodologías ágiles, junto a una fuerte orientación al cliente y comunicación efectiva con stakeholders técnicos y no técnicos.


Beneficios y cultura organizacional

  • En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.
  • Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.
  • Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.
  • El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.
  • Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.
  • Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Gross salary $3300 - 3600 Full time
Linux Virtualization Amazon Web Services Docker

En Maxxa estamos en una etapa donde la infraestructura ya soporta operación crítica del negocio, pero aún tiene mucho espacio de mejora y evolución.

El desafío de este rol no es solo mantener sistemas funcionando, sino llevar nuestra plataforma al siguiente nivel: mayor estabilidad, mejor observabilidad, menos fricción operativa y una base sólida para escalar.

Vas a trabajar sobre una arquitectura ya productiva en AWS (EKS, Elastic Beanstalk, EC2, servicios serverless), con el desafío de ordenar, automatizar y modernizar progresivamente lo existente, mientras mantienes la operación estable.

Esto implica balancear decisiones de corto plazo (incidentes, urgencias, soporte a equipos) con mejoras estructurales de largo plazo (IaC, CI/CD, monitoreo, seguridad, costos).

Es un rol con impacto directo en todos los equipos de ingeniería, donde tu trabajo facilita —o bloquea— la velocidad de desarrollo.

Find this job and more on Get on Board.

Descripción del puesto

Responsabilidades:

  • Gestionar y optimizar nuestra infraestructura en AWS, donde principalmente tenemos aplicaciones en Kubernetes/EKS, Elastic Beanstalk, y algunas directamente en EC2.
  • Administrar otros servicios de AWS como Route53, Lambda, SQS, SNS, ApiGateway, ElastiCache, Cloudwatch, y EventBridge.
  • Automatizar tareas operacionales y mejorar la eficiencia mediante la implementación de herramientas y scripts.
  • Mantener la infraestructura de la red, garantizando la conectividad segura, privada y eficiente entre nuestros entornos en la nube.
  • Implementar y mejorar prácticas de monitoreo y alertas para detectar y responder proactivamente a problemas de infraestructura.
  • Participar en la resolución de incidentes y llevar a cabo análisis post mortem para prevenir problemas futuros.
  • Documentar y compartir conocimientos sobre las mejores prácticas de operación y gestión de infraestructura.

Buscamos un perfil Senior, lo que en Maxxa significa:

  • Puedes hacerte cargo de la infraestructura de punta a punta, sin necesidad de supervisión constante.
  • Tienes criterio para tomar decisiones técnicas en producción, incluso bajo presión o con información incompleta.
  • No solo ejecutas tareas: identificas problemas, propones soluciones y las llevas a cabo de forma autónoma.
  • Eres capaz de resolver problemas complejos, diseñar soluciones y definir estrategias de evolución de la plataforma.
  • Puedes revisar el trabajo de otros ingenieros y asegurar un estándar técnico alto.
  • Tienes la capacidad de enseñar, guiar y apoyar a otros miembros del equipo.
  • Eres capaz de ordenar entornos imperfectos y llevarlos a un estándar más alto (procesos, herramientas, prácticas).
  • Defines y promueves buenas prácticas, estándares y formas de trabajo dentro del equipo.
  • Entiendes el impacto de tus decisiones en el negocio (disponibilidad, costos, velocidad de desarrollo).
  • Puedes interactuar con stakeholders internos (producto, operaciones, negocio) y traducir necesidades en soluciones técnicas.

Requisitos excluyentes

  • Experiencia sólida administrando entornos productivos en AWS (EKS, EC2, RDS, networking, etc.).
  • Dominio de Docker y construcción de imágenes optimizadas.
  • Experiencia sólida operando Kubernetes en producción.
  • Experiencia trabajando con Infrastructure as Code (idealmente AWS CloudFormation o Terraform).
  • Experiencia diseñando y operando pipelines de CI/CD.
  • Experiencia en sistemas Linux (Amazon Linux, Debian/Ubuntu, Alpine, etc.).
  • Experiencia en monitoreo y observabilidad (CloudWatch u otras herramientas similares).
  • Experiencia gestionando incidentes en producción.

Requisitos deseable (pero muy valiosos)

  • Experiencia en arquitecturas serverless (Lambda, API Gateway, etc.).
  • Experiencia en entornos con foco en seguridad y cumplimiento (auditorías, controles, etc.).
  • Conocimiento de herramientas de observabilidad avanzadas (Elastic/Kibana, Sentry, Datadog, etc.).
  • Manejo de algún lenguaje de programación/scripting (Python, Go u otro).
  • Experiencia en entornos SaaS de alta disponibilidad.

Beneficios

Te unirás a una fintech donde tu esfuerzo y energía se ven recompensados.

Nos eligieron top 3 del ranking de The Building Happiness de Buk. ¡Tu bienestar es parte de nuestro desafío!

Beneficios:

  • Flexibilidad laboral: Full Remoto, con la opción de ir presencialmente a nuestra oficina en Las Condes.
  • Tiempo de bienestar —¡con metas cumplidas, sales 30 min antes todos los días!— Días administrativos, tarde libre por cumpleaños y día de mudanza.
  • Asignación de almuerzo.
  • Un muy potente Seguro Complementario de salud, dental y vida (al pasar a indefinido).
  • Aguinaldos, Bonos de matrimonio, nacimiento, escolaridad, entre otros.
  • Capacitaciones continuas en UBITS para que nunca dejes de crecer.
  • En oficina corporativa, muchos beneficios: Snack Saludable todos los días, salita de descanso con cafetería ilimitada, actividades para compartir, ¡entre muchos más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Maxxa pays or copays health insurance for employees.
Dental insurance Maxxa pays or copays dental insurance for employees.
Computer provided Maxxa provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Maxxa offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
QA Engineer II (L4)
  • OpenLoop
  • Lima (Hybrid)
JavaScript Python QA Virtualization

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Our Company Culture

We have a relatively flat organizational structure here at OpenLoop. Everyone is encouraged to bring ideas to the table and make things happen. This fits in well with our core values of Autonomy, Competence and Belonging, as we want everyone to feel empowered and supported to do their best work.

Apply directly on the original site at Get on Board.

Responsabilities

We're seeking a QA Automation Engineer to join our Data Engineering team and take ownership of quality assurance across our data pipelines and infrastructure. This role will be instrumental in building and maintaining automated test suites that ensure the reliability and accuracy of our healthcare data systems. You'll work closely with a small, focused team of data engineers to establish testing strategies, prioritize coverage for critical data paths, and maintain quality standards as we scale.

• Quality Ownership: Own and maintain the automated test suite that runs in our CI pipeline, including integration tests, data quality checks, and smoke tests for our data infrastructure.

• Strategic Collaboration: Partner closely with data engineers to understand pipeline architecture, identify critical data paths, and develop comprehensive testing strategies that prioritize business-critical datapoints.

• Test Development: Write and maintain automated tests for data pipelines using Python and TypeScript, ensuring coverage across batch and event-driven workflows.

• Data Validation: Implement data quality checks including row counts, schema validation, key-column validation, idempotency testing, and duplicate handling across ETL processes.

• CI/CD Integration: Build and maintain testing frameworks that integrate seamlessly with our CI/CD pipelines using GitHub Actions, AWS CodePipeline, and CodeArtifact.

• Documentation & Standards: Document test cases, testing strategies, and coverage metrics to establish repeatable quality standards across the data team.

• Continuous Improvement: Identify testing gaps and systematically expand coverage toward end-to-end testing of critical data pipelines.

Requirements

• 3 years of experience in QA automation or software testing, with a focus on data pipelines or backend systems.

• 3 years of hands-on experience with Python and TypeScript for test automation.

• Strong experience with CI/CD pipelines (GitHub Actions, AWS CodePipeline, CodeArtifact).

• Hands-on experience working with data lakes and ETL processes on AWS (familiarity with services like S3, Glue, Athena, Lambda, Step Functions, SQS, EventBridge).

• Experience with testing frameworks for Python (pytest, unittest) and TypeScript/JavaScript (Jest, Mocha).

• Understanding of data structures, data modeling concepts, and data lineage.

• Experience testing in a multi-tenant SaaS environment.

• English (C1/C2) fluency.

Desirable skills

ISTQB Certification

Our Benefits

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Life insurance OpenLoop pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Gross salary $2400 - 3500 Full time
Python Agile Linux DevOps
En TCIT somos líderes en desarrollo de software en modalidad cloud con más de 9 años impulsando soluciones de calidad, sostenibles e innovadoras. Trabajamos con metodologías ágiles y aprovechar tecnologías de vanguardia para transformar digitalmente a organizaciones en sectores como transporte de carga, gestión de empresas y proyectos con impacto social. Contamos con experiencia regional e internacional, colaborando en iniciativas en Canadá y con socios tecnológicos para ampliar capacidades en la nube y automatización. Buscamos sumar talento que comparta nuestra visión de revolucionar la transformación digital y crear soluciones que marquen la diferencia.

This job is exclusive to getonbrd.com.

Funciones y responsabilidades

  • Diseñar, implementar y gestionar pipelinas de CI/CD eficientes y confiables en AWS.
  • Automatizar procesos de infraestructura como código (IaC) utilizando herramientas de automatización y orquestación.
  • Configurar y mantener entornos de desarrollo, pruebas y producción escalables y seguros en la nube.
  • Colaborar con equipos de desarrollo para optimizar despliegues, rendimiento, monitoreo y resiliencia de sistemas.
  • Gestionar incidentes, realizar root cause analysis y proponer mejoras preventivas.
  • Participar en revisiones de arquitectura y en la definición de estrategias de seguridad y cumplimiento.
  • Documentar prácticas y guías operativas para mejorar la trazabilidad y el conocimiento compartido.
  • Apoyar proyectos con capacidades de internacionalización y cumplimiento normativo cuando sea necesario.

Perfil buscado

Buscamos un Ingeniero DevOps senior con experiencia sólida en AWS y un historial comprobable de entrega de infraestructuras y automatización en entornos complejos. Debe dominar prácticas modernas de DevOps, con capacidad para trabajar en un equipo ágil e Internacional, comunicación fluida en inglés técnico.
Requisitos:
  • Experiencia de más de 3-4 años en roles DevOps o SRE, con enfoque en AWS.
  • Fuertes habilidades en CI/CD, automatización de infraestructura, contenedores (Docker/Kubernetes) y monitorización (CloudWatch, Prometheus, Grafana).
  • Conocimientos en IaC (Terraform o CloudFormation) y gestión de secretos/seguridad en la nube.
  • Inglés avanzado hablado y escrito (capacidad para comprender documentación técnica y comunicarle a equipos internacionales).
  • Capacidad para trabajar bajo metodologías ágiles y entornos colaborativos.
Valorable:
  • Experiencia en entornos multi-nube o con partners tecnológicos internacionales.
  • Conocimientos en scripting (Python, Bash) y automatización de pruebas.

Condiciones

Trabajo en Modalidad Remota, pero con posibilidad de asistir a oficina ante cualquier eventualidad.
Oficinas ubicadas en la comuna de las Condes, cercano a metro Manquehue.

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
$$$ Full time
Android iOS REST API QA
At Birdie, we’re redefining the currency of gifting and building the future of social fintech. As a QA Engineer, you’ll help ensure our consumer app, web platform, and white-label integrations deliver reliable, high-quality experiences for millions of users. You’ll collaborate across product and engineering teams to validate new features, improve test coverage, and uphold our quality bar. This role sits at the intersection of user experience and technical quality, providing a clear path to expand into automated testing as our product evolves. You’ll be empowered to contribute to release-readiness, regression strategies, and end-to-end quality ownership that protects user trust and drives business impact.

Job source: getonbrd.com.

What you'll do

  • Review tickets and product specs to write thorough test plans and test cases before development starts
  • Execute functional, regression, and exploratory testing across web (Next.js), mobile (React Native/Expo), and API surfaces
  • Test payment flows, KYC/identity verification, and onboarding funnels — catching edge cases that matter in a financial product
  • File clear, reproducible bug reports with steps, environment details, and screenshots or screen recordings
  • Verify bug fixes and validate releases before they go live
  • Maintain and improve our test case library in Linear
  • Participate in sprint ceremonies and give QA input during planning to catch issues early
  • Partner with engineers on defining acceptance criteria for new features

Required skills and experience

  • 3+ years of QA experience, ideally at a startup or product company
  • Strong instincts for finding edge cases — you break things methodically, not randomly
  • Experience testing both web and mobile apps (iOS and Android)
  • Comfort testing REST APIs using tools like Postman or similar
  • Ability to write clear bug reports in English — details like environment, steps to reproduce, and expected vs. actual behavior
  • Organized and self-directed — you can manage your own test queue without a lot of hand-holding
  • Experience with a project management tool (Linear, Jira, or similar)
  • Professional working proficiency in English (written and spoken)

Nice-to-have

  • Experience in fintech, payments, or any product handling financial data
  • Familiarity with Playwright, Cypress, or other automated testing frameworks
  • Some scripting ability in Python or JavaScript — enough to read test code and eventually write it
  • Exposure to compliance-sensitive workflows (KYC, identity verification, regulated flows)
  • Experience testing white-label or multi-tenant SaaS products

What we offer

Birdie is committed to building a supportive and inclusive environment. We offer flexible work arrangements, competitive compensation, and opportunities for growth within a fast-moving fintech startup. You’ll join a collaborative team focused on delivering exceptional user experiences and shaping the future of social gifting.
Note: This position supports remote work globally, with regular team collaboration and alignment on product milestones.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Gross salary $800 - 1300 Full time
C Python Agile Linux
En Andestic estamos buscando un Ingeniero Cloud para unirse a nuestro equipo y liderar la arquitectura y operación de nuestras plataformas en la nube. El candidato ideal trabajará de manera estrecha con desarrollo, seguridad y operaciones para entregar soluciones escalables y confiables. Serás parte de un equipo multidisciplinario responsable de diseñar, implementar y optimizar infraestructuras en la nube que soporten aplicaciones críticas y cargas variables.
Proyecto típico: migración a entornos multi-nube, automatización de despliegues, implementación de arquitecturas serverless y contenedorizadas, y establecimiento de procesos de DevOps/DevSecOps. Participarás en la definición de estándares de seguridad, monitoreo, costos y rendimiento, asegurando cumplimiento y gobernanza. Buscamos a alguien que aporte visión de plataforma, buenas prácticas de automatización y un enfoque proactivo para resolver problemas complejos.

Find this vacancy on Get on Board.

Funciones

Como Ingeniero Cloud en Andestic, tus responsabilidades incluirán:
  • Diseñar, desplegar y optimizar infraestructuras en la nube (p. ej., AWS, Azure o Google Cloud) para entornos de producción, staging y desarrollo.
  • Implementar infraestructuras como código (IaC) para aprovisionamiento reproducible y escalable (Terraform, CloudFormation, o equivalentes).
  • Automatizar pipelines de CI/CD y mejorar prácticas de DevOps, seguridad y cumplimiento.
  • Configurar y gestionar herramientas de monitoreo, logging y alertas para garantizar alta disponibilidad y rendimiento.
  • Gestionar costos de nube, optimización de recursos y estrategias de reserva de capacidad.
  • Trabajar con equipos de desarrollo para diseñar soluciones resilientes, seguras y fáciles de mantener.
  • Participar en revisiones de arquitectura, documentar decisiones técnicas y fomentar la adopción de mejores prácticas.
  • Contribuir a la seguridad de la nube mediante implementación de controles de identidad, gestión de secretos y políticas de red.
Esperamos que puedas traducir requisitos de negocio en soluciones técnicas robustas y que colabores de forma proactiva para resolver incidentes y planificar mejoras a corto y largo plazo.

Descripción

Buscamos un Ingeniero Cloud con experiencia comprobable en diseño e implementación de infraestructuras en la nube y un historial de entrega de proyectos en entornos dinámicos. El candidato ideal debe tener habilidades en automatización, escalabilidad, seguridad y administración de costos, con capacidad para trabajar de forma autónoma y en equipo. Fomentamos una cultura de mejora continua, aprendizaje constante y comunicación clara entre áreas técnicas y de negocio.
Requisitos técnicos y blandos:
  • Experiencia en al menos una de las principales nubes (AWS, Azure, Google Cloud) y capacidad para migrar y modernizar cargas de trabajo.
  • Experiencia con Ia C (Terraform, CloudFormation, Pulumi) y pipelines de CI/CD modernizados.
  • Conocimiento en redes en la nube, seguridad ( IAM, políticas, cifrado, gestión de secretos) y monitoreo (Prometheus, Grafana, CloudWatch, etc.).
  • Capacidad para diseñar soluciones escalables, resilientes y coste-eficientes; enfoque en rendimiento y SLA.
  • Habilidades de scripting (Python, Bash, o similar) y experiencia con contenedores (Docker, Kubernetes).
  • Orientación a resultados, pensamiento analítico, y capacidad de comunicar decisiones técnicas a audiencias técnicas y no técnicas.
  • Experiencia en entornos de desarrollo Agile; capacidad de priorizar y gestionar múltiples iniciativas simultáneamente.

Desarrollos Deseables

Se valorarán conocimientos en:
  • Arquitecturas multi-nube y migraciones complejas.
  • Automatización avanzada de seguridad y cumplimiento (DevSecOps).
  • Gestión de configuración y secretos (HashiCorp Vault, AWS Secrets Manager, etc.).
  • Despliegues sin servidor (serverless) y arquitecturas basadas en microservicios.
  • Habilidades de resolución de problemas en producción y capacidad para trabajar bajo presión.
  • Buen nivel de inglés para lectura técnica y comunicación con equipos globales.

Beneficios

En Andestic ofrecemos un entorno dinámico, remoto global con flexibilidad horaria y oportunidades de crecimiento. Entre las ventajas se incluyen:
  • Trabajo 100% remoto o híbrido según preferencia y ubicación.
  • Salario competitivo, revisión anual y opciones de desarrollo profesional.
  • Capacitación continua, acceso a conferencias y certificaciones en tecnologías de nube.
  • Equipo colaborativo, cultura de innovación y proyectos desafiantes.
  • Horarios flexibles y equilibrio entre vida personal y profesional.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Python Git Linux Virtualization
Resumen
Únete a nuestro Equipo de Infraestructura como Ingeniero de Despliegue Linux, responsable de instalar, configurar y poner en marcha servidores Linux y componentes asociados (red, virtualización, automatización y seguridad básica) dentro de proyectos de infraestructura Cloud y Datacenter.
Tu misión es garantizar el despliegue exitoso de los entornos de infraestructura y la disponibilización de ambientes para la integración de componentes Cloud, cumpliendo los estándares técnicos definidos por Whitestack.
¡Si te apasiona Linux y quieres crecer profesionalmente en el sector de tecnologías cloud, este cargo es para tí!
Este rol está disponible para trabajo remoto desde las siguientes ubicaciones: México, Chile, Argentina, Colombia, Uruguay y Perú.

Job opportunity published on getonbrd.com.

Responsabilidades

  • Ejecutar despliegue de servidores baremetal con requerimientos acordados con el cliente.
  • Instalar, configurar y validar sistemas operativos Linux, asegurando la operación de servicios base, paquetes y repositorios.
  • Configurar red a nivel de sistema operativo: interfaces, VLANs, rutas, bonding y SSH para conectividad persistente y segura.
  • Implementar medidas de seguridad iniciales y hardening (permisos, firewall, etc.).
  • Desplegar, configurar y probar software de Whitestack para la implementación de servidores baremetal según requisitos.
  • Construir y mantener playbooks/roles de Ansible; estandarizar tareas repetibles.
  • Realizar pruebas y troubleshooting para verificar instalación y desplegue de infraestructura física.
  • Elaborar y mantener documentación de la infraestructura del proyecto.
  • Analizar y resolver incidentes durante la implementación; canalizar solicitudes de clientes a áreas internas.
  • Participar en ventanas de mantenimiento de sistemas críticos.

Requerimientos

  • Experiencia:
    • +2 años recientes en administración de servidores Linux (instalación y configuración.
    • Experiencia en servicios de infraestructura Cloud, y/o Datacenter.
  • Formación:
    • Graduados en Ingeniería Informática, Ingeniería de Sistemas, Ingeniería Electrónica, o afín.
    • Cursando último año de la Carrera profesional
  • Conocimientos Específicos / Requisitos Técnicos:
  • Linux Intermedio
    • Administración de servidores Linux (instalación, configuración y troubleshooting).
    • Gestión de discos, networking de Linux (bonding en servidores baremetal), Bash scripting.
  • Networking. Nivel Intermedio
    • Configuración de IP/VLANs, enrutamiento, netplan, validación de conectividad.
  • Docker Básico.
    • Experiencia para levantar y desplegar contenedores
  • Ansible nivel básico - intermedio.
    • Construcción y mantenimiento de playbooks.
    • Configuración simultánea de servidores, switches u otros equipos de red.
  • Docker básico
    • Experiencia para levantar y desplegar contenedores
  • Git básico
    • Manejo de repositorios: clone, push, pull, commit
  • Python
    • Scripting para automatización de tareas en entornos linux
  • Inglés:
    • Inglés Escrito avanzado (para leer/escribir documentación técnica)
    • Inglés Hablado básico (funcional, técnico)

Deseable (no fundamental)

  • Experiencia en operadores Telco o proveedores de tecnología en entornos productivos de misión crítica.
  • Certificación CCNA o equivalente.
  • Interacción con APIs via Python
  • Automatización y validación usando librerías de Python para servidores y equipos de red (Paramiko, Fabric, Salt, Netmiko, NAPALM)
  • Experiencia utilizando roles/handler en Ansible

Beneficios

Somos una empresa innovadora con una metodología de trabajo flexible y tecnologías de vanguardia, con oportunidades de crecimiento y liderazgo. Beneficios incluyen:
  • Participar en una startup tecnológica con reputación global.
  • Ambiente orientado a objetivos y entrega a tiempo.
  • Trabajo remoto con horarios flexibles (aplicación actual por Covid).
  • Gran aprendizaje en Cloud y tecnologías open-source.
  • Buen balance vida/trabajo.
  • 15 días de vacaciones como mínimo al año, según país.
  • Beneficios alineados a nuestros pilares Familia & Vida Personal, Crecimiento Personal, Salud & Seguridad y Pertenencia y Recreación.
  • Click para ver más beneficios: Working at Whitestack.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Commuting buses Whitestack provides free commuting buses from and to the offices.
Health coverage Whitestack pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer provided Whitestack provides a computer for your work.
Education stipend Whitestack covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
JavaScript Java Python Agile

DevOps Engineer

En 2Brains estamos buscando un/a DevOps Engineer para integrarse a un equipo que trabaja sobre una plataforma de pipelines utilizada por múltiples equipos de desarrollo.

Buscamos a una persona con experiencia real en entornos DevOps, capaz de combinar soporte operativo, resolución de incidentes y mejora continua de infraestructura. Este rol será clave para asegurar la estabilidad, evolución y eficiencia de los flujos de integración y despliegue, colaborando activamente con equipos de ingeniería en un entorno cloud y ágil.

Exclusive to Get on Board.

¿Qué desafíos tendrá el/la DevOps Engineer?

  • Analizar y resolver incidentes asociados a pipelines y procesos de integración continua.
  • Configurar, mantener y optimizar pipelines CI/CD utilizados por distintos equipos de desarrollo.
  • Automatizar y desplegar infraestructura como código.
  • Colaborar con equipos de desarrollo para identificar problemas y proponer mejoras en los flujos de entrega continua.
  • Monitorear la ejecución de pipelines y asegurar su correcto funcionamiento.
  • Gestionar tickets e incidencias junto a otros equipos técnicos.
  • Contribuir a la configuración, mantenimiento y evolución de infraestructura en Google Cloud Platform.
  • Participar en ceremonias ágiles como daily, planificación y seguimiento de tareas.

¿Qué conocimientos buscamos en el/la DevOps Engineer?

  • Al menos 4 años de experiencia en roles DevOps, Cloud o Platform Engineering.
  • Experiencia en manejo de Google Cloud Platform (GCP ) [excluyente]
  • Experiencia concreta trabajando con pipelines CI/CD en entornos productivos.
  • Manejo sólido de Git y GitLab.
  • Experiencia en Terraform como herramienta de Infrastructure as Code.
  • Conocimientos prácticos en Google Cloud Platform (GCP).
  • Experiencia resolviendo incidentes en entornos cloud o pipelines de desarrollo.
  • Capacidad para colaborar con equipos de ingeniería entendiendo sus flujos de trabajo.
  • Manejo de herramientas como Jira y Confluence.
  • Experiencia trabajando con metodologías ágiles como Scrum o Kanban.


Será un plus si además cuentas con:

  • Experiencia previa en desarrollo de software con tecnologías como Python, Go, Java o React.
  • Haber transitado desde un rol de desarrollo hacia DevOps.
  • Experiencia trabajando sobre plataformas utilizadas por múltiples equipos de ingeniería.
  • Uso de herramientas de inteligencia artificial aplicadas al desarrollo o automatización.
  • Conocimiento de herramientas colaborativas como Miro.

¿Qué competencias buscamos?

  • Trabajo colaborativo y buena disposición para interactuar con distintos equipos técnicos.
  • Capacidad analítica para diagnosticar incidentes y entender problemas de forma estructurada.
  • Orientación a la resolución de problemas en entornos dinámicos y de alta exigencia.
  • Proactividad para investigar, proponer mejoras y anticiparse a posibles incidentes.
  • Comunicación clara y efectiva para coordinarse con áreas técnicas y no técnicas.
  • Adaptabilidad para desenvolverse en contextos cambiantes y en evolución continua.
  • Organización y autonomía para gestionar tareas, prioridades e incidencias.
  • Mentalidad de mejora continua, con foco en eficiencia, estabilidad y aprendizaje constante.

Beneficios

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre para tu cumpleaños.
  • Horario flexible.
  • Asignación de computadora para tu trabajo.

Gross salary $45000 - 60000 USD/year Full time
JavaScript Python Front-end PostgreSQL
MyBCAT is a managed back-office and call center platform serving 30+ U.S. optometry practices. We handle everything from patient scheduling and insurance verification to phone system automation and clinical workflows. Our platform processes hundreds of thousands of patient interactions and is built to meet strict HIPAA compliance requirements. We are a small, high-autonomy team building at the intersection of healthcare operations and AI. Our engineering culture is AI-native — we build with Claude Code, Codex CLI, and other agent-assisted development tools daily. If you want to ship real production systems fast with a small team that punches way above its weight, this is the role.

This company only accepts applications on Get on Board.

What You Will Build

  • Develop and own features for the Client Portal (React/TypeScript) to manage back-office operations, analytics, and service interactions.
  • Implement Phone System Automation by integrating with Amazon Connect and RingCentral for call routing, transcription, and post-call workflows.
  • Contribute to OptometryConnect EHR—greenfield EHR built on the Oystehr platform—tailoring it for optometry use.

What We Are Looking For

Required: 4+ years building and deploying full-stack apps; strong React and TypeScript frontend; production Python with AWS serverless (Lambda, API Gateway, DynamoDB, S3); Infrastructure as Code experience (Terraform strongly preferred); relational (PostgreSQL) and NoSQL (DynamoDB); CI/CD pipelines (GitHub Actions or similar); high-ownership in a small team; professional English; US business hours alignment (9 AM–6 PM ET).
Strongly Preferred: healthcare/ HIPAA experience; Amazon Connect or cloud telephony; AI-assisted development tools (Claude Code, Copilot); event-driven architectures (EventBridge, SQS/SNS); Cognito or similar identity systems; experience with US-based remote teams.

Desirable but Not Required

Experience with HIPAA-compliant systems, handling PII/PHI, and working in AI-native development environments. Familiarity with AI-assisted coding workflows and a track record of delivering secure, scalable healthcare software.

Benefits & How We Work

Pay: $25,000 – $60,000 USD/year, paid monthly in USD. Contractor role with self-managed taxes. Schedule: Full-time, Mon–Fri, 9 AM–6 PM ET. Equipment: You provide hardware; we supply software licenses and AWS access. Growth: Clear path to expanded responsibilities as MyBCAT scales (current ~$1.3M annualized revenue).

Fully remote You can work from anywhere in the world.
Gross salary $2600 - 4000 Full time
Python SQL QA Big Data
VARTEQ Inc. is a remote-first IT outsourcing and product company with teams across the US, Europe, and LatAm. We build scalable data and AI-driven solutions for clients in fintech, edtech, and enterprise software. This role sits at the intersection of data engineering and quality assurance, focusing on validating ETL/ELT pipelines, data transformations, and the reliability of ML model outputs. You’ll collaborate with data engineers, ML engineers, and product stakeholders to define quality standards and contribute to automated testing frameworks. Our environment is async-friendly, client-facing, and performance-driven, with opportunities to influence data quality practices across multiple client engagements.

Apply directly from Get on Board.

Responsibilities

  • Design and implement automated tests for data pipelines (ETL/ELT), data transformations, and data quality checks
  • Validate data integrity, completeness, and consistency across sources and destinations
  • Test AI/ML pipeline outputs — model predictions, feature engineering logic, and data drift
  • Write and maintain dbt tests, Great Expectations rules, or similar data validation frameworks
  • Build and maintain test datasets and test environments
  • Collaborate with data engineers to identify edge cases and failure points early
  • Document test plans, test cases, and quality metrics
  • Participate in incident analysis and root cause investigations for data issues

Requirements

What you’ll bring: 2+ years in QA, with at least 1 year focused on data or AI pipeline testing. Proficiency in Python for test automation (pytest, custom scripts). Solid SQL skills to validate data across sources. Hands-on experience with data quality frameworks (Great Expectations, dbt tests, Soda, or similar). Strong understanding of ETL/ELT concepts and pipeline architecture. Familiarity with workflow orchestration tools (Airflow or similar). Upper-intermediate English (B2+).
Nice to have: Experience testing ML model outputs (predictions, scoring, drift detection). Familiarity with data warehouses (Snowflake, BigQuery, Redshift). Knowledge of data observability tools (Monte Carlo, Metaplane). Experience with CI/CD integration for data tests (GitHub Actions, GitLab CI).

Desirable

Data Test EngineerExperience in data validation at scale and exposure to production-grade data platforms. Ability to translate business requirements into concrete test strategies. Strong communication skills to collaborate with cross-functional teams and to document complex data issues clearly. Proactive mindset for improving data reliability and test coverage across multiple projects.

Benefits

  • 100% remote, async-friendly culture
  • Flexible working hours
  • Competitive compensation (contract-based)
  • Direct collaboration with US-based clients
  • English-speaking environment
  • Paid time off + public holidays

Fully remote You can work from anywhere in the world.
$$$ Full time
QA Selenium TDD English

En WiTi conectamos al mejor talento tecnológico con proyectos de alto impacto en Latinoamérica. Somos una empresa especializada en servicios de tecnología que transforma desafíos tecnológicos en soluciones innovadoras.

Estamos creando una plataforma tecnológica unificada de alto impacto en la industria y buscamos un/a QA Automation enfocado/a en pruebas no funcionales para sumar al equipo. Te integrarás a un equipo multidisciplinario de tecnología y negocio, con responsabilidad de diseñar, automatizar y ejecutar pruebas de rendimiento, carga y estrés sobre aplicaciones web y APIs, así como de la automatización end-to-end de flujos UI. Colaborarás estrechamente con desarrollo y DevOps para incorporar la calidad en los pipelines CI/CD, aportando métricas, reportes y mejoras continuas. Este rol ofrece la oportunidad de impactar en un entorno financiero crítico, con enfoque en rendimiento, estabilidad y experiencia de usuario.

Apply directly from Get on Board.

Responsabilidades Clave

  • Diseñar, desarrollar y ejecutar scripts de pruebas de rendimiento con herramientas como JMeter y Gatling, simulando cargas reales para identificar cuellos de botella en aplicaciones web y APIs.
  • Crear y mantener suites de pruebas automatizadas de API con Postman, incluyendo validaciones de respuestas, autenticación y chaining de requests.
  • Implementar frameworks de automatización end-to-end con Playwright y/o Selenium, cubriendo escenarios de UI en navegadores multiplataforma.
  • Analizar resultados de pruebas no funcionales (rendimiento, carga, estrés), generar reportes detallados y proponer optimizaciones basadas en métricas (throughput, latencia, tasas de error).
  • Colaborar con desarrollo y DevOps para integrar pruebas automatizadas en pipelines CI/CD, asegurando calidad continua desde desarrollo hasta producción.
  • Documentar casos de prueba, mantener repositorios de código de automatización y realizar code reviews para asegurar buenas prácticas.
  • Investigar y aplicar mejoras en herramientas y enfoques de testing, adaptándose a las necesidades del proyecto.

Requisitos Excluyentes

  • Experiencia mínima de 3 años en automatización de pruebas no funcionales, con al menos 2 años usando herramientas de performance como JMeter o Gatling.
  • Dominio probado de Postman para testing de APIs y de Playwright y/o Selenium para automatización UI.
  • Experiencia en contextos de alta criticidad o sistemas financieros, idealmente participando en proyectos de performance o estabilidad.
  • Disponibilidad para trabajar en modalidad full presencial.
  • Nivel de inglés técnico intermedio (lectura y escritura de documentación técnica).

Requisitos Deseables

  • Experiencia integrando automatización en pipelines CI/CD (Jenkins, GitLab CI, Azure DevOps).
  • Conocimientos en scripting (JavaScript/TypeScript, Java o Python) y manejo de contenedores (Docker).
  • Certificaciones en testing (ISTQB, LoadRunner u otras relacionadas).
  • Experiencia en proyectos ágiles/Scrum y herramientas de monitoreo de performance (New Relic, Grafana u otras).

Condiciones de la oferta

  • Tipo de contrato: prestación de servicios por proyecto de 4 meses (con posibilidad de extensión según desempeño y necesidades del proyecto).
  • Modalidad: Full presencial.

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Senior Observability Engineer
  • Improving South America
Virtualization Amazon Web Services Docker Continuous Deployment

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Exclusive to Get on Board.

Responsabilidades del puesto

En Improving South America buscamos un/a Senior Observability Engineer para diseñar y escalar una plataforma que procesa billions de logs, métricas y traces en entornos híbridos y multi-cloud.

Responsabilidades del rol:

  • Diseñar y operar servicios core de la plataforma (Go / Java / Python / Node).
  • Liderar la estrategia de OpenTelemetry (Collector, OTLP, semantic conventions).
  • Arquitecturar pipelines fault-tolerant de alto throughput.
  • Definir estándares de instrumentación a nivel enterprise.
  • Optimizar performance y costos (sampling, retención, agregación).
  • Definir SLIs, SLOs, error budgets y prácticas de incident response.
  • Operar sistemas 24x7 y participar en on-call.
  • Colaborar con SRE, CI/CD, Cloud, Security y Platform Engineering.
  • Diseñar pipelines seguros (mTLS, zero-trust patterns).
  • Influir en la dirección técnica de la plataforma junto a Principal Engineers.

Requerimientos indispensables

  • 8+ años en Software Engineering, Platform Engineering o SRE.
  • Nivel de inglés intermedio/ avanzado requerido para comunicación diaria con equipos globales.
  • Experiencia sólida en observabilidad a nivel arquitectura.
  • Dominio práctico de OpenTelemetry (Collector, pipelines, OTLP).
  • Experiencia diseñando sistemas distribuidos de alto throughput.
  • Experiencia real en Docker, Kubernetesy plataformas cloud-native (AWS, GCP o Azure).
  • Experiencia en ArgoCD.
  • Experiencia con Grafana stack (Grafana, Loki, Tempo, Mimir) o similar.
  • Service Mesh (Envoy / Istio).
  • Buen criterio técnico y capacidad de influencia transversal.

Plus relevante

  • Kafka / Pulsar o sistemas de streaming.
  • Infraestructura como Código (Terraform / CloudFormation).
  • Optimización de costos en telemetría.
  • Entornos regulados (healthcare, finance).

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Ingeniero de SRE / Sector Bancario
  • Devsu
  • Quito (In-office)
Java Python Agile Linux

Con más de 10 años de experiencia impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y Latinoamérica, Devsu ha desarrollado soluciones de alto impacto en sectores como el entretenimiento, la banca, la salud, el comercio minorista, la educación y los seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de un aprendizaje continuo y de participar en proyectos desafiantes y de gran impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en una variedad de productos y soluciones de software.

Buscamos un/a Ingeniero/a de Observabilidad responsable de instrumentar, mantener y optimizar las plataformas de monitoreo de uno de nuestros clientes del sector bancario.

Applications are only received at getonbrd.com.

Funciones del cargo

  • Configurar, desplegar y dar soporte a la infraestructura de observabilidad (agentes, collectors, pipelines de ingesta, almacenamiento y tableros L1–L3).
  • Colaborar con equipos técnicos para traducir necesidades en extensiones, integraciones y dashboards personalizados.
  • Coordinar con áreas de TI y proveedores la ejecución de arquitecturas de observabilidad (service maps, tagging, seguridad y compliance).
  • Detectar gaps entre necesidades del negocio y herramientas disponibles.
  • Supervisar cumplimiento de estándares y mejores prácticas de observabilidad.
  • Participar en war-rooms y post-incident reviews para acelerar el RCA y documentar acciones preventivas.
  • Capacitar a equipos en instrumentación y uso efectivo de tableros y alertas.
  • Optimizar cardinalidad, retención y costos de telemetría bajo principios FinOps, asegurando calidad del dato.

Requerimientos del cargo

  • Experiencia en instrumentación de observabilidad con herramientas como Dynatrace, Grafana, Zabbix u otras similares.
  • Modelado de métricas, logs y trazas orientadas a SLO.
  • Diseño de pipelines de ingesta y transformación de datos (Kafka, Fluent Bit u otros).
  • Scripting y automatización con Python, Bash, Terraform, Ansible.
  • Conocimientos sólidos en Kubernetes/EKS, servicios cloud (AWS, Azure o GCP) y bases de datos.
  • Conocimientos en infraestructura y networking.
  • Experiencia en troubleshooting avanzado y análisis de causa raíz (RCA) usando prácticas de AIOps y tracing distribuido.
  • Experiencia en metodologías ágiles (Scrum/Kanban) y herramientas como Jira/Confluence.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
$$$ Full time
Python Linux Go DevOps

En Talana, plataforma líder en la transformación de la gestión de Recursos Humanos a través de tecnología, trabajamos para ofrecer soluciones seguras, escalables y de alto rendimiento. Como System Reliability Engineer, te incorporarás a nuestro equipo de tecnología para asegurar la confiabilidad y disponibilidad de nuestras plataformas y servicios. Serás clave en la gestión de infraestructuras en la nube (GCP/AWS), automatización, observabilidad y mejoras continuas, colaborando con ingeniería, producto y soporte para entregar servicios robustos y escalables a nuestros clientes.

Find this vacancy on Get on Board.

Funciones del cargo

  • Liderar la configuración, administración y optimización de infraestructuras en la nube (GCP/AWS).
  • Gestión experta de clústeres Kubernetes, servidores Linux/Windows, redes y bases de datos.
  • Automatización y estandarización de Infraestructura como Código (IaC) con Terraform.
  • Automatización de despliegues y tareas repetitivas mediante prácticas de CI/CD.
  • Configurar y operar sistemas de monitoreo, logging y métricas; realizar análisis de fallas y post-mortems, proponiendo acciones correctivas permanentes.
  • Colaborar con equipos de Ingeniería, Producto y Soporte para diseñar e implementar infraestructura siguiendo buenas prácticas SRE.

Requisitos y perfil

  • Formación: Ingeniería de Ejecución en Informática, Analista de Sistemas o carrera afín.
  • Experiencia: mínimo 3 años en roles de Cloud, DevOps o SRE; al menos 1 año en posiciones similares.
  • Certificaciones/cursos: GCP, Kubernetes, Docker, Terraform, Linux, Python, Bases de Datos.
  • Conocimientos técnicos obligatorios: experiencia avanzada en GCP, Kubernetes y Docker; Linux y servicios; scripting (Bash, Python o Go); herramientas de monitoreo.
  • Conocimientos deseables: logging/métricas (Datadog), CI/CD (GitLab CI, GitHub Actions), herramientas CDN (CloudFront), Helm y Kustomize, gestión de incidencias y problemas.
  • Habilidades: comunicación efectiva, trabajo en equipo y capacidad de colaborar con múltiples disciplinas.

Conocimientos y habilidades deseables

Experiencia en diseño de soluciones resilientes, automatización avanzada, y manejo de incidentes complejos. Familiaridad con estrategias de SRE, automatización de pruebas y mejoras de rendimiento. Capacidad para traducir requisitos de negocio en soluciones técnicas confiables.

Beneficios

💸 Ajuste de renta por UF cada 3 meses, sin tope
🏝️ 5 Talana Days: 5 días libres al año
🏡 Trabajo híbrido
🏥 Seguro complementario de salud y dental
💰 Aguinaldos fiestas patrias y Navidad
💻 Proporcionamos todos los implementos de trabajo
😎 Dress Code 100% flexible
👨🏻‍🍼 Postnatal paternal extendido

¡¡ Muchas sorpresas más!!

"Todas las contrataciones están sujetas a la ley 21015. En Talana creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas"

$$$ Full time
DevOps Engineer
  • Dynamic Devs
  • Santiago (Hybrid)
JavaScript Java Python PHP

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente.

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 Buscamos DevOps Engineer para formar parte de nuestro #DynamicTeam🚀

© getonbrd.com.

Funciones del cargo

  • Colaborar con equipos de desarrollo y operaciones para implementar, gestionar y optimizar pipelines de CI/CD usando AzureDevops y GitHub Actions.
  • Gestionar la infraestructura en la nube, configurando y administrando clusters Kubernetes y utilizando servicios de AWS como EKS, Lambda, API Gateway, CloudFront, EC2, S3 y Dynamo DB para asegurar la escalabilidad y alta disponibilidad de las aplicaciones.
  • Automatizar la infraestructura y despliegue en la nube utilizando Terraform, Serverless framework y SAM AWS.
  • Monitorear y optimizar el rendimiento de sistemas y aplicaciones utilizando herramientas de observabilidad como Prometheus, Grafana o Datadog, y resolver problemas proactivamente.
  • Documentar procesos, soluciones y buenas prácticas para facilitar la colaboración dentro del equipo y entre áreas técnicas y no técnicas.
  • Fomentar la mejora continua en la infraestructura y procesos, aplicando metodologías ágiles para asegurar entregas rápidas y seguras.
  • Apoyar al equipo en la creación de soluciones automatizadas que permitan la eficiencia en el desarrollo y operaciones.

Requerimientos del cargo

  • 3 años de experiencia como DevOps Engineer o en un rol similar.
  • Experiencia avanzada en AzureDevops, GitHub Actions y GIT.
  • Conocimiento avanzado de CI/CD y experiencia en la implementación y optimización de pipelines.
  • Experiencia gestionando y configurando Kubernetes y servicios de AWS como EKS, Lambda, API Gateway, CloudFront, EC2, S3 y Dynamo DB.
  • Experiencia con Terraform, Serverless framework, SAM AWS para la automatización de infraestructuras en la nube.
  • Conocimientos en lenguajes de programación como JS, Java, Python y/o PHP.
  • Habilidades en monitoreo y solución de problemas utilizando herramientas de observabilidad como Prometheus, Grafana, o Datadog.
  • Excelentes habilidades de comunicación y colaboración en entornos multifuncionales.
  • Experiencia trabajando en entornos ágiles.

Opcionales

  • Conocimiento y experiencia con Docker y Kubernetes en entornos empresariales.
  • Certificaciones en AWS, Azure o Google Cloud.
  • Familiaridad con Jenkins, CircleCI, u otras herramientas CI/CD.
  • Experiencia en prácticas de Site Reliability Engineering (SRE).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Health coverage Dynamic Devs pays or copays health insurance for employees.
Gross salary $3000 - 4000 Full time
Python Agile Git Linux

Insight Global represents a broad network of talent partners and client engagements, delivering mission-critical IT solutions across industries. In this engagement, our client seeks a QA Automation Engineer to join the client’s ecommerce applications team. You will focus on testing efforts for full stack web and mobile applications, supporting and enhancing the automation environment, and coordinating testing activities within an Agile framework. The role emphasizes API testing, automation framework improvements, and ensuring robust quality across web and mobile experiences. Collaboration across cross-functional teams will be key to delivering reliable automation coverage and process improvements in a fast-paced, distributed environment.

Apply directly at getonbrd.com.

Responsibilities

  • Implement and maintain automated test scripts and frameworks for web and mobile applications, focusing on API and UI layers using TypeScript.
  • Enhance and refactor the existing automation framework to support new functionality and improve test stability and performance.
  • Collaborate with the Agile team to plan, design, and execute automated tests aligned with product goals and release schedules.
  • Identify, document, and track defects related to API and frontend testing; work with developers to reproduce and resolve issues quickly.
  • Integrate automated tests into CI/CD pipelines (Git/GitLab) and ensure reliable test execution in the build process.
  • Coordinate testing activities across sprints, maintain test data, and provide clear test status updates to stakeholders.
  • Maintain strong knowledge of testing best practices, contribute to process improvements, and mentor junior teammates as needed.

What you’ll bring

We are looking for a QA Automation Engineer with 5+ years of hands-on experience in QA automation or SDET roles. You should have strong TypeScript expertise for automation and be proficient in API automation (not using Postman/Newman). Experience with Jira and Git/GitLab in CI/CD contexts is essential. Familiarity with Playwright, Agile/Scrum methodologies, and mobile testing (Appium) is highly valued. Linux skills and Python ability are considered a plus. You will work remotely as part of the client’s ecommerce applications team, testing full stack web and mobile applications, supporting and expanding the automation environment, and driving process improvements through automation. Strong collaboration, analytical thinking, and a proactive approach to defect management and quality improvements are essential.

Nice-to-haves

Pluses include Linux proficiency, Python scripting, and Appium experience for mobile automation.

Benefits

Our program emphasizes empowering people to grow professionally and financially. While specific benefits are determined by the client engagement, we offer competitive compensation, opportunities for career advancement, and a collaborative, globally distributed team environment. If you’re passionate about building robust automation and delivering high-quality software, we want to hear from you.

$$$ Full time
QA Automation
  • Coderslab.io
JavaScript Java Python DevOps
Coderslab.io es una empresa que ayuda a las organizaciones a transformarse y crecer mediante soluciones tecnológicas innovadoras. Formarás parte de un grupo de más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Trabajarás dentro de equipos diversos que cuentan con talento de primer nivel y participarás en proyectos innovadores y desafiantes que impulsarán tu desarrollo profesional. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno colaborativo y orientado a resultados.

This job offer is available on Get on Board.

Funciones del cargo

Ejecutar y fortalecer la automatización de pruebas dentro del ecosistema de productos financieros, trabajando en conjunto con el equipo funcional y DevOps para aumentar la cobertura automatizada, optimizar tiempos de validación y apoyar la integración de herramientas de IA generativa en la creación de casos y scripts de prueba. El foco del rol es ejecución técnica eficiente, integración rápida y aporte práctico al framework existente.

1. Automatización de Pruebas:
• Desarrollar y mantener scripts automatizados utilizando Selenium u otro framework equivalente.
• Automatizar pruebas de regresión, integración y APIs.
• Integrar pruebas dentro del pipeline CI/CD existente.
• Ejecutar pruebas automatizadas y generar reportes estructurados.

2. Apoyo en Uso de IA para QA:
• Utilizar herramientas de IA generativa para apoyar la creación de casos de prueba y scripts.
• Colaborar en la implementación de flujos que permitan generar pruebas a partir de descripciones funcionales.
• Optimizar tiempos de creación de pruebas mediante herramientas asistidas por IA.

3. Trabajo en Entorno Bancario / Alta Criticidad:
• Ejecutar pruebas sobre microservicios y APIs.
• Participar en pruebas de carga y validación básica de concurrencia (según lineamientos del equipo).
• Documentar resultados con trazabilidad adecuada para entornos regulados.
• Cumplir estándares de calidad y buenas prácticas definidas por el equipo interno.

4. Trabajo Colaborativo:
• Coordinar con QA funcional para convertir historias de usuario en pruebas automatizadas.
• Trabajar con equipo DevOps para asegurar correcta ejecución en entornos de despliegue.
• Proponer mejoras prácticas dentro del framework existente.

Requerimientos del cargo

Requisitos Técnicos:
•Requisito importante experiencia previa trabajando en Banca
• Selenium u otro framework de automatización.
• Conocimiento en Java, Python o JavaScript para scripting.
• Experiencia en pruebas de APIs.
• Integración con herramientas CI/CD (Jenkins, GitLab CI, Azure DevOps u otros).
• Conocimiento básico/intermedio de entornos containerizados (deseable).
• Experiencia en uso práctico de herramientas de IA generativa para apoyo en generación de código o pruebas (deseable).

Condiciones

Modalidad de contratación: Contractor

Fully remote You can work from anywhere in the world.
Gross salary $2900 - 4000 Full time
Product Engineer DevOps
  • Ria Money Transfer
  • Santiago (Hybrid)
Python Linux DevOps Continuous Integration

Ria Money Transfer, a business segment of Euronet Worldwide, Inc. (NASDAQ: EEFT), delivers innovative financial services including fast, secure, and affordable global money transfers to millions of customers along with currency exchange, mobile top-up, bill payment and check cashing services, offering a reliable omnichannel experience. With over 600,000 locations in nearly 200 countries and territories, our purpose remains to open ways for a better everyday life.

We are looking for a Product Engineer focused on CI/CD, Delivery Acceleration, and AI-Augmented Engineering Workflows to improve how fast, safely, and reliably our digital products reach customers. You will integrate AI-powered tooling across the delivery lifecycle — from code authoring and review through testing, deployment, and observability — while maintaining the quality and compliance standards required in financial services.

Official job site: Get on Board.

Roles & Responsibilities

  • Design, implement, and optimize CI/CD pipelines to reduce build times, increase deployment frequency, and improve release reliability across mobile and web platforms.
  • Build and maintain infrastructure-as-code for automated testing, staging, and production environments.
  • Improve environment consistency and deployment automation, including configuration, secrets management, and release orchestration.
  • Standardize CI/CD patterns across squads while allowing flexibility for product-specific needs.
  • Evaluate and integrate AI-assisted development tools (e.g., GitHub Copilot, Cursor, CodeWhisperer) across engineering teams, ensuring responsible usage aligned with security and compliance policies.
  • Implement AI-powered code review and security scanning tools (e.g., CodeRabbit, Snyk AI, SonarQube AI) into PR workflows to catch vulnerabilities and quality issues before code enters the pipeline.
  • Introduce AI-driven test optimization tools (e.g., Diffblue, Launchable, Qodo) to auto-generate test cases and intelligently prioritize test execution based on code change impact.
  • Leverage AI-powered observability platforms (e.g., PagerDuty AIOps, Datadog AI) for faster anomaly detection and reduced mean time to recovery (MTTR).
  • Explore and prototype LLM-based automation for build failure triage, release note generation, and intelligent rollback recommendations.
  • Establish delivery performance dashboards (DORA metrics: deployment frequency, lead time, change failure rate, MTTR).
  • Enable progressive delivery strategies such as feature flags, staged rollouts, and trunk-based development.
  • Develop self-service tooling and templates that empower teams to deploy safely with minimal manual intervention.
  • Collaborate with QA and UAT stakeholders to embed automated testing into pipelines.
  • Document delivery workflows, best practices, and AI tooling guidance for engineering teams

Position Requirements

  • 1+ years of experience in software engineering, platform engineering, or DevOps roles.
  • Experience designing and maintaining CI/CD pipelines using tools such as GitHub Actions, GitLab CI, Jenkins, CircleCI, or similar.
  • Familiarity with containerization technologies (Docker, Kubernetes).
  • Familiarity with at least one major cloud platform (AWS, GCP, or Azure).
  • Experience with infrastructure-as-code tools such as Terraform, Pulumi, or CloudFormation.
  • Scripting skills (Bash, Python, or similar) to automate workflows and tooling.
  • Understanding of testing strategies (unit, integration, end-to-end) and how they integrate into automated pipelines.
  • Familiarity with AI-assisted development tools and an interest in embedding them responsibly into engineering workflows.
  • Strong communication skills and ability to work across product, engineering, QA, and operations teams.

Nice to have

  • Experience with feature flag platforms (PostHog, Split, LaunchDarkly).
  • Familiarity with GitOps workflows (ArgoCD, Flux).
  • Experience with observability platforms, especially those with AI-driven anomaly detection.
  • Background supporting mobile CI/CD pipelines (iOS/Android).
  • Experience building or integrating LLM-based agents into developer toolchains.
  • Familiarity with prompt engineering or RAG patterns for internal developer productivity tooling.
  • Experience in regulated or financial services environments.

Benefits

  • 💰 Annual Salary Review
  • 🎄 Year-End Bonus
  • 📈 15% Off EEFT Stock
  • 🥳 Birthday Day Off
  • 🩻 Health, Cancer, Dental & Life Insurance
  • 💸 Free Money Transfers with Ria
  • 🏋️‍♂️ SmartFit Gym Partnership

Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ria Money Transfer pays or copays health insurance for employees.
Computer provided Ria Money Transfer provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Ria Money Transfer offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Python Linux DevOps Virtualization
BC Tecnología es una consultora de TI enfocada en Servicios IT, con experiencia en administrar portafolios, desarrollar proyectos, realizar outsourcing y selección de profesionales para equipos ágiles en Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio. Trabajamos con clientes de servicios financieros, seguros, retail y gobierno, promoviendo un enfoque centrado en el cliente, metodologías ágiles y desarrollo de productos. Buscamos integrar a nuestro equipo a un/a SRE/DevOps Junior para apoyar en la implementación, automatización y operación de infraestructuras críticas para servicios digitales, asegurando disponibilidad, estabilidad y observabilidad.
En BC Tecnología participarás en proyectos innovadores con clientes de alto nivel, colaborando con equipos de Desarrollo y Arquitectura para impulsar infraestructura como código, despliegue continuo y soporte a plataformas productivas en un entorno de crecimiento y aprendizaje profesional.

This job is published by getonbrd.com.

Funciones

  • Implementación de Infraestructura como Código (IaC) con Terraform para entornos de desarrollo, pruebas y producción.
  • Automatización de entornos y despliegues para acelerar entregas y mejorar la consistencia entre entornos.
  • Operación de servicios en la nube (ideal AWS) y optimización de costos y rendimiento.
  • Soporte en monitoreo, alertamiento e incidentes (RCA) para garantizar disponibilidad y respuesta oportuna.
  • Mantenimiento de pipelines CI/CD y documentación técnica para equipos de desarrollo y operaciones.

Requisitos

• 1 a 3 años en roles SRE o DevOps.
• Nube (AWS / GCP / Azure) – Nivel intermedio.
• Terraform – Nivel intermedio.
• Docker y Linux – Nivel intermedio.
• CI/CD y automatización (Bash o Python).
• Conocimientos en observabilidad y resolución de problemas en producción.

Desirable

• Experiencia en entornos de alta disponibilidad y resiliencia.
• Conocimientos en herramientas de monitoreo (Prometheus, Grafana, CloudWatch) y logging (ELK/EFK).
• Certificaciones en AWS/GCP/Azure o en DevOps (upskilling continuo).

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Gross salary $1800 - 2200 Full time
Python Linux DevOps Virtualization
BC Tecnología es una consultora de TI con personal experto en diversas áreas tecnológicas. Administramos portafolio, desarrollamos proyectos, realizamos outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, en clientes de servicios financieros, seguros, retail y gobierno. Contamos con 6 años diseñando soluciones a las necesidades de nuestros clientes, con foco en consultoría, formación de equipos, desarrollo de proyectos y servicios de soporte/administración IT. Buscamos participar en proyectos innovadores con clientes de alto nivel, promoviendo un ambiente colaborativo, aprendizaje continuo y crecimiento profesional.

Apply only from getonbrd.com.

Responsabilidades

  • Implementación de Infraestructura como Código (IaC) con Terraform para entornos de producción y staging.
  • Automatización de entornos y despliegues para garantizar entregas rápidas y confiables.
  • Operación de servicios en la nube (principalmente AWS) y gestión de incidentes/operaciones 24x7.
  • Soporte en monitoreo, alertamiento e RCA de incidentes; mejora continua de la observabilidad.
  • Mantenimiento de pipelines de CI/CD y documentación técnica actualizada.

Requisitos y habilidades

Buscamos un/a SRE / DevOps Engineer Junior con 1 a 3 años de experiencia en roles de SRE o DevOps. Requisitos técnicos: experiencia intermedia en Cloud (AWS, GCP o Azure), Terraform intermedio, Docker y Linux intermedios. Conocimientos en CI/CD y automatización (Bash o Python). Deseable experiencia en observabilidad y resolución de problemas en producción. Competencias blandas: proactividad, orientación a resultados, trabajo en equipo y capacidad de aprendizaje continuo. Se valorarán certificaciones en nube y herramientas de automatización.

Deseable

Experiencia práctica con Kubernetes, herramientas de monitoreo (Prometheus, Grafana, CloudWatch), scripting avanzado (Python), y conocimientos en seguridad en nube. Capacidad de trabajar en entornos dinámicos y con clientes de diversos sectores.

Beneficios y próximo pasos

En BC Tecnología promovemos un entorno de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura impulsa el crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Modalidad híbrida ubicada en Las Condes, que facilita combinar trabajo remoto y presencial para un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
$$$ Full time
DevOps Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Git DevOps Virtualization Docker
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Nuestro equipo trabaja en proyectos de alto impacto, con enfoque en infraestructura, desarrollo y operaciones, adoptando metodologías ágiles y prácticas de DevOps para entregar valor de manera continua. El/la profesional se integrará a un proyecto relevante en entorno web para un cliente del sector financiero, con posibilidades de crecimiento y aprendizaje en un entorno colaborativo y orientado a resultados.

Apply exclusively at getonbrd.com.

Funciones

  • Implementar y mantener procesos CI/CD para entornos de desarrollo, pruebas y producción.
  • Definir estrategias de despliegue y release management según entorno.
  • Gestionar monitoreo, observabilidad y respuesta ante incidentes (desarrollo, testing y producción).
  • Analizar métricas de rendimiento y optimizar el ciclo de despliegue para eficiencia y estabilidad.
  • Apoyar en resolución de incidentes y brindar soporte técnico al equipo.
  • Trabajar con Google Cloud Platform (GCP), Docker y Kubernetes, así como Terraform (IaC).
  • Colaborar con equipos de desarrollo, seguridad y operaciones para entregar software de alta calidad.

Descripción

Buscamos un DevOps Engineer con al menos 3 años de experiencia para unirse a un proyecto en un entorno web de un cliente del sector financiero. Deberá poseer experiencia práctica en GCP e IaaS, manejo de contenedores con Docker y Kubernetes, y gestión de Infraestructura como Código con Terraform. Se valorará conocimiento de herramientas de observabilidad (Grafana, Loki u otras) y experiencia con GitHub/Git. Se requiere capacidad de análisis, proactividad y enfoque en mejora continua, con habilidad para trabajar en equipo en un entorno ágil y orientado a la entrega de valor al cliente. El lugar de trabajo es híbrido, con presencia en Santiago Centro, y combinará trabajo remoto y colaborativo en oficina según las necesidades del proyecto.

Requisitos deseables

Experiencia adicional con otros proveedores de nube, lenguajes de scripting como Python y/o Go, y conocimiento de prácticas de seguridad en DevOps. Certificaciones en GCP, Kubernetes o Terraform serán valoradas. Capacidad de comunicación efectiva en español (y/o inglés técnico) para colaborar con equipos multifuncionales. Enfoque en la mejora continua, habilidades de resolución de problemas y capacidad para gestionar prioridades en un entorno dinámico.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Linux Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply without intermediaries from Get on Board.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Gross salary $1000 - 1300 Full time
JavaScript Python PHP MySQL
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

Apply directly on Get on Board.

Funciones del Puesto

Buscamos un Administrador Linux con experiencia en Debian para unirse a nuestro equipo de infraestructura y desarrollo. Serás responsable de administrar servidores, desplegar aplicaciones y asegurar la disponibilidad de nuestros sistemas en la nube.
Entre tus responsabilidades principales estarán:
  • Administración de servidores Linux (principalmente Debian).
  • Despliegue y mantenimiento de aplicaciones en PHP, Python y Node.js.
  • Instalación, configuración y administración de bases de datos:
    • MySQL y PostgreSQL, incluyendo clústeres y esquemas master + slave.
  • Despliegue y optimización de aplicaciones PHP, principalmente:
    • WordPress.
    • Symfony.
  • Administración y operación en entornos cloud, principalmente en Vultr.
  • Implementación y gestión de respaldos en buckets S3.
  • Manejo de secretos y credenciales con HashiCorp Vault.

Requisitos y Habilidades

  • Experiencia demostrable en administración de sistemas Linux (Debian).
  • Conocimientos en despliegue de aplicaciones web (PHP, Python, Node.js).
  • Experiencia con bases de datos relacionales (MySQL, PostgreSQL).
  • Conocimientos en alta disponibilidad (clusters, replicación).
  • Experiencia en servidores web Nginx y PHP-FPM.
  • Experiencia en respaldos de datos en entornos productivos.
  • Conocimiento de herramientas de seguridad y gestión de secretos.
  • Experiencia con contenedores Docker y Kubernetes.

Conocimientos y Experiencia Deseable

  • Automatización con Ansible, Terraform u otras herramientas IaC.
  • Experiencia en monitoreo y logging (Prometheus, Grafana, Loki, etc.).
  • Buenas prácticas de seguridad y hardening en servidores Linux.

Beneficios

  • Modalidad de trabajo remoto.
  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
  • Participar en proyectos de alto impacto con tecnologías modernas.
  • Equipo colaborativo y enfocado en buenas prácticas DevOps.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Ingeniero de Infraestructura
  • BC Tecnología
  • Santiago (In-office)
PHP PostgreSQL Linux Web server
BC Tecnología es una consultora de TI con personal experto en diversas áreas. Nos enfocamos en servicios IT que abarcan administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando para clientes de servicios financieros, seguros, retail y gobierno. Con más de 6 años diseñando soluciones a la medida, nuestras áreas de negocio abarcan consultoría y diseño de soluciones, formación y outsourcing de personal, desarrollo de proyectos y servicios de soporte IT. Nuestro enfoque está en el cliente, metodologías ágiles, cambios organizacionales y desarrollo de productos.

Apply to this posting directly on Get on Board.

Funciones del cargo

  • Administrar, configurar y mantener la infraestructura IT de la organización, con enfoque en entornos virtualizados y plataformas de alto rendimiento.
  • Gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox), asegurando disponibilidad, rendimiento y seguridad.
  • Administrar y optimizar sistemas Linux (Debian, CentOS u otros) y Windows 10 o superiores, incluyendo SSH, servicios web, bases de datos y pila de aplicaciones.
  • Gestionar servicios web (Apache, Nginx), certificados SSL, proxies inversos y optimización de rendimiento; administrar bases de datos (PostgreSQL) y aplicaciones PHP.
  • Monitoreo, respaldo, recuperación ante desastres y gestión de cambios; documentación completa de toda la operativa para continuidad futura.
  • Implementar buenas prácticas de ciberseguridad y mantener la documentación actualizada.
  • Trabajar con equipo de soporte, automatización y desarrollo para garantizar soluciones escalables y sostenibles.

Requisitos y perfil

Formación: Ingeniero en Informática, Ingeniería de Sistemas, Computación u otra formación relacionada.
Experiencia: trayectoria comprobable en gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox).
Conocimientos técnicos: Linux avanzado; SSH; servidores web Apache y Nginx; gestión de bases de datos PostgreSQL; experiencia con aplicaciones PHP; gestión de entornos virtualizados; conocimiento de ciberseguridad de servidores y versiones de sistemas operativos.
Certificaciones: Certificación VMware y certificación en Linux.
Capacidades: documentación detallada de las actividades, capacidad de trabajo en equipo, orientación a resultados, resiliencia ante incidentes y buena comunicación técnica.

Competencias deseables

Conocimientos en Proxmox avanzado, scripting y automatización ( Bash, Python), herramientas de gestión de configuración (Ansible, Puppet), experiencia con Docker/Kubernetes, cloud (AWS, Azure) y técnicas de migración y consolidación de infraestructuras. Se valorará experiencia en ITIL, gestión de proyectos y capacidad para liderar pequeños equipos o proyectos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $2500 - 3300 Full time
JavaScript C Python Agile

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.

En esta ocasion estamos buscando incorporar un/a QA Automation Engineer con amplia experiencia en entornos productivos, capaz de diseñar, modificar y mantener integraciones y modelos de datos críticos con total seguridad y control del impacto, garantizando la continuidad operativa, la calidad de la información y cero impacto al negocio.

Apply to this job at getonbrd.com.

Funciones del cargo

• Diseñar, desarrollar y mantener scripts y marcos de prueba automatizados para aplicaciones web y/o móviles.

• Colaborar con desarrolladores, propietarios de productos e ingenieros de control de calidad manuales para definir estrategias de prueba y garantizar su cobertura.

• Ejecutar conjuntos de pruebas automatizadas, analizar resultados e informar defectos de forma clara y concisa.

• Participar en revisiones de código, proporcionar retroalimentación sobre estrategias de automatización y garantizar el cumplimiento de las mejores prácticas de control de calidad.

• Integrar pruebas automatizadas en los procesos de CI/CD para una ejecución de pruebas eficiente y escalable.

• Contribuir a la mejora de los procesos, herramientas y metodologías de control de calidad para optimizar la calidad del producto.

Requerimientos del cargo

• Más de 3 años de experiencia en ingeniería de control de calidad (QA) con especialización en automatización de pruebas.

• Sólida experiencia práctica con frameworks de automatización Playwright (se requiere Selenium, Cypress o similares son un plus).

• Experiencia con lenguajes de programación/scripting como JavaScript, Python o C#.

• Experiencia con pruebas de API (Postman, REST Assured o herramientas similares).

• Experiencia práctica con herramientas de CI/CD (Jenkins, GitHub Actions, Azure DevOps o similares).

• Sólidos conocimientos de técnicas de diseño de pruebas, metodologías de QA y SDLC.

• Experiencia trabajando en entornos Agile/Scrum.

Inglés avanzado (obligatorio).

Deseable:

• Experiencia con entornos en la nube (AWS, Azure, GCP).

• Conocimiento de pruebas de rendimiento y herramientas relacionadas (JMeter, Gatling).

• Certificaciones de QA ISTQB o similares.

Condiciones

Modalidad: 100% Remoto
Duración del proyecto: 4 meses con posibilidad de extensión

Fully remote You can work from anywhere in the world.
Gross salary $2000 - 2600 Full time
Ingeniero QA
  • MetroMuv
  • Santiago (Hybrid)
UI Design Python Git Usabilidad

En MetroMuv nos esforzamos por conectar a las personas con un mundo en movimiento, simplificando y haciendo más accesibles las transacciones relacionadas con el transporte urbano. Nuestro proyecto se centra en desarrollar soluciones tecnológicas innovadoras que permitan movilizarse libremente, promoviendo ciudades más conectadas, eficientes y sostenibles. En MetroMuv impulsamos una cultura colaborativa, ágil y transparente, dándole a cada integrante la oportunidad de liderar y aportar activamente para la transformación del sistema de transporte y pago.

This job is original from Get on Board.

Responsabilidades principales

Abrimos un espacio en nuestro equipo para quien lidere la calidad de nuestras soluciones tecnológicas, definiendo y ejecutando pruebas, automatizando controles y asegurando entregas estables y confiables. Este rol trabaja de forma directa con desarrollo, producto y operaciones, con autonomía y foco en resultados, y tiene un impacto clave en la experiencia de movilidad de miles de personas que usan MetroMuv cada día.

  • Diseñar, implementar y mantener planes de prueba para validar las funcionalidades de las aplicaciones y sistemas de MetroMuv.
  • Ejecutar pruebas manuales y automáticas para identificar defectos, inconsistencias o brechas en los requisitos.
  • Colaborar con los desarrolladores y el equipo de producto para garantizar que los problemas detectados sean corregidos y validados de manera eficiente.
  • Automatizar flujos de pruebas clave utilizando herramientas y frameworks apropiados para reducir tiempos de validación.
  • Participar en revisiones de Requerimientos y reglas de negocio para asegurar que los requisitos sean claros y comprobables.
  • Generar reportes de calidad y KPI’s relacionados con el desempeño de las pruebas, proponiendo iniciativas de mejora continua.

Requisitos y competencias técnicas esperadas

🧠 Experiencia y conocimientos técnicos esperados

  • Experiencia en técnicas y tipos de pruebas funcionales en aplicaciones móviles.
  • Experiencia en pruebas de backend, incluyendo APIs, tareas programadas y servicios de procesos internos.
  • Experiencia en diseño y ejecución de casos de prueba, tanto manuales como automatizados.
  • Experiencia en técnicas y tipos de pruebas: funcionales, integración, API, E2E, seguridad, compatibilidad, usabilidad y automatizadas.
  • Experiencia en automatización de pruebas funcionales para App y APIs.
  • Conocimiento y experiencia en herramientas y frameworks de automatización y reporting como Selenium, Appium, Playwright, Allure Report, Behave o Cucumber, incluyendo algún lenguaje de programación (esperable Python).
  • Experiencia en el uso de herramientas para pruebas de APIs como Postman o Swagger.
  • Experiencia en gestión de pruebas y defectos usando Xray, qAlity, Zephyr o ALM.
  • Familiaridad con procesos y herramientas de integración continua (CI/CD) para la integración de set de pruebas.
  • Experiencia práctica en sistemas de control de versiones (Git con Azure Repos, GitLab o GitHub).
  • Experiencia en el uso de bases de datos relacionales y no relacionales para realizar consultas.
  • Familiaridad con pruebas de performance, incluyendo estrés y volumen.

⭐ Certificaciones y conocimientos deseables

  • Certificación ISTQB Foundation Level.

Conocimientos y habilidades deseables

  • Experiencia asegurando la calidad de productos digitales mediante pruebas manuales y automatizadas, con foco en la experiencia del usuario y la estabilidad de la solución.
  • Pensamiento analítico y crítico.
  • Capacidad para identificar, documentar y comunicar defectos de manera efectiva.
  • Atención al detalle y al impacto en el negocio.
  • Trabajo colaborativo en entornos ágiles (Scrum, Kanban), incluyendo documentación en Confluence.
  • Comunicación efectiva, colaboración y trabajo en equipo.
  • Adaptabilidad, autonomía y aprendizaje continuo.

Beneficios:

  • Modelo híbrido de trabajo, con flexibilidad y reducción de jornada los viernes hasta las 14 horas.
  • Seguro Complementario Full para el equipo.
  • Vacaciones+: hasta 6 días extras según antigüedad, además de días especiales para momentos importantes.
  • MetroPass: tarjeta para acceder a la Red Metro — nuestra propia Bip!
  • Aguinaldos, Giftcards y beneficios adicionales exclusivos de MetroMuv

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MetroMuv offers space for internal talks or presentations during working hours.
Life insurance MetroMuv pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage MetroMuv pays or copays health insurance for employees.
Dental insurance MetroMuv pays or copays dental insurance for employees.
Computer provided MetroMuv provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Shopping discounts MetroMuv provides some discounts or deals in certain stores.
Vacation over legal MetroMuv gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal MetroMuv offers paid parental leave over the legal minimum.
$$$ Full time
Senior QA Engineer
  • Improving South America
JavaScript Ruby Ruby on Rails Python

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

© getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
QA Engineer Senior
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Analytics
En BC Tecnología operamos como una consultora de TI con foco en servicios IT, desarrollo de proyectos y outsourcing. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, apoyando la entrega de soluciones de calidad desde la definición de requisitos hasta la validación y mejora continua de procesos. Nuestro objetivo es integrar soluciones que respondan a las necesidades del cliente, con énfasis en metodologías ágiles, crecimiento profesional y desarrollo de productos, manteniendo un enfoque claro en la experiencia del usuario y la eficiencia operativa.

Job source: getonbrd.com.

Funciones principales

Participar en la definición de requisitos, flujos de trabajo y procesos de control de calidad. Colaborar activamente en ceremonias ágiles (Scrum, Kanban). Diseñar, documentar y ejecutar planes y casos de prueba. Ejecutar pruebas funcionales y no funcionales (usabilidad, compatibilidad, rendimiento, seguridad). Realizar testing frontend, backend, APIs y mobile. Reportar, gestionar y dar seguimiento a bugs, defectos e incidencias. Analizar logs, servicios y data de prueba para identificar causas raíz. Evaluar el impacto de cambios en el producto. Monitorear métricas de calidad y estabilidad (Grafana, Kibana u otras). Participar en la ejecución y análisis de procesos de CI/CD. Ejecutar y analizar procesos automatizados de prueba. Detectar oportunidades de mejora en el proceso de desarrollo. Apoyar la gestión de calidad de uno o más equipos de desarrollo.

Requisitos y perfil

Más de 3 años de experiencia en roles de QA / Quality Assurance. Experiencia sólida en QA manual avanzado. Experiencia en pruebas de aplicaciones web, mobile y web services. Experiencia en pruebas de API (Postman, SoapUI). Conocimiento del ciclo de vida del desarrollo de software (SDLC). Experiencia trabajando con metodologías ágiles. Manejo de herramientas de gestión de pruebas e incidencias (Jira, TestLink, Zephyr u otras). Capacidad de documentación técnica clara (casos de prueba, resultados, defectos). Habilidad analítica, atención al detalle y orientación a la mejora continua.
Conocimientos técnicos valorados: lenguajes orientados a objetos (Python, Java o JavaScript). Buenas prácticas de desarrollo (encapsulamiento, escalabilidad). Automatización de pruebas (web, servicios, mobile o scripting). Revisión de código (peer review). Herramientas de debugging (IDE, navegador). Patrones arquitectónicos (MVC, arquitectura en capas, event-driven). CI/CD (Pipelines, Jenkins, Bitrise). Infraestructura y cloud (Docker, AWS, Azure). Control de versiones (GitHub, GitLab, Bitbucket).
“Para avanzar en el proceso, es necesario cumplir con los requisitos técnicos y de experiencia señalados.”

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

$$$ Full time
Python Agile REST API QA
Niuro connects projects with elite tech teams, empowering collaborative work with leading U.S. companies. As a QA Engineer, you will contribute to impactful industrial data projects that emphasize technical excellence and continuous innovation. You will join a globally distributed team focused on delivering high-quality web applications and robust testing practices. This role supports our mission to simplify global talent acquisition by providing autonomous, high-performance teams and strong administrative support so you can focus on delivering exceptional results.

Applications at getonbrd.com.

Role goals and responsibilities

  • Review, test, and validate features delivered by developers in each sprint to ensure quality from requirements to release.
  • Perform functional, regression, exploratory, and edge-case testing across web applications.
  • Identify risks early and provide clear, actionable feedback to the development team.
  • Design, implement, and maintain Playwright automation scripts for UI and API tests.
  • Create and maintain comprehensive technical documentation, including end-to-end system flows.
  • Independently validate features from requirements through production readiness, ensuring reliability and performance.
  • Collaborate with cross-functional teams in an Agile/Scrum environment to improve product quality and testing processes.
  • Contribute to test strategy, test case design, and CI/CD integration for automated testing within pipelines.

Required skills and experience

We are seeking a QA Engineer with a minimum of 4+ years of web-focused QA experience. You should have strong manual testing capabilities and hands-on automation experience using Playwright (UI and API testing) or equivalent tools. A solid understanding of RESTful APIs, HTTP methods, and status codes is essential. Proficiency in scripting with TypeScript and/or Python is required. You will be comfortable testing complex systems and workflows, and have experience working in Agile/Scrum environments. Excellent analytical, problem-solving, documentation, and communication skills are necessary, along with the ability to communicate effectively in English with international teams.

Nice-to-have attributes

Familiarity with additional test automation frameworks and tools, experience with performance testing, and exposure to containerized environments (Docker/Kubernetes) are advantageous. Prior experience in data-heavy or industrial data projects, and a track record of driving quality improvements in cross-functional teams will be highly valued. Strong collaborative mindset and ability to adapt to evolving project requirements in a remote global setting are desirable.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
$$$ Full time
Python Linux Continuous Integration Continuous Deployment
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.
Contamos con un nutrido equipo de más de 480 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.
En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This job offer is on Get on Board.

El/La Ingeniero/a de Plataforma de 2Brains debe

El rol del Ingeniero de plataforma se encargara de diseñar y mantener infraestructuras seguras y escalables que impulsan la velocidad y eficiencia de los equipos de desarrollo. Se apoya en prácticas de Infraestructura como Código (Terraform, Ansible) para automatizar el aprovisionamiento y asegurar entornos consistentes y reproducibles.
Además, incorpora observabilidad y monitoreo para optimizar desempeño y costos, y gestiona la plataforma como un producto, con foco en el Developer Experience (DevEx). También lidera iniciativas de AI-Enhanced Operations, habilitando detección temprana de anomalías, auto-remediación y escalamiento predictivo.

¿Qué desafíos tendrá el/la Ingeniero/a de Plataforma?

  • Evolución de CI/CD: Diseñar, mantener y mejorar pipelines de integración y despliegue continuo, asegurando releases rápidos, seguros y confiables.
  • Colaboración y consultoría interna: Trabajar estrechamente con los equipos de desarrollo, entendiendo sus flujos de trabajo y transformando sus necesidades en soluciones de infraestructura efectivas.
  • Soporte operativo y resolución de bloqueos: Atender incidencias y brindar apoyo técnico en el día a día del ciclo de desarrollo, garantizando que los equipos puedan entregar valor sin fricciones.
  • Definición de estándares y documentación: Crear y mantener lineamientos claros que mejoren la calidad del proceso de despliegue y fomenten la autonomía de los desarrolladores.
  • Automatización: Detectar tareas repetitivas o complejas dentro del ciclo de vida del software y desarrollar scripts o herramientas que simplifiquen y automaticen estos procesos.

¿Qué conocimientos buscamos en el/la Ingeniero/a de Plataforma?

  • Experiencia en CI/CD: Manejo sólido de herramientas como GitLab CI (ideal), Jenkins o GitHub Actions.
  • Experiencia en Cloud Computing: Preferentemente en Google Cloud Platform (GCP).
  • Kubernetes (nivel usuario): Capacidad para desplegar aplicaciones, gestionar manifiestos y realizar troubleshooting de servicios (no se requiere experiencia avanzada en administración del clúster).
  • Programación y scripting: Conocimientos prácticos en Python o Bash para automatización y desarrollo de herramientas internas.
  • Infraestructura como Código: Experiencia con Terraform será considerada una ventaja.
  • Deseable: Conocimientos en autoescalado con KEDA, Service Mesh (Istio) o Cloud Functions en GCP.
  • Orientación al servicio y empatía: Habilidad para comunicarse de forma efectiva con equipos de desarrollo, comprender sus desafíos y priorizar soluciones que mejoren su experiencia diaria.

¿Qué competencias buscamos en el/la Ingeniero/a de Plataforma?

  • Colaboración
  • Orientación a resultados
  • Aprendizaje continuo
  • Pensamiento sistémico
  • Apertura al cambio
  • Comunicación
  • Mentoría
  • Pensamiento estratégico
  • Dar y recibir feedback
  • Influencia y persuasión

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico.

Fully remote You can work from anywhere in the world.
Gross salary $2400 - 3200 Full time
Python Agile SQL Virtualization

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Apply exclusively at getonbrd.com.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
Gross salary $1800 - 3000 Full time
JavaScript Java Python Git

Vita Wallet es una de las principales empresas de latinoamérica en el segmento de pagos cross border y crypto. Nuestra misión es permitir que empresas y personas puedan enviar y recibir pagos entre países de forma rápida, económica y segura.

Desde nuestra fundación en 2019, nos hemos enfocado en crear valor para nuestros clientes y consolidarnos regionalmente en LatAm. Desde entonces, miles de empresas y decenas de miles de personas han usado nuestros servicios. En este momento, nos encontramos en fase de escalamiento, no solo comercial, sino también a nivel tecnológico.

Apply to this job through Get on Board.

Job functions

Se busca QA con al menos 3 años de experiencia, con el objetivo de garantizar la calidad del software mediante la ejecución de pruebas manuales y automatizadas utilizando Cypress, participando activamente en el ciclo de desarrollo para detectar y prevenir errores desde etapas tempranas.

️ Responsabilidades

● Diseñar, documentar y ejecutar pruebas manuales en aplicaciones web.

● Crear y mantener casos de prueba y reportes de resultados.

● Reportar errores de manera clara y estructurada.

● Automatizar pruebas E2E (end-to-end) usando Cypress.

● Automatizar pruebas mobile usando Appium.

● Automatizar pruebas API.

● Mantener y actualizar suites de pruebas automatizadas.

● Trabajar junto al equipo de desarrollo, product owners y QA en ciclos ágiles

● Participar en revisiones de historias de usuario y criterios de aceptación.

Qualifications and requirements

● Experiencia en pruebas manuales en aplicaciones web y móviles.

● Conocimientos sólidos en automatización con Cypress.

● Experiencia en pruebas móviles con Appium(Java/Python).

● Conocimientos en pruebas de servicios/API

● Conocimientos en lenguaje JavaScript.

● Conocimiento en herramientas de control de versiones (Git).

Habilidades blandas

● Atención al detalle y pensamiento analítico.

● Capacidad de trabajar en equipo y comunicar hallazgos de forma efectiva.

● Proactividad para proponer mejoras en procesos de testing.

● Adaptabilidad a cambios y aprendizaje continuo.

Desirable skills

Experiencia en el sector financiero

Conditions

Día de cumpleaños libre.
Oportunidades de capacitación

Computer provided Vita solutions SPA provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
JavaScript Java Python Git
En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos y brindar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un QA Automatizador para LATAM, orientado a liderar iniciativas de automatización, promover cultura Shift Left y participar en pipelines CI/CD para garantizar QA continua en ecosistemas modernos. Colaborarás con equipos multidisciplinarios para entregar soluciones de software de alta calidad y mejorar procesos de pruebas a lo largo del ciclo de desarrollo.

Apply to this job from Get on Board.

QA Automatizador – LATAM (Remoto, Proyecto)

  • Diseñar e implementar frameworks de automatización robustos para pruebas funcionales, de regresión, smoke y end-to-end (E2E).
  • Automatizar pruebas sobre microservicios, APIs y UI, asegurando cobertura adecuada y mantenimiento de las suites en pipelines CI/CD.
  • Gestionar ambientes con Docker y Kubernetes para entornos de pruebas consistentes y escalables.
  • Coaching al equipo de QA, revisión de pull requests y promoción de prácticas de calidad desde etapas tempranas (Shift Left).
  • Colaborar con equipos de desarrollo y DevOps para optimizar pipelines de integración y entrega continua (CI/CD) y mejorar la calidad del producto.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas y un historial comprobable en entornos modernos. Debe dominar herramientas como Playwright, Cypress, Selenium, Postman y frameworks como Robot Framework o similares. Experiencia con REST APIs, pruebas en contenedores (Docker) y orquestación (Kubernetes) es imprescindible. Conocimientos en Java, JavaScript, TypeScript, Python o Bash para scripting y mantenimiento de pruebas. Familiaridad con herramientas de CI/CD (GitHub Actions, Jenkins, GitLab CI, Bitbucket) y gestión de código en repositorios (Git). Capacidad para comunicarse efectivamente en español e inglés técnico, y habilidades para trabajar en entornos dinámicos y orientados a resultados. Se valorarán experiencia en AWS o tecnologías cloud y capacidad de liderazgo técnico dentro de equipos de QA.

Requisitos deseables

Conocimientos en herramientas de testing de rendimiento y seguridad, experiencia en automatización en entornos multi-nube, certificaciones en calidad de software y familiaridad con metodologías ágiles. Capacidad para adaptar frameworks a nuevas tecnologías y promover una cultura de calidad y mejora continua. Se valorará experiencia en equipos que trabajan en sectores regulados y con alta exigencia de cumplimiento.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Python Linux DevOps Virtualization
BC Tecnología, una consultora de TI con experiencia en servicios, outsourcing y selección de profesionales, busca ampliar su equipo con un DevOps Engineer / Cloud Engineer para un proyecto inicial de 6 meses con posibilidad de extensión. El rol contribuirá a la estabilidad y rendimiento de plataformas en producción, trabajando en colaboración con Desarrollo y Seguridad, en un entorno de clientes de alto nivel y diversos sectores (finanzas, seguros, retail y gobierno).

Apply directly on Get on Board.

Funciones

  • Garantizar la disponibilidad, estabilidad y rendimiento de sistemas productivos.
  • Gestionar infraestructura como código y automatizar despliegues.
  • Administrar contenedores y clusters Kubernetes.
  • Implementar monitoreo y alertas (Prometheus, CloudWatch, Grafana).
  • Organizar respuestas a incidentes y participar en post-mortems para mejora continua.
  • Trabajar estrechamente con Desarrollo y Seguridad para optimizar la arquitectura.
  • Documentar runbooks y procedimientos operativos para soporte y escalamiento.

Requisitos y perfil

Ingeniería en Informática, Sistemas o similar. Mínimo 3 años en roles DevOps, Cloud u Operations. Sólido dominio de Linux/UNIX, redes y conceptos de seguridad. Experiencia en arquitecturas de alta disponibilidad y gestión de incidentes. Se valora experiencia con entornos en la nube (AWS, Azure, GCP) y herramientas IaC (Terraform, CloudFormation, Ansible). Conocimientos en contenedores (Docker) y orquestación (Kubernetes). Habilidades de scripting (Bash, Python; PowerShell deseable). Capacidad para trabajar de forma proactiva, con buena comunicación y enfoque colaborativo.

Deseables

Certificaciones relevantes en nube (AWS/Azure/GCP) y DevOps; experiencia en entornos regulados; experiencia en monitoreo avanzado (ELK, Datadog) y gestión de costos en la nube. Orientación a soluciones y capacidades de análisis para resolver incidentes de manera eficiente; habilidades de documentación y entrega de runbooks claros.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Gross salary $2400 - 2900 Full time
Python Linux DevOps Virtualization

Coderslab.io es una firma de tecnología que ayuda a las empresas a transformar y hacer crecer sus negocios mediante soluciones innovadoras. Formamos parte de una organización en rápida expansión, con más de 3,000 empleados globalmente y presencia en América Latina y Estados Unidos. Trabajarás en equipos diversos compuestos por los mejores talentos tecnológicos, participando en proyectos desafiantes que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno dinámico y orientado a resultados.

© Get on Board. All rights reserved.

Funciones

  • Implementar infraestructura reproducible y versionada en OCI utilizando Terraform.
  • Automatizar despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en GitLab.
  • Diseñar y operar arquitecturas basadas en contenedores con Kubernetes y Helm.
  • Gestionar la seguridad de la plataforma con HashiCorp Vault e políticas de OCI IAM.
  • Realizar hardening, tuning y troubleshooting de sistemas Oracle Linux.
  • Integrar servicios mediante Kong API Gateway y políticas personalizadas.
  • Garantizar el cumplimiento de estándares como PCI-DSS y prácticas de ciberseguridad.
  • Desarrollar scripts de automatización en Bash y Python (integración con APIs REST).
  • Colaborar con equipos de seguridad, desarrollo y operaciones para entregar soluciones robustas y escalables.

Requisitos

  • Más de 5 años de experiencia en roles de DevOps/Platform Engineering.
  • Experiencia demostrable en Oracle Cloud Infrastructure (OCI).
  • Dominio avanzado de Oracle Linux y administración de contenedores (Docker, Kubernetes).
  • Conocimiento sólido en seguridad de infraestructura y gestión de secretos.
  • Experiencia en entornos regulados o bancarios (deseable).
  • Capacidad para trabajar en entornos con alta disponibilidad y resiliencia.

Fortalezas Valoradas

Experiencia en implementación de infraestructura como código, automatización de despliegues mediante GitOps, y gestión de secretos en entornos sensibles. Conocimiento en PCI-DSS y prácticas de ciberseguridad, así como habilidades de scripting y resolución de incidentes en entornos críticos.

Beneficios

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

Fully remote You can work from anywhere in the world.
Gross salary $3500 - 4500 Full time
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

This job offer is available on Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
$$$ Full time
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

Exclusive to Get on Board.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
Gross salary $1800 - 2500 Full time
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply directly through getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
$$$ Full time
Databricks Administrator
  • Improving South America
Python SQL Linux Virtualization
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.

Contribuirás a la construcción y mantenimiento de soluciones de datos que soportan analítica, reporting y la toma de decisiones operativas en toda la organización.

Trabajando de cerca con data engineers y otros perfiles tecnológicos, apoyarás las plataformas que permiten a los equipos transformar datos en insights relevantes.

En este rol, te enfocarás en la gestión de plataformas de datos y en su rendimiento general. Colaborarás con equipos multifuncionales para entender requerimientos de datos, mejorar sistemas existentes y entregar soluciones que respondan a necesidades del negocio.

Esta es una excelente oportunidad para seguir desarrollando tus habilidades en data engineering mientras contribuyes a impulsar decisiones basadas en datos a escala

This job is exclusive to getonbrd.com.

Job functions

  • Monitorear y mantener la salud, disponibilidad y rendimiento de instancias de Snowflake y Databricks, utilizando herramientas nativas y estándares internos
  • Revisar periódicamente métricas de uso, logs del sistema y consumo de recursos para detectar y abordar anomalías
  • Asegurar la ejecución de actualizaciones, parches y respaldos conforme a políticas y estándares definidos
  • Investigar incidentes y degradaciones del servicio, gestionando su resolución o escalamiento para minimizar el impacto en el negocio
  • Administrar el ciclo completo de accesos: provisión, desprovisión y asignación de roles en Snowflake y Databricks, garantizando cumplimiento de estándares de seguridad
  • Implementar y auditar controles de acceso a datos, trabajando junto a equipos de seguridad (InfoSec) y líderes de plataforma
  • Mantener actualizados grupos, permisos y accesos según cambios organizacionales o necesidades de proyectos
  • Actuar como punto principal de contacto para soporte técnico e incidentes relacionados con las plataformas
  • Asesorar a los equipos en buenas prácticas de uso eficiente y seguro de las plataformas (optimización de costos, data sharing, orden de workspaces)
  • Mantener documentación clara y actualizada de la plataforma (onboarding, FAQs, guías de troubleshooting)

Qualifications and requirements

  • Título universitario en Ciencias de la Computación, Sistemas de Información o carrera afín, o experiencia equivalente
  • +2 años de experiencia administrando plataformas Snowflake y Databricks (o al menos una con conocimiento sólido de la otra)
  • Dominio de SQL, scripting (Python o Shell) y ecosistemas de datos en la nube (AWS, Azure o GCP)
  • Conocimiento en herramientas de automatización (Terraform, AWS CloudFormation, Databricks CLI/API, entre otros)
  • Experiencia gestionando usuarios, roles y controles de seguridad en entornos regulados
  • Capacidad para diagnosticar y resolver problemas de plataforma
  • Experiencia con herramientas de monitoreo, logging y alertas
  • Inglés intermedio -avanzado o avanzado (indispensable debido a que se realizan reuniones con equipos internacionales)

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
$$$ Full time
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python Big Data BigQuery ETL

En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

Applications: getonbrd.com.

Funciones principales

  • Responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Requisitos y perfil

Buscamos un Data Engineer con dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.

Requisitos técnicos:

  • 1- 4 años de experiencia en Ingeniería de Datos y GCP (Excluyente)
  • Experiencia desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Experiencia en Google Cloud Platform (GCP) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.

Habilidades blandas:

  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).

Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.

Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
Gross salary $2800 - 3600 Full time
Python Data Analysis SQL Business Intelligence

Company & Project Context
BNamericas is a leading Latin American B2B market intelligence platform with 28 years of experience delivering news, project updates, and company data across strategic sectors such as Electric Power, Infrastructure, Mining & Metals, Oil & Gas, and ICT. The Business Analyst will join a Product & Operations team in a subscription-based SaaS environment, helping transform complex data into clear business insights that drive strategic decisions and commercial outcomes.

Apply at getonbrd.com without intermediaries.

Key Responsibilities

  • Monitor and analyze platform usage patterns, engagement trends, and friction points.
  • Design and maintain executive dashboards (Amplitude and other BI tools).
  • Define and track KPIs related to user engagement, retention (GRR, NRR), product adoption, conversion, and customer satisfaction.
  • Translate behavioral data into actionable recommendations to improve adoption, retention, and user experience.
  • Support product discovery by validating hypotheses with real usage data.
  • Evaluate product releases using defined KPIs and performance benchmarks.
  • Develop measurement frameworks for product-market fit and feature impact.
  • Support forecasting of renewals and revenue trends; analyze GRR, NRR, and DRR evolution by ICP.
  • Conduct first-year account performance analyses and provide conversion, lead source, and sales performance insights.
  • Assist Customer Success with client journey analyses and Executive Business Reviews (EBRs).
  • Perform time & motion studies to identify operational efficiencies.
  • Collaborate with development teams to ensure accurate event tracking and instrumentation; design and audit tracking plans.
  • Validate data consistency and quality; maintain governance across cross-functional data flows.
  • Produce QBRs, executive performance presentations, and operational dashboards; present insights to leadership.
  • Transform complex datasets into structured business narratives with recommended actions; contribute to strategic product discussions.

What You'll Do

We are seeking a highly analytical, proactive, and business-oriented Business Analyst to join our Product & Operations team within a B2B subscription-based SaaS environment. This role sits at the intersection of Product, Customer Success, Sales, and Operations, translating complex data into clear business insights that drive strategic decision‑making. You will analyze user behavior, product performance, revenue trends, retention metrics, and operational KPIs to optimize product development, customer experience, and commercial outcomes. The ideal candidate is technically strong in data analysis and an excellent communicator, capable of translating data into compelling narratives for executive and cross-functional audiences in English (Spanish is a plus).

Desired Qualifications

Education in Industrial Engineering, Business, Data Science, Information Systems, Statistics, Applied Mathematics, or related quantitative fields. A Master’s degree or advanced certifications are a plus. 2–4+ years in Business Analytics, Product Analytics, BI, or similar data-focused roles. Experience in a subscription-based B2B SaaS environment and cross-functional collaboration with Product, Commercial, and Operations teams. Strong proficiency in SQL; Python (Pandas), Amplitude (or Mixpanel/GA4), and dashboarding tools (Power BI, Looker, Tableau). Excellent English communication and executive-ready storytelling with data. Spanish is a nice to have. Ability to work in a fast-paced, agile environment with a proactive, ownership-driven mindset.

Benefits

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo. Nuestro equipo es dinámico, comprometido y siempre dispuesto a apoyarse mutuamente, generando un clima agradable y motivador.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, y un dress code informal que permite autenticidad y comodidad en el trabajo.

Te invitamos a formar parte de una empresa que valora la diversidad y el equilibrio entre la vida personal y laboral, y que promueve un trabajo orientado a objetivos, empoderado y apasionado. ¡Únete a nosotros!

Fully remote You can work from anywhere in the world.
Gross salary $400 - 600 Full time
Data Pipeline Engineer
  • Tritone Analytics, Inc
Python Excel SQL Data Transformation

About Tritone Analytics: Tritone Analytics is a music-technology startup building a forensic royalty auditing platform for the music industry. We help artists, managers, and rights-holders identify unpaid or misreported royalties by combining deterministic data systems with modern AI workflows.

We work with messy, real-world data — distributor reports, royalty statements, contracts — and turn it into structured, queryable systems that power financial analysis and AI-assisted auditing.

Project scope: You will contribute to the core data infrastructure that underpins our platform, focusing on data ingestion, transformation, validation, and the preparation of data for AI workflows. This role sits at the intersection of data engineering, analytical systems, and AI pipelines, ensuring reliable, scalable data processing from messy sources to structured datasets.

Apply directly through getonbrd.com.

What You’ll Work On

  • Build and maintain pipelines that transform messy CSVs, metadata exports, and contracts into structured datasets.
  • Design and enforce canonical schemas across inconsistent data sources to enable reliable analytics.
  • Write SQL to validate outputs, reconcile datasets, and support financial analysis.
  • Debug and improve data quality across ingestion and transformation stages.
  • Support document ingestion workflows (chunking, preprocessing, metadata tagging).
  • Help prepare structured inputs for LLM-based workflows (RAG, extraction, classification).
  • Improve reliability of pipelines (error handling, logging, testing).

What You’ll Need

Core Requirements (Must Have): Strong Python for data processing and scripting with real datasets; strong SQL skills (joins, aggregations, validation queries, debugging data issues); proven experience working with messy or inconsistent data; understanding of ETL pipelines and data transformation workflows; ability to debug data issues and explain root causes.

We value curiosity, collaboration, and a bias toward shipping reliable data products. Candidates who enjoy digging into messy datasets, communicating data issues clearly, and partnering with data scientists and engineers to operationalize AI workflows will excel. Prior experience in music rights or financial data domains is a plus.

Desirable but Not Required

Nice to Have: Experience with DuckDB, Polars, Pandas, or PyArrow; familiarity with Parquet or columnar data formats; exposure to vector databases or RAG systems; experience handling large CSV datasets or financial data; basic understanding of LLM workflows.

Benefits

Benefits to be discussed at time of conversion to a full-time role.

We offer a collaborative, founder-led culture with an emphasis on curiosity, continuous learning, and shipping impactful data products. Competitive compensation, flexible work hours, and opportunities for professional growth in a rapidly evolving music-tech space. Our team is distributed; we value autonomy and ownership over your projects. We support conference attendance, training, and peer knowledge sharing. We look forward to discussing how Tritone can support your career trajectory.

Gross salary $1500 - 2500 Full time
Data Consultant
  • Artefact LatAm
  • Bogotá &nbsp Santiago &nbsp Ciudad de México (Hybrid)
Python Data Analysis Excel Power BI
Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.
Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

© Get on Board.

Funciones del cargo

  • Realizar investigación y búsqueda de información relevante para el proyecto; estructurando y ejecutando los análisis de información
  • Desarrollar diagnósticos y proponer soluciones según las necesidades específicas de cada cliente, basadas en un proceso analítico y con una fuerte orientación estratégica
  • Desarrollar entregables accionables, gestionables, innovadores, y con sentido de negocios para el cliente, pensados directamente en la transformación digital
  • Aprender rápidamente de diversos negocios e industrias, así como las herramientas y metodologías requeridas para llevar a cabo el trabajo con cada cliente
  • Presentar el desarrollo y resultados de manera efectiva, para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente, adaptándose a diversos stakeholders
  • Apoyar en la creación de propuestas de proyectos para potenciales clientes, mediante un estudio detallado de la industria y las posibles soluciones que más se ajusten a sus problemas
  • Construir una relación de trabajo con el cliente
  • Apoyar al equipo en la planificación estratégica, y traspasando conocimiento y buenas prácticas

Requerimientos del cargo

  • Formación de Ing. Civil Industrial, Ing. Comercial, Ing. Industrial, Economista o carreras relacionadas
  • Experiencia laboral de 1 a 2 años en consultoría o roles relacionados
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Conocimiento y manejo de diversas herramientas y soluciones digitales.
  • Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.

Algunos deseables no excluyentes

  • Manejo de Python y herramientas de visualización como PowerBI, Tableau
  • Conocimientos de Data Science.
  • Proficiente en ingles profesional

Algunos de nuestros beneficios para esta posición son:

Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)
...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
$$$ Full time
JavaScript Java Python Node.js
En <Devaid> nos apasionan los desafíos tecnológicos y nuestros clientes lo saben. Por lo anterior, nos plantean problemáticas que nos obligan a estar constantemente probando e implementando nuevas tecnologías.
Trabajamos fuertemente en la nube ya que somos Partner Premier de Google Cloud en Chile, por lo que tendrás la oportunidad de formarte como un profesional cloud.
Dependiendo de las necesidades del cliente, <Devaid> ofrece soluciones web, móviles, integración de sistemas, entre otros. Esto permite acceder a la herramienta sin importar el dispositivo ni el lugar dónde se encuentra. Permitimos el trabajo colaborativo entre múltiples usuarios manteniendo una base centralizada de información.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Esperamos que puedas desempeñarte en las siguientes actividades:
  • Creación de pipelines de carga y transformación de datos.
  • Modelamiento de datos y creación de Data Warehouse y Data Lakes.
  • Integración de sistemas.
  • Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.

Requerimientos del cargo

Los requisitos para un buen desempeño de las funciones son:
  • 1 año de experiencia como Data Engineer.
  • Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
  • Conocimiento de soluciones de Data Warehouse y ETL.
  • Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
  • Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.

Deseables

Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
  • Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
  • Experiencia en plataformas de deployment de infraestructura como Terraform.
  • Experiencia utilizando la herramienta de consola gcloud.

Beneficios

Prometemos un ambiente muy grato de trabajo, lleno de desafíos y donde podrás ver los proyectos en los que estas involucrada/o siendo utilizados en un corto tiempo activamente por nuestros clientes, lo que siempre es muy gratificante.
Otras actividades:
  • Actividades mensuales (Cupones de Food delivery, juegos en línea, actividades grupales).
  • Actividad paseo anual: La empresa se junta por 2 días en algún lugar turístico para realizar actividades grupales y unir al equipo.
  • Día libre flexible en tu cumpleaños.
  • Capacitaciones en lo que más te guste.
  • Certificaciones Google Cloud: Programa de certificación en distintas ramas profesionales de GCP, gracias a que somos Partner Premier de Google Cloud en Chile.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Devaid pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Education stipend Devaid covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $4000 - 6000 Full time
Data Platform Engineer
  • InTune Analytics
Python SQL ETL Data governance

InTune Analytics (ITA) is a live entertainment technology company operating as a market maker in the secondary ticket market. We are a small, high-conviction team building proprietary technology to shape the future of live entertainment, with a 10-year goal of impacting 50 million lives by 2035. We don't have a traditional customer base and we don't advertise. Our reputation is built on the quality of our people, the strength of our partnerships, and our relentless drive to execute.

We are seeking a Data Platform Engineer who brings strong foundations in data engineering, analytics engineering, and data infrastructure. The ideal candidate will be adept at designing and building the systems that power reliable, trustworthy data across the organization, from pipelines and warehouses to semantic models and governance frameworks. You will play a pivotal role in making data a durable strategic asset, enabling teams to make confident, data-driven decisions at scale.

This job is available on Get on Board.

What Success Looks Like:

  • A clear company data catalog exists and is actively used by internal teams
  • Data pipelines are reliable, monitored, and failures are caught before reaching stakeholders
  • Business metrics are standardized and consistently defined across tools and teams
  • Data quality issues are caught early through automated checks and alerting

Technically, you:

  • Own and evolve the company data architecture, including warehouse structure, schema design, and data modeling standards
  • Build and maintain a semantic data layer that translates raw data into consistent, business-ready metrics using dbt
  • Design, build, and monitor reliable data pipelines and ETL processes that deliver data to downstream consumers
  • Implement data quality checks, observability, and alerting so issues are caught before they reach business users
  • Build and maintain a company-wide data catalog, driving data governance, lineage, and ownership practices

At a minimum, you have:

  • 3+ years of experience in data engineering, analytics engineering, or data platform development
  • Strong proficiency in SQL and Python
  • Hands-on experience with dbt and a modern data warehouse (Snowflake, BigQuery, or Redshift)
  • Experience with a pipeline orchestration tool (Airflow, Dagster, or Prefect)
  • Familiarity with event pipelines or streaming data
  • Strong communication skills in English

Benefits

Core Benefits (Available Globally) Performance Bonus Bonuses are based on overall performance and contribution during the year. Unlimited Paid Time Off (PTO) ITA offers flexible, unlimited PTO. Remote Work & Workspace Support Home Office Support ITA may provide financial support for home office needs Support may be one-time or recurring, determined case-by-case basis Coworking Space Support ITA can cover the cost of a coworking space if you prefer Language Learning (Fully Covered) ITA fully covers language learning to support communication and personal growth. English or Spanish, available to all team members globally. Continuing Education Support ITA supports professional growth and skill development. Educational expenses may be covered on a case-by-case basis.

Fully remote You can work from anywhere in the world.
$$$ Full time
Python Git BigQuery ETL
Codeable es una escuela de programación de alta calidad que invierte en sus estudiantes y los entrena como software developers altamente empleables. Durante 6 meses, nuestros estudiantes aprenden las habilidades más demandadas por la industria tecnológica, graduándose con la capacidad de generar valor en entornos de trabajo globales y altamente competitivos. A la fecha, Codeable ha graduado a más de 120 estudiantes en sus primeras 4 promociones, y estamos listos para escalar nuestra oferta inclusiva y graduar a más de 200 estudiantes durante el 2022.

Official job site: Get on Board.

Funciones

  • Diseñar, construir y mantener pipelines ETL/ELT utilizando Airflow, Prefect o Cloud Composer.
  • Desarrollar procesos de extracción de datos mediante Python: scripting, scraping automatizado (Playwright, Puppeteer o Selenium) y consumo de APIs.
  • Implementar y optimizar transformaciones sobre CSV/JSON y estructuras heterogéneas.
  • Administrar y optimizar datasets en Google BigQuery: creación de tablas, relaciones, vistas materializadas y performance tuning.
  • Trabajar con DataFrames en pandas o PySpark para manipulación y limpieza de datos.
  • Implementar automatización de tareas (cronjobs, DAGs, Cloud Functions).
  • Crear scripts de validación, depuración y normalización de datos.
  • Colaborar con equipos de Data Science / BI para habilitar análisis avanzados (incluyendo sentiment analysis y clasificación básica de texto).
  • Documentar la trazabilidad, linaje y estructura del flujo de datos.
  • Mantener buenas prácticas de control de versiones y despliegue con Git y CI/CD.

Descripción

Buscamos un/a Data Engineer con experiencia en el diseño, construcción y mantenimiento de pipelines de datos de alta calidad. Serás responsable de la extracción, transformación, carga y orquestación de datos provenientes de diversas fuentes (APIs, scraping, archivos, plataformas). Trabajarás en la automatización, optimización y documentación de procesos, proponiendo mejoras técnicas y asegurando estándares de calidad en todo el flujo de datos.

Requisitos deseables

  • Conocimiento de OAuth2, tokens, paginación y manejo de rate limits.
  • Familiaridad con NLP básico: sentiment analysis, clasificación de texto, transformers o NLTK/spaCy.
  • Conocimientos de R o Node.js para integraciones adicionales.

Nuestros Valores

  • Ponemos a las personas primero. Nos preocupamos, estamos abiertos y alentamos a todas las personas con las que trabajamos
  • Pensamos y actuamos con responsabilidad. Somos responsables de identificar los problemas y hacemos todo lo posible para ayudar a resolverlos
  • Mejoramos todos los días. Creemos que todos tenemos la capacidad de mejorar y estamos motivados a ayudar a todos a ser la mejor versión de sí mismos
  • Estamos comprometidos con la diversidad. Contribuimos a un mundo en el que podamos ser nosotros mismos, juntos
  • Estamos todos JUNTOS en esto. Somos una comunidad de estudiantes, emprendedores y tecnólogos unidos por la misma misión: cerrar la brecha entre el talento y las oportunidades en tecnología en Latinoamérica

Fully remote You can work from anywhere in the world.
$$$ Full time
Python SQL Virtualization Amazon Web Services

Con más de 10 años de experiencia impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y Latinoamérica, Devsu ha desarrollado soluciones de alto impacto en sectores como el entretenimiento, la banca, la salud, el comercio minorista, la educación y los seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de un aprendizaje continuo y de participar en proyectos desafiantes y de gran impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en una variedad de productos y soluciones de software.

Estamos en búsqueda de un Arquitecto de Datos con experiencia comprobada en la plataforma Stratio y en arquitecturas de datos basadas en Amazon Web Services (AWS).

Find this vacancy on Get on Board.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en tiempo real (NRT) y por lotes usando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para asegurar integración y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • +5 años de experiencia en arquitectura de datos.
  • Experiencia práctica con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Sólidos conocimientos en servicios de AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Dominio en arquitecturas basadas en eventos, procesamiento en tiempo real (real-time), Data Lakes y Lake Houses.
  • Experiencia con herramientas de infraestructura como código: Terraform o CloudFormation.
  • Conocimiento en lenguajes y frameworks como: Python, SQL, Spark / PySpark.

Requisitos deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telecomunicaciones (telcos).
  • Conocimiento en herramientas de visualización como Power BI, Looker o Tableau.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
$$$ Full time
Python Analytics Virtualization Amazon Web Services
FactorIT, una empresa líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica, busca ampliar su equipo con un Arquitecto de Datos. Serás parte de proyectos regionales de transformación digital, trabajando en entornos Cloud para una cartera diversificada, especialmente en el sector financiero. Participarás en iniciativas que combinan analítica avanzada, automatización e IA, enfocados en entregar soluciones escalables y seguras que generan valor real para nuestros clientes. Formarás parte de un equipo colaborativo, orientado a la innovación, con oportunidades de desarrollo profesional y exposición a tecnologías de última generación.

Job source: getonbrd.com.

Principales responsabilidades

  • Diseñar arquitecturas de datos en entornos cloud que sean escalables, seguras y alineadas con las necesidades del negocio.
  • Definir e implementar pipelines de datos (ETL/ELT) para ingesta, procesamiento y distribución eficiente de datos.
  • Modelar datos para analítica avanzada y consumo por herramientas de BI y ciencia de datos.
  • Asegurar la calidad, gobernanza y disponibilidad de los datos mediante prácticas de Data governance y data quality.
  • Colaborar con equipos de ingeniería, analítica y negocio para convertir requerimientos en soluciones técnicas efectivas.
  • Evaluar e incorporar tecnologías y herramientas de datos emergentes (data lake/warehouse, data catalog, data virtualization).
  • Participar en la definición de estrategias de DataOps y MLOps cuando aplique, para operaciones de datos y modelos de ML.

Descripción

Buscamos un profesional con experiencia sólida en Arquitectura de Datos para liderar la definición de soluciones de datos en un entorno cloud. El/la candidato/a ideal tendrá habilidad para traducir requerimientos de negocio en arquitecturas eficientes, con foco en gobernanza, calidad y seguridad de los datos. Deberá colaborar estrechamente con equipos de ingeniería, analítica y negocio para garantizar que las soluciones soporten analítica avanzada, reporting y modelos de ML. Se valorará experiencia en entornos financieros y capacidad para trabajar en proyectos regionales con impacto real.
Requerimos dominio de procesos ETL/ELT, experiencia en modelamiento de datos relacional y no relacional, y experiencia en diseño de data lakes y/o data warehouses. Se espera manejo de Python para procesamiento de datos, y experiencia con herramientas nativas de AWS, Azure o GCP. Será clave una mentalidad de Data Governance, calidad de datos y prácticas de seguridad para evitar riesgos de cumplimiento y expose a datos sensibles. Buscamos perfiles orientados a resultados, con capacidad de comunicar complejas soluciones técnicas a stakeholders de negocio y con ganas de aprender y adaptarse a tecnologías emergentes.

Deseables

Experiencia con herramientas como Spark, Databricks o similares. Conocimiento en DataOps y/o MLOps. Experiencia en arquitecturas modernas (Lakehouse, Data Mesh). Inglés intermedio o superior.

Beneficios

Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre la vida profesional y personal. Ambiente colaborativo, dinámico y con tecnologías de última generación que facilitan el crecimiento profesional y la innovación tecnológica. Paquete salarial competitivo acorde a experiencia y perfil, y una cultura inclusiva que valora la diversidad y el trabajo en equipo. Al unirte, participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y el sector financiero, dentro de una organización que fomenta la innovación y el desarrollo profesional continuo.

Gross salary $2000 - 2200 Full time
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Excel SQL
BC Tecnología es una consultora de TI con personal experto en diferentes áreas tecnológicas, dedicada a servicios IT, administración de portafolio, desarrollo de proyectos, outsourcing y selección de profesionales. Nos especializamos en crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Buscamos aportar en proyectos innovadores con altos estándares de calidad y enfoque en cambios organizacionales y desarrollo de productos. Esta posición se desempeña dentro de un entorno de proyectos por contrato y enfocado a resultados de negocio de clientes de alto nivel.

Exclusive offer from getonbrd.com.

Funciones

Como Business Analyst, tendrás foco en producto, orientado a la calidad funcional y a la mejora continua de aplicaciones digitales. Serás responsable de asegurar la calidad funcional de aplicaciones web y móviles, analizar, documentar y optimizar flujos de usuario, gestionar bugs end-to-end y apoyar la priorización de iniciativas con foco en el impacto de negocio. Participarás en ceremonias ágiles, colaborarás con equipos multifuncionales y asegurarás trazabilidad de requerimientos y métricas de aceptación. Deberás trabajar de forma colaborativa con PMs, TA/QA y desarrollo para alinear entregables con las expectativas de negocio y usuarios finales, manteniendo una comunicación clara con stakeholders y respaldando las decisiones con datos.

Requisitos

Al menos 3 años de experiencia como Business Analyst. Experiencia en análisis de negocio y mejora de procesos. Conocimiento en QA funcional (no excluyente). Manejo de SQL (intermedio). Deseable Python. Experiencia con Jira, Postman y Excel avanzado. Capacidad para documentar procesos, mapear flujos y definir criterios de aceptación claros. Habilidad para trabajar en entornos ágiles y facilitar reuniones de priorización. Orientación a resultados, pensamiento analítico, comunicación efectiva y habilidades para trabajar con clientes y equipos multidisciplinarios. Se valorará experiencia en entornos financieros y conocimiento de herramientas de automatización de pruebas.

Deseables

Deseables: experiencia previa en análisis de productos digitales, conocimientos de metodologías de diseño centrado en el usuario, experiencia en automatización de pruebas y familiaridad con herramientas de pruebas de rendimiento. Capacidad de trabajar de forma proactiva, con iniciativa, y habilidades para gestionar múltiples iniciativas simultáneamente. Bilingüe español-inglés es un plus, al trabajar con clientes y equipos internacionales.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data English Back-end

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

Job source: getonbrd.com.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
$$$ Full time
Data Operational Engineer
  • TIMINING
  • Santiago (Hybrid)
Python Git SQL Web server

En TIMining, trabajamos para convertir la información operativa de las faenas mineras en valor accionable a través de nuestras plataformas de control y monitoreo. Este rol se integra al equipo de datos, aportando en el diseño, desarrollo y operación de pipelines ETL que integran fuentes diversas hacia las bases de datos y productos de TIMining. Serás parte de un proyecto orientado a la continuidad operativa, la calibración de algoritmos y la automatización de procesos internos para optimizar el flujo de trabajo del cliente y del equipo.

Apply exclusively at getonbrd.com.

Funciones

  • Desarrollar, mantener y documentar scripts en Python y SQL (conectores) para ETL hacia las bases de datos de los productos de TIMining.
  • Diseñar, implementar y mantener flujos de CI/CD para que los cambios en las pipelines lleguen a producción de forma segura y automatizada.
  • Monitorear la salud y rendimiento de procesos de datos (logging y alerting), garantizando uptime y respuestas ante incidentes operativos.
  • Administrar y orquestar pipelines con herramientas de planificación (Airflow, Dagster) y contenedores (Docker).
  • Validar resultados de pipelines (cualitativa y cuantitativamente) comparando con reportes operacionales de faenas.
  • Identificar, evaluar y mitigar riesgos en el desarrollo de pipelines, contemplando calidad de datos y planes de contingencia.
  • Desarrollar proyectos internos para automatizar labores rutinarias y simplificar el trabajo del equipo.
  • Asistir y presentar en reuniones técnicas con clientes para gestionar accesos a fuentes de información y resolver consultas.
  • Analizar y documentar fuentes de información del cliente por sistema (FMS, MGS u otras) y calibrar algoritmos de los softwares de la empresa.
  • Ejecutar turnos 24/7 para asegurar continuidad operativa.

Requisitos y experiencia

Formación en Ingeniería en Ciencia de Datos, Ingeniería Civil o carreras afines en computación. Se requieren mínimo 2 años de experiencia en cargos similares y experiencia comprobable en la implementación de pipelines ETL. Se valora conocimiento y manejo avanzado de Python y SQL, experiencia práctica en despliegue de aplicaciones y manejo de contenedores, así como experiencia en orquestación de datos con herramientas como Apache Airflow o Prefect. Dominio de control de versiones (Git) y trabajo colaborativo, consultas a APIs y bases de datos avanzadas. Conocimientos de Google Suite y Office. Habilidades analíticas, proactividad y capacidad para trabajar de forma autónoma y en equipo. Idiomas: Español nativo; Inglés deseable (upper-intermediate).

Se buscan candidatos con experiencia en proyectos tecnológicos y conocimiento de la industria minera a cielo abierto, además de experiencia con arquitecturas Cloud (AWS, Azure o GCP) e Infraestructura como Código (Terraform, CloudFormation).

Requisitos deseables

Experiencia en:
- Implementación de proyectos tecnológicos.
- Conocimiento de la industria minera y su operación.
- Familiaridad con metodologías ágiles, y experiencia con herramientas de Infraestructura como Código.
- Deseable conocimiento en soluciones de monitoreo y en entornos de producción de datos a gran escala.

Beneficios

Ofrecemos un entorno enfocado a innovación en la industria minera, con oportunidades de desarrollo profesional y trabajo en equipo multidisciplinario. Si cumples con el perfil, te invitamos a formar parte de TIMining y contribuir a la transformación digital de operaciones mineras.

$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL Oracle
En BC Tecnología diseñamos equipos de trabajo ágiles para servicios IT, con foco en Infraestructura, Desarrollo de Software y Unidades de Negocio para clientes en Finanzas, Seguros, Retail y Gobierno. Nuestro objetivo es entregar soluciones de alto impacto mediante consultoría, desarrollo de proyectos, outsourcing y selección de personal.
Como parte de nuestro programa CRM Customer Services migramos y consolidamos datos a plataformas cloud (AWS) y Dynamics 365 Dataverse, garantizando integridad, calidad y disponibilidad de la información para operaciones y analítica. Participarás en iniciativas innovadoras con clientes de alto nivel, con enfoque en aprendizaje continuo y desarrollo técnico dentro de un entorno colaborativo y orientado al cliente. La modalidad híbrida permite combinar trabajo remoto con presencia en nuestras oficinas para fomentar colaboración y dinamismo.

Applications: getonbrd.com.

Funciones

  • Diseñar, desarrollar y ejecutar procesos de ingeniería de datos y migración requeridos por el programa CRM Customer Services, asegurando la integridad, calidad y disponibilidad de los datos en plataformas cloud.
  • Conocimientos técnicos: ingeniería de datos en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions); ETL/ELT para diseño y desarrollo de pipelines de datos; migración de datos entre sistemas legados y plataformas cloud; SQL avanzado y modelado de datos (dimensional, relacional).
  • Desarrollar pipelines en Python y Spark/PySpark, aplicar calidad de datos (validación, limpieza, reconciliación, profiling) y utilizar herramientas de orquestación (Airflow, Step Functions); control de versiones y CI/CD aplicado a datos.
  • Conocer Microsoft Dynamics 365 Dataverse y su modelo de datos; diseñar y ejecutar migraciones desde sistemas legados hacia plataformas cloud y Dynamics 365; documentar modelos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles, reportar avances y colaborar con QA para validación end-to-end; transferir conocimiento de datos al equipo y colaborar estrechamente con el Technical Lead en la arquitectura de datos del programa.

Requisitos y perfil

Buscamos un profesional con experiencia sólida en ingeniería de datos en entornos cloud, especialmente AWS, y en proyectos de migración de datos hacia soluciones modernas de nube y CRM. Debes dominar pipelines ETL/ELT, modelado de datos relacional y dimensional, y tener capacidad para trabajar en entornos dinámicos y colaborativos. Se valorará experiencia con Oracle/Siebel, Great Expectations o Deequ para calidad de datos, y conocimiento del sector Retail. Debes ser proactivo, orientado a resultados, con habilidades de comunicación para trabajar con equipos multidisciplinarios y stakeholders.
Requisitos mínimos: experiencia en AWS Data Analytics/Data Engineering; diseño y migración de datos entre sistemas; SQL avanzado; Python o Spark; experiencia con herramientas de orquestación; familiaridad con Dynamics 365 Dataverse; experiencia en entornos ágiles y capacidad para documentar procesos y modelos de datos. Deseable certificación AWS Data Analytics, experiencia en migración desde Oracle/Siebel y conocimiento de herramientas de calidad de datos. Se valora experiencia en Retail y en entornos de CRM.

Conocimientos Deseables

Certificación AWS Data Analytics o Data Engineering. Experiencia migrando datos desde Oracle/Siebel. Conocimiento en herramientas de calidad de datos como Great Expectations o Deequ. Experiencia en el sector Retail. Conocimiento adicional en DevOps de datos y metodologías ágiles. Habilidad para trabajar en equipos multiculturales y capacidad de explicar conceptos técnicos a audiencias no técnicas. Se valora experiencia en arquitectura de datos para CRM y en gestión de proyectos de migración complejos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Engineer Senior
  • Grupo Mariposa
Git SQL QA BigQuery

Somos una corporación multinacional de bebidas y alimentos con operaciones regionales, un portafolio amplio de marcas y una estrategia acelerada de transformación digital. Dentro de Apex Digital / M5, el área de Data & Analytics habilita productos analíticos, datos gobernados y capacidades avanzadas para las unidades de negocio, incluyendo CBC, Beliv, BIA y las iniciativas transversales de transformación digital.

Send CV through Get on Board.

Funciones del cargo

1. Diseñar e implementar soluciones de ingeniería de datos escalables, eficientes y mantenibles utilizando tecnologías de Google Cloud, tales como:
  • Cloud Dataflow / Apache Beam (procesamiento distribuido ETL/ELT)
  • BigQuery (almacenamiento, warehouse y motor analítico)
  • Cloud Storage (Data Lake)
  • Dataproc (Spark administrado, cuando aplique)
  • BigQuery / Data Catalog (gobernanza y catalogación)
2. Aplicar modelos de arquitectura por capas (Bronze / Silver / Gold) en un Lakehouse basado en Google Cloud

  • Implementación de un Data Lake en Cloud Storage.
  • Transformaciones intermedias y normalización en Dataflow / Dataproc para capa silver.
  • Exposición de capas refinadas en BigQuery para capa gold orientada a analítica, BI y ML.
  • Definición de estándares de naming, particionamiento, clustering y particionado por tiempo.

3. Automatizar ETL/ELT con enfoques modernos de data engineering

  • Orquestación modular y escalable con Cloud Composer (Airflow).
  • Pipelines idempotentes, reproducibles y versionados.
  • Implementación de validaciones de calidad de datos (DQ) usando:
  • BigQuery Assertions
  • Great Expectations (si aplica)
  • Cloud Composer operators
  • Manejo de Slowly Changing Dimensions (SCD1/SCD2) mediante SQL en BigQuery o Dataflow.
  • Integración CI/CD para despliegue de DAGs, jobs y transformaciones.
4. Garantizar datos confiables, gobernados y optimizados en costos y performance

  • Optimización de costos en BigQuery mediante clustering, particionado y control de consultas.
  • Optimización de Dataflow (autoscaling, tuning, fusión de etapas, ventanas y triggers).
  • Seguridad y gobernanza con Dataplex, IAM y Data Catalog.
  • Documentación robusta del linaje, arquitectura y flujos de datos.
  • Aplicación de estándares de ingeniería:
    • PEP8 para Python
    • Buenas prácticas de SQL
    • Gestión de código con Git / GitFlow
    • Testing y validación automatizada

Requerimientos del cargo

  • Coordinar y operar los entornos de datos (dev/qa/prod), asegurando estabilidad, monitoreo y correcto funcionamiento de los pipelines.
  • Extraer, transformar y cargar datos según las necesidades del negocio, aplicando arquitectura por capas (Bronze/Silver/Gold).
  • Construir integraciones eficientes entre sistemas, APIs y fuentes internas/externas, garantizando integridad y disponibilidad.
  • Implementar flujos CI/CD para despliegue seguro de pipelines y validación automatizada de datos y código.
  • Mentorizar a ingenieros junior en buenas prácticas, estándares de calidad y diseño escalable.
  • Proponer e implementar mejoras tecnológicas que optimicen performance, costos y gobernanza de datos.

Principales Retos

  • Integrar diversas fuentes de datos y asegurar su consistencia.
  • Diseñar y mantener un Lakehouse escalable (Bronze/Silver/Gold).
  • Optimizar performance y costos en BigQuery y procesos de ingesta.
  • Orquestar y monitorear flujos complejos de datos de extremo a extremo.
  • Garantizar calidad, linaje y gobernanza en todos los datasets.
  • Habilitar datos confiables para analítica, BI y productos digitales.
  • Escalar y evolucionar la arquitectura conforme crezcan los casos de uso.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Grupo Mariposa pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
$$$ Full time
Sr Data Engineer – CRM Customer Service
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con experiencia en servicios IT, outsourcing y selección de profesionales. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con clientes en servicios financieros, seguros, retail y gobierno. Buscamos incorporar a nuestro equipo a un/a SR Data Engineer con fuerte enfoque en CRM y migración de datos para proyectos de CRM Customer Service, entre otros clientes de alto nivel. El rol forma parte de iniciativas de modernización de datos, migración a la nube y fortalecimiento de la gobernanza de datos para un programa orientado a soluciones de experiencia del cliente.

This job is exclusive to getonbrd.com.

Funciones principales

  • Diseñar y desarrollar pipelines ETL/ELT para integración y migración de datos.
  • Ejecutar migración de datos desde sistemas legados hacia plataformas cloud y Dynamics 365.
  • Asegurar integridad, calidad y disponibilidad de los datos mediante validaciones y reconciliaciones.
  • Colaborar con el Technical Lead en la arquitectura de datos del programa.
  • Documentar modelos de datos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles y reportar avances del frente de datos.
  • Colaborar con QA en validación end-to-end de datos.
  • Transferir conocimientos de datos al equipo.

Descripción

Requerimos un/a profesional con al menos 4 años de experiencia en ingeniería de datos, con prioridad en entornos CRM y retail. El/la candidato/a será responsable de diseñar e implementar pipelines para extracción, transformación y carga de datos, así como gestionar migraciones complejas desde sistemas legados hacia entornos en la nube y Microsoft Dynamics 365 Dataverse. Se integrará a un equipo técnico colaborativo, participando en la definición de la arquitectura de datos, la aseguración de calidad y la entrega continua mediante prácticas CI/CD aplicadas a datos. Se valorará experiencia en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions), Airflow o Step Functions para orquestación, Python y Spark/PySpark, manejo de SQL avanzado, modelado dimensional y relacional, y conocimiento de Dynamics 365.
Buscamos proactividad, orientación a resultados y habilidades de comunicación para trabajar en un entorno ágil y multi-funcional, con foco en la entrega de valor al negocio y una cultura de mejora continua.

Requisitos deseables

Experiencia en migración de datos entre sistemas ERP/CRM a plataformas en la nube; familiaridad con governance de datos, reconciliaciones y validación de datos de extremo a extremo; experiencia con teams y stakeholders de negocio; certificaciones en AWS o Data & Cloud; capacidad de documentación clara y ordenada; conocimientos de Microsoft Dynamics 365 Dataverse. Se valorará experiencia en retail y servicios de CRM, y habilidad para trabajar en entornos regulados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
JavaScript Python Analytics Data Analysis

WiTi es una empresa chilena de tecnología con presencia en Chile, Uruguay y Colombia, dedicada a la innovación en software y soluciones tecnológicas.

Formamos parte de un equipo que presta servicios a clientes de primer nivel y trabajamos con un enfoque ágil para impulsar soluciones de analítica digital y BI en grandes retailers con operaciones en múltiples países de Latinoamérica.

El proyecto actual se centra en analizar el comportamiento de usuarios en canales digitales (Web y App) para optimizar la experiencia de compra de millones de clientes a través de e-commerce. El Business Analyst reporta al equipo de Digital Analytics & BI y colabora con equipos de desarrollo, marketing y producto para asegurar que las estrategias de medición sean correctas, que el tagging y los pixeles se implementen adecuadamente y que existan dashboards útiles y accionables.

Apply to this job from Get on Board.

Funciones y responsabilidades

  • Generar documentos de marcaje basados en estrategias de medición para equipos de desarrollo.
  • Gestionar y hacer seguimiento del tagging con equipos técnicos y proveedores externos cuando aplique.
  • Implementar tagging y píxeles usando Google Tag Manager (GTM) para Web y App.
  • Analizar datos para identificar quiebres en la experiencia y proponer mejoras concretas.
  • Crear dashboards y visualizaciones sobre el comportamiento de usuarios en Web y App para soportar la toma de decisiones.
  • Realizar seguimiento al embudo de compra en distintos e-commerce y monitorizar KPIs de conversión y retención.
  • Buscar proactivamente oportunidades de mejora y priorizar iniciativas en colaboración con stakeholders.
  • Realizar QA continuo del marcaje para garantizar datos precisos y confiables.

Requisitos Excluyentes

  • Al menos 1 año de experiencia en roles de Business Analyst o similares.
  • Experiencia en análisis de experiencia de usuario y medición de datos en entornos de retail y e-commerce.
  • Conocimiento intermedio de Google Analytics.
  • Conocimiento intermedio de Google Tag Manager.
  • Conocimiento intermedio de BigQuery.
  • Conocimiento intermedio de Looker.
  • Manejo de SQL a nivel intermedio.

Requisitos Deseables

  • Nivel de inglés avanzado.
  • Experiencia con JavaScript para implementación en Google Tag Manager.
  • Conocimientos de Python para soporte de scripts de análisis y automatización de datos.
  • Experiencia en creación de dashboards avanzados y storytelling de datos para stakeholders de negocio.
  • Capacidad para trabajar con datasets grandes y complejos, y optimizar consultas en BigQuery.
  • Comprensión de modelos de atribución.
  • Habilidad para comunicar hallazgos de negocio a distintas audiencias.
  • Experiencia en entornos ágiles y mentalidad orientada a la mejora continua.
  • Buenas habilidades de comunicación en español e inglés.
  • Experiencia en contextos multicanal (Web, App, Marketing).

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Cloud Data Engineer
  • WiTi
  • Lima (Hybrid)
Python SQL Virtualization Amazon Web Services

WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.

Este rol forma parte de un equipo responsable de modernizar un ecosistema analítico legado hacia una arquitectura cloud en AWS, con foco en estandarización, performance y escalabilidad. El proyecto implica migrar y optimizar la lógica de bases de datos preexistentes hacia Amazon Redshift, contribuyendo a la automatización del proceso y garantizando la calidad, consistencia y rendimiento de los datos.

Exclusive to Get on Board.

Responsabilidades Clave

  • Analizar y comprender procesos analíticos existentes (en SQL u otros entornos heredados) para reestructurarlos sobre Amazon Redshift.
  • Convertir y optimizar lógica SQL hacia estándares compatibles con Redshift, aplicando buenas prácticas de modelado y rendimiento.
  • Diseñar y documentar enfoques repetibles para la migración de consultas y estructuras de datos (catálogo de reglas, patrones de transformación).
  • Colaborar en tareas de automatización de migraciones (scripts en Python, templates SQL, validaciones automáticas, pipelines CI/CD).
  • Mantener y mejorar procesos ETL/ELT en AWS, apoyándose en servicios como Glue, Lambda, Step Functions y S3.
  • Validar resultados de conversión mediante controles de reconciliación y pruebas de calidad de datos.
  • Documentar decisiones técnicas, reglas de conversión y excepciones para asegurar trazabilidad y mantenibilidad del proceso.

Requisitos Excluyentes

  • 3+ años de experiencia como Ingeniero de Datos o rol equivalente.
  • Dominio avanzado de SQL estándar (uniones complejas, funciones de ventana, CTE, tuning, lectura de planes de ejecución).
  • Experiencia práctica con Amazon Redshift (particionamiento, distribución, optimización de consultas y almacenamiento).
  • Conocimientos sólidos de procesos ETL/ELT en entornos cloud, idealmente AWS. Experiencia en proyectos orientados a migración o modernización de plataformas de datos.
  • Conocimientos en Python para scripting y automatización de validaciones.
  • Nivel intermedio o superior de inglés técnico.

Deseables

  • Experiencia con DataOps, manejo de pipelines (Airflow, Step Functions o similares).
  • Familiaridad con herramientas de Infraestructura como Código (Terraform, CloudFormation).
  • Experiencia en gobierno de datos, nomenclaturas y validaciones automáticas de calidad.
  • Capacidad de documentar y estandarizar procesos en contextos corporativos.

Beneficios

En WiTi fomentamos una cultura de aprendizaje continuo, colaboración y crecimiento profesional. Entre los beneficios se pueden incluir:

  • Plan de carrera y oportunidades de desarrollo profesional.
  • Acceso a certificaciones y formación continua.
  • Cursos de idiomas y acceso a biblioteca digital para tu desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Data Engineer (Híbrido) – Santiago
  • Factor IT
  • Santiago (Hybrid)
Python Data Science Back-end Data Engineer
FactorIT es una empresa líder en soluciones de Data & Analytics, Transformación Digital e IA, con presencia en 8 países de Latinoamérica. Buscamos sumar a nuestro equipo a un Data Engineer para trabajar en proyectos de alto impacto en clientes corporativos, especialmente en el sector financiero y en iniciativas regionales de transformación tecnológica. El rol participará en la definición y ejecución de soluciones modernas de datos, automatización e inteligencia artificial, con enfoque en la entrega de valor real para los negocios y la mejora de procesos a través de pipelines escalables y soluciones basadas en IA.
En FactorIT fomentamos un entorno de aprendizaje continuo, colaboración y uso de tecnologías de vanguardia. El/la candidata trabajará en un entorno híbrido desde Santiago, colaborando con equipos multidisciplinarios para impulsar la gobernanza de datos, la calidad y la innovación tecnológica en la región.

Apply to this posting directly on Get on Board.

Qué harás

  • Diseñar, desarrollar y mantener pipelines de datos escalables en entornos modernos, asegurando rendimiento, fiabilidad y trazabilidad.
  • Implementar soluciones en Databricks para procesamiento y transformación de datos, optimizando cargas y costos.
  • Desarrollar integraciones mediante APIs para consumo y exposición de servicios, facilitando el acceso a datos para aplicaciones y usuarios.
  • Automatizar flujos de trabajo y procesos de datos, idealmente utilizando herramientas como n8n, para mejorar la eficiencia operativa.
  • Participar en la implementación de soluciones basadas en IA (OpenAI, Gemini) para casos de negocio y automatización inteligente.
  • Colaborar en iniciativas de arquitectura de datos, diseño de modelos y buenas prácticas de ingeniería de datos.
  • Apoyar en la gestión, calidad y gobierno de datos; experiencia deseable con herramientas de gobierno como Purview.
  • Trabajar de forma colaborativa con equipos técnicos y de negocio para garantizar alineación con objetivos estratégicos.

Requisitos y perfil

Buscamos un perfil con experiencia en ingeniería de datos y/o arquitectura de datos, acostumbrado a trabajar en proyectos complejos y con capacidad de aprender de forma continua. Requisitos clave:
  • Dominio de Python para procesamiento y manipulación de datos.
  • Experiencia práctica con Databricks y entornos de nube, con enfoque en pipelines y transformación de datos.
  • Experiencia en integración y consumo de APIs para exposición de servicios y datos.
  • Conocimientos en automatización de flujos de trabajo (idealmente con n8n).
  • Interés o experiencia en el uso de modelos y servicios de IA (OpenAI, Gemini u otros).
  • Conocimientos en gobierno de datos (opcional: Purview u otras herramientas).
  • Habilidades analíticas, proactividad, autonomía y capacidad de aprendizaje continuo en tecnologías emergentes.
  • Buenas habilidades de comunicación y trabajo en equipo, orientación a resultados y capacidad para colaborar en contextos multidisciplinarios.

Deseables

Se valorará experiencia previa en entornos financieros, conocimiento de herramientas de orquestación y experiencia trabajando con datos estructurados y no estructurados, así como experiencia en proyectos de IA aplicados a negocio y en conformidad con marcos de gobernanza de datos.

Qué ofrecemos

Modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal. Ambiente colaborativo y dinámico con oportunidades de crecimiento y aprendizaje continuo. Equipo y proyectos innovadores de datos e IA, exposición a tecnologías modernas y clientes de alto nivel. Paquete salarial competitivo acorde a experiencia, cultura inclusiva, diversidad y trabajo en equipo. Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero.

Gross salary $2200 - 2800 Full time
Python SQL NoSQL Big Data

Interfell conecta empresas con el talento IT de LATAM, gestionando procesos de Staffing y Recruiting para impulsar el trabajo remoto y la transformación digital. Nuestro objetivo es potenciar la inclusión y el equilibrio vida-trabajo, brindando una experiencia de contratación integral y de alta calidad. Esta posición forma parte de un equipo enfocado en generar oportunidades de ventas y vínculos con potenciales clientes, contribuyendo al crecimiento de nuestras operaciones en la región.
Buscamos Ingeniero de Datos para un proyecto a tiempo determinado en el sector bancario, te unirás al equipo IT y ayudarás a crear data pipelines

-Tiempo del proyecto: 3 meses

-Remuneración por hora: 18$ - 40 horas semanales (8 horas diarias)

-Jornada: Lunes a Viernes

-Se trabaja por objetivos

Apply to this job opportunity at getonbrd.com.

Job functions

Funciones:

- Diseño, construcción y mantenimiento de pipelines de datos confiables y escalables a demanda.

-Optimización de procesos de almacenamiento y procesamiento de grandes volúmenes de datos.

Qualifications and requirements

Habilidades requeridas:

+3 años de experiencia como Ingeniero de datos

◦ Lenguajes: Python y SQL (Avanzado).

◦ Bases de Datos: SQL y NoSQL.

◦ Data Engineering: Desarrollo de pipelines ETL/ELT e integración de fuentes (APIs, sistemas internos/externos).

◦ Ecosistema: Big Data.

Desirable skills

◦ Nube: AWS, Azure o GCP (Deseable).

Conditions

Flexibilidad y autonomía

Pago USD

$$$ Full time
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (Hybrid)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Applications: getonbrd.com.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Beneficios

En Zerviz nos preocupamos de que juntos podemos trabajar mejor y feliz, por eso contamos con beneficios acorde a las expectativas de nuestros colaboradores:

  • Seguro complementario de salud gratuito para el colaborador.
  • Aguinaldos (Fiestas Patrias y Navidad)
  • Día de cumpleaños libre
  • Permiso sin goce por mudanza.
  • Bonos de Nacimiento y Matrimonio
  • Convenios con Caja Los Andes y Mundo Achs
  • Snack y Frutas en la oficina.
  • Actividades de cultura organizacional
  • Beca de estudios para colaboradores
  • Programas de capacitación y formación continua.

Esto y muchos otros beneficios que podrás descubrir y acceder.

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Zerviz Technologies offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer (Pyspark, AWS)
  • Improving South America
Java Python MySQL SQL
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil. El/la BI Developer trabajará en proyectos orientados a inteligencia de negocio, visualización de datos y creación de dashboards impactantes que faciliten la toma de decisiones. Colaborará con equipos multifuncionales para entregar soluciones escalables y de alto valor para clientes internacionales, dentro de un entorno 100% remoto.
La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

Job opportunity on getonbrd.com.

Responsabilidades del puesto

En Improving South America buscamo un/a Senior Data Engineer para diseñar y operar soluciones de datos de alta disponibilidad a escala global, trabajando con pipelines batch y streaming que procesan grandes volúmenes de información. El rol requiere experiencia construyendo pipelines robustos, trabajando con Kafka, PySpark y data warehouses en AWS, además de fuerte dominio de SQL y modelado de datos.

Responsabilidades del rol:

  • Diseñar y operar pipelines de datos batch y streaming.
  • Procesar grandes volúmenes de datos (billones de eventos diarios y datasets multi-terabyte).
  • Construir integraciones entre MySQL y Redshift.
  • Diseñar modelos de datos y optimizar consultas SQL.
  • Implementar estrategias de CDC, cargas incrementales y full loads.
  • Integrar datos mediante APIs internas y de terceros.
  • Diagnosticar fallas en pipelines, problemas de latencia y calidad de datos.
  • Colaborar en decisiones de arquitectura de datos.

Requerimientos del cargo

  • 7+ años de experiencia en Data Engineering.
  • Inglés intermedio/avanzado (B2/C1) para comunicación técnica.
  • Experiencia sólida con Python.
  • Experiencia con PySpark.
  • Experiencia trabajando con Kafka.
  • Experiencia con Redshift u otro data warehouse moderno.
  • Experiencia integrando MySQL → Redshift.
  • Dominio avanzado de SQL (modelado, optimización y queries complejas).
  • Experiencia en AWS y servicios de datos en la nube.
  • Experiencia diseñando pipelines ETL/ELT batch y streaming.
  • Experiencia con Glue, Step Functions o arquitecturas serverless en AWS.
  • Experiencia trabajando con herramientas de desarrollo asistidas por IA (ej. Cursor).
  • Experiencia en entornos de alto volumen de datos.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Analista de Datos BI Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Python Data Analysis Excel SQL

En Coderslab nos encontramos en la búsqueda de un Analista de Datos BI Semi Senior, encargado de apoyar en la construcción, mantenimiento y mejora de reportes y dashboards de Business Intelligence, asegurando calidad, consistencia y confiabilidad de la información utilizada para decisiones operativas y ejecutar análisis estructurados bajo lineamientos definidos, con autonomía creciente en tareas técnicas recurrentes. Asi como tambien tendrá participación en la consulta y preparación básica de datos para visualización, sin responsabilidad sobre arquitectura de datos, definición de KPIs estratégicos ni liderazgo de modelado complejo o pipelines.

© Get on Board.

Funciones del cargo

  • Construcción y mantenimiento de dashboards en Power BI y/o Tableau.
  • Desarrollo de visualizaciones claras, funcionales y orientadas al seguimiento operativo.
  • Aplicación de buenas prácticas básicas de modelado para consumo analítico.
  • Realización de ajustes y mejoras menores sobre reportes y dashboards existentes.
  • Desarrollo de consultas SQL para extracción, validación y análisis de información.
  • Consulta de datos desde bases Oracle como fuente de origen.
  • Uso básico de PL/SQL para lectura o ajustes simples sobre lógica existente, cuando aplique.
  • Preparación básica de datasets para visualización.
  • Validación de consistencia y calidad de datos.
  • Documentación simple de fuentes y transformaciones realizadas.
  • Generación de reportes operativos periódicos.
  • Identificación de variaciones básicas en indicadores.
  • Atención a requerimientos de ajustes menores en dashboards y reportes.
  • Apoyo en análisis recurrentes bajo lineamientos previamente definidos.
  • Participación en células ágiles o esquemas colaborativos de trabajo.
  • Coordinación con equipos técnicos o áreas fuente para entender origen y estructura de datos.
  • Recepción y aplicación de feedback técnico y funcional.
  • Escalamiento oportuno de incidencias o dependencias técnicas

Requerimientos del cargo

2 o más años de experiencia en análisis de datos o Business Intelligence.
Experiencia en construcción y mantenimiento de dashboards.
Experiencia en generación de reportes operativos periódicos.
Experiencia realizando consultas SQL para extracción, validación y análisis de información.
Experiencia consultando información desde bases Oracle como fuente de origen.
Experiencia en validación de consistencia y calidad de datos.
Experiencia atendiendo ajustes menores sobre dashboards y reportes existentes.
Experiencia trabajando con requerimientos definidos y bajo lineamientos técnicos o funcionales.
Experiencia coordinando con equipos técnicos o áreas fuente para entender origen y estructura de datos.
Profesión requerida (Incluir las certificaciones/ Licencias/ Registros): Ingeniería de sistemas, ingeniería electrónica y/o carreras afines

Habilidades o conocimientos obligatorios:

Manejo de Power BI / Tableau para construcción y mantenimiento de dashboards.
SQL intermedio.
Capacidad para trabajar con joins, filtros, agregaciones y validación de datos.
Excel avanzado.
Capacidad para construir dashboards completos cuando el requerimiento está claramente definido.
Capacidad para realizar consultas y validaciones de datos sobre fuentes existentes.
Capacidad para preparar datasets básicos para visualización.
Capacidad para documentar de manera simple fuentes y transformaciones realizadas.
Capacidad para identificar variaciones básicas en indicadores.
Capacidad para ejecutar tareas definidas con supervisión periódica.
Capacidad para escalar decisiones técnicas complejas, ambigüedades de diseño o necesidades de soporte especializado.
Capacidad para seguir lineamientos técnicos y funcionales.
Pensamiento lógico y estructurado.
Atención al detalle.
Buenas habilidades de comunicación.
Organización y seguimiento.
Disposición para aprendizaje técnico continuo.

Tecnologias que debe manejar

Power BI / Tableau
SQL
Oracle básico
Excel

Opcionales

  • Habilidades y/o conocimientos deseables:
  • Conocimientos básicos de PL/SQL.
  • Conocimientos básicos de Python para scripts simples, automatizaciones ligeras o validaciones puntuales de datos. Conocimientos básicos de modelado para consumo analítico.
  • Experiencia participando en células ágiles o esquemas colaborativos de trabajo.

Condiciones

Modalidad de contratación:03 meses con posibilidad de extension

$$$ Full time
Data Engineer
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Virtualization

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 2 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $2500 - 3200 Full time
Data Governance Consultant
  • Artefact LatAm
  • Santiago (Hybrid)
Excel SQL NoSQL Virtualization

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Data Governance Consultant es un profesional altamente especializado que colabora estrechamente con los clientes para desarrollar e implementar proyectos estratégicos de Data Governance u otros. Este rol se enfoca en actuar como un arquitecto de la confianza dentro de los ecosistemas de información, adaptando tecnología y la aplicación de las últimas tendencias, con un profundo entendimiento de los negocios. Como consultor, trabajará en estrecha colaboración con equipos multidisciplinarios para ofrecer soluciones que generen un impacto significativo y añadan valor a los clientes.

Apply exclusively at getonbrd.com.

Funciones del cargo

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Desarrollar y mantener el roadmap de Data Governance, definiendo la propiedad de los datos (data ownership), los roles de custodia (stewardship) y los modelos operativos.
  • Establecer dimensiones de calidad (exactitud, completitud, consistencia) e implementar sistemas de monitoreo y alertas automatizadas.
  • Definir y hacer cumplir las políticas de retención de datos, privacidad (GDPR, LGPD o normativas locales) y seguridad, trabajando de la mano con los equipos especializados en la materia.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.

Requerimientos del cargo

  • Titulación en Ingeniería Civil Industrial, Ingeniería en sistemas, Ciencias de la Computación, Ingeniería Industrial o áreas afines.
  • Experiencia laboral mínima de 3 años en consultoría, roles de gestión de proyectos o gobierno de datos.
  • Experiencia de al menos 1 año en materias de Data Governance.
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de las regulaciones de privacidad de datos y cómo traducirlas en requisitos técnicos.
  • Conocimiento profundo de diversas herramientas y soluciones digitales. Además de una comprensión sólida de SQL, NoSQL y entornos de nube (AWS, Azure o GCP).

Sumas puntos extras si...

  • Se valoran certificaciones asociadas al cargo
  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Data Scientist / Machine Learning Engineer
  • CyD Tecnología
  • Santiago (Hybrid)
Python Agile SQL Erlang
En CyD Tecnología desarrollamos plataformas web a medida que transforman procesos complejos en soluciones simples y eficientes. Buscamos un Data Scientist / Machine Learning Engineer para liderar la construcción de modelos predictivos orientados a la planificación de ventas y abastecimiento (S&OP). El rol implica procesar y analizar datos desde BigQuery, desarrollar modelos multivariables en Python y generar outputs analíticos para la toma de decisiones. Participarás en la construcción, prueba y ajuste de modelos de machine learning, documentar resultados y generar recomendaciones basadas en datos para optimizar procesos comerciales y de la cadena de suministro en entornos de Google Cloud Platform. Colaborarás estrechamente con equipos de ventas, operaciones y producto, dentro de un entorno ágil para entregar soluciones escalables y orientadas a impacto.

Apply directly on Get on Board.

Funciones clave

  • Procesar y transformar grandes volúmenes de datos en BigQuery para soportar modelos predictivos y dashboards operativos.
  • Desarrollar, evaluar y mantener modelos multivariables (regresión, clasificación, series temporales) en Python, con énfasis en S&OP y optimización de inventarios.
  • Realizar análisis de drivers de negocio y extracción de insights accionables para mejorar ventas y planificación de la cadena de suministro.
  • Colaborar con equipos de producto, ventas y logística para convertir resultados en recomendaciones concretas y acciones operativas.
  • Documentar modelos, parámetros, supuestos y resultados; generar reportes y presentaciones para stakeholders.
  • Implementar prácticas de ML Ops, monitoreo de modelos y actualización continua en Google Cloud Platform.

Requisitos y perfil deseado

Buscamos un perfil con solides técnicas en ciencia de datos e ingeniería de ML, capaz de traducir datos en decisiones estratégicas para ventas y abastecimiento. Debes trabajar de forma autónoma, comunicar claramente resultados y colaborar en un entorno ágil. Se valorará experiencia en S&OP, análisis de cadenas de suministro y stack de Google Cloud Platform.
Competencias técnicas:
  • Python (pandas, NumPy, scikit-learn, statsmodels) y SQL avanzado.
  • Experiencia con BigQuery y el ecosistema GCP (BigQuery ML, Dataflow/Beam, Cloud Storage).
  • Conocimiento en técnicas de ML para series temporales, forecasting, regresión y clasificación.
  • Habilidad para explicar resultados complejos a públicos no técnicos y generar recomendaciones accionables.
  • Experiencia con herramientas de visualización y storytelling de datos.
  • Metodologías ágiles y capacidad de trabajar en equipo multifuncional.

Competencias académicas:

  • Ingeniero Civil Informático, Industrial o Afín.

Deseables

Se valorará experiencia específica en S&OP, optimización de inventarios y operaciones de compra/planning. Conocimiento de ML Ops, Docker/Kubernetes, TensorFlow o PyTorch y familiaridad con estructuras de datos ERP.

Beneficios

Ofrecemos seguro complementario de salud y jornada híbrida de trabajo. En CyD Tecnología promovemos un entorno de trabajo flexible, oportunidades de desarrollo profesional y proyectos con impacto real en la transformación digital de clientes. Contamos con una cultura ágil, equipo colaborativo y horarios compatibles con productividad. Únete para crecer junto a un equipo líder en soluciones web y móviles a medida.

$$$ Full time
Python Redis PostgreSQL REST API

Continuum es un equipo de rebeldes con mentalidad de experimentación y hambre de romper paradigmas. Ayudamos a empresas líderes a sacudir el status quo y a tomarse en serio la innovación, la tecnología y la agilidad. Diseñamos y desarrollamos productos digitales y servicios innovadores centrados en las personas. Tenemos oficinas en Santiago y Lima, pero adoptamos un modelo distribuido; buena parte del equipo vive en otras ciudades o países.

ROL
Como Data Engineer [Semi-Senior] trabajarás en dupla directa con un Back-end Engineer para construir y habilitar flujos de datos que soporten sistemas de seguridad, privacidad de datos y plataformas analíticas — haciendo que la información esté disponible, limpia, segura y estructurada para reportería, análisis y cumplimiento regulatorio en data privacy y gestión de derechos de datos.

Duración: 6 meses [con posible extensión a 1 año o más]
Rango referencial mensual: 2600 a 3600 USD

Opportunity published on Get on Board.

Qué harás

  • Diseñar, construir y mantener pipelines de datos confiables y escalables sobre GCP (Dataflow, Pub/Sub, BigQuery, Cloud Storage).
  • Modelar y transformar datos asegurando calidad, nomenclatura y catalogación.
  • Construir y exponer APIs y microservicios para ingesta, orquestación y consumo de datos, coordinado con el Back-end Engineer del equipo.
  • Aplicar controles de gobernanza, compliance y seguridad: Policy Tags, Row-level Security, IAM, Cloud DLP para detección y enmascarado de PII.
  • Optimizar performance de queries y costos de infraestructura (FinOps) sobre BigQuery y Cloud SQL.
  • Monitorear la disponibilidad y resiliencia de pipelines, gestionando incidentes y asegurando SLAs.
  • Colaborar en pipelines de CI/CD con Terraform, GitLab CI / Cloud Build, garantizando desplieues automatizados y seguros.
  • Democratizar el acceso a datos habilitando flujos hacia plataformas analíticas y sistemas corporativos del cliente.

Conocimientos y experiencia clave (must-have)

Data Engineer Semi Senior con experiencia en GCP y construcción de pipelines de datos en producción. Capaz de trabajar con autonomía a partir de objetivos funcionales, diseñando la solución técnica necesaria. Con habilidad para coordinarse con un equipo de backend y con stakeholders no técnicos del cliente.


Cloud & Datos

  • GCP: BigQuery, Dataflow / Apache Beam, Pub/Sub, Cloud Storage, Cloud Run
  • SQL avanzado (BigQuery SQL, optimización de queries)
  • Python para pipelines, automatización y procesamiento de datos
  • Arquitectura Medallion (Bronze / Silver / Gold)


DevOps & Infraestructura

  • GitLab CI / Cloud Build / GitHub Actions

Gobernanza & Seguridad

  • IAM / Policy Tags / Row-level Security
  • OAuth2 / OIDC
  • Secret Manager
  • Cumplimiento GDPR / LGPD o normativas equivalentes

Integración con Backend

  • REST APIs
  • Cloud SQL (PostgreSQL)
  • Memorystore (Redis) para cache
  • Pub/Sub para arquitecturas orientadas a eventos

Complementarios

DevOps & Infraestructura

  • Terraform (IaC)
  • Docker
  • Artifact Registry

Observabilidad & Monitoreo

  • Cloud Logging / Monitoring / Trace / Error Reporting
  • OpenTelemetry

Gobernanza & Seguridad de Datos

  • Cloud DLP (detección y enmascarado de PII)
  • Dataform para transformaciones SQL sobre BigQuery

Bases de Datos

  • Neo4j u otras bases de datos de grafos

Experiencia & Contexto

  • Experiencia en sector aeronáutico, financiero o similar con alta regulación de datos
  • Experiencia en proyectos de data privacy, compliance o gestión de derechos de datos

Habilidades Blandas & Otros

  • Inglés intermedio (B1+) para lectura de documentación técnica
  • Capacidad de mentoring y guía de buenas prácticas al equipo

Beneficios

Trabajo 99% remoto (con un par de eventos de integración anuales), vacaciones adicionales, becas de estudios, deporte o apoyo a actividades que mejoren tu calidad de vida laboral y personal, día extra por tu cumpleaños, horario flexible y trabajo orientado a resultados, entre otros.

Library Access to a library of physical books.
Fully remote You can work from anywhere in the world.
Internal talks Continuum offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Continuum pays or copays health insurance for employees.
Computer repairs Continuum covers some computer repair expenses.
Computer provided Continuum provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Continuum gives you paid vacations over the legal minimum.
Beverages and snacks Continuum offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Apply without intermediaries through Get on Board.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

Gross salary $3500 - 3700 Full time
Java Python Analytics PostgreSQL

Coderslab.io is looking to hire a Big Data & Reporting Lead to lead the organization’s data architecture and analytics strategy.

This role will be responsible for designing, governing, and optimizing the enterprise data architecture, ensuring proper structuring, integration, automation, and consumption of data for reporting, advanced analytics, and decision-making.

The position has a strong focus on data architecture, analytical modeling for MicroStrategy, process automation using n8n, and optimization of ETL/ELT data pipelines.

About the client and the project: the company delivers innovative technology solutions and provides opportunities for continuous learning under the guidance of experienced professionals and cutting-edge technologies. The goal is to deliver value in key business processes and improve operational efficiency through SAP.

Exclusive to Get on Board.

Funciones del cargo

Data Architecture
Design and govern the data architecture for Big Data and BI platforms.
Define analytical data models for reporting and analytics.
Design data lakes, data warehouses, and data marts aligned with business needs.
Establish data governance, quality, and lineage standards.
Ensure platform scalability, availability, and reliability.

Modeling and Reporting in MicroStrategy
Design and optimize the semantic layer and metadata in MicroStrategy.
Define analytical models and Star Schema structures.
Lead the development of dossiers, operational reports, and analytical cubes.
Optimize queries, performance, and execution times.
Define caching, aggregation, and pre-calculation strategies.

Automation of Analytical Processes (n8n)
Design data and reporting automation workflows using n8n.
Integrate sources such as APIs, databases, cloud services, and BI tools.
Automate data extraction, report generation, dashboard distribution, and alerts.
Design orchestration pipelines for analytical processes.

Data Processing Optimization
Design and optimize scalable ETL/ELT processes.
Optimize queries, data pipelines, and incremental loads.
Reduce latency and resource consumption in reporting.
Implement efficient data ingestion strategies.

Technical Leadership and Management
Lead Data Engineering, BI, and Analytics teams.
Track data architecture and reporting projects.
Define the data platform evolution roadmap.
Establish KPIs for reporting performance, data quality, and analytics adoption.
Align business needs with the data architecture.

Requerimientos del cargo

Experience leading data architecture or analytics platforms.
Experience in analytical data modeling (Star Schema, Data Modeling).
Experience working with Big Data or Data Warehousing platforms.
Experience with MicroStrategy for modeling and reporting.
Experience designing ETL / ELT processes and data pipelines.
Advanced SQL knowledge.
Experience with Python for data processing or automation.
Experience designing scalable data architectures.

Technologies
Big Data & Data Platforms
Spark
Hadoop
Databricks
Snowflake / BigQuery / Redshift
Kafka
Business Intelligence
MicroStrategy
Power BI (nice to have)
Tableau (nice to have)
Automation & Orchestration
n8n
Airflow
REST APIs
Webhooks
Databases
SQL Server
PostgreSQL
Oracle
NoSQL
Data Engineering
Python
Advanced SQL
ETL / ELT pipelines

Opcionales

Experience with workflow automation using n8n.
Experience with orchestration tools such as Airflow.
Experience with Power BI or Tableau.
Knowledge of event-driven or streaming architectures (Kafka).
Experience in data governance, data quality, and data cataloging.

Condiciones

Modalidad prestacion de servicios

$$$ Full time
Applied Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python Data Analysis SQL

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

© getonbrd.com.

Descripción del trabajo

Como Applied Scientist, te sumaras a un equipo ya constituido de Analítica Avanzada, trabajando en conjunto con otras disciplinas tales como Data Scientist, Machine Learning Engineers, DevOps, equipos de producto y gestión.

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Tu trabajo como Applied Scientist será promover y realizar experimentos para orientar los esfuerzos e incrementos de los equipos. Estos desarrollos formarán parte de la transformación data-driven de la empresa con el propósito de fortalecer y eficientar la toma de decisiones basadas en análisis técnicos rigurosos de datos.

Como Applied Scientist tu trabajo consistirá en:

  • Ser el principal gestor de la medición de impacto de los productos, estimando y relacionando el efecto de las acciones en los principales indicadores de la compañía (Ingreso, Costo, Experiencia de Cliente, Puntualidad, entre otros), utilizando técnicas experimentales y observacionales.
  • Habilitar la experimentación en distintos equipos, identificando los métodos estadísticos adecuados para medir el impacto en cada dominio.
  • Participar de la creación de una plataforma de experimentación.

Es un trabajo muy dinámico, donde aprenderás de diferentes proyectos, colaborando con múltiples disciplinas de negocio, datos e IA, trabajando en un ambiente donde la curiosidad, colaboración y empatía son esenciales. Esperamos ver desplegadas tus ganas de aprender y enseñar.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Calificaciones clave

  • Estudios de Ingeniería Civil Industrial, Economía o similar.
  • Experiencia desarrollando estudios de evaluación de impacto utilizando técnicas experimentales y observacionales, tales como RCT (Randomized Control Trials), Técnicas econométricas como Diferencia en Diferencias, controles sintéticos, variables instrumentales, y Propensity Score Matching, entre otros.
  • Dominio intermedio de algún lenguaje de scripting orientado a análisis de datos (R y/o Python), teniendo como base manejo de flujos, condiciones, funciones; así como comodidad utilizando el principal stack de librerías como tidyverse para R, pandas y statsmodels para Python.
  • Experiencia utilizando algún lenguaje declarativo de consultas a base de datos (SQL) para preparar conjuntos de datos para análisis, así como para caracterizar su comportamiento.
  • Habilidad para trabajar en equipo, levantar requerimientos y conseguir resultados.
  • Buen manejo comunicacional y skills de colaboración.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia trabajando con equipos de datos y de análisis en torno a indicadores de negocio.
  • Conocimiento de metodologías ágiles.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage NeuralWorks pays or copays health insurance for employees.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Analytics Data Analysis Excel

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

Apply directly on the original site at Get on Board.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&amp;M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply at getonbrd.com without intermediaries.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
$$$ Full time
Data Engineer – Proyecto (Híbrida)
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL SQL Web server
En BC Tecnología diseñamos y ejecutamos soluciones de TI para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de Data & Analytics se centra en impulsar la continuidad operativa de flujos de datos corporativos mediante pipelines robustos, integraciones escalables y monitoreo proactivo. Participarás en un proyecto con enfoque en datos de alto volumen, trabajando con tecnologías modernas y un entorno ágil para entrega continua y mejoras de producto.

Find this job and more on Get on Board.

Funciones

  • Diseñar y mantener pipelines ETL/ELT para datos críticos de la organización.
  • Orquestar y monitorear flujos de datos con Apache Airflow en entornos productivos.
  • Optimizar consultas SQL en PostgreSQL y/o Amazon Redshift para rendimiento y costos.
  • Gestionar repositorios y pipelines CI/CD en Azure DevOps.
  • Resolver incidencias y asegurar la calidad, disponibilidad y trazabilidad de los datos.
  • Colaborar con equipos de ciencia de datos, ingeniería y negocio para entender requerimientos y entregar soluciones escalables.
  • Participar en la definición de estándares de gobierno de datos y mejores prácticas de ingeniería de datos.

Descripción

  • Buscamos Ingeniero/a de Datos con experiencia en desarrollo de pipelines y entornos productivos para asegurar fluidez y confiabilidad de los datos corporativos.
  • Requisitos técnicos: Python y SQL avanzados; experiencia con PostgreSQL y/o Amazon Redshift; Apache Airflow; Azure DevOps; manejo de grandes volúmenes de datos.
  • Competencias: pensamiento analítico, proactividad, orientación a resultados, capacidad de trabajo en equipo y comunicación efectiva con stakeholders.
  • Se valoran proyectos previos en entornos financieros y experiencia con herramientas de monitoreo y observabilidad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Python SQL Virtualization Big Data
En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS.
El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SAS y SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.
Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Analizar programas existentes en SAS, incluyendo SAS SQL no estándar y estructuras propias del entorno (macros, data steps, librerías, jobs).
  • Convertir y reescribir lógica desde SAS a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre SAS y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Perfil y requisitos

Buscamos un Data Engineer con experiencia sólida en migraciones de SAS hacia entornos cloud, especialmente Amazon Redshift, y con fuerte capacidad para optimizar consultas, diseñar estrategias de conversión y liderar iniciativas de calidad de datos. Deberás combinar habilidades técnicas avanzadas con capacidad de trabajo colaborativo en un entorno enterprise.
  • SQL avanzado (queries complejas, optimización de performance, joins pesados, window functions/CTEs), lectura e interpretación de planes de ejecución.
  • Experiencia demostrada trabajando con SAS (lectura y mantención de programas, entendimiento de SAS SQL y su lógica de procesamiento).
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
migraciones desde SAS u otras tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery), automatización de migraciones, Python u otros lenguajes de scripting para tooling, gobernanza de datos (naming conventions, documentación funcional/técnica, data quality checks) y monitoreo.

Requisitos deseables

Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses (SAS, otros) y participación en automatización de migraciones. Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:
  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.
Modalidad híbrida en Las Condes, Santiago, con flexibilidad para coordinar con equipos y stakeholders. Participación en un proyecto estratégico de transformación de datos con alta visibilidad interna y contacto directo con equipos de data, BI y tecnología. Política de trabajo remoto Híbrido; se combine trabajo remoto y días en oficina.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Gross salary $3000 - 3500 Full time
Data Engineer
  • Coderslab.io
Python SQL NoSQL Azure
Coderslab.io es una empresa global líder en soluciones tecnológicas con más de 3,000 colaboradores en todo el mundo, incluyendo oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos compuestos por talento de alto desempeño para proyectos desafiantes de automatización y transformación digital. Colaborarás con profesionales experimentados y trabajarás con tecnologías de vanguardia para impulsar la toma de decisiones y la eficiencia operativa a nivel corporativo.

© Get on Board.

Funciones del cargo

-Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.
-Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.
-Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.
-Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.
-Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).
-Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.
-Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.
-Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.
-Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

-Microsoft Certified: Azure Data Engineer Associate
-Databricks Certified: Data Engineer Associate
-Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.
-Conocimiento avanzado en bases de datos NoSql.
-Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.
-Conocimiento en procesamiento de datos batch, streaming, API.
-Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.
-Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.
-Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.
-Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

Condiciones

Modalidad de contratación: Prestación de servicio, Contractor.
Duración del proyecto: Indefinido.

Fully remote You can work from anywhere in the world.
$$$ Full time
Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Excel
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Find this job on getonbrd.com.

Funciones del cargo

  • Manage large datasets using most recent technologies
  • Partner with project leads to understand business briefs and execute analysis
  • Develop and enhance statistical model with best-in-class modelling techniques
  • Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.
  • Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)
  • Deliver informative and well-organized deliverables.Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with team and the Client is daily
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next leve
  • Proactively seek opportunities to help team members by sharing knowledge and expanding skills

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Beneficios

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Senior Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Excel SQL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

This job is published by getonbrd.com.

Funciones del cargo

▪ Design and develop analytical solutions to address a spectrum of business challenges, focusing on user acquisition and engagement for state-of-the-art digital offerings.

▪ Collaborate with multidisciplinary teams to structure and analyze business questions through a hypothesis-driven approach.

▪ Perform cohort studies and event impact assessments to analyze outcomes of event interventions using statistical methods.

▪ Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.

▪ Designing data models and schemas that optimize performance and scalability ensuring efficient data retrieval

▪ Partner with consultants /project leads to understand business briefs and execute analyses ensuring high quality, on-time delivery

▪ Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)

▪ Deliver informative and well-organized deliverables.

▪ Develop and enhance statistical model with best-in-class modelling techniques

▪ Evaluate new data sources, conduct research to assist in solving business problems

▪ Multi country / companies’ interactions with team and the Client is daily

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organization to the next level

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
Gross salary $1100 - 1700 Full time
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python SQL Artificial Intelligence Machine Learning
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply directly on Get on Board.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
Gross salary $1200 - 1900 Full time
Data Scientist
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Analytics Data Analysis Marketing
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply directly through getonbrd.com.

Funciones del cargo

▪ Utilize advanced Python programming skills to design, develop, and deploy machine learning models and algorithms for various business use cases.

▪ Develop Machine Learning techniques such as regression, classification, clustering, and deep learning

▪ Ensure the availability, quality, and security of data used for analysis and modeling

▪ Investigate and interpret data to identify actionable insights and opportunities for improvement

▪ Work with cross-functional teams to implement data-driven solutions and drive business growth

▪ Manage client relationships effectively, including conducting meetings, understanding client requirements, and delivering solutions that meet or exceed expectations.

▪ Lead efforts to expand business opportunities by identifying new avenues for data-driven insights and solutions.

▪ Research and devise innovative statistical models for data analysis

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organzation to the next level

Requerimientos del cargo

▪ Bachelor's degree in Computer Science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred

▪ Minimum of 1+years of experience in a data science domain or related role.

▪ Proficiency in Python for data manipulation, analysis, and model development.

▪ Data Science libraries (such as NumPy, Pandas, Scikit-Learn, TensorFlow, or PyTorch)

▪ Advanced SQL skills for data extraction, transformation, and analysis.

▪ Strong experience in Lifecycle of a Data Science Modelling project

▪ Strong knowledge and practical experience in Machine Learning techniques and frameworks such as such as regression, classification, clustering, and deep learning.

▪ Strong knowledge in Statistics, ML and LLM/Gen AI

▪ Proven track record of successfully managing client relationships and delivering value-added solutions

▪ Experience in building Reporting Dashboards in any of the BI Tools is good to have: Power BI, Tableau, Looker

▪ Familiarity with any could platform such as Azure, AWS, GPC

▪ Expert in Analytics solutions such as Marketing, Predictive Order, Segmentation, Promotion, Hyper-personalization, forecasting, Pricing Analytics development is a plus

▪ Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

▪ Excellent Stakeholder communication and proactive problem-solving

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Data Analyst (Proyecto)
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis
BC Tecnología, una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales, busca incorporar un/a Data Analyst para un proyecto estratégico. El rol apoya la toma de decisiones basada en datos y la optimización de iniciativas digitales en un entorno con clientes de alto nivel y sector financiero. El/la profesional trabajará en un equipo ágil, colaborando con Product Owner y stakeholders para definir indicadores, priorizar iniciativas y generar insights accionables que impulsen el negocio.
La misión del proyecto es asegurar que las iniciativas digitales cuenten con métricas claras y dashboards ejecutivos para respaldar decisiones estratégicas, optimizando procesos y resultados. Se trabajará en un entorno híbrido, con foco en entrega de valor y mejora continua, y la posibilidad de involucrarse en otras áreas de la consultora según necesidades y desempeño.

Apply directly on Get on Board.

Funciones

  • Definir y monitorear KPIs del negocio, asegurando que las métricas estén alineadas con los objetivos estratégicos.
  • Construcción y análisis de dashboards ejecutivos con Power BI, incorporando visualizaciones efectivas y análisis de tendencias.
  • Apoyar en la priorización del backlog junto al Product Owner, traduciendo requerimientos de negocio en historias y métricas.
  • Analizar el impacto de funcionalidades digitales, identificando oportunidades de mejora y priorizando acciones con base en datos.
  • Generar insights accionables para el negocio y presentar hallazgos a equipos multifuncionales y alta dirección.

Descripción

Buscamos un/una Data Analyst con al menos 2–3 años de experiencia en análisis de datos, SQL, Python y Power BI. Se valorará experiencia en entornos cloud (Azure o AWS) y en Databricks. Se trabaja bajo metodologías ágiles (Scrum/Kanban). Requisitos: capacidad analítica, atención al detalle, comunicación efectiva y orientación a resultados. El/la candidato/a ideal debe poder transformar datos en insights accionables, trabajar de forma colaborativa y gestionar prioridades en un entorno dinámico.

Perfil deseable

Conocimientos en Databricks, experiencia en construcción de dashboards para ejecutivos, familiaridad con procesos de datos en la nube y capacidad de trabajar en proyectos con plazos ajustados. Se valora proactividad, pensamiento crítico y habilidad para explicar complejidades técnicas a audiencias no técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Gross salary $2000 - 3000 Full time
Data Scientist
  • Cordada
  • Santiago (Hybrid)
Python Analytics SQL Artificial Intelligence

Cordada es una fintech de alto crecimiento dedicada a financiar a PyMEs en LatAm. Nuestro área de Risk and Data Analytics (RDA) desarrolla procesos para crear productos de datos en todas las áreas de la empresa, con foco especial en gestión y evaluación de riesgos de crédito. Buscamos un Data Scientist que transforme datos en información de valor y participe en proyectos de diseño, construcción y gestión de modelos de machine learning para propósitos de riesgo, analítica y negocio. El candidato trabajará colaborando estrechamente con negocio, tecnología y producto para entender requerimientos y entregar insights accionables que impulsen decisiones estratégicas y mejoras operativas.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

Gestionar modelos de machine learning existentes (reentrenamientos y mejoras) e implementar nuevos modelos.

Realizar análisis exploratorios profundos para obtener insights en nuestras fuentes de datos (enfocado en negocio, análisis riguroso y trazable).

Colaborar con áreas de negocio, tecnología y producto para capturar requerimientos y priorizar iniciativas.

Proponer y desarrollar mejoras internas que optimicen el trabajo en Risk & Data Analytics, asegurando claridad, trazabilidad y calidad de código.

Descripción general

El área de Risk and Data Analytics (RDA) es responsable de desarrollar procesos para crear productos de datos para todas las áreas de Cordada, con énfasis en la gestión y evaluación de riesgos de crédito. Es fundamental para nosotros usar los datos en la toma de decisiones y respaldar nuestras metas. Buscamos un Data Scientist capaz de transformar datos en información de valor, trabajando en proyectos de diseño, construcción y gestión de modelos de machine learning para riesgos y analítica de negocio.

Requisitos técnicos incluyen dominio intermedio/avanzado de Python y librerías de data science, SQL y herramientas de control de versiones. Se valora experiencia con stack GCP. Se espera pensamiento analítico, capacidad de comunicar resultados complejos de forma simple, independencia y trabajo en equipo multidisciplinario. Se prioriza rigor, precisión y atención al detalle, así como la habilidad para investigar problemas y entender mecanismos subyacentes que expliquen el comportamiento de los datos.

Competencias y perfiles deseables

Conocimientos en estadística avanzada, econometría y estadística causal (variables instrumentales, diferencias en diferencias, regresión discontinua, etc.).

Experiencia en procesamiento de datos, construcción de features y representaciones adecuadas para modelos, así como manejo de backtesting y monitoreo de data drift. Capacidad para explicar sesgos potenciales y manejar situaciones con información incompleta o sesgada.

Conocimientos de modelos de regresión, ML supervisado/no supervisado, modelamiento probabilístico y métodos para interpretabilidad de probabilidades. Se valoran habilidades de comunicación y capacidad para presentar resultados a stakeholders no técnicos.

Beneficios

Beneficios: opciones de trabajo híbrido algunos días de la semana, días libres por cumpleaños, seguro de salud ampliado, horario de verano, salidas tempranas los viernes, día de mudanza, licencia parental extendida, y acceso a snack machine. Únete a nosotros para tener un impacto duradero en nuestra misión de impulsar a las PyMEs de América Latina. 🌟

Sobre trabajos de Python

Remote job offers for Python developers. Backend, Data Science, Machine Learning and automation. International companies hiring in LATAM. En RemoteJobs.lat conectamos a profesionales de Latinoamerica con empresas que ofrecen trabajo 100% remoto. Todas nuestras ofertas permiten trabajar desde cualquier ciudad, con pagos en dolares o moneda internacional.

Rango salarial

$3,500 - $9,000 USD/mes

Posiciones abiertas

241

Ubicacion

100% Remoto LATAM

Tip: Tambien puedes buscar ofertas en skills relacionados como Django,

Python salary ranges by seniority

Estimated ranges in USD/month for remote contracts with international companies. Vary by company, complementary stack and client location.

Level Years of experience Range USD/month
Junior 0-2 $3,500 - $4,875
Mid-level 2-4 $4,600 - $6,525
Senior 4-7 $6,250 - $8,175
Lead/Staff 7+ $7,625 - $9,000

Companies hiring remote Python from LATAM

Some companies that have historically hired Python profiles to work 100% remotely from Latin America:

Mercado Libre Globant Auth0 Nubank Cloudwalk Stripe GitLab Crossover Toptal

Frequently asked questions

The typical range for a remote Python working for international companies is $3,500 - $9,000 USD/mes. The exact amount depends on seniority, the company's country, and whether the contract is full-time or project-based.

The most in-demand Python profiles usually combine Django, Flask, Fastapi. Adding one of these opens more job offers and often increases salary range by 15% to 30%.

For US/EU companies yes: B2 minimum for technical interviews. There are alternatives at LATAM companies (Mercado Libre, Globant, Rappi) or agencies like Toptal where intermediate English is enough to start.

The 3 highest-impact things: (1) a public GitHub with 2-3 solid projects relevant to Python, (2) an English LinkedIn profile optimized for recruiters, and (3) applying to 20+ offers per week instead of 2-3.