Skills relacionados:
Python SQL Spark Airflow
Gross salary $2600 - 4000 Full time
Python SQL QA Big Data
VARTEQ Inc. is a remote-first IT outsourcing and product company with teams across the US, Europe, and LatAm. We build scalable data and AI-driven solutions for clients in fintech, edtech, and enterprise software. This role sits at the intersection of data engineering and quality assurance, focusing on validating ETL/ELT pipelines, data transformations, and the reliability of ML model outputs. You’ll collaborate with data engineers, ML engineers, and product stakeholders to define quality standards and contribute to automated testing frameworks. Our environment is async-friendly, client-facing, and performance-driven, with opportunities to influence data quality practices across multiple client engagements.

Apply directly from Get on Board.

Responsibilities

  • Design and implement automated tests for data pipelines (ETL/ELT), data transformations, and data quality checks
  • Validate data integrity, completeness, and consistency across sources and destinations
  • Test AI/ML pipeline outputs — model predictions, feature engineering logic, and data drift
  • Write and maintain dbt tests, Great Expectations rules, or similar data validation frameworks
  • Build and maintain test datasets and test environments
  • Collaborate with data engineers to identify edge cases and failure points early
  • Document test plans, test cases, and quality metrics
  • Participate in incident analysis and root cause investigations for data issues

Requirements

What you’ll bring: 2+ years in QA, with at least 1 year focused on data or AI pipeline testing. Proficiency in Python for test automation (pytest, custom scripts). Solid SQL skills to validate data across sources. Hands-on experience with data quality frameworks (Great Expectations, dbt tests, Soda, or similar). Strong understanding of ETL/ELT concepts and pipeline architecture. Familiarity with workflow orchestration tools (Airflow or similar). Upper-intermediate English (B2+).
Nice to have: Experience testing ML model outputs (predictions, scoring, drift detection). Familiarity with data warehouses (Snowflake, BigQuery, Redshift). Knowledge of data observability tools (Monte Carlo, Metaplane). Experience with CI/CD integration for data tests (GitHub Actions, GitLab CI).

Desirable

Data Test EngineerExperience in data validation at scale and exposure to production-grade data platforms. Ability to translate business requirements into concrete test strategies. Strong communication skills to collaborate with cross-functional teams and to document complex data issues clearly. Proactive mindset for improving data reliability and test coverage across multiple projects.

Benefits

  • 100% remote, async-friendly culture
  • Flexible working hours
  • Competitive compensation (contract-based)
  • Direct collaboration with US-based clients
  • English-speaking environment
  • Paid time off + public holidays

Fully remote You can work from anywhere in the world.
$$$ Full time
QA Engineer II (L4)
  • OpenLoop
  • Lima (Hybrid)
JavaScript Python QA Virtualization

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Our Company Culture

We have a relatively flat organizational structure here at OpenLoop. Everyone is encouraged to bring ideas to the table and make things happen. This fits in well with our core values of Autonomy, Competence and Belonging, as we want everyone to feel empowered and supported to do their best work.

Apply directly on the original site at Get on Board.

Responsabilities

We're seeking a QA Automation Engineer to join our Data Engineering team and take ownership of quality assurance across our data pipelines and infrastructure. This role will be instrumental in building and maintaining automated test suites that ensure the reliability and accuracy of our healthcare data systems. You'll work closely with a small, focused team of data engineers to establish testing strategies, prioritize coverage for critical data paths, and maintain quality standards as we scale.

• Quality Ownership: Own and maintain the automated test suite that runs in our CI pipeline, including integration tests, data quality checks, and smoke tests for our data infrastructure.

• Strategic Collaboration: Partner closely with data engineers to understand pipeline architecture, identify critical data paths, and develop comprehensive testing strategies that prioritize business-critical datapoints.

• Test Development: Write and maintain automated tests for data pipelines using Python and TypeScript, ensuring coverage across batch and event-driven workflows.

• Data Validation: Implement data quality checks including row counts, schema validation, key-column validation, idempotency testing, and duplicate handling across ETL processes.

• CI/CD Integration: Build and maintain testing frameworks that integrate seamlessly with our CI/CD pipelines using GitHub Actions, AWS CodePipeline, and CodeArtifact.

• Documentation & Standards: Document test cases, testing strategies, and coverage metrics to establish repeatable quality standards across the data team.

• Continuous Improvement: Identify testing gaps and systematically expand coverage toward end-to-end testing of critical data pipelines.

Requirements

• 3 years of experience in QA automation or software testing, with a focus on data pipelines or backend systems.

• 3 years of hands-on experience with Python and TypeScript for test automation.

• Strong experience with CI/CD pipelines (GitHub Actions, AWS CodePipeline, CodeArtifact).

• Hands-on experience working with data lakes and ETL processes on AWS (familiarity with services like S3, Glue, Athena, Lambda, Step Functions, SQS, EventBridge).

• Experience with testing frameworks for Python (pytest, unittest) and TypeScript/JavaScript (Jest, Mocha).

• Understanding of data structures, data modeling concepts, and data lineage.

• Experience testing in a multi-tenant SaaS environment.

• English (C1/C2) fluency.

Desirable skills

ISTQB Certification

Our Benefits

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Life insurance OpenLoop pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
$$$ Full time
DataOps Engineer
  • BC Tecnología
Agile Continuous Deployment Azure Data Science
BC Tecnología es una consultora de TI que implementa soluciones en infraestructura, desarrollo y servicios de outsourcing para clientes de servicios financieros, seguros, retail y gobierno. En este proyecto LATAM, se busca un DataOps Engineer con al menos 3 años de experiencia para un entorno Azure + Databricks, trabajando de forma remota para LATAM. El equipo se orienta a la construcción de pipelines confiables y escalables de datos, con foco en calidad, monitoreo y seguridad. Participarás en la automatización de flujos de datos, implementación de IaC y mejoras continuas en procesos de integración y entrega de datos.

Exclusive offer from getonbrd.com.

Funciones

  • Diseñar, implementar y mantener pipelines de datos en entornos Azure y Databricks, gestionando clusters, jobs y notebooks.
  • Desarrollar pipelines en PySpark y herramientas de Orquestación (Azure Data Factory, Databricks Workflows).
  • Automatizar la validación y calidad de datos, estableciendo métricas y alertas para monitoreo proactivo.
  • Gestionar IaC con Terraform para infraestructura de datos y entornos de desarrollo, prueba y producción.
  • Integrar CI/CD en Azure DevOps / GitHub / GitLab para despliegues de pipelines y código.
  • Aplicar buenas prácticas de seguridad, cumplimiento y optimización de costos en Azure.
  • Trabajar con equipos multifuncionales para entender requerimientos, diseñar soluciones y entregar resultados de alto impacto.

Requisitos y perfil

Buscamos un profesional con al menos 3 años de experiencia en DataOps/Data Engineering, con fuertes habilidades en Azure y Databricks. Debe dominar PySpark, Azure Data Factory y Databricks Workflows, así como herramientas de CI/CD y prácticas de seguridad de datos. Se valoran experiencia en automatización de calidad de datos, monitoreo y optimización de rendimiento. Capacidad para trabajar de forma remota, proactividad, orientación a procesos y capacidad de colaborar en equipos ágiles. Deseable experiencia en entornos regulados y conocimiento de principios de gobierno de datos.

Deseables

Certificaciones en Azure (AZ-xxx), experiencia en orquestación de datos, conocimiento de herramientas de observabilidad, y background en sectores financieros o seguros. Habilidad para comunicar oportunidades técnicas a stakeholders y documentar soluciones de forma clara.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Gross salary $4000 - 5000 Full time
Python Developer
  • ClickIT Smart Technologies
Python MySQL Virtualization Amazon Web Services

ClickIT: DevOps and Software Development is a Cloud and DevOps Agency who has developed cloud based solutions for almost 10 years, for customers from all around the world. Our core competencies are Financial Services, Healthcare, MarTech, Ecommerce, Big Data & Analytics and our Experience comes with startups and mid-large enterprises. We are AWS and GCP certified partners with an experience of helping more than 200 product and service-centric companies based out of the US with their cloud migration and DevOps initiatives. This position its to be part of our team ClickIT is looking for a Mobile Developer with experience in React Native, iOS and Android.

Exclusive to Get on Board.

Funciones del cargo

We are seeking a highly skilled Python Developer to join our technology team and help build the next generation of data, modeling, and analytics systems that power our U.S. consumer credit investment platform. In this role, you will develop scalable data pipelines, implement ML-driven financial tools, and work closely with quantitative researchers to optimize forecasting algorithms. You will work extensively with Python, Jupyter, Databricks, MySQL, Amazon Batch, and Claude to support large-scale data ingestion, processing, and automation. This position requires strong problem-solving skills, a passion for high-performance computing, and the ability to deliver high-quality solutions in a fast-paced FinTech environment.

● Develop and maintain scalable data ingestion, transformation, and processing pipelines.

● Build analytical workflows using Python, Jupyter Notebooks, and Databricks (Spark, Delta Lake).

● Optimize and orchestrate large-scale compute jobs using Amazon Batch.

● Design, implement, and maintain backend services and APIs to support data and modeling workflows.

● Collaborate with the quantitative research team to enhance forecasting algorithms and ML-driven financial models.

● Develop and improve ML-powered financial analytics tools for credit and portfolio insights.

● Integrate internal systems with FinTech platforms and financial institutions.

● Use Claude and other LLMs to support automation, data exploration, documentation, and workflow optimization.

● Ensure reliability, accuracy, and performance across data systems and production pipelines.

● Troubleshoot and resolve issues across data pipelines, models, and integrations.

● Write clear, maintainable, and well-documented code following industry best practices.

● Participate in code reviews, technical discussions, and continuous improvement initiatives.

● Collaborate closely with cross-functional teams, including engineering, research, and product.

Requerimientos del cargo

● 5+ years of professional software development experience in production environments.
● Strong proficiency in Python, including data processing, scripting, and backend development.
● Hands-on experience with Jupyter Notebooks for exploratory data analysis and modeling.
● Practical experience working with Databricks (Spark, Delta Lake, ETL workflows).
● Solid understanding of MySQL, including schema design, complex queries, and query optimization.
● Experience managing and optimizing batch and distributed compute workloads using Amazon Batch.
● Familiarity with Claude or other LLMs for workflow automation, data exploration, and documentation support.
● Strong understanding of data structures, algorithms, and software engineering best practices.
● Experience building APIs or microservices in Python.
● Ability to work with cloud-based infrastructures (AWS preferred).
● Excellent analytical, problem-solving, and debugging skills.
● Strong communication and teamwork abilities, collaborating effectively with engineering and research teams.
● Bachelor’s degree in Computer Science, Engineering, or a related technical field.

Condiciones

  • Fully Remote: flexible hours and 100% home office
  • Medical Insurance: protected by Safety Wing
  • Payment in dollars: through Deel or Payoneer
  • Vacation days since your 2nd month: 12 days your first year and annual vacation day increase
  • Certifications and Courses
  • English classes: up to 3 hours a week of online conversational classes
  • Wellness Program: up to 5 psychology sessions through Terapify, E-books, online yoga and meditation
  • Referral bonus
  • Integration activities: remote integration activities with a chance to win great prizes
  • Recognition program: recognition for completion of projects
  • ClickIT Academy: opportunity to give conferences
  • Career plan: design of a career plan after 6 months at the company
  • Bonus for personal use of computer equipment: $50 USD per month

Fully remote You can work from anywhere in the world.
Gross salary $1000 - 1300 Full time
Desarrollador Web
  • Coderslab.io
  • Lima (Hybrid)
HTML5 Python SQL Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Desarrollador Web para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Find this job on getonbrd.com.

Funciones del cargo

  • Desarrollo de funcionalidad de gestión del canal con python y html5, tanto Backend como Frontend.
  • Migración de funcionalidades hacia web.
  • Documentación funcional de los desarrollos.
  • Carrera sistemas o relacionados.
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Requerimientos del cargo

Experiencia entre 2 y 3 años

  • Experiencia en HTML5
  • Experiencia en SQL Server
  • Experiencia en Python
  • Experiencia en BigQuery
  • Experiencia en Gitlab
  • Experiencia en ETLs
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Condiciones

Modalidad de contratación: Recibo por honorarios
Modalidad: Hibrida (3 veces a oficina)

$$$ Full time
Desarrollador Web Python/HTML5
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python SQL Big Data
BC Tecnología es una consultora de TI con experiencia en diseñar soluciones para clientes de servicios financieros, seguros, retail y gobierno. Nuestro enfoque es entregar proyectos de desarrollo y migración de funcionalidades, con equipos ágiles y foco en la continuidad operativa y la evolución de canales digitales. En esta posición, formarás parte de iniciativas que buscan migrar funcionalidades desde aplicaciones móviles (APK) hacia plataformas Web, asegurando soluciones eficientes, escalables y alineadas a los estándares corporativos del banco.
Trabajarás en proyectos que requieren integración de datos, migraciones de funcionalidades, y desarrollo de soluciones que optimicen la experiencia del usuario final, manteniendo la calidad y la trazabilidad documental necesarias para entornos regulados.

Find this job and more on Get on Board.

Funciones y responsabilidades

  • Desarrollar funcionalidades de gestión de canal utilizando Python y HTML5, abarcando tanto Backend como Frontend.
  • Migrar funcionalidades desde APK a plataformas Web, asegurando transiciones sin pérdidas de rendimiento ni integridad de datos.
  • Participar en la elaboración de documentación funcional de los desarrollos, manteniendo trazabilidad y claridad para equipos de operación y negocio.
  • Colaborar en la definición técnica y en la revisión de código para garantizar adherencia a estándares del banco y buenas prácticas.
  • Trabajar de forma colaborativa con equipos de UI/UX, QA y DevOps para entregar soluciones escalables y mantenibles.
  • Identificar, registrar y proponer mejoras continuas en procesos, rendimiento y seguridad de las aplicaciones.

Requisitos y perfil buscado

Requisitos técnicos obligatorios:
  • HTML5
  • Python
  • SQL Server
  • BigQuery
  • GitLab
  • ETLs
Experiencia entre 2 y 3 años como desarrollador, con antecedentes en desarrollo web y migración de funcionalidades. Se valorará experiencia en el sector financiero o en industrias afines. Capacidad para trabajar en entornos colaborativos, orientados a resultados y con buenas habilidades de comunicación para documentar y coordinar cambios con stakeholders.

Deseables

Experiencia previa en migraciones desde apps móviles a plataformas web, conocimiento adicional de arquitecturas de microservicios, y familiarity con procesos de gobierno de datos y seguridad en entornos regulados.Idiomas: español fluido; inglés técnico deseable.

Beneficios y entorno de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Python PostgreSQL SQL Docker
Niuro connects ambitious projects with elite tech teams to deliver high-impact solutions for leading U.S. companies. The selected candidate will join a fintech-focused environment where data integrity, reliability, and scalability are paramount. You will contribute to building autonomous, high-performance backend systems that ingest, normalize, validate, and store market data at scale. This role emphasizes robust data pipelines, production-grade services, and seamless API-based integrations, enabling real-time and historical market data workflows for analytics and trading applications. The project culture values technical excellence, continuous improvement, and a collaborative global team committed to delivering measurable value while maintaining a strong administrative support backbone to allow engineers to focus on impactful work.

Apply directly through getonbrd.com.

Core Responsibilities

Design, implement, and maintain asynchronous Python services for market-data ingestion in a fintech setting. Build clean, well-typed, maintainable Python code using modern best practices. Design and operate microservice-based architectures using Docker. Optimize concurrency, throughput, and resource usage in asynchronous systems. Own services end-to-end: development, debugging, monitoring, and long-term improvements.
  • Data Pipelines & Reliability: Build and maintain robust API-based ingestion pipelines. Handle real-world failure modes including partial data, retries, idempotency, and upstream instability. Monitor ingestion success, latency, and data quality metrics. Conduct root-cause analyses on data incidents and implement durable fixes. Ensure deterministic behavior under load.
Database & Data Integrity: Work directly with PostgreSQL and TimescaleDB using raw SQL where appropriate. Design and maintain normalized schemas for time-series and reference data. Ensure data correctness, consistency, and traceability across ingestion layers. Maintain and debug production databases. Design scalable data structures to support growing data volume and query load.

Required Experience & Skills

• 5+ years of professional experience building backend systems in Python.
• Strong experience with async Python (asyncio, async I/O patterns).
• Excellent knowledge of PostgreSQL, raw SQL, and database performance tuning.
• Experience designing and operating production distributed systems.
• Strong understanding of failure modes, backpressure, retries, and idempotency.
• Proven ability to own systems end-to-end in production.

Bonus – Fintech & Data Awareness

• Experience with financial or market data.
• Familiarity with time-series modeling and high-volume data ingestion.
• Ability to reason about how data quality impacts downstream trading or analytics systems.
• Experience supporting analytics or front-end consumers of market data.

Benefits

We provide opportunities to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing global flexibility. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from strong administrative support that enables you to focus on impactful work without distractions.

Informal dress code No dress code is enforced.
$$$ Full time
Desarrollador .NET / SQL / Angular
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript .Net Python Agile
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales para áreas de Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio. El proyecto se centra en migraciones de datos entre plataformas, desarrollo y mantenimiento de soluciones basadas en SQL Server, .NET y front-end con Angular, orientadas a clientes en sectores como servicios financieros, seguros, retail y gobierno. El rol implica trabajar en equipos ágiles para entrega de software de alta calidad, con foco en rendimiento, escalabilidad y cumplimiento de requerimientos del Product Owner y normas de arquitectura digital. Participarás en iniciativas de mejora continua, migraciones de datos y desarrollo de microservicios en un entorno tecnológico avanzado, con énfasis en buenas prácticas de pruebas y entrega incremental.

Apply directly from Get on Board.

Funciones principales

  • Desarrollar y mantener aplicaciones y procesos utilizando SQL Server y SQL Integration Services (SSIS), ASP.NET y .NET Framework 4.x.
  • Desarrollar soluciones de software que aprovechen eficientemente recursos (memoria, disco, CPU) y cumplan con requerimientos y funcionalidades definidas por el Product Owner.
  • Programar código funcional, mantenible y de calidad para incrementar el producto, abarcando Backend y Frontend (MVC con Angular, Python cuando aplique).
  • Diseñar e implementar microservicios, gestionar su ciclo de vida y su despliegue en entornos de nube como AWS.
  • Realizar pruebas unitarias e integrales, corregir defectos detectados en QA y asegurar que los incrementos de producto estén listos para producción al final de cada sprint.
  • Participar en la propiedad colectiva del código del incremento del sprint y buscar mejoras continuas en entregables y procesos.
  • Analizar e interpretar datos para apoyar la toma de decisiones, vinculando requisitos de negocio con soluciones técnicas robustas.
  • Colaborar en equipos ágiles Scrum, manteniendo una comunicación efectiva y documentando artefactos técnicos y funcionales.
  • Requisitos de migraciones de datos entre plataformas, con conocimiento avanzado de procesos masivos (Batch) y herramientas de integración.

Descripción

Buscamos un Desarrollador Senior con sólida experiencia en migraciones de datos, desarrollo full-stack y capacidad para trabajar en un entorno bancario y de servicios. El candidato ideal poseerá un historial probando soluciones complejas, integrando capas de presentación, negocio y datos, y demostrará habilidades analíticas avanzadas para modelar y transformar información. Se requiere experiencia en SQL Server, SSIS, .NET, MVC con Angular y desarrollo de microservicios. Deberá trabajar con metodologías Scrum y colaborar con equipos multifuncionales para entregar soluciones de alta calidad, escalables y seguras. Se valorarán certificaciones en .NET, SQL Server y/o Scrum, así como experiencia en plataformas en la nube. El rol implica un turno híbrido con presencia en Santiago centro y coordinación con equipos en Las Condes según la modalidad de la empresa.

Requisitos deseables

Formación universitaria en Ingeniería de Sistemas, Informática o campos afines. Mínimo 5 años de experiencia en desarrollo de software en proyectos similares. Dominio avanzado de HTML5, CSS y JavaScript, conocimiento de Angular y desarrollo móvil/web. Experiencia comprobable en SQL Server, SSIS, ETL, ASP.NET, MVC con Angular y Python. Deseable experiencia en migraciones de datos, procesos batch/masivos (CMD) y desarrollo de microservicios. Capacidad analítica avanzada, buena comunicación y trabajo en equipo. Conocimientos en Genesys Cloud y Salesforce Marketing Cloud son un plus. Se valora experiencia en entornos bancarios y en entornos que requieren alta seguridad y cumplimiento regulatorio.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1800 - 2300 Full time
Ingeniero(a) Junior de Software y Robótica
  • Maquintel robotic services
  • Santiago (In-office)
C C++ Python Git

Resumen del cargo

Buscamos un/a ingeniero recién egresado/a con fuerte base técnica y ganas de aprender "en la vida real" para sumarse a un equipo que construye soluciones de inspección de activos críticos usando robótica, percepción (visión/3D), plataformas de datos y gemelos digitales. Tu foco será conectar el mundo físico con el digital: capturar datos desde robots y sensores, procesarlos (imágenes, nubes de puntos, telemetría), exponerlos en una plataforma (APIs/dashboards) y transformarlos en un gemelo digital útil para operación y mantenimiento.

Perfil ideal

  • Ingeniero Civil Eléctrico, Electrónico, Computación/Informática
  • Recién egresado/a o 0-2 años de experiencia (practicas cuentan).
  • Alto potencial, curiosidad y mentalidad de aprendizaje acelerado.
  • Liderazgo desde el primer día: ownership de tareas, iniciativa y capacidad de pedir ayuda a tiempo.
  • Orden y rigurosidad: reproducibilidad, bitácora técnica, documentación y foco en calidad de datos.

Job source: getonbrd.com.

Responsabilidades clave

1) Software de captura y procesamiento (Robótica + Datos)

  • Desarrollar y mantener herramientas para recolección, limpieza y procesamiento de datos generados por robots (imágenes, video, LiDAR/nubes de puntos, IMU y otros sensores).
  • Diseñar pipelines reproducibles para logging, sincronización, validación y respaldo de datos.
  • Automatizar tareas recurrentes (importación, conversión de formatos, control de calidad, generación de reportes base).

2) Percepción y analítica (Visión + 3D)

  • Implementar y optimizar algoritmos de procesamiento de imágenes (OpenCV) y análisis de datos espaciales / nubes de puntos (filtros, registro, segmentación, métricas).
  • Apoyar la curación de datasets, anotación/etiquetado cuando aplique, y validación de resultados.
  • Medir desempeño: precisión/recall cuando corresponda, error, cobertura, repetibilidad y tasa de reproceso.

3) Plataforma de datos (Backend + Integraciones + Dashboards)

  • Construir y mantener servicios para explotación de datos: APIs, conectores y componentes de backend.
  • Modelar y mantener bases de datos (por ejemplo PostgreSQL) y apoyar flujos de ETL liviano y exports para clientes.
  • Crear visualizaciones y dashboards para usuarios no expertos, enfocadas en decisión y trazabilidad.

4) Gemelos digitales (Activos + Evidencia + Trazabilidad)

  • Estructurar activos y campanas: jerarquías, metadatos, criticidad, evidencia y comparaciones "antes/después".
  • Apoyar la construcción de vistas 3D/modelos y reportes técnicos orientados a mantención y operación.
  • Asegurar consistencia: naming, versionado de datasets y estándares internos.

5) Integración y calidad (Hardware/Software + Operación)

  • Colaborar con ingeniería de hardware/robótica para una integración fluida (interfaces, formatos, límites de cómputo).
  • Diseñar y ejecutar pruebas para asegurar rendimiento, robustez y calidad del dato.
  • Documentar código y procesos de forma clara; mantener control de versiones y buenas prácticas de desarrollo.

Habilidades técnicas requeridas

  • Python (obligatorio). C++ (deseable).
  • Manejo de Linux/Unix y herramientas de terminal.
  • Análisis de datos: NumPy, Pandas, SciPy (o equivalentes).
  • Procesamiento de imágenes: OpenCV (deseable fuerte).
  • Control de versiones: Git (obligatorio).
  • Capacidad de crear visualizaciones (por ejemplo Matplotlib) y dejar herramientas usables por terceros.

Deseables (suman mucho)

  • ROS/ROS2 (nodos, tópicos, servicios, acciones).
  • Nubes de puntos y 3D: Open3D, PCL u otras.
  • Machine Learning aplicado a vision: PyTorch/TensorFlow/Keras.
  • Nube: AWS, Azure o Google Cloud (almacenamiento, procesamiento o despliegue).
  • Docker y nociones de APIs REST.

Si te apasiona la robótica, el software, machine learning, la innovación y el desarrollo, con un foco en la generación de nuevos productos y servicios, este es el lugar ideal para aprender y crecer profesionalmente. Estarás investigando, desarrollando e implementando soluciones en base a una combinación entre software y hardware para resolver problemas desafiantes con alto impacto en la industria y medio ambiente.

Somos un equipo multidisciplinario, con un ambiente laboral grato y relajado que cuenta con servicios únicos bien desarrollados y probados. Tenemos mucho entusiasmo por seguir desarrollando e implementando servicios y soluciones innovadoras.

Fuimos finalistas del Premio nacional de innovación Avonni 2019. También recibimos el premio a la mejor contribución a la industria de transporte de relaves Optimus Pipe 2018.

$$$ Full time
Lead Software Architect
  • Improving South America
.Net C Analytics Agile

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Find this job and more on Get on Board.

Funciones del cargo

  • Liderar el diseño y la evolución de arquitecturas de software escalables, seguras y de alto rendimiento, tanto On-premises como en la nube, utilizando Microsoft Azure.
  • Definir la arquitectura técnica end-to-end de soluciones SaaS, asegurando estándares de calidad, resiliencia, mantenibilidad y escalabilidad.
  • Diseñar y liderar la implementación de data warehouses empresariales, incluyendo modelado de datos, pipelines ETL y optimización de performance.
  • Colaborar estrechamente con equipos de Desarrollo, DevOps y Data para asegurar una integración fluida entre aplicaciones y plataformas de datos.
  • Crear y mantener documentación arquitectónica, diagramas y especificaciones técnicas para aplicaciones y plataformas de datos.
  • Actuar como referente técnico en el uso de servicios de Azure, tales como App Services, Azure Functions, Azure SQL, Cosmos DB, Azure Data Factory, Synapse Analytics y Azure Storage.
  • Definir y velar por el cumplimiento de estándares de arquitectura, buenas prácticas y modelos de gobernanza en los distintos proyectos.
  • Trabajar junto a stakeholders de negocio para alinear las decisiones técnicas con los objetivos estratégicos de la compañía.
  • Evaluar nuevas tecnologías y herramientas, proponiendo mejoras en performance, escalabilidad y eficiencia de costos.
  • Brindar liderazgo técnico y mentoría a desarrolladores e ingenieros, promoviendo buenas prácticas y crecimiento del equipo.

Requerimientos del cargo

  • Nivel de inglés intermedio/ avanzado - B2/C1 (Indispensable).
  • +10 años de experiencia en desarrollo de software, con evolución hacia roles de liderazgo técnico.
  • Experiencia liderando el diseño e implementación de arquitecturas cloud-native en Microsoft Azure (Azure Functions, Azure SQL, Cosmos DB, Azure Data Factory, Synapse Analytics, and Azure Storage).
  • Sólido dominio de .NET (C#) y ASP.NET Core, con capacidad para tomar decisiones de arquitectura y buenas prácticas de desarrollo.
  • Experiencia liderando equipos en el uso de Azure DevOps, incluyendo CI/CD, gestión de releases y calidad de código.
  • Capacidad para diseñar soluciones enfocadas en escalabilidad, tolerancia a fallos, seguridad y cumplimiento.
  • Conocimientos en data warehousing, con capacidad para guiar decisiones relacionadas al manejo y la estrategia de datos.
  • Fuerte enfoque en ciberseguridad, asegurando el cumplimiento de estándares y buenas prácticas en los desarrollos.
  • Experiencia liderando equipos bajo metodologías ágiles, promoviendo la mejora continua y la colaboración.
  • Fuertes habilidades de comunicación, liderazgo e influencia técnica.

Beneficios

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Arquitecto de Soluciones Senior
  • BC Tecnología
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Microservices
BC Tecnología es una consultora de TI con experiencia en diseñar soluciones para clientes de servicios financieros, seguros, retail y gobierno. Nos enfocamos en consultoría y diseño de soluciones, formación de equipos, outsourcing de personal, desarrollo de proyectos y servicios de soporte y administración IT. Nuestra cultura favorece el crecimiento profesional, la integración y el intercambio de conocimiento entre equipos. En este rol, liderarás la definición y validación de arquitecturas técnicas para soluciones en el sector retail, coordinando con equipos de implementación y asegurando la interoperabilidad entre sistemas core, middleware, plataformas SaaS y entornos híbridos.
La posición se enmarca en un entorno de proyectos innovadores con clientes de alto nivel y múltiples sectores, promoviendo prácticas ágiles, gestión de stakeholders y un enfoque centrado en la calidad de datos y la seguridad.

Applications: getonbrd.com.

Funciones y responsabilidades

  • Levantar, diseñar y validar arquitecturas técnicas para soluciones en el sector retail, asegurando interoperabilidad entre sistemas core, middleware, plataformas SaaS y entornos híbridos (cloud y on‑premise).
  • Traducir requisitos de negocio en soluciones técnicas robustas, escalables y alineadas a la estrategia de la empresa y del cliente.
  • Liderar la implementación técnica y colaborar con equipos de desarrollo, DevOps, seguridad y operaciones.
  • Definir patrones de integración (REST APIs, eventos, archivos, SFTP), orquestación de procesos y diseño de buses de eventos; gestionar microservicios y middleware.
  • Modelar y documentar componentes e interfaces (C4, BPMN, diagramas de secuencia) para garantizar claridad y trazabilidad.
  • Gestión de datos: asegurar calidad, consistencia y rendimiento de datos; trabajar con soluciones de analítica y almacenamiento (p. ej., bases de datos analíticas, esquemas optimizados).
  • Seguridad y cumplimiento: diseñar arquitecturas seguras, control de accesos, cifrado y cumplimiento normativo.
  • Metodologías Ágiles y DevOps: promover prácticas de CI/CD, automatización de despliegues, monitoreo y mejora continua.
  • Gestión de stakeholders de negocio y tecnología; comunicación efectiva y liderazgo técnico para equipos multidisciplinarios.
  • Evaluar y seleccionar tecnologías alineadas a los objetivos del negocio; proactividad en resolver problemas y gestionar múltiples prioridades.
  • Conocimientos deseables en CRM, especialmente Customer Services.

Perfil y requisitos

Requisitos indispensables: más de 5 años de experiencia en roles de arquitectura de soluciones, preferentemente en retail, consumo masivo o industrias con alta integración de sistemas; experiencia comprobada en proyectos de integración de sistemas core y soluciones cloud/SaaS; experiencia en migraciones, modernización o implementación de plataformas; experiencia liderando equipos técnicos y gestionando stakeholders de negocio y tecnología; capacidad de comunicación efectiva y liderazgo para interactuar con equipos multidisciplinarios; dominio de Cloud Computing (AWS) y de patrones de integración (REST, eventos, files, SFTP); experiencia con bases de datos analíticas (p. ej., Redshift) y ETL/ELT; conocimiento de seguridad, cumplimiento, y prácticas DevOps; diseño detallado de arquitectura considerando flujos de datos, interoperabilidad y resiliencia; modelado y documentación de componentes e interfaces; capacidad para evaluar tecnologías y asegurar interoperabilidad entre legacy, cloud y SaaS; buenas prácticas de desarrollo. Deseable: conocimientos en CRM, específicamente Customer Services.

Requisitos deseables

Visión estratégica y orientación a resultados; capacidad para gestionar múltiples prioridades; proactividad y resolución de problemas; buenas prácticas de desarrollo; habilidades de comunicación y negociación con stakeholders; enfoque orientado al cliente y capacidad para traducir necesidades de negocio en soluciones técnicas efectivas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
JavaScript UX Python Analytics

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 480 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This job is published by getonbrd.com.

¿Cuales serán tus responsabilidades como Marketing Platform Engineer ?

1. Desarrollo Avanzado en Odoo

  • Diseñar y desarrollar módulos custom de Odoo enfocados en:
  • Marketing automation
  • Tracking de leads y lifecycle management
  • Modelos de atribución (first touch, last touch, multi-touch)
  • Funnel analytics y conversion tracking
  • Extender y personalizar módulos existentes:
  • CRM
  • Marketing Automation
  • Email Marketing
  • Website / eCommerce
  • Crear vistas y dashboards dinámicos orientados a analítica y toma de decisiones.

2. Marketing & Growth Enablement

  • Implementar flujos de automatización:
  • Lead nurturing
  • Lead scoring dinámico
  • Segmentación avanzada basada en comportamiento
  • Diseñar journeys omnicanal:
  • Email
  • Website behavior
  • Integraciones con WhatsApp, Ads, Social, entre otros
  • Definir reglas de negocio para MQL, SQL y revenue attribution.

3. ReporterÍa y Analytics (Core del Rol)

  • Diseñar un sistema de reportería modular comparable a herramientas como HubSpot Analytics.
  • Construir dashboards y reportes de:
  • Performance por canal
  • CAC, LTV y ROI de campañas
  • Conversión por etapa del funnel
  • Desarrollar dashboards ejecutivos y reportes custom por rol (Marketing, Ventas, Dirección).
  • Optimizar modelos de datos para análisis histórico y predictivo.

4. Integraciones & Data

  • Integrar Odoo con plataformas externas:
  • Google Analytics / GA4
  • Google Ads, LinkedIn Ads
  • Herramientas de Email y WhatsApp
  • Diseñar pipelines de datos mediante:
  • APIs
  • Webhooks
  • ETLs internos en Odoo
  • Normalizar y unificar datos multicanal.

5. Arquitectura y Escalabilidad

  • Diseñar una arquitectura modular, escalable y mantenible.
  • Versionar y documentar módulos desarrollados.
  • Optimizar performance en bases de datos grandes (PostgreSQL).
  • Definir esquemas de seguridad y control de accesos por rol.

¿Qué conocimientos buscamos en el/la Marketing Platform Engineer ?

Odoo (Core del rol)

  • Odoo v14+ (idealmente v16–18).
  • Dominio avanzado del ORM de Odoo.
  • Desarrollo de módulos desde cero.
  • QWeb, XML views y JavaScript (Owl framework deseable).

Backend & Data

  • Python avanzado.
  • PostgreSQL (queries complejas y optimización).
  • APIs REST y Webhooks.

Front & UX (Deseable)

  • JavaScript / Owl.
  • UX aplicado a dashboards y data visualization.
  • Patrones de diseño orientados a analítica.

Experiencia requerida

  • 5+ años desarrollando en Odoo.
  • Experiencia construyendo módulos complejos y críticos.
  • Background en proyectos de:
  • Marketing automation
  • Analytics
  • CRM avanzado

¿Qué competencias buscamos en el/la Marketing Platform Engineer ?

  • Pensamiento sistémico y visión de arquitectura.
  • Capacidad de traducir necesidades de negocio en lógica técnica.
  • Alta autonomía y ownership técnico del producto.
  • Comunicación clara con equipos de Marketing, Ventas y Dirección.
  • Orientación a impacto, métricas y toma de decisiones basada en datos.

Te ofrecemos:

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.

Acceso a grandes clientes y proyectos desafiantes.

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.

Un entorno de trabajo flexible y dinámico.

Fully remote You can work from anywhere in the world.
Gross salary $2000 - 2200 Full time
Especialista Desarrollador
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript .Net Agile Front-end
BC Tecnología es una empresa de servicios TI que gestiona portafolio, desarrolla proyectos, realiza outsourcing y selección de profesionales para clientes en sectores financieros, seguros, retail y gobierno. Buscamos incorporar un Especialista Desarrollador para formar parte de equipos ágiles que trabajarán en proyectos de desarrollo de software y migraciones de datos, con enfoque en la entrega de incrementos de valor para clientes de alta exigencia. El candidato participará en iniciativas de desarrollo y mantenimiento de aplicaciones, liderando y colaborando en soluciones de integración y procesamiento de datos dentro de un marco de Scrum, con foco en calidad, escalabilidad y performance. El rol se desempeñará en un entorno híbrido, combinando trabajo en oficina y remoto, para asegurar una ejecución eficiente y una entrega continua de valor.

This job is available on Get on Board.

Funciones y responsabilidades

  • Desarrollar y mantener aplicaciones y procesos, asegurando calidad, rendimiento y escalabilidad.
  • Participar en equipos ágiles y entrega de incrementos de producto con foco en valor para el negocio.
  • Analizar y modelar datos para soluciones TI, incluyendo migraciones entre plataformas, procesos batch/masivos y ETL.
  • Trabajar con SQL Server, SSIS, ASP.NET, .NET Framework y Angular, aplicando patrones de diseño y buenas prácticas de desarrollo.
  • Contribuir en la definición técnica y arquitectónica de soluciones, incluyendo microservicios (Node.js) e integraciones con AWS.
  • Colaborar con equipos multidisciplinarios y respaldar la mejora continua de procesos y metodologías Scrum.

Requisitos y perfil deseado

Requisitos mínimos:
  • Formación universitaria en Ingeniería en Sistemas, Informática o carrera afín.
  • Mínimo 3 años de experiencia en desarrollo de software.
  • Experiencia en migración de datos entre plataformas, procesos batch/masivos y ETL.
  • Conocimientos en SQL Server, SSIS, ASP.NET, .NET Framework y MVC con Angular.
  • Experiencia en microservicios (Node.js) e integración con AWS.
  • Manejo de metodologías Scrum y trabajo en entornos ágiles.
Competencias deseables: capacidad de análisis, orientación a resultados, proactividad, trabajo en equipo, buenas habilidades de comunicación y capacidad de adaptación a entornos dinámicos.

Requisitos deseables

Se valorará:
  • Conocimientos adicionales en servicios de nube, contenedores y herramientas de orquestación.
  • Experiencia en diseño y migración de soluciones de datos en entornos regulados.
  • Experiencia en cliente/finanzas y proyectos de cambio organizacional.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
JavaScript Python Front-end Node.js

WiTi es una compañía que acompaña a grandes holdings de retail en la implementación de soluciones omnicanal basadas en datos y audiencias. Este rol se integra a una unidad de retail media enfocada en productos de segmentación y audiencias para múltiples países de la región. Trabajarás con equipos de negocio, data e ingeniería para impulsar productos que conectan marcas con millones de clientes a través de plataformas de publicidad basadas en datos, con un enfoque en escalabilidad y rendimiento.

Apply exclusively at getonbrd.com.

Funciones y responsabilidades principales

  • Diseñar, desarrollar y mantener servicios backend en Python, exponiendo APIs escalables y robustas (FastAPI; deseable experiencia en Django).
  • Desarrollar interfaces frontend en ReactJS, con posible experiencia en arquitecturas modernas como microfrontends.
  • Modelar y operar bases de datos SQL y NoSQL, garantizando integridad, rendimiento y calidad de los datos.
  • Colaborar en flujos ETL y soluciones de Big Data para construir audiencias y segmentaciones avanzadas.
  • Participar en decisiones de arquitectura usando monorepos con NX (deseable experiencia en PolyRepo).
  • Trabajar con contenedores Docker y orquestación con Kubernetes para desplegar y operar en producción.

Perfil y experiencia requeridos

Buscamos un/a Desarrollador/a Full Stack Senior con probada experiencia en desarrollo de aplicaciones end-to-end. Se requiere dominio de Python en backend, idealmente en entornos productivos, y sólida experiencia desarrollando interfaces en ReactJS. Debe tener conocimiento del mundo Retail y experiencia en proyectos de ecommerce o retail media. Se valora experiencia con FastAPI (y/o Django), conocimiento de Node.js (NestJS) como parte del stack backend, y experiencia en microfrontends o arquitecturas frontend modulares. Se espera experiencia en procesos ETL y plataformas de Big Data, trabajo con monorepos (NX) y pipelines CI/CD, y familiaridad con Docker y Kubernetes en ambientes productivos. Nivel básico de inglés para lectura de documentación técnica.

Conocimientos y habilidades deseables

• Experiencia con FastAPI y buenas prácticas de diseño de APIs REST.
• Conocimiento de Node.js (NestJS) como parte del backend.
• Experiencia en arquitecturas frontend modulares (microfrontends).
• Experiencia en Big Data y pipelines ETL.
• Trabajo con NX monorepos y entornos CI/CD.
• Docker y Kubernetes en producción.
• Inglés básico para lectura de documentación técnica.

Beneficios y condiciones

En WiTi ofrecemos un entorno de trabajo 100% remoto, con flexibilidad y autonomía. Fomentamos un ambiente colaborativo y una cultura de aprendizaje constante. Beneficios destacados:

  • Plan de carrera personalizado para desarrollo profesional.
  • Certificaciones para continuar creciendo en tu carrera.
  • Cursos de idiomas para apoyar el desarrollo personal y profesional.

Si te apasiona la tecnología y quieres formar parte de nuestro equipo, queremos conocerte.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Gross salary $3500 - 4300 Full time
JavaScript Redis REST API Node.js

Breezy HR is a remote-first hiring platform tailored for small and mid-sized businesses. We are expanding our SaaS product with LLM-enabled workflows and a backend-first focus to deliver fast, reliable experiences for both candidates and hiring managers. You’ll contribute to core features, improve data pipelines, and integrate managed AI capabilities (AWS Bedrock) to power smarter recruiting processes. This role sits at the intersection of product engineering and AI-enabled automation, driving end-to-end delivery from design to production.

Send CV through Get on Board.

What you’ll own

  • Lead delivery for major features: decompose complex problems, drive execution, and bring initiatives to production.
  • Build and evolve backend services: design, implement, and improve REST APIs, microservices, data ingestion/processing, and third-party integrations.
  • Ship LLM-enabled features (AWS Bedrock): integrate managed LLM services into product workflows with reliability, monitoring, guardrails, and cost/latency awareness.
  • Own quality in production: debug across services, optimize performance, and uphold correctness.
  • Collaborate cross-functionally with Product and mentor teammates through reviews and collaboration.
  • Maintain hands-on ownership with a pragmatic, ship-and-iterate mindset.

What you’ll bring

We’re seeking a senior backend engineer with 7+ years of web application experience and a strong track record shipping scalable, API-driven systems. You’ve built and operated production services in Node.js, including microservices, REST APIs, and asynchronous workflows. You’re comfortable working with data stores like MongoDB and Redis (schema design, indexing, caching, performance). This role requires that you’ve shipped at least one production LLM workflow end-to-end using AWS Bedrock (not a prototype), with reliability and cost/latency in mind. You communicate clearly in English (B2+ required, C1 preferred), document decisions, work autonomously with a bias toward action, and bring strong product ownership, turning ambiguous goals into shipped outcomes. You must be located in Colombia for payroll/compliance.

Nice-to-have

Deeper AWS infrastructure experience (e.g., Terraform/CDK/CloudFormation, networking, CI/CD, and production observability patterns). Frontend experience with modern frameworks like React, Angular, Vue, or Svelte to help ship end-to-end product changes.

What we offer

Remote-first environment with flexible collaboration across time zones, a startup-paced team culture, and the opportunity to shape AI-enabled features in a growing SaaS product. Competitive salary in COP, exposure to cutting-edge LLM-driven workflows, and a collaborative, low-ego team. You’ll work with a distributed engineering and product squad focused on fast, reliable delivery.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Breezy HR provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
JavaScript Python Front-end Django

With over 10 years of experience driving innovation for companies ranging from startups to large corporations in the United States and Latin America, Devsu has developed high-impact solutions in industries such as entertainment, banking, healthcare, retail, education, and insurance.

At Devsu, you'll work alongside top-tier professionals, with the opportunity for continuous learning and participation in challenging, high-impact projects for global clients. Our team is present in more than 18 countries, collaborating on a variety of software products and solutions.

Our client, an AI-powered financial technology company, is looking for an Engineering Manager. The company automates data extraction and financial modeling for investment professionals. They deliver accurate, auditable data and modern workflows to help analysts spend less time on rote work and more time on insight.

Find this vacancy on Get on Board.

Responsibilities:

  • Set a high technical bar, push senior and staff engineers to think more clearly about design and impact, and coach them through complex architectural decisions.
  • Take ownership of decisions, communicate rationale clearly, and ensure the team delivers measurable improvements over time
  • Own delivery for a set of product areas across our web app, Excel plugin, data extraction pipelines, and AI/LLM-enabled modeling features.
  • Partner with Product, Design, Data Science/ML, and GTM to define roadmaps, break down work, and ship iteratively with clear success metrics.
  • Establish engineering excellence: code quality, testing strategy, CI/CD, observability, incident response, and SLAs for reliability and latency.
  • Drive architectural decisions across Python/Django services, React front ends, and AWS-based data services centered on S3 and related primitives.
  • Guide the integration and safe operation of LLM features (prompt/version management, eval/guardrails, data privacy, cost/performance).
  • Ensure data accuracy and auditability standards are upheld across ingestion, normalization, and delivery, including source-linking for every datapoint.
  • Hire and develop talent; set goals, provide feedback, and create growth paths for engineers at multiple levels.
  • Champion an inclusive, async-friendly culture that supports teammates across time zones while maintaining high velocity.

Requirements:

  • 7+ years of professional software engineering experience, including 2+ years managing engineers and delivering user-facing products at scale.
  • Track record leading distributed teams managing 5–8 engineers, including senior/staff ICs.
  • Hands-on experience with Python (Django or similar web frameworks) and modern front-end development (React; TypeScript a plus).
  • Strong grasp of AWS fundamentals and operating production systems with S3-centric data storage, APIs, and background processing.
  • Ownership of a complex, business-critical production system, ideally in:
    • Data platforms or ETL pipelines
    • Distributed systems
    • ML / AI / LLM-powered products
  • Demonstrated impact improving reliability, scalability, performance, or accuracy over time.
  • Strong experience defining and evolving engineering processes, not just maintaining them.
  • Track record of effective roadmap ownership with Product, including prioritization and trade-off discussions.
  • Ability to coach senior engineers through architecture, design decisions, and technical leadership.
  • Strong communication skills, especially around decision-making, risks, and trade-offs with both technical and non-technical stakeholders..

Nice to have:

  • Background in data-heavy or AI/ML-driven companies.
  • Experience working in teams with a strong reliability, observability, and incident-response culture.
  • Familiarity with operating systems at scale with clear SLAs, SLOs, and error budgets.

Benefits:

At Devsu, we believe in creating an environment where you can thrive both personally and professionally. By joining our team, you’ll enjoy:

• A stable, long-term contract with opportunities for career growth

• Private health insurance

• A remote-friendly culture that promotes work-life balance

• Continuous training, mentorship, and learning programs to keep you at the forefront of the industry

• Free access to AI training resources and state-of-the-art AI tools to elevate your daily work

• A flexible Paid Time Off (PTO) policy as well as paid holiday days

• Challenging, world-class software projects for clients in the US and LatAm

• Collaboration with some of the most talented software engineers in Latin America and the US, in a diverse work environment

Join Devsu and discover a workplace that values your growth, supports your well-being, and empowers you to make a global impact.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
$$$ Full time
QA ETL CRM Salesforce
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. We empower projects by providing autonomous, high-performance engineering squads and handle end-to-end administrative tasks so clients can accelerate delivery. The Health and Life Sciences sector is a strategic focus for us, including healthcare providers, pharmaceutical companies, and medical technology firms. This role contributes to impactful, technically rigorous initiatives that drive innovation, while offering ongoing career development, leadership opportunities, and a pathway to long-term collaboration.
As part of Niuro’s global ecosystem, you will join a multidisciplinary team dedicated to delivering scalable, high-quality Salesforce solutions for complex healthcare workflows. You will engage with a diverse client base, operate remotely across LATAM, and benefit from a robust support infrastructure designed to accelerate success and enable you to focus on delivering exceptional results.

Exclusive offer from getonbrd.com.

Key Responsibilities

  • Serve as the primary client contact for assigned Salesforce engagements, leading discovery sessions, clarifying requirements, communicating trade-offs, and maintaining trusted advisor relationships.
  • Translate business needs into technical specifications and execute hands-on Salesforce configuration, including custom objects, automation (Flows, Process Builder, Automation Rules), and UX design considerations.
  • Own end-to-end project execution using JIRA: backlog creation and prioritization, sprint planning, risk identification, and on-time delivery of milestones.
  • Produce comprehensive documentation in Confluence: meeting notes, detailed requirements specs, solution architecture decisions, and client-facing project plans.
  • Lead end-to-end QA testing: design test cases, validate configurations against acceptance criteria, reproduce issues, and sign off on release readiness.
  • Manage data migration workstreams: profile source data, design mapping strategies, execute loads (native or third-party tools), and verify post-migration data integrity.
  • Facilitate internal alignment meetings to ensure engineering handoffs are crisp and blockers are resolved within 24 hours.

What You’ll Bring

We are seeking a Senior Salesforce Consultant with 5+ years of hands-on experience in Salesforce implementation, consulting, or platform management. You will balance strategic client partnership with disciplined project execution in a fast-moving environment.
Required skills include deep expertise with Salesforce configuration: custom fields, Lightning pages, Flows, validation rules, and security models. You should have a proven track record of direct client-facing work in consulting or professional services, demonstrated ownership of timelines and deliverables, and strong experience using JIRA for task tracking and sprint coordination. Excellent documentation skills (Confluence or equivalent) and experience conducting formal QA testing cycles are essential. Competence with data migration processes (ETL, mapping, loading, and integrity verification) is highly desirable.
Healthcare industry knowledge accelerates impact but is not required to start. You must be comfortable with ambiguity, able to switch contexts rapidly between stakeholder management, technical configuration, and quality assurance, and be adept at producing clear, actionable artifacts for clients and internal teams.

Desirable Skills & Experience

Experience delivering large-scale Salesforce implementations within Health and Life Sciences is highly advantageous. Certifications such as Salesforce Certified Administrator, Sales Cloud Consultant, Service Cloud Consultant, or Platform Developer I/II are a plus. Familiarity with data privacy regulations common to healthcare (e.g., HIPAA) and secure handling of patient data is beneficial. Strong stakeholder management, negotiation, and presentation skills, coupled with a collaborative mindset and a demonstrated ability to drive results in multi-year client engagements, are desirable traits.

What Niuro Offers

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Gross salary $4800 - 5700 Full time
Tech Manager
  • Artefact LatAm
  • Ciudad de México (Hybrid)
Analytics Business Intelligence Machine Learning Cloud

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo

Como Tech Manager, liderarás la visión técnica y ejecución estratégica de soluciones avanzadas en Data Engineering, BI e IA, garantizando arquitecturas escalables y de alto impacto. Serás el catalizador de transformaciones digitales complejas, gestionando equipos multidisciplinarios y actuando como el puente crítico entre los objetivos de negocio de los clientes y la innovación tecnológica. Tu enfoque integrará la excelencia en el delivery, la gobernanza de datos y el desarrollo de talento, consolidando estándares globales que posicionen a la compañía como un referente técnico en el mercado.

Apply to this posting directly on Get on Board.

Funciones del cargo

Capacidades de Datos y Tecnología: Diseñar, implementar y escalar soluciones robustas (modelos predictivos, segmentación IA y BI en tiempo real) garantizando excelencia técnica, escalabilidad y fiabilidad.

Liderazgo de Transformaciones: Actuar como líder técnico en iniciativas de datos e IA, guiando equipos en transformaciones complejas bajo mejores prácticas de ingeniería y arquitectura sólida.

Estrategia y Arquitectura: Definir la visión técnica de plataformas de datos y ecosistemas de BI, alineando decisiones de infraestructura, nube, gobernanza y seguridad con los objetivos del negocio.

Excelencia en Proyectos: Responsable de la ejecución integral, calidad y rendimiento. Anticipar riesgos técnicos y gestionar dependencias para asegurar entregas a tiempo y en alcance.

Gestión de Equipos y Clientes: Dirigir y asesorar equipos multidisciplinarios fomentando una cultura de ingeniería. Actuar como contacto técnico principal para clientes, traduciendo necesidades de negocio en soluciones escalables.

Innovación Continua: Evaluar nuevas tecnologías y herramientas en datos e IA, impulsando la experimentación y validación de conceptos.

Requerimientos del cargo

  • 8 años de experiencia liderazgo proyectos relacionados a data
  • Liderazgo técnico demostrado: amplia experiencia en la dirección de proyectos de datos, BI o IA en entornos complejos.
  • Mentalidad ingenieril: sólidos conocimientos de arquitecturas de datos, plataformas en la nube, canalizaciones de datos y ciclos de vida de IA/ML.
  • Capacidad analítica y de resolución de problemas: pasión por resolver problemas complejos utilizando datos y tecnología.

Sumas puntos si...

  • Innovador: curioso y con visión de futuro, siempre explorando nuevas herramientas y enfoques para mejorar las soluciones y la eficiencia.
  • Autónomo y responsable: capaz de impulsar iniciativas técnicas de forma independiente y asumir la plena responsabilidad de los resultados.
  • Buen comunicador: capaz de tender puentes entre los equipos técnicos y las partes interesadas no técnicas.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
$$$ Full time
Gtm Engineer
  • AutoRaptor
JavaScript Python Analytics SEO
AutoRaptor is a CRM platform built for independent automotive dealerships. Thousands of dealers use it to manage leads, boost sales, and grow their businesses.
We’re hiring a GTM Engineer at the intersection of growth marketing, SEO, web development, and automation. You’ll own the technical infrastructure behind our digital growth—building and optimizing web properties, launching scalable SEO initiatives, and running growth experiments.
This isn’t a traditional marketing role. You’ll operate as a growth engineer, managing WordPress sites, implementing programmatic SEO, building analytics pipelines, and creating automation workflows for prospecting and market intelligence.
You’ll test channels like YouTube, Reddit, and X, optimize paid attribution, and leverage AI tools to move faster. This role offers high ownership and the chance to shape AutoRaptor’s growth infrastructure.

Apply only from getonbrd.com.

What You’ll Do

  • Build & Scale Our Web Infrastructure
  • Own and develop AutoRaptor’s WordPress web properties, including landing pages, performance optimization, and new site builds.
  • Design and launch high-converting landing pages focused on lead generation and conversion rate optimization.
  • Build and maintain analytics, tracking, tagging, and attribution across our web ecosystem.
  • Programmatic SEO & Organic Growth
  • Lead and execute full-cycle programmatic SEO initiatives (hard requirement).
  • Identify large-scale keyword opportunities and build templated page architectures to capture long-tail search demand.
  • Build systems for generating and managing thousands of SEO pages efficiently.
  • Conduct technical SEO improvements including site architecture, schema markup, indexing strategy, and Core Web Vitals optimization.
  • Growth Experiments & Acquisition Channels
  • Test and scale new growth channels including YouTube, Reddit, X (Twitter), and niche industry communities.
  • Implement and manage retargeting strategies across paid channels.
  • Optimize paid channel tracking and attribution infrastructure.
  • Automation & Data Pipelines
  • Build data enrichment and scraping pipelines to power outbound prospecting and market intelligence.
  • Automate marketing workflows using tools like HubSpot, Zapier, APIs, and custom scripts.
  • Leverage AI tools and coding to automate growth workflows and increase output.

Required Skills & Experience

• 3+ years of experience in a growth engineering, technical SEO, or GTM engineering role at a B2B SaaS company
• Proven track record of building and deploying programmatic SEO systems at scale
• Strong WordPress development experience (themes, plugins, performance optimization)
• Proficiency with technical SEO, including site architecture, crawl optimization, schema markup, and indexing
• Experience building automation workflows using tools like HubSpot, Zapier, APIs, or scripts
• Ability to write code when needed (Python, JavaScript, or similar)
• Strong familiarity with modern AI tools for coding, automation, and content workflows
• Experience implementing analytics, tracking, and attribution infrastructure

Desirable But Not Required

• Experience building review, affiliate, or lead generation websites
• Familiarity with paid acquisition and retargeting strategies
• Experience with data scraping and enrichment pipelines
• Background in vertical SaaS or the automotive industry
• Experience scaling SEO-driven growth at a startup

Benefits

  • Competitive compensation
  • 20 days PTO
  • Remote-first work culture with flexible scheduling
  • Professional growth opportunities, and a collaborative, product-focused environment
  • Join AutoRaptor and contribute to an impactful CRM solution for automotive dealer networks

Gross salary $2900 - 4000 Full time
JavaScript Python Analytics PostgreSQL

ELECTE is a fast-growing technology company on a mission to make artificial intelligence accessible to SMEs. Our AI-powered platform transforms business data into actionable forecasts and insights in minutes. Recognized with industry awards for innovation and leadership, we serve over 500 businesses worldwide and continue expanding across Europe and beyond.

Send CV through Get on Board.

Job functions

We are looking for a strong Full-Stack Developer to execute product features and contribute to our core platform development. Your focus will be clean, scalable implementation and high-quality execution. This role is ideal for a developer who enjoys building real product features end-to-end in a focused, no-bureaucracy environment.

Responsibilities

  • Implement frontend features using TypeScript
  • Develop backend services and APIs using Supabase / PostgreSQL
  • Contribute to our Python-based AI & analytics engine (data logic, integrations)
  • Write and optimize SQL queries and database logic
  • Collaborate on feature specifications and translate them into clean technical execution
  • Participate in code reviews and continuous improvement
  • Work within modern serverless infrastructure (Vercel / Supabase)

Tech Stack

  • Core Language: TypeScript
  • Backend & Database: Supabase (PostgreSQL), PL/pgSQL
  • AI Layer: Python
  • Frontend & CMS: TypeScript, Webflow, Weglot API
  • Infrastructure: Vercel / Netlify
  • CI/CD: GitHub Actions

Qualifications and requirements

Must-have:

  • Experience as a Full-Stack Developer (3+ years)
  • Strong knowledge of TypeScript / JavaScript
  • Solid experience with Python in backend, data, or analytics contexts
  • Good understanding of PostgreSQL and data modeling
  • Experience building and consuming APIs
  • Ability to work independently and deliver clean production-ready code

Desirable skills

Nice-to-have:

  • Experience with analytics or AI-adjacent systems
  • Hands-on experience with Supabase
  • Knowledge of PL/pgSQL
  • Experience using Webflow

Conditions

What we offer

  • €2,500–3,500/month (contractor)
  • Full-time
  • Remote-friendly
  • Clear technical leadership and structured roadmap
  • Small team, fast decision-making, no bureaucracy

Fully remote You can work from anywhere in the world.
Gross salary $4000 - 5500 Full time
Python Analytics DevOps Virtualization

Krunchbox is a retail analytics platform used by global consumer brands to transform point-of-sale data into actionable insights. Our platform ingests and processes large volumes of retail data from retailers across North America and Australia, helping brands understand sales performance, optimize inventory, and make smarter supply chain decisions. We are modernizing our platform architecture and rebuilding core components with a focus on scalability, performance, and AI-driven insights. The Senior Backend Engineer will help design and build the next generation of our data platform, collaborating with engineering, product, and data teams to deliver scalable backend services, data ingestion pipelines, and robust cloud infrastructure. This role is ideal for those who enjoy data-intensive systems, large-scale processing, and AI-enabled workflows in a fast-growing SaaS environment.

Apply from getonbrd.com.

Functions

Design and build scalable backend services using Python and FastAPI. Develop and maintain data ingestion and processing pipelines that power analytics across global brands. Build and maintain API services that drive the Krunchbox platform. Improve system performance, reliability, and scalability. Implement and maintain cloud infrastructure and DevOps pipelines. Collaborate with product, engineering, and data teams to deliver new capabilities. Participate in architecture and platform design decisions. Write clean, well-tested, maintainable code. Contribute to engineering best practices and documentation.

Description

We are looking for a senior backend engineer with 5+ years of Python experience and a strong background in building API services and data-intensive systems. You should be proficient with FastAPI or similar async frameworks, design RESTful APIs following best practices, and have hands-on experience with cloud platforms (AWS, Azure, GCP) and CI/CD pipelines. You will work on scalable data pipelines, large datasets, and AI-enabled enhancements, contributing to a modern, AI-native engineering culture. Collaboration across engineering, product, and data teams is essential, as is a proactive approach to performance, reliability, and documentation. Familiarity with analytics databases (ClickHouse, Snowflake, BigQuery, Redshift) and data orchestration tools (Airflow, Dagster, Prefect) is highly desirable. We value ownership, fast iteration, and a passion for solving complex engineering problems in a high-growth SaaS environment.

Desirable

Nice-to-have skills include full-stack experience (React, TypeScript), experience with analytics databases (ClickHouse, Snowflake, BigQuery, Redshift), data pipeline tooling (ETL/ELT), and AI/ML infrastructure familiarity. Prior experience in SaaS startups or high-growth tech companies, and a track record of owning systems from design through deployment, are also beneficial. Comfort with AI-assisted development tools (e.g., Claude Code) to accelerate coding, debugging, and architecture exploration is a plus.

Benefits

  • Competitive compensation package.
  • Comprehensive health and benefits coverage.
  • A predominantly in-person, collaborative work environment located in Santiago to encourage fast iteration and real-time problem solving.
  • Opportunity to scale and lead a global SaaS platform that solves real-world customer challenges.
  • A direct, impactful role in shaping the future of AI-powered supplier-retailer collaboration.

$$$ Full time
Gtm Engineer
  • AutoRaptor
JavaScript Python Analytics SEO
AutoRaptor is a CRM platform built for independent automotive dealerships. Thousands of dealers use it to manage leads, boost sales, and grow their businesses.
We’re hiring a GTM Engineer at the intersection of growth marketing, SEO, web development, and automation. You’ll own the technical infrastructure behind our digital growth—building and optimizing web properties, launching scalable SEO initiatives, and running growth experiments.
This isn’t a traditional marketing role. You’ll operate as a growth engineer, managing WordPress sites, implementing programmatic SEO, building analytics pipelines, and creating automation workflows for prospecting and market intelligence.
You’ll test channels like YouTube, Reddit, and X, optimize paid attribution, and leverage AI tools to move faster. This role offers high ownership and the chance to shape AutoRaptor’s growth infrastructure.

Find this job on getonbrd.com.

What You’ll Do

Build & Scale Our Web Infrastructure
  • Own and develop AutoRaptor’s web properties, including landing pages, performance optimization, and new site builds.
  • Design and launch high-converting landing pages focused on lead generation and conversion rate optimization.
  • Drive organic, paid, and AI-driven traffic to our web properties in collaboration with our Digital Marketing Manager.
  • Build and maintain analytics, tracking, tagging, and attribution infrastructure across our web ecosystem.
Programmatic SEO & Organic Growth
  • Lead and execute full-cycle programmatic SEO initiatives (hard requirement).
  • Identify large-scale keyword opportunities and build templated page architectures to capture long-tail search demand.
  • Build systems for generating and managing thousands of SEO pages efficiently.
  • Conduct technical SEO improvements including site architecture, schema markup, indexing strategy, and Core Web Vitals optimization.
Growth Experiments & Acquisition Channels
  • Test and scale new growth channels including YouTube, Reddit, X (Twitter), and niche industry communities.
  • Implement and manage retargeting strategies across paid channels.
  • Optimize paid channel tracking and attribution infrastructure.
AI & GTM Tooling
  • Evaluate, train, and manage AI-powered GTM tools.
  • Integrate AI tools into the company’s growth and marketing technology stack.
  • Build workflows that leverage AI for content generation, SEO scaling, research, and marketing automation.
Automation & Data Pipelines
  • Build data enrichment and scraping pipelines to power outbound prospecting and market intelligence.
  • Automate marketing workflows using tools like HubSpot, Zapier, APIs, and custom scripts.
  • Leverage AI tools and coding to automate growth workflows and increase marketing output.

Qualifications and requirements

Programmatic SEO experience is a hard requirement for this role.
Candidates must have:
  • 3+ years experience in a GTM engineering, growth engineering, or technical SEO role at a B2B SaaS company
  • Demonstrated experience building and deploying programmatic SEO systems at scale
  • Strong experience working with web platforms and landing page infrastructure
  • Proficiency with technical SEO including site architecture, crawl optimization, schema markup, and indexing
  • Experience building automation workflows using tools like HubSpot, Zapier, APIs, or scripts
  • Ability to write code when needed (Python, JavaScript, or similar)
  • Strong familiarity with modern AI tools for coding, automation, and content workflows
  • Experience implementing analytics, tracking, and attribution infrastructure

Desirable skills

Experience building review, affiliate, or lead generation websites
Familiarity with paid acquisition and retargeting strategies
Experience with data scraping and enrichment pipelines
Background in vertical SaaS or the automotive industry
Experience scaling SEO-driven growth at a startup

Growth and Benefits

Why This Role Is Unique
This role is designed to grow beyond AutoRaptor.
As our investment firm VVV Equity Partners expands its portfolio of vertical software companies, you’ll help deploy repeatable growth systems across multiple businesses.
You’ll have the opportunity to become the technical growth engine across an entire software portfolio, building scalable acquisition systems that drive measurable impact.
What We Offer
  • Competitive compensation
  • Fully remote work
  • High ownership and autonomy
  • Direct collaboration with leadership
  • Opportunity to build and scale growth infrastructure from the ground up

Fully remote You can work from anywhere in the world.
Gross salary $1800 - 2200 Full time
JavaScript Front-end PostgreSQL Node.js

Somos 3IT ¡Innovación y talento que marcan la diferencia!

Para nosotros, la innovación es un proceso colaborativo y el crecimiento una meta compartida. Nos guiamos por valores como el trabajo en equipo, la confiabilidad, la empatía, el compromiso, la honestidad y la calidad, porque sabemos que los buenos resultados parten de buenas relaciones.

Además, valoramos la diversidad y promovemos espacios de trabajo inclusivos. Por eso nos sumamos activamente al cumplimiento de la Ley 21.015, asegurando procesos accesibles y con igualdad de oportunidades.

Si estás buscando un lugar donde seguir aprendiendo, aportar con lo que sabes y crecer en un ambiente cercano y colaborativo, esta puede ser tu próxima oportunidad.

Job opportunity on getonbrd.com.

📝 ¿Cuál sería tu trabajo?

  • Ser responsable del desarrollo frontend, backend y de la base de datos del software, incluyendo las mejores prácticas de desarrollo en un contexto de metodología de trabajo ágil.

🙌 Qué buscamos

Backend

  • Lenguaje principal: Typescript (excluyente)
  • NodeJS
  • Lenguajes y tecnologías: JavaScript ES6

Frontend

  • Frameworks: React

Bases de datos

  • Motores de base de datos: PostgreSQL o SQL Server

✋ Algunas consideraciones antes de postular:

  • Debes tener disponibilidad para trabajar en modalidad hibrida y asistir de manera presencial a las oficinas de cliente si es necesario.
  • Si estás en situación de discapacidad, cuéntanos si necesitas algún requerimiento especial para tu entrevista.

⭐ Plus para este rol

  • Frameworks Backend: Suite completa AdonisJS 6
  • Bases de datos NoSQL: MongoDB

Beneficios que tendrás si te unes a nuestro team

💰 Bono anual
🦷 Seguro dental
📚 Capacitaciones
📅 Días administrativos
🍽️ Tarjeta Sodexo + $80.000
👕 Código de vestimenta informal
🚀 Programas de upskilling y reskilling
🏥 Seguro complementario de salud MetLife
💊 Descuentos en farmacias y centros de salud
🐾 Descuento en seguros y tiendas de mascotas
🎄 Aguinaldo en Fiestas Patrias y Navidad
👶 Días adicionales al postnatal masculino
🎂 Medio día libre por tu cumpleaños
🏦 Caja de Compensación Los Andes
🌍 Descuento Mundo ACHS
🎁 Regalo por nacimiento
🛍️ Descuentos Buk

Health coverage 3IT pays or copays health insurance for employees.
Computer provided 3IT provides a computer for your work.
Gross salary $1300 - 1900 Full time
Ingeniero/a de Software
  • Extend
  • Santiago (Hybrid)
Python Git SQL NoSQL

En el área de Innovación de Extend estamos desarrollando plataformas especializadas en servicios comunicacionales alineados con la visión de Sequoia, Y-Combinator, y otros líderes del mundo. Buscamos a nuestro/a Ingeniero/a de Software que pueda trabajar de la mano con nuestro CTO para acelerar nuestro roadmap de desarrollo.

Este puesto combina desarrollo backend, pipelines de datos, scrapers y automatización de procesos con IA. Trabajarás junto al equipo para diseñar e implementar sistemas que capturen, procesen y enriquezcan información desde múltiples fuentes, transformando datos en productos y flujos de trabajo útiles para el negocio. Serás parte esencial del equipo que define la arquitectura de datos y las soluciones que impulsan decisiones basadas en IA a partir de datos no estructurados y estructurados.

Send CV through Get on Board.

Funciones del cargo

  • Buscamos a un/a Ingeniero/a de Software, Analista Programador/a o profesional afín, para participar en el desarrollo de soluciones orientadas a datos, automatización e inteligencia artificial aplicada.
    Sus principales funciones serán:
    • Desarrollar servicios backend y componentes de software orientados a datos y automatización.
    • Construir scrapers y conectores para obtener información desde distintas fuentes.
    • Diseñar, implementar y mantener pipelines de ingesta, transformación y consulta de datos.
    • Automatizar procesos y tareas manuales mediante integraciones y flujos programáticos.
    • Apoyar el desarrollo de soluciones relacionadas con transcripción, procesamiento documental e IA aplicada.
    • Integrar APIs y servicios cloud siguiendo buenas prácticas de desarrollo.
    • Colaborar en etapas de análisis técnico, diseño de solución e implementación.
    • Documentar desarrollos y aportar a la evolución de buenas prácticas dentro del equipo.

Requerimientos

Se requiere un/a profesional con al menos 2 años de experiencia en proyectos de desarrollo de software, idealmente con exposición a backend, automatización o procesamiento de datos.

Buscamos especialmente:

  • Dominio de lógica de programación y buenas prácticas de desarrollo.
  • Experiencia sólida en Python.
  • Experiencia construyendo integraciones y servicios backend.
  • Experiencia trabajando con APIs y procesos automatizados.
  • Conocimiento en pipelines de datos, ETLs o procesamiento de información.
  • Manejo de bases de datos SQL y/o NoSQL.
  • Familiaridad con entornos cloud, idealmente AWS.
  • Manejo de Git y trabajo colaborativo en desarrollo de software.

Será un plus si además tienes experiencia en:

  • Web scraping con herramientas como Playwright, Selenium o BeautifulSoup.
  • AWS S3, Lambda, Glue, Athena o servicios similares.
  • Procesamiento de audio, video, documentos o flujos de transcripción.
  • Uso de LLMs, APIs de IA o automatización inteligente.
  • Docker, CI/CD y despliegue de servicios en ambientes productivos.

Beneficios

  1. Afiliación Caja de Compensación Los Andes.
  2. Entrega de Computador.
  3. Salida anticipada fechas especiales: fiestas patrias y fiestas de fin de año.
  4. Acceso continuo a capacitaciones.
  5. Tarde libre día de cumpleaños y de hijos menores de 12 años.
  6. Acceso a Seguro Complementario de Salud.
  7. Bonificación por nacimiento de hijos/as y matrimonio de colaboradores.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Extend pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Extend pays or copays health insurance for employees.
Computer provided Extend provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Beverages and snacks Extend offers beverages and snacks for free consumption.
$$$ Full time
Python SQL Virtualization Big Data

CoyanServices es una empresa tecnológica de alcance global, especializada en soluciones de datos, analítica e inteligencia artificial en la nube, que trabaja con clientes de distintos sectores en iniciativas de transformación digital. La compañía promueve una cultura de autonomía, colaboración técnica y orientación a resultados. En este contexto, busca un Knowledge Graph Engineer / Data Engineer para diseñar e implementar Grafos de Conocimiento en AWS, con foco en Amazon Neptune, integración de datos desde S3 y fuentes relacionales, y desarrollo de consultas semánticas para analítica avanzada y casos de uso de IA. El rol es freelance / independent contractor, 100% remoto, con alcance global.

Apply exclusively at getonbrd.com.

Objetivo del rol

Diseñar e implementar Knowledge Graphs en AWS utilizando Amazon Neptune como base de datos de grafos, modelando entidades, relaciones y reglas semánticas de cualquier dominio de negocio o técnico, con el objetivo de habilitar analítica avanzada, consultas complejas y capacidades de IA.

El rol será responsable de llevar la solución desde el modelamiento conceptual hasta su explotación mediante consultas y casos de uso, asegurando calidad de datos, coherencia semántica y escalabilidad.

Responsabilidades

Modelamiento de datos y grafo

  • Diseñar el modelo conceptual / ontología del dominio (entidades, atributos y relaciones).
  • Definir nodos, aristas y propiedades alineadas a datos maestros y reglas de negocio.
  • Traducir requerimientos de negocio en estructuras semánticas dentro del grafo.
  • Adaptar el modelo a distintos dominios sin dependencia de una industria específica.

Implementación en AWS

  • Desplegar y configurar Amazon Neptune.
  • Diseñar y ejecutar procesos de carga desde Data Lake / Data Warehouse.
  • Gestionar almacenamiento y staging de datos en Amazon S3.
  • Implementar infraestructura mediante CloudFormation.

Ingestión y transformación de datos

  • Extraer datos desde fuentes relacionales o semi-estructuradas usando SQL.
  • Transformar y preparar datos con Python para su persistencia en el grafo.
  • Construir relaciones complejas y jerarquías entre entidades.

Consultas y explotación del grafo

  • Desarrollar consultas SPARQL y/o openCypher para:
    • Navegación y exploración de relaciones.
  • Análisis de impacto de cambios en entidades y relaciones.
  • Soporte a casos de uso analíticos, operativos y de IA.
  • Crear ejemplos de consultas orientadas a usuarios técnicos y de negocio.

Documentación y adopción

  • Documentar el modelo de grafo y decisiones de diseño.
  • Elaborar guías de consultas y patrones reutilizables.
  • Proponer lineamientos para escalamiento, gobierno y extensión del grafo a nuevos dominios.

Requisitos técnicos

Grafos y datos

  • Experiencia práctica en bases de datos de grafos.
  • Dominio de SPARQL y/o openCypher.
  • Conocimiento de modelamiento semántico y relaciones complejas.
  • Experiencia trabajando con datos maestros y dominios complejos.

Cloud & AWS

  • Experiencia comprobable con Amazon Neptune.
  • Manejo de AWS S3 como Data Lake.
  • Conocimientos básicos de IAM y seguridad.
  • Experiencia con CloudFormation.

Desarrollo

  • Python para pipelines de datos y automatización.
  • SQL para extracción, validación y análisis de datos fuente.

Habilidades blandas / competencias clave

  • Pensamiento analítico y estructurado.
  • Capacidad de abstraer dominios y modelarlos como grafos.
  • Autonomía y orientación a resultados.
  • Comunicación clara con equipos técnicos y de negocio.
  • Documentación clara y reutilizable.

Entregables esperados del rol

  • Modelo de Knowledge Graph documentado (ontología, nodos, relaciones).
  • Implementación funcional del grafo en Amazon Neptune.
  • Datos integrados y relacionados correctamente.
  • Conjunto de consultas SPARQL/openCypher para distintos casos de uso.
  • Documentación técnica y recomendaciones de escalabilidad.

Fully remote You can work from anywhere in the world.
$$$ Full time
Python SQL Virtualization Big Data

CoyanServices busca un Technical Lead IA para liderar soluciones de Inteligencia Artificial y Analítica Avanzada en entornos multi‑cloud, con foco principal en AWS y integración a Azure (con opción a GCP). El objetivo es diseñar, desarrollar e integrar arquitecturas escalables, seguras y eficientes, gestionando componentes serverless, APIs, y gestión de datos en datalake y modelos relacionales. El proyecto se desarrolla en modalidad freelance, 100% remoto, orientado a imglobalmente.

Apply at getonbrd.com without intermediaries.

Responsabilidades

  • Diseñar e implementar arquitecturas cloud orientadas a servicios para productos de IA (microservicios, APIs, event-driven, serverless).
  • Liderar el desarrollo de componentes críticos en AWS: AWS Lambda (backend serverless)
  • API Gateway (exposición segura de servicios
  • Amazon S3 (data lake, almacenamiento y staging)
  • Diseñar integraciones y componentes en Azure: Azure Functions
  • Azure Blob Storage
  • Integraciones con Azure Foundry (conectividad, interoperabilidad y despliegue)
  • Desarrollar APIs y servicios de integración para:
  • Consumo y exposición de datos
  • Orquestación de procesos
  • Integración entre plataformas (AWS ↔ Azure ↔ otros sistemas)
  • Definir estándares técnicos:
  • Estructura de repositorios, calidad, pruebas y CI/CD
  • Observabilidad, trazabilidad, monitoreo, logging y manejo de errores
  • Seguridad (IAM/RBAC, secrets management, cifrado y buenas prácticas)
  • Apoyar el ciclo completo de producto:
  • Discovery técnico, diseño, implementación, despliegue y operación
  • Guiar decisiones de modelamiento de datos:
  • Modelos relacionales (normalización, performance, SQL tuning)
  • Modelos en datalake (zonas, particionado, gobierno y catálogo)
  • Asegurar buenas prácticas de ingeniería y escalabilidad en pipelines de datos y aplicaciones de IA.

Requisitos técnicos

Cloud & Arquitectura
  • Conocimientos sólidos en AWS (Lambda, S3, API Gateway)
  • Enfoque serverless y event-driven
  • Control de accesos (IAM), redes y permisos básicos
  • Experiencia en integraciones con Azure (Azure Functions, Azure Blob Storage)
  • Familiaridad con Azure Foundry
Lenguajes & Desarrollo
  • Dominio de Python (desarrollo productivo, APIs, ETL/ELT, automatización)
  • Dominio de SQL (consultas complejas, performance, modelamiento)
Datos
  • Experiencia con modelos relacionales
  • Experiencia con arquitecturas de Data Lake / Lakehouse

Habilidades blandas / competencias clave

  • Liderazgo técnico y capacidad para guiar decisiones de arquitectura end-to-end
  • Alta capacidad de integración entre equipos (datos, desarrollo, negocio, seguridad)
  • Mentalidad de calidad (testing, observabilidad, resiliencia, buenas prácticas)
  • Autonomía y foco en entrega con estándares productivos
  • Comunicación clara, documentación técnica y orientación a impacto

Entregables esperados del rol

  • Arquitecturas definidas y documentadas (diagramas, patrones, decisiones técnicas)
  • APIs y servicios serverless productivos con buenas prácticas
  • Integraciones multi-cloud estables (AWS + Azure)
  • Estándares de desarrollo, despliegue, observabilidad y seguridad implementados
  • Soporte técnico a iniciativas de IA y datos (analítica, recomendación, asistentes conversacionales, automatización)

Fully remote You can work from anywhere in the world.
$$$ Full time
JavaScript PostgreSQL Node.js DevOps

Company and Project Context

BNamericas is the leading Latin American business intelligence platform with 28 years of experience delivering news, project updates, and data on people and companies across strategic sectors such as Electric Power, Infrastructure, Mining & Metals, Oil & Gas, and ICT. We empower clients to access high-value information to make informed business decisions. The Engineering Lead will play a pivotal role in shaping a growing information platform used across industries and geographies, driving architecture, data workflows, and product evolution.

As part of a dynamic, multicultural team, you will drive high-performance software, data, and cloud initiatives, ensuring scalability, reliability, and security while fostering a culture of engineering excellence. This role combines hands-on development with strategic leadership to deliver a modular, scalable platform and to integrate cutting-edge AI-enabled capabilities where appropriate.

Apply exclusively at getonbrd.com.

Core Responsibilities

  • Lead by example as a senior developer: design, implement, and review high-performance, maintainable code following clean code principles, testing, CI, and agile practices.
  • Shape and evolve system architecture with emphasis on scalability, modularity, security, and reliability; drive architectural decisions and technical direction.
  • Drive integration initiatives, including seamless Appian integration with the platform and interconnectivity between internal systems and tools.
  • Lead and mentor engineers, fostering accountability, continuous improvement, and high performance; remove blockers and optimize development workflows.
  • Oversee infrastructure planning and operations to ensure high availability, cost-efficiency, and robust security.
  • Guide data solutions, including data warehousing, transformations, and overall data architecture; oversee data acquisition, including web scraping strategies and automation.
  • Manage relationships with external partners (e.g., scraping providers) to ensure quality and alignment with technical standards.
  • Explore and help implement modern AI-driven solutions (e.g., agent-based AI) to enhance data workflows, automation, and product capabilities.
  • Partner with senior stakeholders across product, content, and business teams to align engineering efforts with company priorities.
  • Contribute to long-term technical direction and platform evolution to ensure scalability and sustainability.
  • Evaluate emerging technologies and introduce tooling or architectural improvements where relevant; steer platform evolution into a scalable, modular, high-quality technical solution.
  • Support the continued evolution of the platform to meet expanding geographic and sector coverage, ensuring robust data pipelines and a secure, resilient system.

Ideal Profile

What you’ll bring

Proven experience in a senior or lead engineering role, ideally within SaaS or data/information platforms. Strong hands-on development skills in JavaScript, Node.js, and PostgreSQL with a track record of scalable system design. Solid understanding of DevOps, cloud infrastructure (AWS), and security best practices. Experience with data architecture, including data warehousing and transformation pipelines. Experience integrating third-party platforms (e.g., Appian) and working with internal data pipelines. Familiarity with web scraping technologies, automation, and management of external vendors. Exposure to or interest in AI-driven solutions (e.g., agent-based AI) is a strong plus. Fluent English is required; Spanish and/or Portuguese are a strong plus. Strong communication skills and the ability to collaborate with both technical and non-technical stakeholders. A strategic mindset with the ability to balance hands-on delivery and broader technical direction. An entrepreneurial attitude focused on quality, ownership, and impact.

Why you’ll love this role

You will shape and advance a growing information platform used across industries and geographies. This is a high-impact position with significant ownership, offering the chance to influence technical direction, data strategy, and product evolution while helping to build a culture of engineering excellence. You’ll work with a collaborative, diverse team in a dynamic market, and you'll have the opportunity to leave a lasting imprint on our platform and product roadmap.

Benefits

At BNamericas, we foster an inclusive, diverse, creative, and highly collaborative work environment. Our team is dynamic, committed, and always willing to support one another, creating a positive and motivating workplace.

We offer a range of benefits, including referral bonuses for bringing in new talent, early finishes on special occasions such as national holidays and Christmas, opportunities for continuous learning and professional development, and a casual dress code that encourages authenticity and comfort at work.

We invite you to be part of a company that values diversity and work-life balance, and that promotes an empowered, goal-oriented, and passionate way of working. Join us!

Fully remote You can work from anywhere in the world.

Sobre trabajos de Data Engineering

Remote Data Engineering jobs. Data pipelines, ETL, data architecture and big data. En RemoteJobs.lat conectamos a profesionales de Latinoamerica con empresas que ofrecen trabajo 100% remoto. Todas nuestras ofertas permiten trabajar desde cualquier ciudad, con pagos en dolares o moneda internacional.

Rango salarial

$4,000 - $11,000 USD/mes

Posiciones abiertas

327

Ubicacion

100% Remoto LATAM

Tip: Tambien puedes buscar ofertas en skills relacionados como Python, SQL,

Data Engineering salary ranges by seniority

Estimated ranges in USD/month for remote contracts with international companies. Vary by company, complementary stack and client location.

Level Years of experience Range USD/month
Junior 0-2 $4,000 - $5,750
Mid-level 2-4 $5,400 - $7,850
Senior 4-7 $7,500 - $9,950
Lead/Staff 7+ $9,250 - $11,000

Companies hiring remote Data Engineering from LATAM

Some companies that have historically hired Data Engineering profiles to work 100% remotely from Latin America:

Mercado Libre Globant Auth0 Nubank Cloudwalk Stripe GitLab Crossover Toptal

Frequently asked questions

The typical range for a remote Data Engineering working for international companies is $4,000 - $11,000 USD/mes. The exact amount depends on seniority, the company's country, and whether the contract is full-time or project-based.

The most in-demand Data Engineering profiles usually combine Python, Sql, Spark. Adding one of these opens more job offers and often increases salary range by 15% to 30%.

For US/EU companies yes: B2 minimum for technical interviews. There are alternatives at LATAM companies (Mercado Libre, Globant, Rappi) or agencies like Toptal where intermediate English is enough to start.

The 3 highest-impact things: (1) a public GitHub with 2-3 solid projects relevant to Data Engineering, (2) an English LinkedIn profile optimized for recruiters, and (3) applying to 20+ offers per week instead of 2-3.