No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $3000 - 4000 Tiempo completo
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Exclusive to Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Forma - Moovmedia Group
Python SQL BigQuery Docker
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Apply at the original job on getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This job offer is available on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Improving South America
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This job is published by getonbrd.com.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3900 Tiempo completo
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply exclusively at getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3200 Tiempo completo
Full-Stack AI &Amp; Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
Genesys Tecnologías de Inform. SpA es una compañía con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios tecnológicos avanzados. Con sede principal en Concepción y operaciones importantes en Santiago, trabajamos en la transformación digital de empresas a través de soluciones innovadoras como RPA, Inteligencia Artificial, QA Automation, Cloud y Staff Augmentation.
El proyecto actual está orientado al desarrollo y mantenimiento de sistemas inteligentes integrados con modelos de lenguaje (LLMs), apoyando la evolución tecnológica de nuestros clientes en Latinoamérica mediante aplicaciones de IA prácticas y efectivas.

© getonbrd.com.

Funciones del Cargo

Buscamos un ingeniero de Inteligencia Artificial con habilidades en Python, LangChain y LangGraph para formar parte de nuestro equipo especializado en construir soluciones inteligentes. Esta posición se enfoca en desarrollar y orquestar pipelines de procesamiento de lenguaje natural, diseñar agentes conversacionales complejos y sistemas inteligentes que respondan a necesidades reales.
  • Diseñar, desarrollar y mantener pipelines de procesamiento de lenguaje con LangChain y LangGraph.
  • Implementar chatbots inteligentes, asistentes autónomos, clasificadores y sistemas de búsqueda con técnicas de Recuperación Basada en Generación (RAG).
  • Orquestar flujos de decisiones con manejo de memoria contextual, persistencia de estado y control de errores usando LangGraph.
  • Integrar múltiples APIs externas, bases de datos y modelos locales para potenciar las capacidades de los sistemas.
  • Colaborar estrechamente con equipos de producto y diseño para convertir requisitos en soluciones AI efectivas y productivas.

Descripción y Requisitos del Cargo

El candidato ideal debe contar con conocimientos avanzados en Python y experiencia práctica con herramientas modernas de la pila LLM, especialmente LangChain y LangGraph, para la construcción de agentes y workflows complejos de IA. Es fundamental poseer un alto nivel de inglés, ya que es un requisito excluyente para desempeñar esta función.
  • Experiencia en desarrollo de software con Python, incluyendo desarrollo modular, manejo asincrónico, integración con APIs y procesamiento de texto (NLP).
  • Experiencia trabajando con modelos de lenguaje y tecnologías LLM.
  • Experiencia demostrable en proyectos utilizando LangChain para crear agentes, cadenas personalizadas, herramientas externas, pipelines RAG e integración con bases vectoriales.
  • Conocimiento en LangGraph para diseñar y administrar workflows de IA complejos con control de estados, branching y lógica conversacional.
  • Capacidad para implementar soluciones usando LLMs de OpenAI y otros proveedores, aplicando técnicas de prompt engineering, fine-tuning ligero y personalización de modelos Open Source.
  • Deseable experiencia en sistemas de recuperación semántica basados en embeddings para mejorar la precisión y relevancia de las respuestas.
  • Conocimientos básicos o intermedios en APIs REST y GraphQL, así como en contenedores Docker y despliegue de microservicios, son altamente valorados.
Además de las habilidades técnicas, buscamos personas con capacidad para trabajar en equipo, comunicarse efectivamente, adaptarse a tecnologías emergentes y contribuir al desarrollo de soluciones innovadoras en un entorno dinámico y colaborativo.

Habilidades y Experiencias Deseables

Se valorará positivamente la experiencia adicional en la implementación de soluciones de recuperación semántica basadas en embeddings, desarrollo y despliegue con Docker y microservicios, así como un conocimiento intermedio en APIs REST y GraphQL para mejorar la integración y escalabilidad de las aplicaciones.
También es deseable la familiaridad con técnicas avanzadas en prompt engineering, fine-tuning avanzado de modelos de lenguaje, y la capacidad para diseñar flujos conversacionales complejos que impliquen lógica de negocio y control de estado persistente.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.

Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.

¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

© Get on Board. All rights reserved.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

© Get on Board.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job and more on Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Docente Desarrollo Full-Stack y Cloud Native
  • Duoc UC
  • Santiago (In-office)
Duoc UC es una institución de educación superior técnico profesional autónoma y católica con más de 50 años de historia, reconocida por su máxima acreditación otorgada por la CNA. La Escuela de Informática y Telecomunicaciones en la sede San Joaquín está enfocada en formar profesionales competentes en tecnologías de la información que respondan a las necesidades dinámicas del mercado tecnológico actual. El proyecto involucra el desarrollo de un modelo educativo integral que considera tanto la formación técnica como los valores institucionales, brindando a los estudiantes un aprendizaje robusto en tecnologías Fullstack, Cloud Native, desarrollo de software de escritorio y programación web.

Apply at the original job on getonbrd.com.

Funciones principales

Duoc UC Sede San Joaquín, Escuela de Informática y Telecomunicaciones requiere contratar docentes para la asignatura de Desarrollo Fullstack I, Desarrollo Fullstack II, Desarrollo Fullstack III, Desarrollo Cloud Native I, Desarrollo Cloud Native II, Desarrollo de Software de Escritorio y Programación Web con disponibilidad en jornada diurna, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requisitos y habilidades

  • Formación: Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín.
  • Experiencia: 3 años de experiencia en el desarrollo de aplicaciones nativas cloud. Desarrollo de soluciones tanto en back end como front end, aplicando la arquitectura de microservicios / 3 años de experiencia en el desarrollo e implementación de proyectos de software informáticos utilizando framework Angular y ReactEs. / 3 años de experiencia en el desarrollo de proyectos en rol de FullStack. Arquitecturas de MicroServicios, Contenedores, Cloud, Docker. / 3 años de experiencia en API Manager e Identity as a Service. Sólida experiencia con el uso de colas y Stream de datos. / 3 años de experiencia en el desarrollo de proyectos serverless cloud. Amplia experiencia implementando funciones serverless y utilizando arquitecturas basadas en eventos. / 2 años de experiencia en el desarrollo de proyectos empresariales de tipo aplicación escritorio, trabajando en proyecto ágiles o tradicionales. / 3 años de experiencia en desarrollo de proyectos empresariales de tipo aplicaciones Web conectados con base de datos y/o servicios web, así como desarrollo de software trabajando en proyecto ágiles o tradicionales.
  • Disponibilidad: Jornada Diurna (horarios específicos por definir)
  • Otros requisitos: Deseable que cuente con certificación en alguna nube (AWS, Azure, Oracle). Certificaciones en Java y Spring. Certificaciones en HTML 5 y Angular 10+.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2200 Tiempo completo
Especialista en Redes y Deploy (Senior)
  • Sumato-Id
  • Buenos Aires (Hybrid)
Linux Virtualization Docker Artificial Intelligence

Somos una empresa dedicada a digitalizar el mundo físico a través de Computer Vision e Inteligencia Artificial, con el fin de mejorar la operatoria de nuestros clientes. Trabajamos con marcas importantes de retail de Sudamerica.

Buscamos protagonistas que quieran desarrollarse en un ambiente de trabajo flexible con ganas de aprender y desarrollar soluciones innovadoras.

Apply without intermediaries from Get on Board.

Funciones del cargo

En Sumato estamos buscando un Deploy Sr proactivo, con ganas de aprender sobre nuevas tecnologías y que quiera crecer junto con nosotros en su carrera profesional.

· Diseñar, implementar y mantener la generación de imágenes para la plataforma AKIRA EDGE.

· Configurar y gestionar redes privadas y públicas, incluyendo VPNs, garantizando su seguridad y funcionalidad.

· Implementar y gestionar contenedores Docker para entornos controlados y reproducibles.

· Automatizar el proceso de deploy para optimizar tiempos y recursos.

· Administrar servidores Linux, incluyendo la configuración y manejo de servicios como SSH, SFTP y firewall.

Requerimientos del cargo

Conocimiento de redes y deploy con un mínimo de entre 3-5 años de experiencia, para ayudarnos a crear soluciones innovadoras para el mercado.

Buscamos personas proactivas que posean experiencia demostrable en:

  • Experiencia sólida en redes informáticas, configuración de redes privadas/públicas y manejo de protocolos y topologías.
  • Conocimientos avanzados en administración de servidores Linux y servicios asociados.
  • Capacidad para configurar y gestionar firewalls y sistemas de transferencia segura de archivos.
  • Familiaridad con Docker y contenedores para el despliegue eficiente de aplicaciones.

Educación:

  • EDUCACIÓN: Universitario completo, ingeniería informática, Ingeniería en Redes y Telecomunicaciones, o carreras relacionadas.
  • IDIOMAS: inglés básico.
  • LUGAR DE RESIDENCIA: Buenos Aires.

Competencias Valoradas

  • COMUNICACION: Capacidad para comunicarse de manera clara y efectiva con el equipo y otros miembros de la organización.
  • RESOLUCION DE PROBLEMAS: Capaz de abordar y resolver desafíos técnicos y organizativos de manera efectiva.
  • GESTION DE TIEMPO: Gestionar eficientemente el tiempo y los recursos para cumplir con plazos y objetivos.

Condiciones

Somos una startup dinámica que trabaja por objetivos:

  • Ambiente flexible y desafiante, con foco en lo último en tecnología.
  • Posibilidad de trabajo remoto con autogestión de horarios.
  • Equipo dinámico, innovador y con valores como transparencia, confianza y compañerismo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Sumato-Id provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Sumato-Id gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en IBM Instana Freelance remoto
  • Assist Consultores de Sistemas S.A
  • 🇨🇴 Colombia - Remoto 🌎
Full Time Microservicios reportes AppDynamics
En Assist buscamos un Especialista en IBM Instana Freelance Modalidad: Freelance 100% remoto Buscamos un perfil con experiencia sólida en monitoreo de aplicaciones y rendimiento con IBM Instana. Requisitos clave: Configuración y gestión de monitores en IBM Instana Integración con herramientas como Prometheus, Grafana, o AppDynamics Experiencia en trazabilidad de microservicios y observabilidad end-to-end Conocimiento de contenedores y orquestadores (Docker, Kubernetes) Capacidad de análisis de performance y generación de alertas inteligentes Funciones principales: Configurar y administrar monitoreo Instana Automatizar alertas y dashboards Generar reportes de rendimiento Apoyar la resolución de incidentes críticos Interesados enviar CV con asunto "Freelance Instana" a: dcastro@assist.com.co
POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 5000 Tiempo completo
Software Development Engineer in Test (SDET) CI/CD
  • Agility IO
JavaScript Python PHP Git

Agility IO is a software development firm that designs and builds custom applications for startups and Fortune 500 companies. We are a global team of over 400 developers, QA engineers, project managers, and UX/UI designers with offices in New York City and Vietnam.

We’re seeking a proactive SDET to help elevate our software quality through automated testing, tooling, and best practices. You’ll contribute to test automation, integration testing, observability, and CI/CD to ensure robust, reliable systems.

This job offer is available on Get on Board.

Job Responsibilities

  • Design and maintain automated test suites for web and API layers using tools such as Playwright, Jest, and Supertest.
  • Implement and manage behavior-driven testing with Cucumber and Gherkin.
  • Develop test cases and mocking strategies using Jest Mocks, Sinon, or Axios Mock Adapter.
  • Conduct comprehensive API testing utilizing Postman, Newman, and REST-assured.
  • Monitor system logs and performance metrics with Application Insights, Splunk, and similar tools.
  • Validate authentication flows, including machine-to-machine (m2m) scenarios.
  • Collaborate closely with developers and DevOps teams to integrate automated tests within CI/CD pipelines using GitHub Actions and containerized environments like Docker.
  • Ensure test environments are scalable, observable, and aligned with modern microservices architectures.

Qualifications & Experience

  • Proficiency in JavaScript, TypeScript, and experience with Python; familiarity with PHP is a plus.
  • Hands-on experience with modern testing tools including Jest, React Testing Library, Mocha, and Pytest.
  • Experience with E2E testing tools such as Playwright, Puppeteer, Selenium, or Cypress.
  • Familiarity with containerization and cloud platforms, especially Docker, AWS, and/or GCP.
  • Working knowledge of SQL databases and ORM tools.
  • Comfortable using Git and participating in code review processes, with an understanding of code coverage and test structure best practices.
  • Strong English communication skills are required to effectively collaborate with both clients and internal teams, and to successfully meet project goals.

Preferred Qualifications

  • Experience defining and implementing test strategies for scalable web applications.
  • Exposure to microservices architecture and distributed system observability.
  • Experience with telemetry and performance monitoring tools such as Application Insights and Splunk.
  • Familiarity with complex authentication workflows, including machine-to-machine (m2m) authentication.
  • Strong collaboration and communication skills within Agile environments.

What We Offer

  • Competitive salary and performance-based bonuses.
  • Remote work arrangements allowing flexibility.
  • Career development opportunities and mentorship programs.
  • A collaborative and forward-thinking team culture committed to innovation and excellence.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
DevOps Engineer – Proyecto 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Agile DevOps Continuous Integration Virtualization
En BC Tecnología somos una consultora de TI con amplia experiencia en diferentes áreas tecnológicas, que desde hace 6 años diseñamos soluciones acorde a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores dentro del área de infraestructura tecnológica, en equipos ágiles que combinan la experiencia en desarrollo de software y consultoría IT para entregar resultados efectivos y adaptados a cada cliente.

Apply from getonbrd.com.

Funciones principales

  • Implementar, mantener y optimizar pipelines de CI/CD utilizando herramientas como GitLab CI, Jenkins y ArgoCD.
  • Desarrollar y administrar infraestructura como código (IaC) utilizando Terraform, Ansible, Pulumi u otras tecnologías similares.
  • Gestionar y orquestar contenedores mediante Docker y Kubernetes para garantizar despliegues eficientes y escalables.
  • Monitorear sistemas y aplicaciones mediante herramientas de observabilidad como Prometheus, Grafana y Datadog.
  • Colaborar con equipos de desarrollo y operaciones para asegurar la automatización y mejora continua de procesos.
  • Participar en la definición y control de costos operativos en nube, apoyando con modelos de FinOps para optimización financiera.

Requisitos

  • Mínimo 3 años de experiencia como DevOps o Ingeniero de Automatización.
  • Dominio en herramientas CI/CD como GitLab CI, Jenkins y ArgoCD.
  • Sólidos conocimientos en Infraestructura como Código (Terraform, Ansible, Pulumi u otras).
  • Experiencia en contenedores y orquestadores: Docker y Kubernetes.
  • Familiaridad con herramientas de observabilidad y monitoreo (Prometheus, Grafana, Datadog).
  • Conocimientos en modelos de costos y operación en la nube, preferentemente Azure, Google Cloud Platform o Oracle Cloud.
  • Deseable experiencia o certificación en FinOps para control y optimización de gastos en la nube.
  • Capacidad para trabajar en equipo, orientación al detalle, proactividad y aptitud para la resolución de problemas en entornos ágiles.

Deseable

  • Certificaciones oficiales en DevOps, Kubernetes, Terraform o plataformas Cloud.
  • Experiencia con metodologías ágiles y colaboración en equipos multidisciplinarios.
  • Conocimiento en seguridad cloud y automatización de procesos de compliance.
  • Capacidad para documentar procedimientos técnicos y capacitar equipos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Agile DevOps Continuous Integration Virtualization
En BC Tecnología somos una consultora de TI con amplia experiencia en diferentes áreas tecnológicas, que desde hace 6 años diseñamos soluciones acorde a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores dentro del área de infraestructura tecnológica, en equipos ágiles que combinan la experiencia en desarrollo de software y consultoría IT para entregar resultados efectivos y adaptados a cada cliente.

Apply from getonbrd.com.

Funciones principales

  • Implementar, mantener y optimizar pipelines de CI/CD utilizando herramientas como GitLab CI, Jenkins y ArgoCD.
  • Desarrollar y administrar infraestructura como código (IaC) utilizando Terraform, Ansible, Pulumi u otras tecnologías similares.
  • Gestionar y orquestar contenedores mediante Docker y Kubernetes para garantizar despliegues eficientes y escalables.
  • Monitorear sistemas y aplicaciones mediante herramientas de observabilidad como Prometheus, Grafana y Datadog.
  • Colaborar con equipos de desarrollo y operaciones para asegurar la automatización y mejora continua de procesos.
  • Participar en la definición y control de costos operativos en nube, apoyando con modelos de FinOps para optimización financiera.

Requisitos

  • Mínimo 3 años de experiencia como DevOps o Ingeniero de Automatización.
  • Dominio en herramientas CI/CD como GitLab CI, Jenkins y ArgoCD.
  • Sólidos conocimientos en Infraestructura como Código (Terraform, Ansible, Pulumi u otras).
  • Experiencia en contenedores y orquestadores: Docker y Kubernetes.
  • Familiaridad con herramientas de observabilidad y monitoreo (Prometheus, Grafana, Datadog).
  • Conocimientos en modelos de costos y operación en la nube, preferentemente Azure, Google Cloud Platform o Oracle Cloud.
  • Deseable experiencia o certificación en FinOps para control y optimización de gastos en la nube.
  • Capacidad para trabajar en equipo, orientación al detalle, proactividad y aptitud para la resolución de problemas en entornos ágiles.

Deseable

  • Certificaciones oficiales en DevOps, Kubernetes, Terraform o plataformas Cloud.
  • Experiencia con metodologías ágiles y colaboración en equipos multidisciplinarios.
  • Conocimiento en seguridad cloud y automatización de procesos de compliance.
  • Capacidad para documentar procedimientos técnicos y capacitar equipos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Experienced DevOps Engineer
  • coderslab.io
Redis Agile PostgreSQL Git

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de CI/CD para mejorar la entrega continua de software.
  • Administrar y optimizar entornos de contenedores y orquestación con Docker, Kubernetes y otras tecnologías.
  • Implementar prácticas robustas de monitoreo, seguridad y alta disponibilidad.
  • Gestionar infraestructura mediante Infraestructura como Código (IaC) y herramientas de automatización.
  • Documentar, estandarizar y optimizar procesos y arquitecturas DevOps.
  • Colaborar con equipos de desarrollo y operaciones para fomentar la cultura DevOps y metodologías ágiles.

Requerimientos del cargo

Experiencia

  • Más de 3 años en roles de DevOps o administración de infraestructura.
  • Más de 2 años en administración de sistemas Linux (sysadmin).
  • Experiencia en entornos ágiles como Scrum y Kanban.
  • Familiaridad con la cultura y prácticas DevOps.

Conocimientos Clave

  • Oracle WL/OSB.
  • Infraestructura como Código (IaC): Terraform, Pulumi.
  • Control de versiones y CI/CD: GIT/GitLab, ArgoCD.
  • Contenedores y orquestación: Docker, Containerd, Swarm, Kubernetes (GKE, AKS).
  • Automatización y configuración: Chef, Ansible.
  • Cloud Computing: experiencia en Azure o GCP.
  • Gestión de secretos: Vault u otras herramientas similares.
  • Monitoreo y observabilidad: Prometheus, Grafana, ELK, Datadog.
  • Redes y seguridad: protocolos, balanceo de carga, firewalls.

Conocimientos Deseables

  • API Management: Apigee, Kong.
  • Mensajería: RabbitMQ.
  • Bases de datos: Postgres, Redis, MongoDB.

¿Qué ofrecemos?

  • Trabajo en un entorno dinámico y tecnológico.
  • Oportunidades de crecimiento y aprendizaje continuo.
  • Cultura colaborativa y orientada a la innovación.
  • Flexibilidad y modalidad de trabajo a negociar.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2900 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job through Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Apply directly on Get on Board.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply directly at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a DevOps Semi Sr
  • Arara
Python Git Linux Go

Arara es una empresa tecnológica especializada en WiFi marketing, ofreciendo soluciones innovadoras que optimizan la conectividad y la experiencia del usuario.

En Arara, estamos buscando un/a Ingeniero/a DevOps Semi-Sr apasionado/a y con iniciativa para unirse a nuestro equipo de tecnología.

Buscamos a un/a profesional proactivo/a, con una sólida capacidad para resolver problemas complejos de infraestructura y automatización, y que no solo ejecute tareas, sino que también contribuya activamente en el diseño de una infraestructura escalable, segura y eficiente, mejorando continuamente nuestros procesos de despliegue y operaciones.

Apply exclusively at getonbrd.com.

¿Qué es lo que harás?

  • Diseñar, implementar y mantener pipelines de Integración Continua y Despliegue Continuo (CI/CD) para nuestras aplicaciones.
  • Automatizar el aprovisionamiento y gestión de infraestructura utilizando herramientas de Infraestructura como Código (IaC) como Terraform o Ansible.
  • Administrar y optimizar nuestra infraestructura en la nube, principalmente en GCP, AWS o Azure, garantizando disponibilidad, rendimiento y control de costos.
  • Gestionar ecosistemas de contenedores basados en Docker y orquestadores como Kubernetes (K8s).
  • Implementar y administrar soluciones de monitoreo, logging y alertas (ej. Prometheus, Grafana, ELK Stack) para asegurar la salud de los sistemas en tiempo real.
  • Colaborar estrechamente con equipos de desarrollo (Backend, Frontend, Datos) para agilizar y asegurar el ciclo de vida del software desde el código hasta producción.
  • Diagnosticar, depurar y resolver problemas de infraestructura, despliegue y rendimiento en entornos de desarrollo y producción.
  • Participar activamente en revisiones de código de infraestructura y scripts de automatización.
  • Contribuir en decisiones técnicas sobre la arquitectura de la nube y la selección de herramientas DevOps.
  • Ayudar a fortalecer la seguridad de infraestructura y pipelines aplicando mejores prácticas de DevSecOps.

Estamos buscando una persona que cumpla con lo siguiente:

Experiencia profesional: Mínimo de 4 a 6 años en roles de DevOps, Site Reliability Engineering (SRE) o administración de sistemas en la nube.

Formación: Título profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Software o carreras afines, o experiencia equivalente.

Conocimientos técnicos requeridos:

  • Experiencia práctica en al menos una plataforma de nube pública (Google Cloud Platform, AWS, Azure), gestionando servicios de cómputo, redes y almacenamiento.
  • Sólidos conocimientos en construcción y mantenimiento de pipelines CI/CD con herramientas como GitLab CI, Jenkins o GitHub Actions.
  • Experiencia en Infraestructura como Código usando Terraform o Ansible.
  • Manejo avanzado de contenedores Docker y experiencia con orquestadores como Kubernetes.
  • Capacidad para escribir scripts de automatización en Bash, Python o Go.
  • Conocimiento en herramientas de monitoreo, métricas y logging como Prometheus, Grafana, ELK Stack o Datadog.
  • Dominio de Git y metodologías colaborativas como GitFlow.

Habilidades blandas: Persona proactiva, con iniciativa, capacidad para resolver problemas complejos, capaz de trabajar en equipo y comunicarse efectivamente con los diferentes equipos

Habilidades y conocimientos adicionales valorados

  • Experiencia en seguridad informática aplicada a DevOps (DevSecOps).
  • Conocimiento de otros lenguajes de scripting o programación además de Bash, Python o Go.
  • Familiaridad con metodologías ágiles y prácticas de desarrollo colaborativo.
  • Conocimiento en sistemas de gestión de bases de datos y manejo avanzado de redes en la nube.

Lo que ofrecemos en Arara:

  • 100% remoto – Trabaja desde cualquier lugar con huso horario de América.
  • Cultura organizacional horizontal e innovadora.
  • Equipo colaborativo – Somos un equipo pequeño, horizontal y cercano, donde tu aporte realmente cuenta.
  • Trabajar en una industria en crecimiento: IA aplicada.
  • Capacitaciones en Habilidades profesionales y personales de manera constante.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Ingeniero DevOps
  • TREM Group
Python Redis MySQL Linux
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

Exclusive offer from getonbrd.com.

Funciones del Puesto

Como Ingeniero DevOps, formarás parte de un equipo técnico multidisciplinario encargado de diseñar, crear, mantener, escalar, monitorear y proteger nuestra infraestructura en la nube. Colaborarás estrechamente con equipos de ingeniería para identificar y aplicar herramientas que permitan iterar rápidamente nuestras líneas de productos, garantizando la seguridad en cada despliegue.
Entre tus responsabilidades principales estarán:
  • Implementar y mantener pipelines de integración y entrega continua automatizadas.
  • Gestionar infraestructuras usando herramientas de Infraestructura como Código (IaC) para asegurar la reproducibilidad y escalabilidad.
  • Optimizar el rendimiento, confiabilidad y seguridad de los sistemas en producción.
  • Monitorear y responder proactivamente a incidentes utilizando sistemas de observabilidad como Prometheus, Grafana y Loki.
  • Ejecutar y administrar contenedores en producción con plataformas como Docker, Kubernetes o AWS ECS.
  • Brindar soporte y colaboración técnica a desarrolladores para que conviertan buenas prácticas en estándares de excelencia.
  • Comunicar de manera clara los planes, avances y desafíos al equipo de ingeniería, facilitando la toma de decisiones y la mejora continua.

Requisitos y Habilidades

Buscamos un ingeniero con entre 2 y 6 años de experiencia (preferentemente 4 o más) que disfrute una combinación de ingeniería de software, confiabilidad del sitio, automatización, optimización y operaciones. Debes ser un usuario avanzado de Linux, con sólida experiencia en scripting Bash y familiaridad con herramientas Open Source.
Es fundamental que tengas experiencia construyendo y gestionando infraestructuras en la nube utilizando Infraestructura como Código, con herramientas como Terraform, Ansible, scripting en Go o Python y el uso directo de APIs de proveedores cloud.
Debes conocer profundamente la creación y operación de contenedores (Docker principalmente) y la gestión de éstos en producción usando plataformas como AWS ECS, Kubernetes o Docker Swarm.
Tienes que haber implementado pipelines de integración y entrega continua con herramientas como GitLab CI, Travis o CircleCI, que permitan despliegues automatizados y confiables.
Serás competente manejando bases de datos relacionales y NoSQL como MySQL, Redis, Elasticsearch y MongoDB, comprendiendo su alta disponibilidad y limitaciones operativas.
Valoramos que tengas una mentalidad orientada a la toma de decisiones basada en datos y que puedas comunicar con claridad temas técnicos complejos, manteniendo la calma bajo presión y mostrando empatía y escucha activa en el equipo.
Experiencia con monitoreo y observabilidad a través de herramientas como Prometheus, Grafana y Loki es imprescindible.
Contar con conocimientos en distribuciones avanzadas de despliegue de software como Canary Deploys o Blue/Green Deployments, así como en pruebas de producción automatizadas, es un plus importante.
Preferimos candidatos que entiendan las arquitecturas distribuidas, los compromisos entre consistencia, disponibilidad y tolerancia a particiones, y que tengan experiencia con AWS y metodologías ágiles.

Conocimientos y Experiencia Deseables

Te destacará tener experiencia en software desarrollado en ámbitos académicos o de estudios de grado. El manejo de metodologías ágiles y trabajo en entornos dinámicos será una ventaja. Deseamos candidatos con capacidad para implementar prácticas avanzadas de despliegue continuo (Canary y Blue/Green) y que puedan diferenciar claramente cuándo usar bases de datos relacionales o NoSQL.
Una experiencia superior a 3 años con AWS y en infraestructura basada en Terraform o Ansible será muy valorada, al igual que la capacidad para aportar en proyectos distribuidos y escalables. El trabajo 100% remoto es posible, por lo que buscamos profesionales autónomos y con excelente comunicación remota.

Beneficios

  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (freelance, contrato o tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Sr
  • coderslab.io
  • Santiago (Hybrid)
Python Docker Kubernetes CI/CD

CodersLab es una compañía dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Devops

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar e implementar arquitecturas basadas en contenedores usando Kubernetes
  • Gestionar infraestructura como código (IaC) utilizando Terraform
  • Implementar y mantener pipelines CI/CD
  • Administrar plataformas de automatización y orquestación
  • Garantizar la seguridad y cumplimiento normativo de la infraestructura
  • Optimizar y mantener sistemas Oracle Linux
  • Desarrollar scripts de automatización

Requerimientos del cargo

🔧 REQUISITOS TÉCNICOS
Cloud y Virtualización:

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI)
  • Conocimiento de redes, IAM, VCN, WAF en OCI
  • Manejo de almacenamiento en la nube

Sistemas Operativos:

  • Dominio de Oracle Linux 8/9
  • Experiencia en hardening y tuning de sistemas
  • Conocimientos de SELinux y systemd

Contenedores y Orquestación:

  • Docker y Kubernetes
  • Helm Charts
  • ArgoCD
  • Kong API Gateway

IaC y Automatización:

  • Terraform (nivel avanzado)
  • GitLab CI/CD
  • HashiCorp Vault
  • Experiencia en GitOps

Programación:

  • Bash scripting avanzado
  • Python para automatización
  • APIs REST

Bases de Datos:

  • Conocimientos en MSSQL, PostgreSQL y MySQL (deseable)

Seguridad:

  • Experiencia en implementación de estándares PCI-DSS
  • Gestión de secretos y políticas de seguridad
  • Escaneo de vulnerabilidades

👥 HABILIDADES BLANDAS

  • Capacidad de liderazgo técnico
  • Excelente comunicación
  • Resolución de problemas complejos
  • Trabajo en equipo
  • Gestión de stakeholders

📝 DETALLES DEL CONTRATO

  • Duración: 12 meses
  • Inicio: 16 de junio 2025
  • Modalidad: Híbrida
  • Ubicación: Presidente Riesco 5435, Las Condes, Santiago, Chile

🎯 EXPERIENCIA REQUERIDA

  • Mínimo 5 años en roles DevOps
  • Experiencia demostrable en entornos bancarios o regulados
  • Proyectos exitosos de implementación de IaC y CI/CD

💪 VALORAMOS

  • Certificaciones en OCI, Kubernetes, Terraform
  • Experiencia en transformación digital
  • Conocimiento de metodologías ágiles
  • Participación en proyectos multicloud

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Software Development in Test (SDET) L2
  • Capital Markets Gateway
JavaScript Docker GraphQL Kubernetes

Capital Markets Gateway (CMG) is a fintech firm that streamlines equity capital markets (ECM), connecting investors and underwriters. Launched in 2017, CMG provides integrated ECM data, analytics, and workflow efficiencies, enabling better decision-making for nearly 150 buy-side firms ($40T AUM) and 20 global investment banks (Goldman Sachs, J.P Morgan, Barclays etc)

As a SDET L2 you will play a pivotal role in enhancing our test infrastructure and tooling, creating new frameworks and systems that facilitate automated testing processes, leading to more efficient issue identification and robust solution delivery. You will work closely with product managers, designers, and software engineers to ensure our products are highly testable, contributing to the development and maintenance of testing frameworks and strategies. You will bring to the team industry best practices around functional and regression testing and ensure high-quality and high-velocity product launches.

Apply to this job opportunity at getonbrd.com.

The Role

Key Responsibilities

  • Design, build, and maintain scalable test infrastructure, automation frameworks, and developer-facing tools to accelerate testing and improve product reliability
  • Collaborate closely with Product Managers, Developers, and Designers to ensure testability is built into features and system architecture from the start
  • Develop strategies for integrating automated tests deeply into CI/CD pipelines, enabling fast and reliable feedback loops across all stages of development
  • Create reusable tooling and libraries that allow engineering teams to easily write, run, and maintain automated tests for APIs, services, and full-stack applications
  • Proactively identify gaps in existing testing strategies and design new systems to improve test coverage, efficiency, and scalability across the platform
  • Analyze and debug complex failures in automated test systems, differentiating between test infrastructure issues and product defects
  • Champion a quality engineering culture across the organization, mentoring developers on writing effective tests, improving code testability, and leveraging automation tooling
  • Drive continuous improvement of QA automation tooling, test data management solutions, and environment reliability to support rapid product development at scale
  • Leverage Large Language Models (LLMs) to design and implement intelligent, AI-driven workflows into core processes, enabling smarter, faster, and more effective and efficient automation workflows

Our Tech Stack

  • Playwright, Jest, xUnit
  • Docker, Kubernetes, Helm
  • GitHub Actions, Harness, Terraform, GitOps
  • Microsoft Azure Cloud
  • Datadog, Grafana, OpenTelemetry
  • Postgres, Elasticsearch, Redis
  • Asp.Net REST and GraphQL back-ends
  • React with TypeScript front-ends
  • React-Native Mobile App

What We're Looking For

  • English level - C1 or C2
  • Proven experience as a Software Developer in Test 2 (SDET2) or similar role
  • 5+ years of experience in JavaScript/TypeScript development or test automation
  • Expert in automated testing and modern testing frameworks (e.g., Playwright, Jest, xUnit)
  • Deep understanding of full-stack web application architecture (frontend to production)
  • Structured, detail-oriented thinker with awareness of broader system goals
  • Quick learner, self-motivated, and comfortable working with minimal supervision
  • Strong analytical, problem-solving, and communication skills (written and verbal)
  • Enjoys team collaboration, continuous learning, and building scalable solutions
  • Data-driven mindset with a preference for experimentation and iterative improvement
  • Interest or experience with integrating Large Language Models (LLMs) into development or testing workflows

What We Offer

  • 2 year+ contract
  • 15 business days of vacation
  • Tech courses and conferences
  • Top-of-the-line MacBook
  • Fully remote working environment
  • Flexible working hours

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Capital Markets Gateway provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 2000 Tiempo completo
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Continuous Integration
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Send CV through getonbrd.com.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2200 Tiempo completo
Ingeniero DevOps Cloud
  • RiskAmerica
Git Linux Docker Kubernetes

RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.

Estamos buscando gente apasionada que le interese desarrollar soluciones SaaS grandes y complejas junto a un equipo ágil, capaz y ameno de más de 20 personas.

Nos caracterizamos por tener un ritmo de trabajo flexible, tranquilo y constante en el tiempo teniendo una muy buena relación vida/trabajo. Contamos con un proceso de desarrollo de software ágil y maduro usando CI/CD y Cloud Computing con énfasis en crear soluciones de excelente calidad.

El trabajo es actualmente 100% remoto con presencialidad voluntaria para los que quieran hacer uso de nuestras oficinas a pasos del Metro Los Leones.

This offer is exclusive to getonbrd.com.

Que harás con nosotros

  • Diseñar, implementar y mantener infraestructuras en la nube.
  • Trabajarás en pipelines CI/CD
  • Administrarás contenedores, orquestarás deploy, escalamiento de recursos.
  • También colaborarás con equipos de desarrollo para optimizar procesos y mejorar la infraestructura existente.
  • Entre tus tareas diarias estará la monitorización, resolución de incidencias y evaluación de nuevas tecnologías que potencien la eficiencia en la nube y CI/CD.

Que necesitamos de ti

  • Seas egresada o egresado de Ingeniería Informática o carrera afín (de al menos 8 semestres)
  • Experiencia en GCP.
  • Conocimiento de pipelines CI/CD
  • Experiencia con Linux.
  • Experiencia en gestión de contenedores con Docker y Kubernetes.
  • Experiencia en GIT
  • Leer en ingles sin google translator.
  • Se requiere al menos 2 años de experiencia en roles similares.

Sumas puntos si

  • Conocimientos en AWS.
  • Has participado en proyectos SaaS
  • Experiencia en pipelines CI/CD en GitLab
  • Experiencia en base de datos MariaDB
  • Cuentas con conocimientos o experiencia en el rubro de inversiones
  • Conocimientos de Seguridad TI

Beneficios

  • Excelente clima laboral junto a un gran equipo de profesionales.
  • Seguro complementario de salud, incluyendo coberturas dentales, catastróficas y de vida.
  • Amplias posibilidades de aprendizaje en el sector de inversiones y mercados financieros.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena conciliación entre vida personal y trabajo.

Si vienes a la oficina:

  • La oficina esta ubicada en pleno centro de providencia a pasos del metro.
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Education stipend RiskAmerica covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Ingeniero/a QA Senior – Back-end Python
  • Robotia
  • Santiago (Hybrid)
Python Agile Git Scrum

Somos Robotia, una empresa joven y líder en el desarrollo de soluciones de visión artificial para procesos industriales, específicamente orientada a la minería y la industria a nivel nacional e internacional. Nuestro enfoque está en el desarrollo de tecnologías basadas en inteligencia artificial para apoyar la automatización y la toma de decisiones en tiempo real, contribuyendo así a la transformación digital del sector minero y otros procesos industriales relevantes.

This job is published by getonbrd.com.

Responsabilidades

  • Pruebas de aceptación: Diseñar y ejecutar casos de prueba que confirmen que cada funcionalidad satisface los criterios de negocio.
  • Pruebas de integración: Planificar y ejecutar pruebas que verifiquen el flujo operativo correcto entre múltiples componentes del sistema.
  • Automatización de pruebas y herramientas de QA: Implementar suites y software especializado para validar funcionalidades nuevas, pasadas y futuras.
  • Documentación y seguimiento: Documentar planes de prueba y resultados, reportar y dar seguimiento a incidentes de calidad en conjunto con los equipos de desarrollo para su resolución.
  • Propuesta de mejoras: Aportar con propuestas de herramientas avanzadas de QA enfocadas en pipelines de datos y modelos de IA.

Requisitos

Obligatorios:

  • Título universitario en Ingeniería de Software, Computación, Informática o carrera afín.
  • Mínimo 5 años de experiencia comprobable en roles de QA de software backend, preferentemente con Python.
  • Experiencia probada en diseño y ejecución de pruebas de aceptación e integración.
  • Dominio de herramientas y suites de testing: Cucumber, Postman, JMeter, Selenium y Cypress.
  • Familiaridad con control de versiones Git y metodologías ágiles (Scrum o Kanban).
  • Excelente comunicación en español, tanto escrita como verbal, y capacidad para trabajar en equipo.

Habilidades blandas y técnicas: Debemos contar con una persona con pensamiento analítico, meticuloso en la documentación, con capacidad para colaborar eficazmente con equipos multidisciplinarios y adaptabilidad a cambios tecnológicos constantes.

Deseables

  • Conocimiento en herramientas de gestión de QA como Jira, TestRail u otras similares.
  • Experiencia con librerías y frameworks relacionados con Machine Learning y Computer Vision (PyTorch, NumPy, OpenCV, Scikit-learn).
  • Familiaridad con entornos de integración y entrega continua (CI/CD), uso de contenedores Docker y monitoreo de calidad continua.
  • Experiencia previa en industrias de tecnología de alto rendimiento o minería, lo que será considerado una ventaja importante.

Beneficios

Horario flexible y un ambiente de trabajo moderno que fomenta la innovación.

Presupuesto anual para capacitación y cursos de especialización que facilitan el crecimiento profesional continuo.

Snacks, galletas y café de grano gratis disponibles en la oficina para mantener el buen ánimo durante la jornada.

Día de cumpleaños libre y permiso de 5 días administrativos al año.

Contrato inicial a tres meses con alta probabilidad de renovación a indefinido según desempeño.

Oportunidad de integrarse a un equipo técnico senior altamente capacitado y participar en proyectos innovadores de IA aplicada a minería y procesos industriales.

Partially remote You can work from your home some days a week.
Computer provided Robotia provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Robotia offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Senior
  • coderslab.io
  • Santiago (Hybrid)
Python MySQL PostgreSQL Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un devops senior para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

  • Diseño, implementación y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD y Kong API Gateway.
  • Backend Cloud DEvops
  • Automatización
  • servicios Cloud
  • Despliegues seguros, reproducibles y escalables con fuerte orientación a la seguridad.
  • Gestión de secretos y credenciales con HashiCorp Vault, asegurando cumplimiento de estándares como PCI-DSS.
  • Desarrollo y mantenimiento de pipelines CI/CD robustos y automatización de procesos mediante scripting avanzado en Bash y Python.
  • Integración y operación en entornos regulados, especialmente bancarios.
  • Administración y optimización de infraestructura en OCI, incluyendo redes, IAM, VCN, almacenamiento y seguridad (WAF, escaneo de vulnerabilidades).
  • Implementación de infraestructura versionada y reproducible con Terraform.
  • Gestión de imágenes Docker y orquestación con Kubernetes.
  • Colaboración en entornos híbridos y multicloud.

Requerimientos del cargo

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI).
  • Oracle Linux 8/9: endurecimiento, SELinux, systemd, optimización y troubleshooting.
  • Terraform: módulos reutilizables, workspaces, estados remotos.
  • GitLab CI/CD y ArgoCD para pipelines y GitOps.
  • Kubernetes, Helm, Docker, Argo Workflows, Kong API Gateway.
  • HashiCorp Vault para gestión de secretos y políticas de seguridad.
  • Scripting avanzado en Bash y Python.
  • Experiencia con bases de datos MSSQL, PostgreSQL y MySQL (deseable).
  • Conocimiento en normativas y buenas prácticas de ciberseguridad y cumplimiento (PCI-DSS).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Apply to this job from Get on Board.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
DevOps Engineer Modyo
  • I2B Technologies
Linux Docker Azure Jenkins
I2B Technologies es una empresa comprometida con impulsar la transformación digital en sus clientes, ayudándolos a mejorar la calidad de vida de los usuarios finales a través de desarrollos de alto impacto. La empresa cuenta con una amplia experiencia y metodología sólida basada en cuatro pilares fundamentales: Consultoría, Desarrollo de Software, Evolución y Data Science. Estos pilares sustentan proyectos que resuelven desafíos industriales y mejoran la experiencia entre empresas y sus usuarios.
Formar parte del equipo de I2B implica integrarse a un ámbito que no solo se ocupa de la creación y ejecución de ideas, sino también de un acompañamiento constante para asegurar el éxito y la evolución continua de los proyectos.

Apply directly through getonbrd.com.

Funciones

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD) que aseguren la eficiencia y calidad en los procesos de desarrollo y despliegue.
  • Automatizar y gestionar la infraestructura usando herramientas como Terraform, Ansible u otras similares para optimizar y estandarizar los entornos.
  • Administrar entornos en la nube, priorizando plataformas como AWS, Azure o Google Cloud Platform, garantizando la disponibilidad, escalabilidad y seguridad de los mismos.
  • Supervisar el rendimiento de los sistemas, establecer monitoreos robustos y gestionar la resolución de incidentes para minimizar interrupciones y asegurar la continuidad operativa.
  • Colaborar estrechamente con los equipos de desarrollo para optimizar los despliegues, mejorar los entornos de testing y facilitar la integración entre aplicaciones y servicios.

Requisitos

Buscamos profesionales con más de 3 años de experiencia demostrable en roles de DevOps o ingeniería de infraestructura, capaces de manejar sistemas complejos y variadas tecnologías de automatización y nube.
Es imprescindible contar con experiencia en tecnologías de contenedores, particularmente Docker y Kubernetes, además de una sólida administración de servidores Linux para garantizar la estabilidad y seguridad de los servicios.
Se requiere un conocimiento profundo y práctico en herramientas y procesos de CI/CD, como Jenkins, GitLab CI o GitHub Actions, para asegurar la implementación continua en ambientes flexibles y escalables.
La experiencia con servicios en la nube es fundamental, destacando AWS, Azure o Google Cloud Platform, con habilidad para administrar y monitorear infraestructuras distribuidas e integradas.
Se valorarán certificaciones oficiales en Cloud Computing y metodologías DevOps, ya que demuestran un compromiso con la actualización constante y las mejores prácticas del área.
Además, el candidato debe poseer habilidades interpersonales para el trabajo en equipo, capacidad analítica para resolver problemas complejos y una mentalidad proactiva orientada a la mejora continua.

Deseable

Certificaciones en tecnologías cloud y DevOps, como AWS Certified Solutions Architect, Azure DevOps Engineer Expert o Certified Kubernetes Administrator, son altamente valoradas.
Experiencia adicional en herramientas complementarias de automatización y configuración como Puppet o Chef sería un plus importante.
Conocimientos en metodologías ágiles y herramientas de colaboración (JIRA, Confluence) ayudarán a integrarse fluidamente con los equipos multidisciplinarios.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Fitness subsidies I2B Technologies offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Moventi
Redis Docker Celery Prometheus
At Moventi, we are dedicated to helping organizations lead digital transformation by leveraging technology with an innovative mindset. We work within a multidisciplinary team of talented professionals, fostering continuous learning of new technologies and collaborative work methodologies. Our projects involve building scalable and robust cloud infrastructures, developing and deploying cutting-edge solutions, and driving innovations that create a positive market impact. Our office is centrally located and inspires teamwork with agile workspaces and recreational areas to enhance creativity and productivity.

Exclusive offer from getonbrd.com.

Key Responsibilities

We are looking for a DevOps Engineer to strengthen our infrastructure and operational capabilities. In this role, you will be responsible for auditing and optimizing cloud infrastructure—primarily on AWS—ensuring performance, cost-efficiency, and scalability. You will manage Amazon DynamoDB configurations in production environments and be directly involved in implementing secure self-hosted solutions, including migrations and deployments like Langfuse.
Your daily work will also include configuring and maintaining Redis instances for high-availability production environments and collaborating closely with backend development teams to design and sustain efficient work queues using Celery or similar technologies.
Another important aspect is designing, implementing, and maintaining comprehensive monitoring, logging, and alerting systems using tools such as Prometheus, Grafana, and AWS CloudWatch to ensure reliability and rapid issue detection. You will lead and automate CI/CD pipelines and containerization workflows using Docker, GitHub Actions, GitLab CI, among others.
Additionally, you will apply strong expertise in networking, security best practices, system availability, and disaster recovery planning to ensure the robustness of our systems.

Required Skills and Experience

  • Experience auditing cloud infrastructure, preferably on AWS, focusing on performance and costs.
  • Strong knowledge of Amazon DynamoDB, including production configuration and scalability.
  • Experience implementing self-hosted solutions, such as the secure migration and deployment of Langfuse.
  • Proficiency in implementing and configuring Redis for production environments.
  • Experience collaborating with backend teams to design and support work queues (Celery or similar).
  • Experience designing, implementing, and maintaining monitoring, logging, and alerting systems (Prometheus, Grafana, CloudWatch).
  • Proficiency in CI/CD and containerization tools (Docker, GitHub Actions, GitLab CI, etc.).
  • Strong understanding of networking, security, availability, and disaster recovery.

Desirable Skills and Attributes

It is highly valuable if candidates bring additional knowledge of alternative cloud providers or hybrid cloud strategies. Familiarity with advanced security frameworks and compliance standards will enhance our infrastructure security posture. Experience with infrastructure-as-code tools such as Terraform or CloudFormation is a plus, enabling infrastructure automation and repeatability.
Strong problem-solving skills, the ability to thrive in a collaborative team environment, excellent communication abilities, and a proactive mindset towards continuous learning and innovation will allow you to excel in this role and contribute to our company’s growth.

What We Offer

  • Continuous opportunities for professional growth and learning new technologies alongside a multidisciplinary team.
  • Regular team activities and events designed to boost creativity, well-being, and team spirit.
  • Holidays paid
Join us at Moventi and be part of the positive change we aim to create in the technology market!

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Docker Deep Learning

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Official job site: Get on Board.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero DevOps
  • Agilesoft SpA
Oracle DevOps Continuous Integration Virtualization

Agilesoft es una start-up formada por gente joven, enfocada en el desarrollo de software. Somos amantes de la tecnología, con un ambiente laboral entretenido y grato.

Descripción:
Trabajamos principalmente desarrollando plataformas web y aplicaciones móviles para grandes empresas. A la vez, tenemos la necesidad de desafiarnos constantemente a mejorar nuestras buenas prácticas y expertise en las diferentes tecnologías emergentes. Somos agnósticos a las marcas o productos, amamos la velocidad de transformación y la posibilidad de aprender cada día algo nuevo.

Apply directly through getonbrd.com.

Funciones del cargo

Estamos en búsqueda de un Ingeniero DevOps (100% Remoto) para integrarse a nuestro equipo

Deberá realizar una monitorización continua de todo el ciclo de vida del desarrollo del software y debe saber cómo administrar la infraestructura TI, asegurando la integración y despliegue continuo.

Es muy importante la motivación por aprender, estar actualizado en tecnologías y autogestión para cumplir con el equipo, los cuales pueden ser diversos y cambiar, por lo que debes estar preparado para un ambiente dinámico, desafiante y divertido para crecer como profesional.

Requerimientos del cargo

- Título profesional de Ingeniería civil / ejecución en computación / informática.
- Minimo 3 años de experiencia como Devops
- Kubernetes
- Docker
- Grafana / Prometheus
- ⁠Experiencia con CI/CD (por ejemplo jenkins, azure devops, github)
- ⁠Experiencia con diferentes proveedores Cloud (por ejemplo Oracle, Azure, Google)
- ⁠Keycloak (deseable)
- ⁠Terraform (deseable)

Condiciones

- Ambiente laboral grato, flexible, entretenido y dinámico.
- Computador de trabajo.
- Contrato indefinido
- Modalidad: 100% Remota

- Caja de compensación Los Andes (CHILE)
- Seguro complementario de Salud y Dental. (CHILE)
- Seguro Yunen (REPUBLICA DOMINICANA)

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
DevOps AWS Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Git Linux DevOps Docker
En BC Tecnología, somos una consultora especializada en servicios IT con un amplio expertise en diversas áreas tecnológicas. Nuestra oferta incluye la administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Formamos equipos ágiles para áreas como Infraestructura, Desarrollo de Software y unidades de negocios, atendiendo a clientes en sectores financieros, seguros, retail y gobierno.
El proyecto actual, con duración inicial de 6 meses y posibilidad de extensión, se enmarca dentro de nuestra línea de trabajo basada en soluciones tecnológicas innovadoras. Se centra en potenciar la infraestructura cloud de nuestros clientes a través de la implementación avanzada de DevOps sobre AWS, contribuyendo a la transformación digital y optimización continua de servicios críticos.

Apply to this job directly at getonbrd.com.

Principales responsabilidades y funciones

Como DevOps AWS Engineer, serás responsable de diseñar, implementar y mantener infraestructuras cloud utilizando AWS y otras tecnologías modernas. Trabajarás en conjunto con equipos multifuncionales para garantizar la automatización, escalabilidad y eficiencia de las plataformas de producción y desarrollo.
  • Implementar y gestionar servicios en AWS, asegurando su disponibilidad y desempeño.
  • Utilizar herramientas de infraestructura como código (IaaC), especialmente Terraform, para construir y mantener entornos reproducibles y confiables.
  • Administrar y optimizar pipelines CI/CD, integrándolos con Git, Docker y Kubernetes.
  • Asegurar la integración de monitoreo y logging mediante plataformas ELK (Elasticsearch, Logstash, Kibana) para la visibilidad completa de las operaciones.
  • Promover prácticas DevOps sólidas que faciliten la entrega continua y la colaboración entre equipos de desarrollo y operaciones.
  • Gestionar y solucionar incidencias en entornos Linux, garantizando la estabilidad y seguridad de los sistemas.

Requisitos y habilidades necesarias

Buscamos un profesional con al menos 2 años de experiencia práctica en entornos AWS y servicios cloud relacionados. Es fundamental poseer un sólido entendimiento de los principios y prácticas DevOps, combinando conocimientos técnicos en infraestructura y desarrollo de software para optimizar procesos y recursos tecnológicos.
Se requiere experiencia avanzada en la utilización de herramientas de infraestructura como código, especialmente Terraform, para automatizar la provisión y gestión de recursos cloud. Además, debe manejar con soltura tecnologías de contenedores y orquestación, tales como Docker y Kubernetes, para asegurar despliegues eficientes y portabilidad.
El candidato debe tener habilidades para administrar sistemas Linux, dominar control de versiones con Git y familiarizarse con plataformas ELK para la supervisión y análisis de logs. Además, es imprescindible contar con competencias para trabajar en equipo, comunicación efectiva y adaptabilidad a metodologías ágiles en entornos dinámicos.

Habilidades y conocimientos deseables

Sería altamente valorado contar con experiencia previa en proyectos de infraestructura cloud en sectores regulados como financiero o gobierno, donde las mejores prácticas de seguridad y cumplimiento son esenciales. Conocimientos en automatización avanzada de pipelines CI/CD y familiaridad con otras herramientas complementarias de monitoreo y seguridad también serán considerados un plus. Asimismo, la capacidad para aportar iniciativas de mejora continua y adaptación tecnológica contribuirá significativamente al éxito del proyecto.

Beneficios y entorno laboral

Ofrecemos un contrato basado en proyectos con posibilidad de continuidad según desempeño, trabajando en un entorno laboral presencial en Santiago, Chile, con modalidad híbrida que combina flexibilidad y colaboración directa.
Formarás parte de un equipo profesional comprometido con la innovación tecnológica, desarrollando soluciones vanguardistas en tecnologías cloud e inteligencia artificial.
Nuestra consultora aplica metodologías ágiles y atiende clientes de alto nivel en múltiples sectores, generando un ambiente ideal para el desarrollo profesional, aprendizaje continuo y crecimiento dentro de la empresa.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Experto en Infraestructura AWS &Amp; CI/CD
  • OlaClick
Git Linux Docker CI/CD
OlaClick es una innovadora plataforma digital enfocada en la gestión y digitalización de restaurantes en América Latina, con presencia en más de 20 países y más de 20,000 clientes activos. OlaClick ofrece menús digitales interactivos, herramientas integradas de pago y campañas automatizadas para que los restaurantes puedan comenzar a vender en línea rápidamente, sin necesidad de conocimientos técnicos ni comisiones ocultas. El proyecto se centra en automatizar la gestión de pedidos y aumentar significativamente el volumen de ventas, transformando la experiencia operativa y comercial de los establecimientos gastronómicos.

Find this vacancy on Get on Board.

¿Qué harás en OlaClick?

Como Experto en Infraestructura AWS e Integración Continua, tu principal objetivo será diseñar, mantener y optimizar la infraestructura cloud sobre AWS, asegurando alta disponibilidad, seguridad y rendimiento óptimo de los sistemas backend de OlaClick. Gestionarás pipelines de CI/CD que permitan acelerar la entrega continua con calidad, así como la automatización de tareas operativas para los entornos de staging y producción. Colaborarás estrechamente con otros ingenieros y equipos de producto en un entorno de trabajo ágil, aplicando metodologías modernas para garantizar despliegues eficientes y la estabilidad de la plataforma.
  • Diseñar y mantener la infraestructura cloud en AWS.
  • Implementar pipelines de integración y despliegue continuo (CI/CD) para optimizar la velocidad y calidad de entrega.
  • Monitorear, analizar y optimizar el rendimiento, la disponibilidad y la seguridad de los sistemas backend.
  • Automatizar la gestión operativa de entornos staging y producción.
  • Colaborar con los equipos de ingeniería y producto para asegurar alineación y éxito en entregables.

¿Qué esperamos de ti?

Buscamos un profesional con mínimo 3 años de experiencia sólida y comprobable en AWS, habiendo trabajado con servicios como EC2, RDS, S3, Lambda y API Gateway. Es fundamental contar con dominio en herramientas de integración y despliegue continuo, especialmente GitLab CI, que permitan construir pipelines robustos y eficientes. Se requiere conocimiento profundo en sistemas Linux, incluyendo scripting para automatización, manejo de contenedores con Docker y control de versiones usando Git.
Además, es deseable experiencia en Infrastructure as Code (IaC), preferentemente con Terraform, para facilitar la reproducibilidad y escalabilidad de la infraestructura. La habilidad para diagnosticar y resolver problemas complejos es fundamental, junto con una comunicación efectiva para colaborar dentro de equipos multifuncionales y dinámicos. La experiencia en ambientes altamente transaccionales y la orientación al detalle completan el perfil técnico ideal.
Se valorarán especialmente las certificaciones oficiales de AWS, conocimientos en herramientas de monitoreo como Grafana y experiencia previa en startups o entornos con altos volúmenes de tráfico.

✔️Puntos a favor

Contar con certificaciones oficiales AWS que certifiquen tu conocimiento avanzado en sus servicios y buenas prácticas en la nube será un gran diferencial. También valoramos la experiencia implementando soluciones de monitoreo y observabilidad con Grafana para mantener un control riguroso sobre la salud y desempeño de los sistemas. Haber trabajado en entornos altamente transaccionales y dinámicos demuestra tu capacidad para manejar infraestructuras críticas con cargas variables y elevados niveles de concurrencia.

🚀¿Qué te ofrecemos?

En OlaClick ofrecemos una relación laboral estable con una modalidad de trabajo 100% remota, que te permite desempeñarte desde cualquier país de América Latina o Brasil. Nuestra cultura se caracteriza por un ambiente laboral positivo, retador y colaborativo, compuesto por un equipo talentoso y con buena disposición para compartir conocimiento y crecer juntos.
Adicionalmente, facilitamos clases de idiomas gratuitas (inglés o portugués) dos veces por semana a través de Políglota.org para tu desarrollo personal y profesional. Dispondrás de un día libre por tu cumpleaños y un día off extra cada trimestre trabajado, fomentando el equilibrio entre vida laboral y personal. También promovemos capacitaciones continuas tanto en el área técnica como en habilidades blandas, brindándote oportunidades reales de crecimiento dentro de una startup global en expansión.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Apply without intermediaries through Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 3000 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Find this vacancy on Get on Board.

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Find this vacancy on Get on Board.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2600 - 2800 Tiempo completo
Ingeniero DevOps
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux DevOps Virtualization
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente y metodologías ágiles. Durante los últimos 6 años hemos diseñado soluciones personalizadas para una variedad de sectores incluyendo servicios financieros, seguros, retail y gobierno. Gestionamos un portafolio diversificado, desarrollamos proyectos innovadores, y ofrecemos servicios de outsourcing y selección de profesionales. Nuestro equipo está compuesto por expertos en diferentes áreas tecnológicas, lo que nos permite formar equipos de trabajo ágiles y eficaces. Como parte de tu rol como Ingeniero DevOps, tendrás la oportunidad de postularte para ser parte en la gestión de plataformas en Oracle Cloud Infrastructure (OCI) y Microsoft Azure, contribuyendo así a la mejora continua de la infraestructura de nuestros clientes.

This company only accepts applications on Get on Board.

Responsabilidades:

  • Administrar y mantener la infraestructura de plataformas en OCI y Azure.
  • Gestionar y automatizar los procesos de implementación de sistemas.
  • Monitorear el rendimiento y la disponibilidad de las plataformas.
  • Implementar y mantener herramientas de CI/CD.
  • Colaborar con equipos de desarrollo para mejorar la eficiencia y la calidad de los despliegues.
  • Resolver problemas y optimizar el rendimiento de las aplicaciones y servicios.

Requisitos:

  • Experiencia comprobable en administración de plataformas en OCI y Azure.
  • Conocimientos en herramientas de automatización y CI/CD.
  • Habilidades en scripting y programación (Python, Bash, etc.).
  • Experiencia en la gestión de contenedores y orquestación (Docker, Kubernetes).
  • Conocimiento en Power Platform (deseable).
  • Capacidad para trabajar en un entorno híbrido y adaptarse a los horarios establecidos.

Deseable:

Conocimiento en Power Platform es considerado un plus, de igual forma, habilidades adicionales en herramientas existentes de orquestación y su manejo eficiente podrían ser favorables en el proceso de selección. Se aprecia una actitud proactiva y la voluntad de enfrentar y resolver problemas que surjan en un entorno dinámico.

Beneficios:

En BC Tecnología, valoramos a nuestros colaboradores y ofrecemos un entorno dinámico con oportunidades de continuo aprendizaje. Trabajarás en proyectos innovadores que ofrecen retos tecnológicos, en una modalidad híbrida que permite 4 días de trabajo remoto y 1 día en la oficina. También ofrecemos un seguro complementario de salud, acceso a Amipass y aguinaldos en fiestas patrias y Navidad.
¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net DevOps Continuous Integration
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Apply from getonbrd.com.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1400 Tiempo completo
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Amazon Web Services Docker Microservices Jenkins
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

Exclusive to Get on Board.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Arquitecto Cloud Presencial
  • BC Tecnología
  • Lima (In-office)
Agile Continuous Integration Virtualization Amazon Web Services
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente. Nos especializamos en administrar portafolios y desarrollar proyectos innovadores para sectores de servicios financieros, seguros, retail y gobierno. Buscamos crear equipos de trabajo ágiles para abordar desafíos complejos utilizando metodologías como Scrum y Kanban. Actualmente, estamos enfocados en la creación de soluciones de cloud computing utilizando tecnologías de vanguardia.

© Get on Board. All rights reserved.

Responsabilidades del Rol

Como Arquitecto Cloud, tu papel será fundamental en la creación e implementación de infraestructuras en la nube eficientes y seguras. Tus responsabilidades incluirán:
  • Diseñar arquitecturas de software utilizando microservicios y asegurar la escalabilidad.
  • Optimizar y crear imágenes Docker para diversos entornos.
  • Asegurar la configuración, seguridad y despliegue eficiente en AWS.
  • Integrar y gestionar herramientas de CI/CD como Jenkins, GitLab CI y GitHub Actions.
  • Colaborar con equipos multidisciplinarios para la implementación de soluciones en la nube.
  • Manejar herramientas como Kubernetes y Terraform para facilitar la orquestación y automatización.

Perfil Buscado

Buscamos a un profesional con al menos 2 a 3 años de experiencia en arquitecturas en la nube. El candidato ideal deberá contar con un sólido conocimiento en:
  • Docker - Creación y optimización de imágenes.
  • AWS - Despliegue, configuración y seguridad avanzada.
  • Arquitectura de software - Microservicios y escalabilidad.
  • CI/CD - Familiaridad con herramientas como Jenkins, GitLab CI, y GitHub Actions.
  • Kubernetes y Terraform son altamente valorados.
Además, es esencial poseer habilidades de trabajo en equipo, buena comunicación y la capacidad para resolver problemas de manera creativa.

Conocimientos Deseables

Si bien no son requisitos obligatorios, se valorarán habilidades adicionales en la gestión de proyectos, así como certificaciones en tecnologías de la nube que demuestren tu compromiso con la formación continua. La experiencia previa trabajando en entornos ágiles será una ventaja y permitirá integrarse de manera efectiva en nuestro equipo colaborativo.

Beneficios de Trabajar con Nosotros

Ofrecemos un entorno laboral dinámico y colaborativo, donde el crecimiento profesional es una prioridad. Nuestro modelo de trabajo híbrido te permite disfrutar de un equilibrio óptimo entre el trabajo remoto y presencial. Además, tendrás acceso a oportunidades de capacitación continua y un ambiente que fomenta la innovación.

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3000 Tiempo completo
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Exclusive offer from getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python SQL Virtualization Big Data
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Apply to this job from Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

Apply directly from Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply directly on the original site at Get on Board.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Datos (Data Engineer)
  • Arara
Python PostgreSQL Git SQL

Arara es una empresa tecnológica especializada en WiFi marketing, ofreciendo soluciones innovadoras que optimizan la conectividad y la experiencia del usuario.

En Arara, estamos buscando un/a Ingeniero/a de Datos (Data Engineer) apasionado/a y experimentado/a para unirse a nuestro equipo de tecnología.

Buscamos a un/a profesional proactivo/a, con una sólida capacidad para resolver problemas complejos y que no solo ejecute tareas, sino que también contribuya activamente en la toma de decisiones sobre la arquitectura de datos y en la mejora continua de nuestros procesos y productos.

Apply to this job at getonbrd.com.

¿Qué es lo que harás?:

  • Diseñar, construir y mantener pipelines de datos robustos y escalables para procesos de extracción, transformación y carga (ETL/ELT).
  • Desarrollar y optimizar la ingesta de datos desde diversas fuentes, incluyendo APIs, bases de datos y servicios de terceros.
  • Modelar, implementar y gestionar soluciones de almacenamiento de datos, como Data Warehouses y Data Lakes.
  • Trabajar con APIs de modelos de lenguaje grandes (LLMs), construir prompts adecuados y postprocesar resultados de múltiples de estos modelos.
  • Escribir código de alta calidad en Python, limpio, eficiente, bien documentado y cubierto por pruebas para el procesamiento y transformación de grandes volúmenes de datos.
  • Garantizar la calidad, consistencia e integridad de los datos durante todo su ciclo de vida.
  • Colaborar con científicos de datos, analistas y el equipo de backend para entender sus necesidades y proveer datos accesibles y fiables.
  • Optimizar el rendimiento de pipelines y consultas en las plataformas de datos.
  • Participar activamente en revisiones de código ofreciendo y recibiendo feedback constructivo para mejorar la calidad del equipo.
  • Diagnosticar, depurar y resolver problemas o bugs en flujos de datos en desarrollo y producción.
  • Contribuir en discusiones técnicas y decisiones sobre arquitectura de datos en nuevos proyectos.
  • Implementar y mantener herramientas de orquestación de flujos de trabajo, como Apache Airflow.
  • Crear y mantener la documentación técnica de los flujos, modelos y sistemas desarrollados.

Estamos buscando una persona que cumpla con lo siguiente:

Experiencia Profesional: Mínimo de 4 a 6 años de experiencia demostrable en roles de ingeniería de datos, inteligencia de negocios (BI) o desarrollo de software con fuerte enfoque en datos.

Formación académica: Título profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Software o carreras afines.

Conocimientos técnicos requeridos:

  • Lenguajes: Dominio avanzado de Python y sus librerías para el ecosistema de datos (p.ej. Pandas, PySpark).
  • Modelos LLM: Experiencia interactuando con modelos de lenguaje grandes (ej. Gemini, OpenAI), prompt engineering y Retrieval-Augmented Generation (RAG).
  • Bases de datos: Sólida experiencia con bases de datos SQL (como PostgreSQL) y NoSQL (como MongoDB). Valoramos conocimiento en Data Warehouses en la nube (Azure, BigQuery, Redshift, Snowflake).
  • Fundamentos de datos: Conocimiento profundo de ETL/ELT, modelado de datos y arquitecturas de datos (Data Warehouse, Data Lake).
  • Herramientas clave: Experiencia con sistemas de control de versiones Git y contenedores Docker. Se valorará experiencia con orquestadores como Apache Airflow.
  • Nube: Experiencia trabajando con servicios de datos en plataformas en la nube (GCP, AWS, Azure).

Habilidades blandas y otras competencias: Buscamos un profesional proactivo, con capacidad para resolver problemas complejos, aportar en la toma de decisiones para arquitectura de datos, y colaborar eficazmente en equipo.

Se valorará además:

  • Conocimientos en metodologías de desarrollo ágil y mejores prácticas DevOps.
  • Experiencia adicional en ingeniería de datos aplicada a inteligencia artificial y machine learning.
  • Habilidades de comunicación avanzada para colaborar con equipos multidisciplinarios.

Lo que ofrecemos en Arara:

  • 100% remoto – Trabaja desde cualquier lugar con huso horario de América.
  • Cultura organizacional horizontal e innovadora.
  • Equipo colaborativo – Somos un equipo pequeño, horizontal y cercano, donde tu aporte realmente cuenta.
  • Trabajar en una industria en crecimiento: IA aplicada.
  • Capacitaciones en Habilidades profesionales y personales de manera constante.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Docker Data Transformation
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

© Get on Board. All rights reserved.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Senior Data Scientist
  • Niuro
BigQuery Docker Kubernetes Google Cloud Platform
Niuro connects projects with elite tech teams, specializing in collaboration with leading U.S. companies. The position is part of Niuro's international team focused on delivering impactful, data-driven solutions. These projects leverage advanced industrial data science techniques such as predictive maintenance, causal modeling, time series analysis, forecasting, classification, regression, and recommender systems. Niuro empowers tech teams with continuous growth opportunities and handles all administrative tasks, enabling team members to focus on cutting-edge innovation within global client projects.

Find this job and more on Get on Board.

Responsibilities

As a Senior Data Scientist at Niuro, you will be a key contributor to diverse data science projects across various industries. Your main responsibilities include designing and implementing models for predictive maintenance, causal inference, time series forecasting, classification and regression tasks, and recommender systems. You will collaborate with cross-functional teams to develop robust solutions that generate actionable insights for global clients.
You will also be expected to apply your deep knowledge of mathematical engineering and AI to solve complex problems, mentor junior data scientists, and ensure best practices in data preparation, modeling, and deployment, primarily using technologies like Google Cloud Platform (GCP) and BigQuery.
This role requires strong communication skills to translate technical findings into business value and participate in strategic decision-making.

Requirements

We are seeking candidates with a degree in Mathematical Engineering or related fields in Artificial Intelligence. You should have extensive experience working on a variety of data science projects, including but not limited to predictive maintenance, causal modeling, time series analysis, forecasting, classification and regression, causality analysis, and recommender systems.
Proficiency in Google Cloud Platform (GCP) and BigQuery is essential for this role. Experience with cloud-based data infrastructure and scalable data processing pipelines is required.
We value candidates with a strong analytical mindset, problem-solving skills, and a collaborative approach. Ability to work fully remotely with global teams while maintaining high engagement and communication standards is important.
Bonus experience includes working in sectors such as mining, mechanical systems, or finance, where domain-specific knowledge can enhance project impact.

Preferred Qualifications

Experience with additional cloud platforms, advanced causal inference frameworks, and big data technologies is highly desirable. Familiarity with containerization and orchestration tools like Docker and Kubernetes can be a plus.
Prior work in industrial or mechanical sectors, especially mining and finance, is beneficial to understand domain-specific challenges and tailor data solutions accordingly.
Strong leadership skills and experience mentoring junior data scientists will be considered valuable.

What We Offer

We offer the opportunity to engage in technically rigorous, impactful industrial data projects fostering professional growth and innovation. Our environment promotes technical excellence and continual learning.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere around the globe.
Continuous career development is encouraged through training programs and leadership growth opportunities.
Following successful initial collaboration, there is the possibility of transitioning into a stable, long-term full-time position.
Joining Niuro means becoming part of a global tech community backed by strong administrative support that allows you to focus on delivering exceptional results.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply to this job through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Find this vacancy on Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • 2BRAINS
Python Git REST API Data Analysis

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Opportunity published on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

This job is original from Get on Board.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3900 Tiempo completo
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply from getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Data Engineer / Machine Learning Engineer
  • Lilo AI
  • Santiago (Hybrid)
Python PostgreSQL SQL NoSQL
Lilo AI is an innovative startup dedicated to transforming procurement for Commercial Real Estate (CRE) businesses by creating the most hassle-free procurement platform globally. Our platform leverages artificial intelligence to automate and optimize various procurement workflows, including invoicing, vendor management, and price comparisons. Serving diverse sectors such as hotels, gyms, schools, and senior living homes, our solutions save clients valuable time and money while improving operational efficiency. Our major clients include prestigious brands such as Fairfield, Hampton Inn, and Hilton. By joining Lilo AI, you will contribute to revolutionizing procurement processes at scale through cutting-edge AI technologies.

Apply at the original job on getonbrd.com.

About the Role

As a Data Engineer / Machine Learning Engineer at Lilo AI, you will play a pivotal role in advancing and deploying machine learning solutions that enhance our procurement platform. Your primary responsibilities will include:
  • Designing, developing, and implementing machine learning models to optimize procurement workflows, such as price prediction algorithms, anomaly detection systems, and recommendation engines.
  • Building and maintaining robust data pipelines to efficiently preprocess and cleanse both structured and unstructured datasets.
  • Collaborating closely with engineers, product managers, and business stakeholders to integrate AI-driven insights seamlessly into our platform environment.
  • Optimizing model performance and reliability, including contributing to monitoring strategies and retraining pipelines to sustain production quality.
  • Keeping abreast of the latest developments in AI, machine learning, and data science to continually enhance our technology stack.
  • Supporting the deployment of machine learning models into production environments and improving MLOps workflows to increase operational efficiency.
This role requires a proactive mindset, a passion for AI applications in real-world business contexts, and the ability to thrive in a dynamic, fast-paced, and collaborative global team.

What You Will Need

To succeed in this role, candidates should demonstrate strong technical proficiency and relevant experience as detailed below:
  • A minimum of 2 years of professional experience in machine learning, data science, or closely related fields.
  • Proficiency in Python programming and familiarity with prominent ML frameworks and libraries such as Scikit-Learn, TensorFlow, or PyTorch.
  • Hands-on experience with both SQL and NoSQL databases, including but not limited to MongoDB and PostgreSQL.
  • Solid understanding of data preprocessing techniques, feature engineering, and model evaluation methodologies essential for robust ML model development.
  • Basic knowledge or experience with containerization (Docker), cloud computing platforms (AWS, Google Cloud Platform, or Azure), and MLOps tools is highly desirable.
  • Analytical mindset with strong problem-solving skills, able to handle and extract insights from large datasets effectively.
  • A continuous learner attitude, eager to develop technical and professional skills while contributing to team goals.
We value curiosity, collaboration, and adaptability, wanting individuals who are ready to grow alongside our rapidly expanding company.

Desirable Skills and Experience

While not mandatory, the following skills and experiences will give candidates an edge:
  • Experience working with time-series data, demand forecasting, or procurement-related AI models.
  • Familiarity with advanced ML techniques such as deep learning, reinforcement learning, or natural language processing.
  • Hands-on exposure to MLOps pipelines, automated model deployment, and monitoring platforms.
  • Knowledge of data engineering tools and frameworks like Apache Airflow, Spark, or Kafka.
  • Prior experience in the hospitality or Commercial Real Estate sectors.
  • Strong communication skills to effectively articulate technical concepts to non-technical stakeholders.

Why Lilo AI?

Joining Lilo AI offers a unique opportunity to make a significant impact at a fast-growing US-based startup while enjoying the flexibility of remote work from Latin America. We provide:
  • A high-impact role within a pioneering team revolutionizing procurement with AI.
  • Possibility to grow professionally with opportunities to increase responsibilities over time.
  • Stock options available for the right candidate, sharing in our long-term success.
  • A collaborative, global, and multi-cultural work environment fostering innovation and continuous learning.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Lilo AI pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Dental insurance Lilo AI pays or copays dental insurance for employees.
Computer provided Lilo AI provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Lilo AI gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3200 Tiempo completo
Full-Stack AI &Amp; Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
Python Docker Microservices GraphQL
Genesys Tecnologías de Inform. SpA es una compañía con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios tecnológicos avanzados. Con sede principal en Concepción y operaciones importantes en Santiago, trabajamos en la transformación digital de empresas a través de soluciones innovadoras como RPA, Inteligencia Artificial, QA Automation, Cloud y Staff Augmentation.
El proyecto actual está orientado al desarrollo y mantenimiento de sistemas inteligentes integrados con modelos de lenguaje (LLMs), apoyando la evolución tecnológica de nuestros clientes en Latinoamérica mediante aplicaciones de IA prácticas y efectivas.

Apply directly on the original site at Get on Board.

Funciones del Cargo

Buscamos un ingeniero de Inteligencia Artificial con habilidades en Python, LangChain y LangGraph para formar parte de nuestro equipo especializado en construir soluciones inteligentes. Esta posición se enfoca en desarrollar y orquestar pipelines de procesamiento de lenguaje natural, diseñar agentes conversacionales complejos y sistemas inteligentes que respondan a necesidades reales.
  • Diseñar, desarrollar y mantener pipelines de procesamiento de lenguaje con LangChain y LangGraph.
  • Implementar chatbots inteligentes, asistentes autónomos, clasificadores y sistemas de búsqueda con técnicas de Recuperación Basada en Generación (RAG).
  • Orquestar flujos de decisiones con manejo de memoria contextual, persistencia de estado y control de errores usando LangGraph.
  • Integrar múltiples APIs externas, bases de datos y modelos locales para potenciar las capacidades de los sistemas.
  • Colaborar estrechamente con equipos de producto y diseño para convertir requisitos en soluciones AI efectivas y productivas.

Descripción y Requisitos del Cargo

El candidato ideal debe contar con conocimientos avanzados en Python y experiencia práctica con herramientas modernas de la pila LLM, especialmente LangChain y LangGraph, para la construcción de agentes y workflows complejos de IA. Es fundamental poseer un alto nivel de inglés, ya que es un requisito excluyente para desempeñar esta función.
  • Experiencia en desarrollo de software con Python, incluyendo desarrollo modular, manejo asincrónico, integración con APIs y procesamiento de texto (NLP).
  • Experiencia trabajando con modelos de lenguaje y tecnologías LLM.
  • Experiencia demostrable en proyectos utilizando LangChain para crear agentes, cadenas personalizadas, herramientas externas, pipelines RAG e integración con bases vectoriales.
  • Conocimiento en LangGraph para diseñar y administrar workflows de IA complejos con control de estados, branching y lógica conversacional.
  • Capacidad para implementar soluciones usando LLMs de OpenAI y otros proveedores, aplicando técnicas de prompt engineering, fine-tuning ligero y personalización de modelos Open Source.
  • Deseable experiencia en sistemas de recuperación semántica basados en embeddings para mejorar la precisión y relevancia de las respuestas.
  • Conocimientos básicos o intermedios en APIs REST y GraphQL, así como en contenedores Docker y despliegue de microservicios, son altamente valorados.
Además de las habilidades técnicas, buscamos personas con capacidad para trabajar en equipo, comunicarse efectivamente, adaptarse a tecnologías emergentes y contribuir al desarrollo de soluciones innovadoras en un entorno dinámico y colaborativo.

Habilidades y Experiencias Deseables

Se valorará positivamente la experiencia adicional en la implementación de soluciones de recuperación semántica basadas en embeddings, desarrollo y despliegue con Docker y microservicios, así como un conocimiento intermedio en APIs REST y GraphQL para mejorar la integración y escalabilidad de las aplicaciones.
También es deseable la familiaridad con técnicas avanzadas en prompt engineering, fine-tuning avanzado de modelos de lenguaje, y la capacidad para diseñar flujos conversacionales complejos que impliquen lógica de negocio y control de estado persistente.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.

Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.

¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries through Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Python Docker Azure Google Cloud Platform
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

This job is published by getonbrd.com.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job on getonbrd.com.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Linux DevOps Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

Ingeniero de Plataforma con sólida experiencia en la gestión e implementación de infraestructura como código (IaC) y automatización de plataformas híbridas y multicloud. Especialista en Oracle Cloud Infrastructure (OCI), con dominio avanzado de Oracle Linux (8 y 9), incluyendo hardening, tuning y troubleshooting de sistemas en
entornos productivos críticos.
Competente en el diseño y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD, y Kong API Gateway, garantizando despliegues seguros, reproducibles y escalables. Fuerte orientación a la seguridad y gestión de secretos mediante HashiCorp Vault, cumpliendo estándares como PCI-DSS
y buenas prácticas de ciberseguridad.
Habilidad avanzada en scripting con Bash y Python para automatización de procesos, integración de pipelines y monitoreo. Experiencia práctica en diseño de pipelines CI/CD robustos, infraestructura autoservicio y GitOps.
Ideal con experiencia en otros motores como MSSQL, Postgresql y mysql

Requerimientos del cargo

Stack Principal
Cloud: Oracle Cloud (OCI), incluyendo Networking, IAM, Compute, VCN, Object
Storage, Vulnerability Scanning, WAF
Linux: Oracle Linux 8/9 (hardening, performance tuning, SELinux, systemd)
IaC & Automatización: Terraform (módulos reutilizables, workspaces, state remotos),
GitLab CI, ArgoCD
Contenedores: Docker, Kubernetes, Helm, Argo Workflows, Kong Ingress
Seguridad: HashiCorp Vault, integración con OCI IAM, gestión de tokens y políticas
Scripting: Bash avanzado, Python (scripts para automatización, integración con APIs
REST)
Docker: gestion de imagenes docker.

Fortalezas

Implementación de infraestructura reproducible y versionada en OCI con Terraform.
Automatización de despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en
GitLab.
Integración segura de servicios mediante Kong y políticas personalizadas.
Gestión de secretos y credenciales dinámicas en entornos sensibles usando Vault.
Experiencia en entornos bancarios y regulados, con foco en cumplimiento y resiliencia.

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 15 meses con renovacion

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Administrador de Aplicaciones Smart Cities &Amp; Mobility
  • SONDA
  • Santiago (Hybrid)
Linux Docker Kubernetes Red Hat
En SONDA, la Innovación es parte de nuestro ADN.
Miramos hacia el futuro focalizándonos en las últimas tendencias y noticias sobre innovación, tecnologías con impacto y sostenibilidad.
Conocemos los desafíos y demandas de la región y contamos con un amplio portafolio de soluciones de negocio especializadas en las principales industrias del mercado. Vive la experiencia SONDA en nuestra división de Smart Cities & Mobility, en la unidad de negocio de Transporte .

Apply through Get on Board.

· Mantener y administrar aplicaciones, asegurando la disponibilidad de los servicios en concordancia con los SLA comprometidos para cada solución.

· Asegurar la continuidad del servicio y el respaldo de la información.
· Asegurar el cumplimiento de normas de calidad.
· Proponer mejoras en el servicio.
· Mantener informados a Jefe de Área y clientes sobre avances y resultados.

Requerimientos del cargo

· Estudios Superiores (Título Profesional relacionado al rubro TI).
· Desde 3 años de experiencia laboral relacionada al cargo.
· Conocimiento y experiencia trabajando con sistemas Linux.
· Conocimiento y experiencia trabajando con sistemas de Virtualización Red Hat.

· Conocimiento y experiencia trabajando en aplicaciones Cloud.

· Conocimientos en Kubernetes y/o Dockers.

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Life insurance SONDA pays or copays life insurance for employees.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Instructor Java DevOps
  • Skillnest
JavaScript Java Python SQL

Skillnest es una academia de programación con una presencia global, originada en Silicon Valley y con más de 15 años de experiencia.
Llevamos cuatro años ofreciendo nuestros programas en Latinoamérica y nos destacamos por un enfoque flexible, orientado a resultados y centrado en la toma de decisiones basadas en datos.
Como equipo joven, estamos comprometidos con transformar vidas a través de la educación en programación y apoyamos activamente la empleabilidad de nuestros graduados.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Como instructor del programa Java DevOps, serás responsable de impartir clases en modalidad remota y sincrónica, utilizando plataformas como Zoom y Discord para facilitar la interacción directa con los estudiantes.

Tu labor se centrará en impartir el plan de estudios diseñado a través de la plataforma de estudio de Skillnest, el cual está diseñado para garantizar una experiencia de aprendizaje integral. Deberás guiar a los estudiantes a través de cada módulo, fomentando el uso de buenas prácticas de programación, y asegurando que puedan avanzar también de forma asíncrona, con acceso permanente a materiales de estudio y seguimiento de su progreso calendarización de contenidos establecida.

Durante el desarrollo del programa, serás responsable de guiar el aprendizaje y aplicación de las siguientes tecnologías y conceptos clave:

  • Bases de Datos Relacionales y No Relacionales (SQL & NoSQL)
  • Spring Boot (Fundamentos, estructura y configuración)
  • Pruebas Unitarias (JUnit, Mockito)
  • Arquitectura Hexagonal
  • WebFlux (Microservicios reactivos con Spring)
  • Docker (Contenerización de aplicaciones)
  • Spring Cloud (Comunicación entre microservicios)
  • Buenas prácticas en Spring Boot (Documentación, manejo de excepciones, estructuración de código)
  • Spring Security (Autenticación y autorización)
  • Servicios en la Nube con AWS:
    • Teórico: fundamentos para la toma de decisiones técnicas
    • Práctico: despliegue de aplicaciones basadas en microservicios
  • Principios y herramientas de DevOps

Requerimientos del cargo

1. Experiencia Técnica

  • Experiencia comprobada en arquitectura de software en la nube, con capacidad para aplicar enfoques profesionales en el desarrollo de soluciones distribuidas.
  • Sólida trayectoria en desarrollo de software y programación, con enfoque en buenas prácticas y metodologías modernas.
  • Manejo fluido de herramientas y conceptos asociados al ecosistema DevOps y despliegue en entornos productivos.

2. Habilidades Docentes

  • Experiencia mínima de 1 año enseñando al menos 3 de las siguientes 7 áreas de conocimiento:
    • Programación orientada a objetos
    • Lenguajes de scripting (Python, Java, JavaScript, entre otros)
    • Bases de datos (relacionales y no relacionales)
    • Ciberseguridad
    • Conectividad y redes (AWS, Google Cloud, Microsoft Azure)
    • DevOps
    • Ciencia de datos y aprendizaje automático

3. Habilidades Complementarias

  • Nivel de inglés intermedio o avanzado, tanto escrito como leído.
  • Disponibilidad para participar en una capacitación previa al inicio del curso, con el fin de familiarizarse con el plan curricular, herramientas institucionales y dinámicas pedagógicas.
  • Dedicación de 10 horas de instrucción semanales, distribuidas entre sesiones sincrónicas de clases y taller práctico, solución de dudas a través de Discord.
  • Dedicación para trabajo administrativo de 4 horas semanales para preparación de clases, revisión de actividades prácticas, desafíos técnicos y seguimiento a estudiantes.

Condiciones

  • Acceso al contenido de los programas de Skillnest para capacitación personal.
  • Capacitación sobre la metodología de enseñanza de Skillnest antes de iniciar el bootcamp.
  • Trabaja remoto desde cualquier lugar del mundo.
  • Capacidad de crecimiento en el área de educación en desarrollo de software y programación. No queremos que impartas sólo un programa de estudio. Dependiendo de tu experiencia podrías impartir más bootcamps.

Si eres un apasionado de la programación, la enseñanza y buscas un entorno de trabajo desafiante. Únete a Skillnest y sé parte de la revolución educativa en programación

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python REST API Linux
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Apply only from getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6500 Tiempo completo
Platform Engineer
  • DynWrk
Python Linux Go DevOps
DynWrk builds and operates dedicated software engineering teams in Chile for U.S. companies, attracting top talent in the Americas. We specialize in building, managing, and training tech teams for global impact.
Vivint is a leading technology company redefining the home experience, leveraging cutting-edge technology and innovative services to enable safer, smarter, and more sustainable homes for millions of users.

Exclusive offer from getonbrd.com.

Job functions

At Vivint, you will join a forward-thinking team dedicated to shaping the future of smart homes for millions of users. We seek a skilled Platform Engineer to build, maintain, and scale foundational systems for our software development lifecycle. This role focuses on creating reliable, scalable, and efficient infrastructure and tooling, enabling rapid and safe software delivery. Key responsibilities include:

  • Design, build, and maintain internal platforms, CI/CD pipelines, infrastructure-as-code (IaC), and automation tools.
  • Collaborate with DevOps, SREs, developers, and QA to enhance developer experience and streamline deployments.
  • Manage cloud infrastructure (e.g., AWS, GCP, Azure) and container orchestration systems (e.g., Kubernetes, ECS).
  • Monitor and improve system performance, reliability, and scalability.
  • Implement best practices in security, compliance, observability, and disaster recovery.
  • Write technical documentation and guide on platform tool usage.
  • Support incident response and root cause analysis for platform-related issues.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Engineering, or a related technical field.
  • 5+ years of experience in platform engineering, DevOps, or infrastructure engineering.
  • Proficiency with infrastructure-as-code tools (e.g., Terraform, Ansible).
  • Strong knowledge of CI/CD pipelines and tools (e.g., Bitbucket, Jenkins, ArgoCD).
  • Extensive experience with containerization and orchestration (e.g., Docker, Kubernetes).
  • Proven experience with major cloud services (e.g., AWS, Azure).
  • Strong programming/scripting skills in Python, Go, Bash, or similar.
  • Excellent written and verbal English communication skills.

Conditions

  • Opportunities for professional development within an international team.
  • Competitive salary.
  • Full-time position with a Chilean employment agreement (Contrato de trabajo).

POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2900 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
AWS Engineer (Semi Senior / Senior)
  • Niuro
DevOps Virtualization Amazon Web Services Docker
Niuro is a dynamic company that connects elite technology teams with leading U.S. companies, focusing on simplifying global talent acquisition through innovative, efficient solutions. We specialize in providing autonomous, high-performance tech teams that excel in delivering cutting-edge projects, chiefly within the industrial data space. Our teams engage in technically challenging and impactful initiatives that foster innovation and professional growth. By partnering with Niuro, you become part of a collaborative environment dedicated to excellence, continuous learning, and leadership development. Our commitment extends beyond technical contributions; we manage all administrative responsibilities such as hiring, payments, and training, enabling our engineers to focus wholly on delivering outstanding results.

Apply to this job directly at getonbrd.com.

Role and Responsibilities

As an AWS Engineer at Niuro, your primary responsibility will be designing, deploying, and maintaining scalable, secure, and efficient infrastructure solutions on AWS. You will work closely with cross-functional US-based teams to define architecture and automation using infrastructure as code.

  • Design and implement cloud infrastructure using AWS services such as IAM, S3, VPC, Lake Formation, CloudFormation, and CloudWatch.
  • Develop and maintain deployment pipelines and infrastructure automation primarily through Terraform and CI/CD tools.
  • Ensure system security, monitoring, and performance tuning to meet high availability and reliability standards.
  • Collaborate with development and operations teams to integrate cloud-based systems smoothly and optimize workflows.
  • Participate actively in code reviews, technical discussions, and knowledge sharing sessions.
  • Support incident response and troubleshoot complex infrastructure issues efficiently.

Required Skills and Experience

We are looking for a Semi Senior to Senior AWS Engineer with a strong background in cloud infrastructure design and deployment. The ideal candidate must demonstrate proficiency in a broad range of AWS services such as IAM (Identity and Access Management), S3 (Simple Storage Service), VPC (Virtual Private Cloud), Lake Formation, CloudFormation, and CloudWatch.
Experience with DevOps practices and tools like Terraform and CI/CD pipelines is essential to ensuring the reliable delivery and automation of infrastructure.
The candidate should have conversational-level English skills, enabling effective communication and collaboration with US-based teams. A proactive mindset, problem-solving abilities, and passion for continuous improvement are highly valued.
Soft skills such as teamwork, adaptability, and a results-oriented attitude are vital for success in our fast-paced and collaborative environment.

Desirable Additional Skills

While not mandatory, experience and familiarity with FastAPI, Gunicorn, Pydantic, Boto3, Aestiva HTML/OS, Docker, TeamCity, GitHub, or Gitea will be considered a strong advantage. Knowledge in these areas will enable deeper integration and more versatile contributions within our technology stack and DevOps workflows.
Exposure to containerization technologies such as Docker and continuous integration servers like TeamCity can enhance overall effectiveness in deployment automation and system reliability.

Benefits and Work Environment

At Niuro, we provide a flexible 100% remote working structure tailored for professionals residing within LATAM, empowering you to work from your preferred location without compromising professional growth.
We foster a culture of continuous learning, offering professional development through ongoing technical and soft skills training, in addition to leadership development opportunities.
Our projects are technically challenging and impactful, driving innovation in the industrial data domain, which supports your career advancement.
Niuro handles all administrative aspects including hiring, payments, and training, allowing you to focus on what matters most — your work and career growth.
There is potential for long-term engagement and transition to stable full-time employment following the successful completion of the initial contract.
Join Niuro and become part of a global community committed to excellence, collaboration, and innovation.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
DevOps Engineer – Proyecto 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Agile DevOps Continuous Integration Virtualization
En BC Tecnología somos una consultora de TI con amplia experiencia en diferentes áreas tecnológicas, que desde hace 6 años diseñamos soluciones acorde a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores dentro del área de infraestructura tecnológica, en equipos ágiles que combinan la experiencia en desarrollo de software y consultoría IT para entregar resultados efectivos y adaptados a cada cliente.

Find this job and more on Get on Board.

Funciones principales

  • Implementar, mantener y optimizar pipelines de CI/CD utilizando herramientas como GitLab CI, Jenkins y ArgoCD.
  • Desarrollar y administrar infraestructura como código (IaC) utilizando Terraform, Ansible, Pulumi u otras tecnologías similares.
  • Gestionar y orquestar contenedores mediante Docker y Kubernetes para garantizar despliegues eficientes y escalables.
  • Monitorear sistemas y aplicaciones mediante herramientas de observabilidad como Prometheus, Grafana y Datadog.
  • Colaborar con equipos de desarrollo y operaciones para asegurar la automatización y mejora continua de procesos.
  • Participar en la definición y control de costos operativos en nube, apoyando con modelos de FinOps para optimización financiera.

Requisitos

  • Mínimo 3 años de experiencia como DevOps o Ingeniero de Automatización.
  • Dominio en herramientas CI/CD como GitLab CI, Jenkins y ArgoCD.
  • Sólidos conocimientos en Infraestructura como Código (Terraform, Ansible, Pulumi u otras).
  • Experiencia en contenedores y orquestadores: Docker y Kubernetes.
  • Familiaridad con herramientas de observabilidad y monitoreo (Prometheus, Grafana, Datadog).
  • Conocimientos en modelos de costos y operación en la nube, preferentemente Azure, Google Cloud Platform o Oracle Cloud.
  • Deseable experiencia o certificación en FinOps para control y optimización de gastos en la nube.
  • Capacidad para trabajar en equipo, orientación al detalle, proactividad y aptitud para la resolución de problemas en entornos ágiles.

Deseable

  • Certificaciones oficiales en DevOps, Kubernetes, Terraform o plataformas Cloud.
  • Experiencia con metodologías ágiles y colaboración en equipos multidisciplinarios.
  • Conocimiento en seguridad cloud y automatización de procesos de compliance.
  • Capacidad para documentar procedimientos técnicos y capacitar equipos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Experienced DevOps Engineer
  • coderslab.io
Redis Agile PostgreSQL Git

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This job is available on Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de CI/CD para mejorar la entrega continua de software.
  • Administrar y optimizar entornos de contenedores y orquestación con Docker, Kubernetes y otras tecnologías.
  • Implementar prácticas robustas de monitoreo, seguridad y alta disponibilidad.
  • Gestionar infraestructura mediante Infraestructura como Código (IaC) y herramientas de automatización.
  • Documentar, estandarizar y optimizar procesos y arquitecturas DevOps.
  • Colaborar con equipos de desarrollo y operaciones para fomentar la cultura DevOps y metodologías ágiles.

Requerimientos del cargo

Experiencia

  • Más de 3 años en roles de DevOps o administración de infraestructura.
  • Más de 2 años en administración de sistemas Linux (sysadmin).
  • Experiencia en entornos ágiles como Scrum y Kanban.
  • Familiaridad con la cultura y prácticas DevOps.

Conocimientos Clave

  • Oracle WL/OSB.
  • Infraestructura como Código (IaC): Terraform, Pulumi.
  • Control de versiones y CI/CD: GIT/GitLab, ArgoCD.
  • Contenedores y orquestación: Docker, Containerd, Swarm, Kubernetes (GKE, AKS).
  • Automatización y configuración: Chef, Ansible.
  • Cloud Computing: experiencia en Azure o GCP.
  • Gestión de secretos: Vault u otras herramientas similares.
  • Monitoreo y observabilidad: Prometheus, Grafana, ELK, Datadog.
  • Redes y seguridad: protocolos, balanceo de carga, firewalls.

Conocimientos Deseables

  • API Management: Apigee, Kong.
  • Mensajería: RabbitMQ.
  • Bases de datos: Postgres, Redis, MongoDB.

¿Qué ofrecemos?

  • Trabajo en un entorno dinámico y tecnológico.
  • Oportunidades de crecimiento y aprendizaje continuo.
  • Cultura colaborativa y orientada a la innovación.
  • Flexibilidad y modalidad de trabajo a negociar.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

© Get on Board. All rights reserved.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply exclusively at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Ingeniero/a QA Senior – Back-end Python
  • Robotia
  • Santiago (Hybrid)
Python Agile Git QA

Somos Robotia, una empresa joven y líder en el desarrollo de soluciones de visión artificial para procesos industriales, específicamente orientada a la minería y la industria a nivel nacional e internacional. Nuestro enfoque está en el desarrollo de tecnologías basadas en inteligencia artificial para apoyar la automatización y la toma de decisiones en tiempo real, contribuyendo así a la transformación digital del sector minero y otros procesos industriales relevantes.

Apply to this job without intermediaries on Get on Board.

Responsabilidades

  • Pruebas de aceptación: Diseñar y ejecutar casos de prueba que confirmen que cada funcionalidad satisface los criterios de negocio.
  • Pruebas de integración: Planificar y ejecutar pruebas que verifiquen el flujo operativo correcto entre múltiples componentes del sistema.
  • Automatización de pruebas y herramientas de QA: Implementar suites y software especializado para validar funcionalidades nuevas, pasadas y futuras.
  • Documentación y seguimiento: Documentar planes de prueba y resultados, reportar y dar seguimiento a incidentes de calidad en conjunto con los equipos de desarrollo para su resolución.
  • Propuesta de mejoras: Aportar con propuestas de herramientas avanzadas de QA enfocadas en pipelines de datos y modelos de IA.

Requisitos

Obligatorios:

  • Título universitario en Ingeniería de Software, Computación, Informática o carrera afín.
  • Mínimo 5 años de experiencia comprobable en roles de QA de software backend, preferentemente con Python.
  • Experiencia probada en diseño y ejecución de pruebas de aceptación e integración.
  • Dominio de herramientas y suites de testing: Cucumber, Postman, JMeter, Selenium y Cypress.
  • Familiaridad con control de versiones Git y metodologías ágiles (Scrum o Kanban).
  • Excelente comunicación en español, tanto escrita como verbal, y capacidad para trabajar en equipo.

Habilidades blandas y técnicas: Debemos contar con una persona con pensamiento analítico, meticuloso en la documentación, con capacidad para colaborar eficazmente con equipos multidisciplinarios y adaptabilidad a cambios tecnológicos constantes.

Deseables

  • Conocimiento en herramientas de gestión de QA como Jira, TestRail u otras similares.
  • Experiencia con librerías y frameworks relacionados con Machine Learning y Computer Vision (PyTorch, NumPy, OpenCV, Scikit-learn).
  • Familiaridad con entornos de integración y entrega continua (CI/CD), uso de contenedores Docker y monitoreo de calidad continua.
  • Experiencia previa en industrias de tecnología de alto rendimiento o minería, lo que será considerado una ventaja importante.

Beneficios

Horario flexible y un ambiente de trabajo moderno que fomenta la innovación.

Presupuesto anual para capacitación y cursos de especialización que facilitan el crecimiento profesional continuo.

Snacks, galletas y café de grano gratis disponibles en la oficina para mantener el buen ánimo durante la jornada.

Día de cumpleaños libre y permiso de 5 días administrativos al año.

Contrato inicial a tres meses con alta probabilidad de renovación a indefinido según desempeño.

Oportunidad de integrarse a un equipo técnico senior altamente capacitado y participar en proyectos innovadores de IA aplicada a minería y procesos industriales.

Partially remote You can work from your home some days a week.
Computer provided Robotia provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Robotia offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Send CV through getonbrd.com.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
DevOps Engineer Modyo
  • I2B Technologies
Linux DevOps Continuous Integration Virtualization
I2B Technologies es una empresa comprometida con impulsar la transformación digital en sus clientes, ayudándolos a mejorar la calidad de vida de los usuarios finales a través de desarrollos de alto impacto. La empresa cuenta con una amplia experiencia y metodología sólida basada en cuatro pilares fundamentales: Consultoría, Desarrollo de Software, Evolución y Data Science. Estos pilares sustentan proyectos que resuelven desafíos industriales y mejoran la experiencia entre empresas y sus usuarios.
Formar parte del equipo de I2B implica integrarse a un ámbito que no solo se ocupa de la creación y ejecución de ideas, sino también de un acompañamiento constante para asegurar el éxito y la evolución continua de los proyectos.

This offer is exclusive to getonbrd.com.

Funciones

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD) que aseguren la eficiencia y calidad en los procesos de desarrollo y despliegue.
  • Automatizar y gestionar la infraestructura usando herramientas como Terraform, Ansible u otras similares para optimizar y estandarizar los entornos.
  • Administrar entornos en la nube, priorizando plataformas como AWS, Azure o Google Cloud Platform, garantizando la disponibilidad, escalabilidad y seguridad de los mismos.
  • Supervisar el rendimiento de los sistemas, establecer monitoreos robustos y gestionar la resolución de incidentes para minimizar interrupciones y asegurar la continuidad operativa.
  • Colaborar estrechamente con los equipos de desarrollo para optimizar los despliegues, mejorar los entornos de testing y facilitar la integración entre aplicaciones y servicios.

Requisitos

Buscamos profesionales con más de 3 años de experiencia demostrable en roles de DevOps o ingeniería de infraestructura, capaces de manejar sistemas complejos y variadas tecnologías de automatización y nube.
Es imprescindible contar con experiencia en tecnologías de contenedores, particularmente Docker y Kubernetes, además de una sólida administración de servidores Linux para garantizar la estabilidad y seguridad de los servicios.
Se requiere un conocimiento profundo y práctico en herramientas y procesos de CI/CD, como Jenkins, GitLab CI o GitHub Actions, para asegurar la implementación continua en ambientes flexibles y escalables.
La experiencia con servicios en la nube es fundamental, destacando AWS, Azure o Google Cloud Platform, con habilidad para administrar y monitorear infraestructuras distribuidas e integradas.
Se valorarán certificaciones oficiales en Cloud Computing y metodologías DevOps, ya que demuestran un compromiso con la actualización constante y las mejores prácticas del área.
Además, el candidato debe poseer habilidades interpersonales para el trabajo en equipo, capacidad analítica para resolver problemas complejos y una mentalidad proactiva orientada a la mejora continua.

Deseable

Certificaciones en tecnologías cloud y DevOps, como AWS Certified Solutions Architect, Azure DevOps Engineer Expert o Certified Kubernetes Administrator, son altamente valoradas.
Experiencia adicional en herramientas complementarias de automatización y configuración como Puppet o Chef sería un plus importante.
Conocimientos en metodologías ágiles y herramientas de colaboración (JIRA, Confluence) ayudarán a integrarse fluidamente con los equipos multidisciplinarios.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Fitness subsidies I2B Technologies offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

This company only accepts applications on Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Moventi
Redis DevOps Virtualization Amazon Web Services
At Moventi, we are dedicated to helping organizations lead digital transformation by leveraging technology with an innovative mindset. We work within a multidisciplinary team of talented professionals, fostering continuous learning of new technologies and collaborative work methodologies. Our projects involve building scalable and robust cloud infrastructures, developing and deploying cutting-edge solutions, and driving innovations that create a positive market impact. Our office is centrally located and inspires teamwork with agile workspaces and recreational areas to enhance creativity and productivity.

Find this job and more on Get on Board.

Key Responsibilities

We are looking for a DevOps Engineer to strengthen our infrastructure and operational capabilities. In this role, you will be responsible for auditing and optimizing cloud infrastructure—primarily on AWS—ensuring performance, cost-efficiency, and scalability. You will manage Amazon DynamoDB configurations in production environments and be directly involved in implementing secure self-hosted solutions, including migrations and deployments like Langfuse.
Your daily work will also include configuring and maintaining Redis instances for high-availability production environments and collaborating closely with backend development teams to design and sustain efficient work queues using Celery or similar technologies.
Another important aspect is designing, implementing, and maintaining comprehensive monitoring, logging, and alerting systems using tools such as Prometheus, Grafana, and AWS CloudWatch to ensure reliability and rapid issue detection. You will lead and automate CI/CD pipelines and containerization workflows using Docker, GitHub Actions, GitLab CI, among others.
Additionally, you will apply strong expertise in networking, security best practices, system availability, and disaster recovery planning to ensure the robustness of our systems.

Required Skills and Experience

  • Experience auditing cloud infrastructure, preferably on AWS, focusing on performance and costs.
  • Strong knowledge of Amazon DynamoDB, including production configuration and scalability.
  • Experience implementing self-hosted solutions, such as the secure migration and deployment of Langfuse.
  • Proficiency in implementing and configuring Redis for production environments.
  • Experience collaborating with backend teams to design and support work queues (Celery or similar).
  • Experience designing, implementing, and maintaining monitoring, logging, and alerting systems (Prometheus, Grafana, CloudWatch).
  • Proficiency in CI/CD and containerization tools (Docker, GitHub Actions, GitLab CI, etc.).
  • Strong understanding of networking, security, availability, and disaster recovery.

Desirable Skills and Attributes

It is highly valuable if candidates bring additional knowledge of alternative cloud providers or hybrid cloud strategies. Familiarity with advanced security frameworks and compliance standards will enhance our infrastructure security posture. Experience with infrastructure-as-code tools such as Terraform or CloudFormation is a plus, enabling infrastructure automation and repeatability.
Strong problem-solving skills, the ability to thrive in a collaborative team environment, excellent communication abilities, and a proactive mindset towards continuous learning and innovation will allow you to excel in this role and contribute to our company’s growth.

What We Offer

  • Continuous opportunities for professional growth and learning new technologies alongside a multidisciplinary team.
  • Regular team activities and events designed to boost creativity, well-being, and team spirit.
  • Holidays paid
Join us at Moventi and be part of the positive change we aim to create in the technology market!

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Linux Virtualization

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Experto en Infraestructura AWS &Amp; CI/CD
  • OlaClick
Git Linux Docker CI/CD
OlaClick es una innovadora plataforma digital enfocada en la gestión y digitalización de restaurantes en América Latina, con presencia en más de 20 países y más de 20,000 clientes activos. OlaClick ofrece menús digitales interactivos, herramientas integradas de pago y campañas automatizadas para que los restaurantes puedan comenzar a vender en línea rápidamente, sin necesidad de conocimientos técnicos ni comisiones ocultas. El proyecto se centra en automatizar la gestión de pedidos y aumentar significativamente el volumen de ventas, transformando la experiencia operativa y comercial de los establecimientos gastronómicos.

This job is original from Get on Board.

¿Qué harás en OlaClick?

Como Experto en Infraestructura AWS e Integración Continua, tu principal objetivo será diseñar, mantener y optimizar la infraestructura cloud sobre AWS, asegurando alta disponibilidad, seguridad y rendimiento óptimo de los sistemas backend de OlaClick. Gestionarás pipelines de CI/CD que permitan acelerar la entrega continua con calidad, así como la automatización de tareas operativas para los entornos de staging y producción. Colaborarás estrechamente con otros ingenieros y equipos de producto en un entorno de trabajo ágil, aplicando metodologías modernas para garantizar despliegues eficientes y la estabilidad de la plataforma.
  • Diseñar y mantener la infraestructura cloud en AWS.
  • Implementar pipelines de integración y despliegue continuo (CI/CD) para optimizar la velocidad y calidad de entrega.
  • Monitorear, analizar y optimizar el rendimiento, la disponibilidad y la seguridad de los sistemas backend.
  • Automatizar la gestión operativa de entornos staging y producción.
  • Colaborar con los equipos de ingeniería y producto para asegurar alineación y éxito en entregables.

¿Qué esperamos de ti?

Buscamos un profesional con mínimo 3 años de experiencia sólida y comprobable en AWS, habiendo trabajado con servicios como EC2, RDS, S3, Lambda y API Gateway. Es fundamental contar con dominio en herramientas de integración y despliegue continuo, especialmente GitLab CI, que permitan construir pipelines robustos y eficientes. Se requiere conocimiento profundo en sistemas Linux, incluyendo scripting para automatización, manejo de contenedores con Docker y control de versiones usando Git.
Además, es deseable experiencia en Infrastructure as Code (IaC), preferentemente con Terraform, para facilitar la reproducibilidad y escalabilidad de la infraestructura. La habilidad para diagnosticar y resolver problemas complejos es fundamental, junto con una comunicación efectiva para colaborar dentro de equipos multifuncionales y dinámicos. La experiencia en ambientes altamente transaccionales y la orientación al detalle completan el perfil técnico ideal.
Se valorarán especialmente las certificaciones oficiales de AWS, conocimientos en herramientas de monitoreo como Grafana y experiencia previa en startups o entornos con altos volúmenes de tráfico.

✔️Puntos a favor

Contar con certificaciones oficiales AWS que certifiquen tu conocimiento avanzado en sus servicios y buenas prácticas en la nube será un gran diferencial. También valoramos la experiencia implementando soluciones de monitoreo y observabilidad con Grafana para mantener un control riguroso sobre la salud y desempeño de los sistemas. Haber trabajado en entornos altamente transaccionales y dinámicos demuestra tu capacidad para manejar infraestructuras críticas con cargas variables y elevados niveles de concurrencia.

🚀¿Qué te ofrecemos?

En OlaClick ofrecemos una relación laboral estable con una modalidad de trabajo 100% remota, que te permite desempeñarte desde cualquier país de América Latina o Brasil. Nuestra cultura se caracteriza por un ambiente laboral positivo, retador y colaborativo, compuesto por un equipo talentoso y con buena disposición para compartir conocimiento y crecer juntos.
Adicionalmente, facilitamos clases de idiomas gratuitas (inglés o portugués) dos veces por semana a través de Políglota.org para tu desarrollo personal y profesional. Dispondrás de un día libre por tu cumpleaños y un día off extra cada trimestre trabajado, fomentando el equilibrio entre vida laboral y personal. También promovemos capacitaciones continuas tanto en el área técnica como en habilidades blandas, brindándote oportunidades reales de crecimiento dentro de una startup global en expansión.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

This job offer is on Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Job opportunity published on getonbrd.com.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net DevOps Continuous Integration
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Apply exclusively at getonbrd.com.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1400 Tiempo completo
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Amazon Web Services Docker Microservices Jenkins
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

Applications at getonbrd.com.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Arquitecto Cloud Presencial
  • BC Tecnología
  • Lima (In-office)
Agile Continuous Integration Virtualization Amazon Web Services
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente. Nos especializamos en administrar portafolios y desarrollar proyectos innovadores para sectores de servicios financieros, seguros, retail y gobierno. Buscamos crear equipos de trabajo ágiles para abordar desafíos complejos utilizando metodologías como Scrum y Kanban. Actualmente, estamos enfocados en la creación de soluciones de cloud computing utilizando tecnologías de vanguardia.

Official source: getonbrd.com.

Responsabilidades del Rol

Como Arquitecto Cloud, tu papel será fundamental en la creación e implementación de infraestructuras en la nube eficientes y seguras. Tus responsabilidades incluirán:
  • Diseñar arquitecturas de software utilizando microservicios y asegurar la escalabilidad.
  • Optimizar y crear imágenes Docker para diversos entornos.
  • Asegurar la configuración, seguridad y despliegue eficiente en AWS.
  • Integrar y gestionar herramientas de CI/CD como Jenkins, GitLab CI y GitHub Actions.
  • Colaborar con equipos multidisciplinarios para la implementación de soluciones en la nube.
  • Manejar herramientas como Kubernetes y Terraform para facilitar la orquestación y automatización.

Perfil Buscado

Buscamos a un profesional con al menos 2 a 3 años de experiencia en arquitecturas en la nube. El candidato ideal deberá contar con un sólido conocimiento en:
  • Docker - Creación y optimización de imágenes.
  • AWS - Despliegue, configuración y seguridad avanzada.
  • Arquitectura de software - Microservicios y escalabilidad.
  • CI/CD - Familiaridad con herramientas como Jenkins, GitLab CI, y GitHub Actions.
  • Kubernetes y Terraform son altamente valorados.
Además, es esencial poseer habilidades de trabajo en equipo, buena comunicación y la capacidad para resolver problemas de manera creativa.

Conocimientos Deseables

Si bien no son requisitos obligatorios, se valorarán habilidades adicionales en la gestión de proyectos, así como certificaciones en tecnologías de la nube que demuestren tu compromiso con la formación continua. La experiencia previa trabajando en entornos ágiles será una ventaja y permitirá integrarse de manera efectiva en nuestro equipo colaborativo.

Beneficios de Trabajar con Nosotros

Ofrecemos un entorno laboral dinámico y colaborativo, donde el crecimiento profesional es una prioridad. Nuestro modelo de trabajo híbrido te permite disfrutar de un equilibrio óptimo entre el trabajo remoto y presencial. Además, tendrás acceso a oportunidades de capacitación continua y un ambiente que fomenta la innovación.

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3000 Tiempo completo
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Job opportunity published on getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Docker

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Find this vacancy on Get on Board.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Moventi
Python Analytics SQL Web server
Moventi is a forward-thinking technology company dedicated to empowering organizations to lead in their industries through innovation and advanced technology solutions. Our work culture encourages transparency, teamwork, and continuous learning. We operate from a centrally located office offering modern collaborative spaces, including agile meeting tables and recreational areas, fostering a vibrant and supportive environment. The Senior Data Engineer will join a multidisciplinary team working on transformative projects in healthcare technology and software services, enabling data-driven decision making that positively impacts healthcare outcomes and technological advancements within our clients' businesses.

This job offer is on Get on Board.

Role and Responsibilities

As a Senior Data Engineer at Moventi, you will be a key player in architecting, developing, and maintaining scalable data pipelines and infrastructure. Your responsibilities will include:
  • Designing and implementing robust ETL/ELT pipelines using SQL, Python, and Airflow to process large volumes of complex data efficiently.
  • Managing and optimizing data storage and processing frameworks, particularly leveraging Snowflake's cloud data platform for high performance and scalability.
  • Collaborating closely with data scientists, analysts, and stakeholders to translate business needs into effective data solutions.
  • Developing and maintaining data visualization tools and dashboards using Tableau to provide actionable insights to business users.
  • Ensuring data quality, security, and governance best practices are implemented and monitored.
  • Mentoring junior data engineers and sharing knowledge to enhance team capabilities.
Your role is vital to transforming raw data into meaningful analytics deliverables that drive strategic business decisions and innovation within healthcare technology and software service domains.

Requirements and Qualifications

We are looking for a Senior Data Engineer with the following expertise and skills:
  • 5+ years of professional experience in data engineering or analytics engineering roles
  • Proven expertise with Snowflake (data modeling, performance optimization, security)
  • Strong proficiency in Python for data processing and automation
  • Hands-on experience with Apache Airflow for the orchestration of workflows
  • Proficiency in SQL with experience in optimizing queries and data transformations
  • Experience developing data visualizations using Tableau
  • Familiarity with healthcare technology, software services, or tech-enabled analytics platforms
  • Excellent communication skills and experience working with multidisciplinary stakeholders
  • Comfortable working autonomously and capable of delivering high-quality work independently
  • Previous exposure to remote-first work environments; adaptable and collaborative

Desirable Skills and Experience

Preferred additional skills include:
  • Experience with other cloud platforms such as AWS, Azure, or GCP.
  • Knowledge of containerization tools like Docker and orchestration platforms such as Kubernetes.
  • Familiarity with machine learning pipelines and collaboration with data science teams.
  • Understanding of healthcare data standards (e.g., HL7, FHIR) and data privacy regulations like HIPAA or GDPR.
  • Participation in open-source data engineering projects or community involvement.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work options, enabling you to balance work and personal life effectively.
  • Participation in highly challenging projects that encourage innovation and skill development.
  • A positive and collaborative company culture based on transparency, commitment, and innovative thinking.
  • Central office location with modern facilities including parking and recreational areas, ideal for hybrid work if preferred.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python Git SQL Virtualization
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Exclusive to Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

This job is published by getonbrd.com.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply from getonbrd.com.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply directly on Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Virtualization Amazon Web Services
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

Applications at getonbrd.com.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Senior Data Scientist
  • Niuro
Big Data BigQuery Docker Artificial Intelligence
Niuro connects projects with elite tech teams, specializing in collaboration with leading U.S. companies. The position is part of Niuro's international team focused on delivering impactful, data-driven solutions. These projects leverage advanced industrial data science techniques such as predictive maintenance, causal modeling, time series analysis, forecasting, classification, regression, and recommender systems. Niuro empowers tech teams with continuous growth opportunities and handles all administrative tasks, enabling team members to focus on cutting-edge innovation within global client projects.

Apply to this job through Get on Board.

Responsibilities

As a Senior Data Scientist at Niuro, you will be a key contributor to diverse data science projects across various industries. Your main responsibilities include designing and implementing models for predictive maintenance, causal inference, time series forecasting, classification and regression tasks, and recommender systems. You will collaborate with cross-functional teams to develop robust solutions that generate actionable insights for global clients.
You will also be expected to apply your deep knowledge of mathematical engineering and AI to solve complex problems, mentor junior data scientists, and ensure best practices in data preparation, modeling, and deployment, primarily using technologies like Google Cloud Platform (GCP) and BigQuery.
This role requires strong communication skills to translate technical findings into business value and participate in strategic decision-making.

Requirements

We are seeking candidates with a degree in Mathematical Engineering or related fields in Artificial Intelligence. You should have extensive experience working on a variety of data science projects, including but not limited to predictive maintenance, causal modeling, time series analysis, forecasting, classification and regression, causality analysis, and recommender systems.
Proficiency in Google Cloud Platform (GCP) and BigQuery is essential for this role. Experience with cloud-based data infrastructure and scalable data processing pipelines is required.
We value candidates with a strong analytical mindset, problem-solving skills, and a collaborative approach. Ability to work fully remotely with global teams while maintaining high engagement and communication standards is important.
Bonus experience includes working in sectors such as mining, mechanical systems, or finance, where domain-specific knowledge can enhance project impact.

Preferred Qualifications

Experience with additional cloud platforms, advanced causal inference frameworks, and big data technologies is highly desirable. Familiarity with containerization and orchestration tools like Docker and Kubernetes can be a plus.
Prior work in industrial or mechanical sectors, especially mining and finance, is beneficial to understand domain-specific challenges and tailor data solutions accordingly.
Strong leadership skills and experience mentoring junior data scientists will be considered valuable.

What We Offer

We offer the opportunity to engage in technically rigorous, impactful industrial data projects fostering professional growth and innovation. Our environment promotes technical excellence and continual learning.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere around the globe.
Continuous career development is encouraged through training programs and leadership growth opportunities.
Following successful initial collaboration, there is the possibility of transitioning into a stable, long-term full-time position.
Joining Niuro means becoming part of a global tech community backed by strong administrative support that allows you to focus on delivering exceptional results.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

© getonbrd.com.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer Sr
  • CMPC
  • Santiago (Hybrid)
Python Analytics Agile Git

Responsable de la concepción, elaboración y despliegue de soluciones analíticas robustas y escalables en producción, priorizando la eficiencia, facilidad de mantenimiento y rapidez en la entrega. Centrado en el desarrollo en la nube, utilizando estadística, Machine Learning clásico, Deep Learning y/o Inteligencia Artificial Generativa (Gen AI). Responsable de asegurar altos niveles de calidad, rendimiento e integridad en modelos y pipelines implementados. Trabaja en estrecha colaboración con Ingenieros de Datos, Desarrolladores, DevOps, Arquitectos, Product Managers, Líderes Técnicos, Científicos de Datos y profesionales del negocio, promoviendo iniciativas estratégicas de la organización mediante la implementación de soluciones analíticas en producción.

Apply through Get on Board.

Funciones del cargo

  • Crear Pipelines de Machine Learning completos: diseña, implementa y mantiene flujos de entrenamiento, validación y despliegue garantizando trazabilidad, reproducibilidad y monitoreo continuo en producción bajo principios de MLOps.
  • Gestiónar datos: Lidera procesos ETL para el entrenamiento y serving, asegurando calidad y disponibilidad mediante pipelines automatizados y versionados en el data warehouse.
  • Exponer modelos de Machine Learning: Despliega y opera modelos (propios, de terceros y gen-AI) como APIs seguras, escalables y monitorizadas, integradas con las aplicaciones analíticas de la gerencia.
  • Optimizar modelos de Machine Learning: realiza fine-tuning y aplica buenas prácticas (prompt management, feature store, RAG, etc.) para maximizar desempeño y eficiencia.
  • Aportar en la evolución del framework de MLOps: impulsa la mejora continua de estándares CI/CD, infra serverless, gobernanza de features y automatización de procesos.
  • Liderazgo técnico: Actúa como referente y agente de cambio digital, promoviendo buenas prácticas y documentación rigurosa en todo el equipo.

Requerimientos del cargo

Formación: Ingeniería informática, ingeniería matemática, ingeniería industrial, estadística o similar.

Experiencia:

  • 5 años o más como machine, learning engineer o equivalente.

Conocimiento específico:

  • Herramientas Cloud para Machine Learning y analítica, de preferencia Vertex AI o en su defecto, experiencia en kuberflow (Excluyente).
  • Control de versión con Git (Excluyente).
  • Experiencia creando pipelines de CI/CD (Excluyente).
  • Dominio en Gitlab /Github o similar (Excluyente).
  • Deseable Metodologías agiles (Scrum, Kanban).
  • Deseable experiencia comprobada en desarrollo de aplicaciones basadas en Gen IA (conocimiento de ADK preferente o LangGraph).
  • Deseable dominio de Terraform.
  • Deseable experiencia con solvers de optimización lineal entera de preferencia Gurobi.
  • Deseable experiencia con docker.
  • Deseable experiencia con Arquitectura serverless.

Computación:

  • Python Avanzado (Excluyente)
  • SQL (Excluyente)

Condiciones

  • Contrato: Indefinido
  • Ubicación: Santiago
  • Modalidad: 4x1( 4 días presencial, 1 día online)

Health coverage CMPC pays or copays health insurance for employees.
Computer provided CMPC provides a computer for your work.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

Official source: getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Integrador(a) / Instructor de Automatización N8n
  • Dania Ai
Linux JSON Virtualization Docker

En Dania Ai nos dedicamos a diseñar e implementar soluciones de automatización utilizando la plataforma n8n. Nuestro equipo desarrolla workflows end-to-end que integran múltiples aplicaciones y APIs para optimizar procesos de negocio. Además, ofrecemos formación interna y para clientes a través de workshops impartidos por nuestros especialistas. Buscamos profesionales que compartan nuestra visión de optimizar operaciones mediante tecnología low-code y un enfoque metódico en la documentación y buenas prácticas.

Apply only from getonbrd.com.

Responsabilidades clave

  • Diseñar y construir workflows multi-aplicación utilizando n8n junto con REST/APIs.
  • Integrar y mantener la infraestructura básica requerida, incluyendo Docker, VPS y la instancia self-host de n8n.
  • Optimizar y depurar procesos existentes para mejorar eficiencia y confiabilidad.
  • (Opcional) Impartir workshops internos o a clientes, grabar tutoriales y mentorear a miembros junior del equipo.
  • Documentar cada solución conforme a las guías internas de Dania Ai para garantizar claridad y replicabilidad.

Requisitos indispensables

  • Experiencia mínima de 2 años trabajando con n8n o plataformas similares de automatización.
  • Dominio de JSON, webhooks y métodos de autenticación API como tokens y OAuth.
  • Conocimientos sólidos en Linux y Docker para despliegue y mantenimiento de la infraestructura.
  • Español nativo y nivel técnico de inglés suficiente para lectura de documentación y recursos técnicos.
  • Disponibilidad para dedicar entre 10 y 30 horas semanales, siguiendo el horario laboral de México (UTC-6).

Requisitos deseables

  • Fundamentos en ingeniería de software y ciclo de vida del desarrollo (SDLC).
  • Manejo de metodologías ágiles como Scrum y Kanban, y buenas prácticas en documentación técnica.
  • Conocimientos básicos de DevOps incluyendo CI/CD, Docker Compose, Kubernetes, monitoreo y alertas.
  • Conocimientos en seguridad y privacidad de datos, incluyendo ciberseguridad, cumplimiento de GDPR y controles OWASP.
  • Experiencia en testing automatizado, control de calidad y manejo robusto de errores.
  • Uso de sistemas de control de versiones con Git y flujos GitFlow.
  • Familiaridad con otras plataformas low-code o RPA como Make y Zapier.
  • Competencia en scripting con Python o JavaScript/TypeScript para tareas auxiliares.
  • Conocimientos sobre principios de inteligencia artificial generativa, procesamiento de lenguaje natural (NLP) y modelos conversacionales.

Cómo aplicar


Bandas de tarifa

Banda | Rango (USD / hora)
Intermedio | 25 – 35
Avanzado | 35 – 50

Los siguientes pasos en caso de aplicar incluyen una breve entrevista y un test técnico/docente para validar tu experiencia.

Partially remote You can work from your home some days a week.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries from Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo