No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $1000 - 1500 Tiempo completo
Desarrollador/a Joven de IA
  • Catchai
  • Santiago (Hybrid)
JavaScript Python Front-end Node.js

En CatchAI es cri bir a Andres 9 catchai punto ai estamos construyendo el futuro del trabajo con agentes de inteligencia artificial que ya están operando en empresas reales de América Latina. No hablamos de promesas: ya estamos automatizando procesos de venta, postventa, análisis de datos y más, generando ahorro de tiempo y aumento de productividad real para nuestros clientes.

Estamos formando un equipo técnico ágil y creativo que diseñe, entrene y despliegue agentes de IA en ambientes productivos, utilizando herramientas modernas como OpenAI, LangChain, n8n y servicios cloud. Nuestro foco es claro: resolver problemas reales con tecnología simple, rápida y efectiva.

Queremos sumar a personas que no solo sepan programar, sino que tengan curiosidad, autonomía y ganas de probar, fallar, iterar y lanzar. Si te motiva el mundo de la IA aplicada y quieres trabajar en productos que impactan hoy (no en 10 años), te estamos buscando.

© Get on Board. All rights reserved.

¿Qué valoramos en ti?

  • Bases sólidas en Python y/o JavaScript (Node.js, React)
  • Experiencia integrando APIs RESTful
  • Conocimiento básico en Docker, redes, cloud y microservicios
  • Capacidad de autogestión e investigación técnica
  • GitHub con proyectos propios, pruebas o prototipos
  • Buena comunicación remota y experiencia en equipos ágiles, incluso si es en proyectos personales

🧠 ¿Qué ofrecemos?

Buscamos un/a desarrollador/a con ganas de aprender rápidamente y con actitud startup: resolver problemas, lanzar productos y mejorar constantemente. Valoramos la curiosidad y el empuje para crecer profesionalmente en un entorno dinámico con impacto real. La experiencia en desarrollo de software se combina con habilidades de autogestión y comunicación efectiva para integrarse en un equipo pequeño y flexible.

Además, es importante contar con bases técnicas sólidas en Python y/o JavaScript (Node.js y React), tener experiencia en la integración de APIs RESTful, y un conocimiento básico de herramientas y conceptos como Docker, redes, cloud y microservicios. La participación activa en comunidades tecnológicas o proyectos personales demostrables en GitHub es un plus.

✨ Bonus que nos encantan (no excluyentes):

  • Experiencia probando tecnologías como OpenAI, HuggingFace, LangChain, LlamaIndex y n8n
  • Trabajo con automatización o herramientas no-code/low-code
  • Participación en hackathons, emprendimientos o side-projects

Ofrecemos un espacio para crecer rápidamente con impacto real, trabajo remoto y horario flexible. Somos un equipo pequeño, dinámico y sin burocracia, con buen clima laboral. El sueldo es competitivo y existe la posibilidad de acceso a participación accionaria (equity) en el futuro.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Data Scientist & Machine Learning Engineer
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

This job is published by getonbrd.com.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Lead Data Scientist – GenAI & Applied ML
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

This job is published by getonbrd.com.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
MLOps Engineer
  • Niuro
Python Linux Sysadmin Artificial Intelligence
Niuro is a global technology company dedicated to connecting elite tech teams with leading U.S. enterprises. We focus on delivering innovative industrial data projects that drive transformation and foster innovation. By partnering with top-tier companies in the United States, we enable our teams to work on impactful challenges in a collaborative and technically rigorous environment. Our projects typically involve developing scalable, automated machine learning pipelines, leveraging cloud services, and integrating cutting-edge MLOps tools to ensure continuous delivery and operational excellence.
As part of Niuro, you will contribute to these projects with a strong emphasis on automation, reliability, and scalability of ML solutions, while benefiting from our commitment to professional growth, training, and leadership development.

Job source: getonbrd.com.

Role and Responsibilities

As a Senior MLOps Engineer at Niuro, you will be responsible for designing, implementing, and maintaining robust machine learning operations pipelines to support large-scale data and ML workflows.
  • Build and manage end-to-end ML lifecycle automation using tools like Databricks and MLflow.
  • Collaborate closely with data scientists, software engineers, and project stakeholders to streamline model deployment, monitoring, and versioning.
  • Develop and optimize batch processing pipelines on Linux environments to ensure efficient data throughput.
  • Implement best practices for CI/CD within ML workflows using Bitbucket repositories and automated testing frameworks.
  • Ensure infrastructure reliability, scalability, and security for ML production environments.
  • Troubleshoot and resolve operational issues related to ML systems and data workflows.
  • Contribute to the team's continuous improvement by sharing knowledge, mentoring juniors, and participating in architecture discussions.

Required Skills and Experience

We are looking for experienced MLOps engineers with a strong technical background in operationalizing machine learning models and workflows in production environments. The ideal candidate will have:
  • Deep hands-on experience with Databricks for big data processing and ML model management.
  • Proficiency in using MLflow for experiment tracking, model registry, and deployment pipelines.
  • Strong Python programming skills, especially for scripting automation tasks and pipeline development.
  • Experience working with Bitbucket for source code management and CI/CD integration.
  • In-depth knowledge of designing and managing batch processing systems, optimizing job scheduling and resource allocation.
  • Comfortable working in Linux environments, with solid command-line skills and system administration basics.
  • Good conversational English skills to effectively communicate with our U.S.-based teams and stakeholders.
  • Strong problem-solving skills, attention to detail, and ability to work autonomously in a remote setting.
  • Prior experience in collaborative remote teams and agile methodologies is a plus.
We value individuals who are proactive learners and continuously seek innovative solutions to complex ML operational challenges.

Preferred Qualifications


  • Experience with cloud platforms such as AWS, Azure, or GCP, especially their ML and data pipeline services.
  • Familiarity with containerization tools like Docker and orchestration frameworks such as Kubernetes.
  • Knowledge of infrastructure-as-code (IaC) tools like Terraform or CloudFormation.
  • Exposure to real-time data streaming technologies such as Kafka or AWS Kinesis.
  • Background in software engineering practices including unit testing, code reviews, and design patterns.
  • Previous experience in mentoring or leading technical teams.

What We Offer

At Niuro, we provide a fully remote work environment with a flexible schedule that allows you to work from anywhere within the LATAM region. We believe in fostering a culture of continuous learning and professional development through ongoing training programs in both technical and leadership skills.
We offer the opportunity to join projects that are technically challenging and impactful in the industrial data space, enabling you to grow your skill set and advance your career. Our supportive infrastructure handles all administrative tasks including hiring, payments, and training so you can focus entirely on your core responsibilities.
Successful collaboration on initial contracts often leads to longer-term, stable employment opportunities, reinforcing our commitment to our team members’ career paths.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
AI Engineer
  • Niuro
JavaScript UX HTML5 Python
Niuro is a company that connects projects with elite tech teams, collaborating with leading U.S. companies to simplify global talent acquisition. Our mission is to provide autonomous, high-performance tech teams that partner with top-tier U.S. companies. We emphasize continuous professional growth, technical and soft skills training, and leadership development. We also take care of all administrative tasks, such as hiring, payments, and training, so our teams can focus on delivering exceptional results. This AI Engineer position is part of our efforts to develop intelligent agent systems that automate processing of structured and semi-structured documents, improving platform user experience, internal workflows, and ensuring data accuracy and security.

Apply at the original job on getonbrd.com.

About the Role:

We are looking for an experienced AI Engineer to lead the development of intelligent agent systems that automate the processing of structured and semi-structured documents. The role aims to enhance the user experience on our platform by streamlining internal processes such as information validation and extraction. The AI Engineer will focus on improving accuracy, efficiency, and protecting sensitive data.
The engineer will be responsible for designing, implementing, and maintaining automation solutions using AI technologies and ensuring seamless integration within the platform's architecture. They will also collaborate with cross-functional teams to optimize workflows and monitor system performance through advanced monitoring tools.

Requirements:

  • Fluent English (both written and spoken) to communicate effectively in a distributed international team.
  • Proven experience building intelligent agents for document automation, demonstrating mastery of related AI concepts and frameworks.
  • Strong skills in improving user experience (UX) and internal workflows through automation, focusing on delivering value and efficiency.
  • Prioritize cost-efficiency, accuracy, and the protection of sensitive data when designing and deploying solutions.
  • Experience with the following technology stack:
    • Languages: Python, HTML, JavaScript
    • AI/Agent Frameworks: BAML, Pydantic AI, Amazon Bedrock, Amazon Textract
    • Infrastructure: FastAPI, Gunicorn, Docker, Amazon ECS
    • Frontend: Aestiva HTML/OS, Streamlit (primarily for prototyping)
    • Testing frameworks: pytest (backend), Playwright (frontend)
    • Monitoring tools: CloudWatch, Prometheus, Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Data Engineer / Machine Learning Engineer
  • Lilo AI
Python PostgreSQL SQL NoSQL
Lilo AI is an innovative startup dedicated to transforming procurement for Commercial Real Estate (CRE) businesses by creating the most hassle-free procurement platform globally. Our platform leverages artificial intelligence to automate and optimize various procurement workflows, including invoicing, vendor management, and price comparisons. Serving diverse sectors such as hotels, gyms, schools, and senior living homes, our solutions save clients valuable time and money while improving operational efficiency. Our major clients include prestigious brands such as Fairfield, Hampton Inn, and Hilton. By joining Lilo AI, you will contribute to revolutionizing procurement processes at scale through cutting-edge AI technologies.

This job offer is on Get on Board.

About the Role

As a Data Engineer / Machine Learning Engineer at Lilo AI, you will play a pivotal role in advancing and deploying machine learning solutions that enhance our procurement platform. Your primary responsibilities will include:
  • Designing, developing, and implementing machine learning models to optimize procurement workflows, such as price prediction algorithms, anomaly detection systems, and recommendation engines.
  • Building and maintaining robust data pipelines to efficiently preprocess and cleanse both structured and unstructured datasets.
  • Collaborating closely with engineers, product managers, and business stakeholders to integrate AI-driven insights seamlessly into our platform environment.
  • Optimizing model performance and reliability, including contributing to monitoring strategies and retraining pipelines to sustain production quality.
  • Keeping abreast of the latest developments in AI, machine learning, and data science to continually enhance our technology stack.
  • Supporting the deployment of machine learning models into production environments and improving MLOps workflows to increase operational efficiency.
This role requires a proactive mindset, a passion for AI applications in real-world business contexts, and the ability to thrive in a dynamic, fast-paced, and collaborative global team.

What You Will Need

To succeed in this role, candidates should demonstrate strong technical proficiency and relevant experience as detailed below:
  • A minimum of 2 years of professional experience in machine learning, data science, or closely related fields.
  • Proficiency in Python programming and familiarity with prominent ML frameworks and libraries such as Scikit-Learn, TensorFlow, or PyTorch.
  • Hands-on experience with both SQL and NoSQL databases, including but not limited to MongoDB and PostgreSQL.
  • Solid understanding of data preprocessing techniques, feature engineering, and model evaluation methodologies essential for robust ML model development.
  • Basic knowledge or experience with containerization (Docker), cloud computing platforms (AWS, Google Cloud Platform, or Azure), and MLOps tools is highly desirable.
  • Analytical mindset with strong problem-solving skills, able to handle and extract insights from large datasets effectively.
  • A continuous learner attitude, eager to develop technical and professional skills while contributing to team goals.
We value curiosity, collaboration, and adaptability, wanting individuals who are ready to grow alongside our rapidly expanding company.

Desirable Skills and Experience

While not mandatory, the following skills and experiences will give candidates an edge:
  • Experience working with time-series data, demand forecasting, or procurement-related AI models.
  • Familiarity with advanced ML techniques such as deep learning, reinforcement learning, or natural language processing.
  • Hands-on exposure to MLOps pipelines, automated model deployment, and monitoring platforms.
  • Knowledge of data engineering tools and frameworks like Apache Airflow, Spark, or Kafka.
  • Prior experience in the hospitality or Commercial Real Estate sectors.
  • Strong communication skills to effectively articulate technical concepts to non-technical stakeholders.

Why Lilo AI?

Joining Lilo AI offers a unique opportunity to make a significant impact at a fast-growing US-based startup while enjoying the flexibility of remote work from Latin America. We provide:
  • A high-impact role within a pioneering team revolutionizing procurement with AI.
  • Possibility to grow professionally with opportunities to increase responsibilities over time.
  • Stock options available for the right candidate, sharing in our long-term success.
  • A collaborative, global, and multi-cultural work environment fostering innovation and continuous learning.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Lilo AI pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Dental insurance Lilo AI pays or copays dental insurance for employees.
Computer provided Lilo AI provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Lilo AI gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3200 Tiempo completo
Full-Stack AI &Amp; Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
Python Docker Microservices GraphQL
Genesys Tecnologías de Inform. SpA es una compañía con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios tecnológicos avanzados. Con sede principal en Concepción y operaciones importantes en Santiago, trabajamos en la transformación digital de empresas a través de soluciones innovadoras como RPA, Inteligencia Artificial, QA Automation, Cloud y Staff Augmentation.
El proyecto actual está orientado al desarrollo y mantenimiento de sistemas inteligentes integrados con modelos de lenguaje (LLMs), apoyando la evolución tecnológica de nuestros clientes en Latinoamérica mediante aplicaciones de IA prácticas y efectivas.

Job opportunity published on getonbrd.com.

Funciones del Cargo

Buscamos un ingeniero de Inteligencia Artificial con habilidades en Python, LangChain y LangGraph para formar parte de nuestro equipo especializado en construir soluciones inteligentes. Esta posición se enfoca en desarrollar y orquestar pipelines de procesamiento de lenguaje natural, diseñar agentes conversacionales complejos y sistemas inteligentes que respondan a necesidades reales.
  • Diseñar, desarrollar y mantener pipelines de procesamiento de lenguaje con LangChain y LangGraph.
  • Implementar chatbots inteligentes, asistentes autónomos, clasificadores y sistemas de búsqueda con técnicas de Recuperación Basada en Generación (RAG).
  • Orquestar flujos de decisiones con manejo de memoria contextual, persistencia de estado y control de errores usando LangGraph.
  • Integrar múltiples APIs externas, bases de datos y modelos locales para potenciar las capacidades de los sistemas.
  • Colaborar estrechamente con equipos de producto y diseño para convertir requisitos en soluciones AI efectivas y productivas.

Descripción y Requisitos del Cargo

El candidato ideal debe contar con conocimientos avanzados en Python y experiencia práctica con herramientas modernas de la pila LLM, especialmente LangChain y LangGraph, para la construcción de agentes y workflows complejos de IA. Es fundamental poseer un alto nivel de inglés, ya que es un requisito excluyente para desempeñar esta función.
  • Experiencia en desarrollo de software con Python, incluyendo desarrollo modular, manejo asincrónico, integración con APIs y procesamiento de texto (NLP).
  • Experiencia trabajando con modelos de lenguaje y tecnologías LLM.
  • Experiencia demostrable en proyectos utilizando LangChain para crear agentes, cadenas personalizadas, herramientas externas, pipelines RAG e integración con bases vectoriales.
  • Conocimiento en LangGraph para diseñar y administrar workflows de IA complejos con control de estados, branching y lógica conversacional.
  • Capacidad para implementar soluciones usando LLMs de OpenAI y otros proveedores, aplicando técnicas de prompt engineering, fine-tuning ligero y personalización de modelos Open Source.
  • Deseable experiencia en sistemas de recuperación semántica basados en embeddings para mejorar la precisión y relevancia de las respuestas.
  • Conocimientos básicos o intermedios en APIs REST y GraphQL, así como en contenedores Docker y despliegue de microservicios, son altamente valorados.
Además de las habilidades técnicas, buscamos personas con capacidad para trabajar en equipo, comunicarse efectivamente, adaptarse a tecnologías emergentes y contribuir al desarrollo de soluciones innovadoras en un entorno dinámico y colaborativo.

Habilidades y Experiencias Deseables

Se valorará positivamente la experiencia adicional en la implementación de soluciones de recuperación semántica basadas en embeddings, desarrollo y despliegue con Docker y microservicios, así como un conocimiento intermedio en APIs REST y GraphQL para mejorar la integración y escalabilidad de las aplicaciones.
También es deseable la familiaridad con técnicas avanzadas en prompt engineering, fine-tuning avanzado de modelos de lenguaje, y la capacidad para diseñar flujos conversacionales complejos que impliquen lógica de negocio y control de estado persistente.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.

Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.

¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Python Docker Azure Google Cloud Platform
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

Apply to this job opportunity at getonbrd.com.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
MLOps Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

© Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3800 - 4000 Tiempo completo
MLOps Engineer (SRE)
  • PEOPLE
Docker Kubernetes CI/CD Infrastructure as Code
Estamos en búsqueda de un/a MLOps Engineer con enfoque en Site Reliability Engineering (SRE) para incorporarse a un proyecto crítico de inteligencia artificial. Este proyecto está enfocado en garantizar la confiabilidad, trazabilidad y disponibilidad de modelos de machine learning en producción, asegurando alta disponibilidad, baja latencia y un monitoreo activo de métricas de negocio y ML.

Applications at getonbrd.com.

Responsabilidades principales

  • Diseñar y operar soluciones de observabilidad para modelos de ML en producción (monitoring, alertas, trazabilidad).
  • Desarrollar dashboards y métricas que permitan evaluar rendimiento, costo y estabilidad de los modelos.
  • Implementar herramientas de logging estructurado, monitoreo de drift, calidad de datos y errores de inferencia.
  • Automatizar el escalado, recuperación ante fallos y auto-healing de servicios de inferencia.
  • Establecer SLAs/SLIs/SLOs para pipelines de ML y servicios inteligentes.
  • Colaborar con equipos de ciencia de datos y producto para detectar y mitigar incidentes relacionados con modelos en producción.
  • Establecer políticas de rollback y blue/green deployments para versiones de modelos.
  • Aplicar prácticas de SRE como chaos engineering, tests de estrés, pruebas en staging e integración continua.

Requisitos del perfil

  • Mínimo 4 años de experiencia como SRE, DevOps o Ingeniero/a de Plataforma en proyectos de machine learning.
  • Conocimiento de frameworks de model monitoring como Evidently, Arize AI, WhyLabs o similares.
  • Dominio de herramientas como Prometheus, Grafana, ELK/EFK, OpenTelemetry o Datadog.
  • Experiencia con orquestadores como Airflow, Kubeflow o herramientas de experiment tracking (MLflow, Weights & Biases).
  • Dominio de Kubernetes, Docker, Helm y herramientas de infraestructura como código (Terraform, Pulumi).
  • Experiencia en CI/CD para pipelines de ML (testing, validación, rollback).
Buscamos alguien con fuerte capacidad para automatizar procesos, monitorear en tiempo real y responder a incidentes críticos, además de habilidades colaborativas para trabajar estrechamente con científicos de datos y equipos de producto. La atención al detalle, la resiliencia en ambientes de alta presión y la orientación a la mejora continua son también esenciales para esta posición.

Plus deseables (no excluyentes)

  • Experiencia operando modelos en Alibaba Cloud y configurando observabilidad en dicho entorno.
  • Familiaridad con estrategias como canary deployment, shadow testing y experimentación controlada.
  • Conocimiento de frameworks de IA explicable y auditoría de modelos.
  • Experiencia previa en entornos de alta transaccionalidad, tales como banca, contabilidad, nómina o logística.

Beneficios

Módalidad de trabajo: Remoto.
Duración del proyecto: 1 año.

Salario: $80,000.00
esquema de pago: asimilado

Computer provided PEOPLE provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4000 - 5500 Tiempo completo
Site Reliability Engineer
  • DynWrk
Python Linux DevOps Virtualization
DynWrk builds and operates dedicated software engineering teams in Chile for U.S. companies, attracting top talent in the Americas. We specialize in building, managing, and training tech teams for global impact.
Vivint is a leading technology company redefining the home experience, leveraging cutting-edge technology and innovative services to enable safer, smarter, and more sustainable homes for millions of users.

Apply to this job opportunity at getonbrd.com.

Job functions

At Vivint, you will join a forward-thinking team dedicated to shaping the future of smart homes for millions of users. We seek a skilled Site Reliability Engineer to ensure the reliability, scalability, and performance of our systems. You will work at the intersection of operations and development, applying software engineering principles to infrastructure and operational problems. Key responsibilities include:
  • Design, build, and maintain automated systems for monitoring, alerting, and incident response.
  • Manage the reliability of our infrastructure and services, optimizing capacity and performance.
  • Participate in capacity planning and the scalability of our services to handle traffic growth.
  • Collaborate with development teams to implement SRE practices, such as Continuous Integration and Continuous Deployment (CI/CD) and the definition of Service Level Objectives (SLOs) and Service Level Agreements (SLAs).
  • Monitor and improve system performance, reliability, and scalability.
  • Support incident response and conduct root cause analysis (RCA) of incidents to prevent their recurrence.
  • Develop tools and scripts to automate repetitive tasks and improve team efficiency.
  • Participate in an on-call rotation to respond to critical incidents outside of regular business hours.

Qualifications and Requirements

  • Bachelor’s degree in Computer Science, Engineering, or a related technical field.
  • 5+ years of experience in Site reliability, DevOps or Operations Engineering
  • Strong knowledge with container orchestration platforms like Kubernetes and Docker.
  • Proven Experience with cloud services (e.g., AWS, Google Cloud Platform, or Azure).
  • Solid understanding of fundamental technologies like TCP/IP, HTTP, DNS, etc.
  • In-depth knowledge of operating systems and its applications and services for Windows, Linux.
  • Knowledge of automation and Infrastructure as Code (IaC) tools like Terraform or Ansible.
  • Familiarity with monitoring and logging tools (e.g., Prometheus, Grafana, ELK Stack, Datadog).
  • Experience with both relational and non-relational databases
  • Strong programming/scripting skills in Python, Bash, or similar.
  • Excellent written and verbal English communication skills.

Conditions

  • Opportunities for professional development within an international team.
  • Competitive salary.
  • Full-time position with a Chilean employment agreement (Contrato de trabajo).

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Ingeniero DevOps Cloud
  • Maxxa
Python Agile Perl Linux

En Maxxa, somos una fintech dedicada a potenciar las pymes a través de soluciones innovadoras que integran financiamiento y tecnología. Desde 2017, hemos desarrollado productos como créditos Pyme, garantías técnicas, software ERP y herramientas gratuitas de gestión para pequeñas y medianas empresas, atendiendo a más de 40,000 clientes.

Actualmente, buscamos un profesional con experiencia previa entre 12 y 24 meses en roles relacionados con ingeniería DevOps para fortalecer nuestro equipo técnico para mantener la excelencia operativa en nuestras plataformas digitales que brindan crédito, gestión financiera y otros servicios esenciales a las pymes chilenas. Nuestro equipo DevOps juega un rol fundamental en garantizar despliegues ágiles, confiabilidad y escalabilidad de nuestras aplicaciones en la nube y entornos híbridos.

Find this vacancy on Get on Board.

Responsabilidades del Puesto

Como Ingeniero DevOps, serás responsable de colaborar estrechamente con los equipos de desarrollo para asegurar el correcto empaquetado, despliegue y operación de aplicaciones en entornos cloud y on-premise. Trabajarás en la implementación y mantenimiento de pipelines de CI/CD, administración de contenedores y orquestadores como Docker y Kubernetes, así como en la automatización de infraestructura mediante IaC.

Tus tareas incluirán:

  • Coordinar con desarrolladores para entender sus necesidades y brindar soporte técnico especializado.
  • Gestionar y configurar herramientas de integración continua y entrega continua utilizando tecnologías como GitHub Actions, Jenkins, GitLab CI u otras similares.
  • Administrar plataformas Linux/Unix, supervisar la configuración y segmentación de redes virtuales en ambientes cloud (AWS, Azure, GCP) o infraestructuras hiperconvergentes.
  • Participar en la implementación de prácticas DevOps para mejorar la eficiencia, calidad y velocidad de los procesos de desarrollo y despliegue.
  • Manejar scripting en varios lenguajes (Python, Bash, Powershell, Go, Perl) para automatización y administración de sistemas.
  • Utilizar herramientas de gestión de proyectos con metodologías ágiles como Kanban para definir hitos y hitos técnicos.

Requisitos y Habilidades

Buscamos un profesional con experiencia previa entre 12 y 24 meses en roles relacionados con ingeniería DevOps y de plataforma. El candidato ideal debe demostrar pensamiento lógico sólido, orientación al detalle y capacidad para evaluar críticamente las distintas formas de ejecución de tareas para optimizar procesos.

Debe contar con:

  • Conocimientos prácticos en scripting multi-platform (Python, Bash, Powershell, Go o Perl).
  • Experiencia en uso y administración de herramientas CI/CD no basadas en código codeless, con dominio en la configuración de triggers por eventos y estrategias de branching (GitHub Actions, Jenkins, GitLab, Drone CI, GoCD, etc.).
  • Sólidos fundamentos en Linux/Unix y manejo de contenedores con Docker y Kubernetes, entendiendo diferencias entre distribuciones y uso de gestores de paquetes.
  • Conocimientos básicos en redes software definiendo segmentación y configuración de firewalls en plataformas cloud (AWS, Azure, GCP, DigitalOcean) o infraestructura hiperconvergente (OpenStack, OpenShift, ecosistema ESXi/vCenter/vSAN/Tanzu).
  • Conceptos básicos sobre Infraestructura como Código (IaC) y la importancia de automatizar aprovisionamiento y configuración de infraestructura.
  • Experiencia trabajando con equipos ágiles y manejo de herramientas de gestión de proyectos con metodologías Kanban.
  • Excelentes habilidades comunicativas y capacidad para trabajar colaborativamente en equipos multidisciplinarios, explicando conceptos técnicos con claridad y aprendiendo de forma autónoma.

Habilidades y Experiencia Deseables

  • Conocimientos en desarrollo de APIs con Python y Go.
  • Experiencia con pipelines de datos y la implementación de cultura DevOps aplicada a Data Pipelines.
  • Familiaridad con stacks de observabilidad, como LGTM o ELK, para monitoreo y análisis de sistemas.
  • Experiencia en desarrollo con Kubernetes Operator Framework o implementación de patrón Operator para gestionar aplicaciones complejas.

Beneficios

  • Ambiente laboral: Excelente clima certificado por BUK como un lugar feliz para trabajar.
  • Flexibilidad: Modalidad full remoto, con opción de asistencia presencial en nuestra oficina ubicada en Las Condes. Horario flexible con adelanto en la salida a nivel empresa según cumplimiento de metas mensuales.
  • Asignación de almuerzo: Asignación de $ por cada día hábil.
  • Salud y bienestar: Seguro complementario de salud, dental y vida muy completo.
  • Bonificaciones: Aguinaldos y bonos por fiestas patrias, navidad, matrimonio, nacimiento, escolaridad y más.
  • Oficina corporativa: Snack saludable diario, espacio de descanso con cafetería ilimitada, eventos y actividades para compartir con compañeros.
  • Notebook de trabajo.

Life insurance Maxxa pays or copays life insurance for employees.
Meals provided Maxxa provides free lunch and/or other kinds of meals.
Digital library Access to digital books or subscriptions.
Dental insurance Maxxa pays or copays dental insurance for employees.
Computer provided Maxxa provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Maxxa offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1700 Tiempo completo
Cloud Engineer Mid
  • Alegra
MySQL PostgreSQL NoSQL DevOps

Sobre Alegra 💙
Únete a Alegra, el lugar en donde tu talento crece y crea superpoderes. 🚀
En Alegra contamos con un equipo de más de 500 personas en más de 19 países trabajando 100% remoto con una cultura única, innovadora y dinámica que está revolucionando cómo las Pymes gestionan sus finanzas con un ecosistema de soluciones digitales en la nube disponible en más de 10 países en Latam, España y ¡vamos por más! 🚀

Apply at getonbrd.com without intermediaries.

Tu misión en Alegra 💪

☁️ Cloud
  • Diseñar e implementar políticas de gobernanza en la nube alineadas con las regulaciones y estándares de Alegra.
  • Monitorear y optimizar los costos en la nube, buscando maximizar el valor para el negocio.
  • Garantizar la seguridad de los sistemas y datos en la nube aplicando buenas prácticas y controles adecuados.
  • Empoderarte de las auditorías de la nube, gestionando el cumplimiento y los controles de seguridad de forma autónoma.
  • Diseñar arquitecturas en AWS para desplegar nuevos servicios y mejorar los existentes.
  • Mejorar configuraciones actuales para reducir tiempos de respuesta de los servicios.
  • Optimizar la utilización de infraestructura para mantener un costo saludable con proveedores de nube.
  • Acompañar a los equipos de desarrollo en el diseño, configuración y administración de infraestructura tecnológica.
  • Capacitar a los equipos técnicos en el uso de productos de la nube AWS.
  • Colaborar con equipos de desarrollo para garantizar la integración continua y la entrega continua de aplicaciones en la nube.
  • Investigar y adoptar nuevas tecnologías y mejores prácticas para mejorar la eficiencia y confiabilidad en nuestras operaciones en la nube.
⚙️ DevOps
  • Automatizar procesos de despliegue, integración y gestión de infraestructura para mejorar la eficiencia operativa.
  • Colaborar estrechamente con los equipos de desarrollo para acelerar la entrega de software, manteniendo altos estándares de calidad.
🚨 Site Reliability Engineering (SRE)
  • Participar activamente en la resolución de incidentes y en la mejora del rendimiento de los sistemas.
  • Implementar y mantener sistemas de monitoreo y alertas para detectar y resolver problemas de manera proactiva.
  • Realizar análisis post-mortem de incidentes, identificando causas raíz y proponiendo acciones correctivas y preventivas.En Alegra no utilizamos Kubernetes, sino ECS. Te invitamos a evaluar si esto se ajusta a tus expectativas profesionales.

¿Qué esperamos de ti? 🧐

Este rol de Cloud Engineer, tiene un enfoque de Hands On, colaborará con un equipo de 3 personas y le reportará al líder de Cloud.
  • Experiencia de 2 a 3 años en la implementación y operación de infraestructura en la nube con AWS.
  • Experiencia comprobable y certificicada especificamente como Cloud Enginner o Administrador de infraestructura o DevOps o SRE o Platform Engineer o especialista de nube.
  • Pleno entendimiento de productos como Lambda, API Gateway, SQS, SNS, ECS, EC2, S3, CloudWatch, Aurora, VPC, CodeBuild.
  • Conocimientos profundos en herramientas de automatización y orquestación como Terraform, Github Actions o CloudFormation.
  • Experiencia con infraestructura como código.
  • Conocimiento en el desarrollo y diseño de APIs REST.
  • Experiencia utilizando Docker.
  • Familiaridad con motores de bases de datos como MySQL, MariaDB, DynamoDB, MongoDB, PostgreSQL.
  • Conocimiento en conceptos de arquitectura asociada a microservicios.
  • Autogestión y capacidad para empoderarte en tu rol, manteniendo altos estándares en la auditoría de la nube.
  • Aprendizaje continuo como estilo de vida.
  • Capacidad para trabajar en equipo y en un ambiente colaborativo.
  • Espíritu crítico y proactividad para proponer mejoras.
  • Capacidad de escucha y comunicación.
  • Nivel intermedio de inglés en lectura y escritura.
  • Dominio del inglés técnico para leer y comprender documentación, tutoriales y recursos relacionados con Cloud.
  • Capacidad para recibir retroalimentación y acompañamiento del líder y del equipo
  • Capacidad analítica para resolver errores y desarrollar funcionalidades, tanto sencillas como complejas, según tu nivel de conocimiento.
  • Capacidad para trabajar de manera efectiva en un entorno ágil, colaborativo y orientado a resultados.
  • Habilidades de comunicación para trabajar en equipo.
  • Pasión por aprender y mantenerse al día con las tendencias y tecnologías emergentes en el desarrollo backend.
  • Capacidad para adaptarse rápidamente a nuevas tecnologías y lenguajes de programación según los requerimientos de los proyectos.

Es un plus si… 👇

  • Certificación en AWS o estar en proceso de certificación.
  • Asistencia a conferencias de AWS ReInvent.

Alégrate con… ⭐️


  • Hacer lo que amas trabajando de manera 100% remota. 💖
  • Una relación laboral estable y a largo plazo 🤝, ¡no freelance!
  • Plan carrera, oportunidad de seguir llevando tus habilidades a un siguiente nivel. 🚀
  • Compartir con un talento que trasciende fronteras y culturas. 🗺️
  • Espacios para socializar y compartir gustos de todo tipo. 💬
  • Un ambiente para experimentar, aprender de los errores y trabajar con autonomía pero con mucho compromiso y responsabilidad. 💡
  • Convertir la lectura en tu mejor aliada para aprender 📚, con acceso a plataformas educativas, cursos con certificaciones, capacitaciones y una biblioteca virtual que te ayude a seguir desarrollándote día a día.
  • Tu salud es lo primero, y por tanto te apoyamos con su cobertura 🩺
  • Dos días de cuidado al año, adicionales a tus vacaciones. 😎
  • Apoyo económico para llevar tu lugar de trabajo al siguiente nivel. 💪💻
  • Celebrar tu cumpleaños con una cena especial junto a quienes más quieres y medio día libre. 🥳
  • Clases de inglés 🇺🇸

Wellness program Alegra offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Health coverage Alegra pays or copays health insurance for employees.
Computer repairs Alegra covers some computer repair expenses.
Education stipend Alegra covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Alegra offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2700 Tiempo completo
DevOps Engineer
  • coderslab.io
  • Santiago (Hybrid)
Docker Kubernetes CI/CD Terraform

En coderslab.io, ayudamos a las empresas a transformar y hacer crecer sus negocios mediante soluciones tecnológicas innovadoras. Somos una organización en rápido crecimiento, con más de 3.000 empleados a nivel global y oficinas en Latinoamérica y Estados Unidos.
Estamos buscando un/a DevOps Engineer que quiera sumarse a un equipo ambicioso, dinámico y con ganas de marcar la diferencia. Si te motiva la innovación, la automatización y el trabajo con tecnologías de vanguardia, ¡te queremos conocer!

Apply to this job through Get on Board.

Funciones del cargo

Lo que vas a hacer

  • Diseñar, implementar y mantener infraestructura como código (IaC) en entornos híbridos y multicloud.
  • Administrar y optimizar entornos críticos en Oracle Cloud Infrastructure (OCI), incluyendo Networking, IAM, Compute, VCN, Object Storage, Vulnerability Scanning y WAF.
  • Gestionar y tunear sistemas Oracle Linux 8/9, asegurando estabilidad, performance y seguridad.
  • Diseñar y operar arquitecturas basadas en contenedores con Kubernetes, Docker, Helm y Argo Workflows.
  • Automatizar despliegues con GitLab CI/CD y ArgoCD, impulsando una cultura GitOps.
  • Garantizar la seguridad y gestión de secretos con HashiCorp Vault, cumpliendo estándares como PCI-DSS.
  • Integrar y asegurar servicios mediante Kong API Gateway.
  • Desarrollar y mantener scripts en Bash y Python para automatización, integración y monitoreo.
  • Colaborar con equipos multidisciplinarios, proponiendo mejoras y asegurando entornos escalables y reproducibles.

Requerimientos del cargo

Experiencia sólida trabajando con Oracle Cloud Infrastructure (OCI).

Conocimiento avanzado de Oracle Linux (8/9): hardening, performance tuning, SELinux y systemd.

Experiencia práctica en Terraform (módulos reutilizables, workspaces, states remotos).

Manejo de CI/CD con GitLab y metodologías GitOps con ArgoCD.

Experiencia en Docker, Kubernetes, Helm y orquestación de contenedores.

Conocimientos de HashiCorp Vault para gestión de secretos e integración con OCI IAM.

Experiencia con Kong API Gateway o similar.

Habilidades avanzadas en scripting (Bash y Python).

Conocimientos en bases de datos (MSSQL, PostgreSQL, MySQL).

Experiencia previa en entornos críticos y regulados (ideal banca/finanzas).

Enfoque fuerte en seguridad y buenas prácticas de ciberseguridad.

Opcionales

Haber trabajado con estándares de seguridad como PCI-DSS.

Experiencia en integración con herramientas de observabilidad (Grafana, Prometheus, Dynatrace).

Capacidad para trabajar en equipos ágiles y dinámicos.

Ganas de proponer, mejorar e innovar.

Condiciones

Modalidad de contratación: Hibrido
Duración del proyecto: 15 meses

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Integrador (DevOps)
  • BLUE SMILE TECHNOLOGY
  • Santiago (Hybrid)
JEE Git SVN Linux
En BLUE SMILE TECHNOLOGY, una empresa global y visionaria líder en la transformación digital, contribuimos a que nuestros clientes crezcan de forma sostenible mediante soluciones tecnológicas avanzadas. Nuestra área tecnológica está orientada a la integración y gestión de sistemas multicapa que soportan plataformas JEE críticas en entornos empresariales, garantizando ambientes robustos y confiables para producción, certificación e integración, lo que facilita la innovación continua y la entrega de valor en las organizaciones donde intervenimos.

Apply only from getonbrd.com.

Funciones y Responsabilidades

El Ingeniero de Integración de Sistemas JEE será responsable de instalar, configurar y administrar aplicaciones en plataformas multicapa, especialmente en entornos pre-productivos, asegurando la correcta operación en los tres ambientes principales: Integración, Certificación y Producción.
Entre sus responsabilidades se incluyen:
  • Planificación y ejecución de despliegues de aplicaciones en plataformas middleware como JBoss y WebLogic.
  • Gestión de la integración continua mediante el uso de herramientas CI/CD como Jenkins, Bamboo, Maven o TeamCity.
  • Administración y soporte de contenedores y orquestación (Docker, Kubernetes, Tanzu, EKS).
  • Configuración y mantenimiento de ambientes cloud (AWS, Azure), asegurando su disponibilidad y rendimiento.
  • Automatización de tareas operativas mediante scripting en Linux (BASH u otros) y herramientas como Ansible.
  • Colaborar con equipos multidisciplinarios para la resolución proactiva de problemas técnicos y la mejora continua.
  • Garantizar la seguridad y control de versiones utilizando sistemas de control de código fuente como Git/GitLab o SVN.
  • Interpretar documentación técnica y especificaciones en inglés técnico.

Requisitos y Perfil del Candidato

Formación: Ingeniero Civil o en Ejecución en Computación e Informática o carreras afines.
Experiencia: Mínimo 3 años desde la obtención del título con experiencia comprobable en integración y gestión de sistemas multicapa sobre plataformas JEE, y en administración de entornos con al menos tres ambientes diferenciados (Integración, Certificación, Producción).
Certificaciones: Se valorará haber obtenido al menos 3 certificaciones entre las siguientes áreas:
  • Administración de contenedores y orquestación (por ejemplo, Certified Kubernetes Administrator - CKA).
  • Plataformas middleware como JBoss y WebLogic.
  • Herramientas de automatización y CI/CD (Jenkins, GitLab, Ansible).
  • Certificaciones en nubes públicas como AWS o Azure.
  • Certificaciones en sistemas operativos Linux (por ejemplo, Red Hat Certified Engineer - RHCE).
Conocimientos Técnicos Requeridos (mínimo 4 de 8):
  • Instalación, configuración y soporte en plataformas middleware WebLogic y JBoss.
  • Manejo de contenedores y orquestación con Docker y Kubernetes (Tanzu, EKS).
  • Automatización y scripting en Linux (BASH u otros) con Ansible.
  • Administración de herramientas CI/CD como Jenkins, Bamboo, Maven, TeamCity.
  • Control de versiones usando Git/GitLab y SVN.
  • Sistemas operativos Linux sólidos, preferentemente Red Hat o similar.
  • Gestión y administración de entornos cloud (AWS, Azure).
  • Comprensión y lectura de documentación técnica en inglés.
Aptitudes del candidato: Proactividad en la resolución de incidencias técnicas, orientación colaborativa y trabajo en equipo, adaptabilidad a entornos dinámicos y enfoque en entregas continuas y eficientes.

Conocimientos y Habilidades Deseables

  • Experiencia avanzada en gestión de contenedores y plataformas de orquestación como Docker y Kubernetes.
  • Administración práctica de ambientes cloud (Azure, AWS) incluyendo despliegues, monitoreo y optimización.
  • Conocimientos en desarrollo full stack, incluyendo servicios REST y SOAP, y frameworks de UI.
  • Gestión y uso de API’s mediante herramientas como Swagger y OpenAPI Specification (OAS).
  • Administración y configuración de servidores Apache HTTP para aplicaciones web.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python Docker Kubernetes Google Cloud Platform
En BC Tecnología somos una consultora de Servicios IT con más de seis años de experiencia brindando soluciones tecnológicas integrales a clientes de sectores como servicios financieros, seguros, retail y gobierno. Nos especializamos en la administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales en áreas de infraestructura tecnológica, desarrollo de software y unidades de negocio. Nuestro enfoque es brindar servicios personalizados mediante equipos ágiles que se adaptan a las necesidades específicas de cada cliente y proyecto. Participar en BC Tecnología implica formar parte de un entorno innovador y colaborativo donde se privilegia la aplicación de metodologías ágiles, el cambio organizacional y la creación de productos de alta calidad tecnológica.

Apply from getonbrd.com.

Responsabilidades Principales

Como DevOps Engineer Senior, serás clave en el diseño, implementación y optimización de plataformas en la nube bajo un enfoque estratégico orientado a la confiabilidad y escalabilidad de los sistemas.
  • Diseñar, desplegar y mantener infraestructuras cloud, principalmente en Google Cloud Platform (GCP) y Microsoft Azure.
  • Implementar y gestionar Infraestructura como Código usando Terraform y otras herramientas similares.
  • Administrar contenedores y orquestadores, especialmente Docker y Kubernetes (idealmente sobre GKE).
  • Desarrollar scripts para automatización de procesos en Python, Bash o Shell.
  • Construir y mantener pipelines de integración y entrega continua (CI/CD) empleando herramientas como Git y Jenkins.
  • Colaborar con equipos multidisciplinarios bajo metodologías ágiles (SCRUM) y buenas prácticas ITIL para asegurar la calidad y continuidad operacional.
  • Monitorear la infraestructura y analizar métricas usando herramientas como Grafana y Power BI para optimizar el rendimiento y anticipar incidentes.
  • Participar en proyectos que involucran entornos Big Data con tecnologías como Airflow, Hive y Spark, facilitando la integración y procesamiento eficiente de datos.
Fomentar una cultura de mejora continua, colaboración y buenas prácticas en los equipos técnicos.

Perfil Requerido

Buscamos un profesional con al menos cuatro años de experiencia en roles relacionados a infraestructura, administración de sistemas, automatización o DevOps. El candidato ideal posee una sólida base técnica y una visión estratégica que le permita comprender la importancia de la escalabilidad y la confiabilidad en sistemas complejos y producción.
  • Experiencia demostrable en gestión de plataformas cloud, especialmente Google Cloud Platform (GCP) y/o Microsoft Azure.
  • Dominio avanzado de Infraestructura como Código, principalmente utilizando Terraform.
  • Experiencia con contenedores Docker y el manejo de orquestadores Kubernetes, preferiblemente sobre Google Kubernetes Engine (GKE).
  • Conocimiento profundo en scripting para automatización usando Python, Bash o Shell Scripting.
  • Sólidos conocimientos en diseño y gestión de pipelines CI/CD con herramientas como Git y Jenkins.
  • Familiaridad y experiencia en entornos Big Data usando herramientas como Airflow, Hive y Spark.
  • Experiencia en monitoreo de infraestructura utilizando Grafana, Power BI u otras plataformas analíticas para realizar seguimiento y reporte de métricas clave.
  • Habilidad para trabajar en equipos colaborativos bajo metodologías ágiles (SCRUM) y conocimiento en ITIL es deseable, preferentemente con certificaciones relacionadas.
  • Capacidad analítica, proactividad, buenas habilidades comunicativas y orientación al trabajo en equipo.
Valoramos personas comprometidas, con mentalidad de mejora continua y pasión por la excelencia técnica y operativa.

Competencias y Conocimientos Deseables

Además de los requisitos fundamentales, es valorado que el candidato posea certificaciones oficiales en plataformas cloud como Google Cloud Certified o Microsoft Certified: Azure Administrator, así como certificaciones en metodologías ágiles o ITIL.
Experiencia previa en proyectos de transformación digital, automatización avanzada y conocimiento en seguridad informática aplicada a infraestructuras DevOps será un plus importante.
Conocimiento en lenguajes de programación adicionales y experiencia en herramientas complementarias para gestión de configuración y orquestación (Ansible, Chef, Puppet) también serán considerados positivamente.

Beneficios y Cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos una modalidad híbrida basada en nuestras oficinas ubicadas en Las Condes, que permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un excelente equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2600 - 2800 Tiempo completo
DevOps/Cloud Engineer Latam
  • BC Tecnología
Docker Kubernetes Ansible Infrastructure as Code
En BC Tecnología somos una consultora de TI con amplia experiencia en diversos sectores, incluyendo retail, servicios financieros, seguros y gobierno. Participarás en un proyecto situado en el sector retail, orientado a garantizar la disponibilidad, estabilidad y rendimiento de sistemas críticos para el negocio. Nuestra empresa se destaca por ofrecer soluciones a la medida de nuestros clientes, con equipos ágiles que facilitan un desarrollo eficiente y alineado a las necesidades del mercado. Trabajarás en un entorno dinámico que promueve la colaboración y el uso de metodologías ágiles para el éxito de nuestros proyectos.

Exclusive offer from getonbrd.com.

Responsabilidades principales

  • Gestionar infraestructura como código utilizando herramientas como Terraform, CloudFormation y Ansible.
  • Automatizar despliegues y mantener pipelines de integración y entrega continua (CI/CD).
  • Administrar contenedores y clusters con Kubernetes y Docker.
  • Monitorear sistemas para asegurar el rendimiento adecuado y responder de forma efectiva a incidentes en producción.
  • Colaborar estrechamente con los equipos de desarrollo para implementar mejoras y solucionar problemas.
  • Documentar procedimientos y runbooks para facilitar la operación y mantenimiento.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en roles relacionados con DevOps, cloud y operaciones. Es fundamental poseer conocimientos sólidos en la gestión de infraestructura como código y experiencia en automatización de despliegues mediante pipelines CI/CD.
Debe manejar tecnologías de contenedores como Kubernetes y Docker, y contar con habilidades para la monitorización y logging usando herramientas tales como Prometheus, Grafana, CloudWatch o el stack ELK.
Las capacidades de scripting en Bash y Python serán clave para la automatización y resolución de incidencias. Es indispensable asimismo contar con experiencia en control de versiones con Git.
Buscamos una persona con alta responsabilidad, capacidad para trabajar en equipos interdisciplinarios, y habilidades comunicativas para documentar procesos y colaborar con otros departamentos.

Conocimientos adicionales valorados

Se valorará experiencia en múltiples plataformas cloud públicas, como AWS (especialmente EC2, EKS y RDS), Azure y Google Cloud Platform. Además, haber trabajado en proyectos del sector retail o en entornos de alta disponibilidad será un plus.
Capacidades para llevar a cabo mejoras continuas, así como interés por nuevas tecnologías y automatización avanzada serán altamente apreciadas.

Cultura y beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
QA Automatizador Latam
  • BC Tecnología
Docker Selenium Cypress Postman
Somos BC Tecnología, una consultora líder en Servicios IT con amplia experiencia en diversas áreas tecnológicas. Gestionamos portafolios, desarrollamos proyectos, realizamos outsourcing y seleccionamos profesionales para clientes de sectores como servicios financieros, seguros, retail y gobierno. En este proyecto del sector retail, ofrecemos un desafío significativo en testing automatizado donde el profesional podrá aportar en la mejora continua de la calidad del software mediante la automatización y la integración en pipelines de CI/CD dentro de un entorno ágil y dinámico.

Apply to this posting directly on Get on Board.

Responsabilidades principales

  • Automatizar pruebas funcionales, de regresión y smoke para garantizar la calidad del software.
  • Diseñar e implementar frameworks de automatización adaptados a las necesidades del proyecto.
  • Integrar las pruebas automatizadas en pipelines CI/CD para asegurar entregas continuas y efectivas.
  • Colaborar en la automatización de pruebas para microservicios, APIs y interfaces de usuario (UI), asegurando cobertura integral.

Descripción y requisitos del puesto

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas, con sólida capacidad para diseñar, mantener e integrar frameworks de testing en pipelines CI/CD. Es fundamental contar con conocimientos en las siguientes tecnologías y herramientas:
  • Frameworks de automatización: Playwright, Cypress, Robot Framework, Selenium.
  • Testing de APIs: Postman, REST Assured, Karate.
  • Herramientas de integración continua y despliegue: GitHub Actions, Jenkins, GitLab CI.
  • Experiencia con contenedores y orquestación: Docker y Kubernetes.
  • Lenguajes de programación y scripting: Java, JavaScript, TypeScript, Python y Bash.
Además de experiencia técnica, valoramos la capacidad para trabajar colaborativamente en equipos multidisciplinarios y con metodologías ágiles, atención al detalle y enfoque en la calidad y mejora continua.

Habilidades y experiencia deseables

Se valorarán conocimientos adicionales en pruebas de rendimiento y seguridad, experiencia previa en entornos multinube, y familiaridad con metodologías DevOps. La experiencia en proyectos de retail o sectores relacionados será considerada un plus. También se aprecian habilidades comunicativas y capacidad para documentar procesos y resultados de testing de manera clara y efectiva.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto de Soluciones AWS con Enfoque DevOps
  • Zerviz Technologies
Python Git Amazon Web Services Docker
En Zerviz Technologies nos enorgullece innovar y transformar proyectos y procesos de transformación digital utilizando las mejores tecnologías disponibles. Fundados en 2017, construimos tecnología y experiencias de cliente que optimizan la operatividad, la atención y la gestión a través de soluciones a medida y desarrollos personalizados. Nuestra trayectoria nos ha posicionado como especialistas en la entrega de soluciones innovadoras y flexibles, que abordan los constantes desafíos tecnológicos y de experiencia del cliente en América Latina, con presencia en más de 16 países y más de 150 proyectos exitosos.

Official source: getonbrd.com.

Responsabilidades clave

  • Diseñar arquitecturas de soluciones en la nube basadas en AWS, garantizando escalabilidad, alta disponibilidad, rendimiento óptimo, costos controlados, gobernanza y cumplimiento con estándares institucionales.
  • Liderar la implementación de prácticas DevOps, incluyendo la integración y entrega continua (CI/CD), automatización de infraestructura y control de calidad en los despliegues.
  • Diseñar, mantener y versionar infraestructura como código (IaC) usando herramientas como Terraform y AWS CloudFormation para asegurar despliegues reproducibles y auditables.
  • Supervisar la administración de servicios nativos AWS: EC2, IAM, S3, RDS, Lambda, VPC, CloudWatch, EKS, CloudFront, entre otros, asegurando su operación confiable y segura.
  • Garantizar el cumplimiento de buenas prácticas de seguridad, disponibilidad y recuperación, atendiendo lineamientos del AWS Well-Architected Framework, CIS Benchmark y NIST 800-53.
  • Colaborar con equipos técnicos y funcionales para traducir requerimientos institucionales en soluciones técnicas sostenibles y alineadas a las necesidades del negocio.
  • Documentar arquitecturas, flujos de despliegue y procedimientos técnicos para mantenimiento y capacitación.
  • Participar activamente en migraciones desde entornos on-premise a AWS, evaluando técnicamente la infraestructura actual y diseñando soluciones destino eficientes.
  • Brindar asesoría técnica y acompañar a equipos de desarrollo, operaciones, ciberseguridad y gestión de proyectos durante toda la adopción de la nube.
  • Impulsar la adopción de soluciones cloud institucionales mediante análisis de impacto, propuesta de arquitecturas y evaluación continua del portafolio AWS.

Perfil requerido

Formación Académica:
El candidato ideal posee un título profesional en Ingeniería Civil en Computación, Informática, Sistemas o carreras afines.
Experiencia Laboral:
Contamos con un perfil que tenga al menos 3 años de experiencia comprobada en diseño e implementación de arquitecturas en AWS, con un fuerte enfoque en liderazgo de iniciativas DevOps dentro de entornos de nube pública. Se valorará experiencia en proyectos tecnológicos para organismos públicos o instituciones estatales.
Conocimientos Técnicos Esenciales:
  • Dominio profundo de servicios AWS clave: EC2, VPC, Transit Gateway, RDS, Lambda, CloudWatch, EKS.
  • Experiencia práctica con herramientas de Infraestructura como Código (IaC) como Terraform y AWS CloudFormation.
  • Diseño y operación de pipelines CI/CD usando GitLab CI, Jenkins o AWS CodePipeline.
  • Despliegue y gestión de soluciones containerizadas mediante Docker y Kubernetes.
  • Capacidades en scripting con Shell y Python para automatizaciones y tareas administrativas.
  • Uso avanzado de sistemas de control de versiones y flujo GitOps con GitLab.
Competencias Personales:
Buscamos a alguien con enfoque estratégico y pensamiento integral para diseñar soluciones robustas y sostenibles. Deberá ser autónomo, con habilidades de liderazgo y comunicación efectiva para articular con equipos técnicos y áreas funcionales, alineando la tecnología con objetivos institucionales. Valoramos el compromiso con la mejora continua, innovación y estandarización de procesos técnicos.

Habilidades y conocimientos adicionales deseables

  • Certificaciones oficiales como AWS Certified Solutions Architect o AWS Certified DevOps Engineer.
  • Conocimiento y experiencia con referenciales de seguridad y cumplimiento como AWS Security Best Practices, CIS Benchmarks y NIST 800-53.
  • Experiencia en diseño y administración de Landing Zones y entornos multi-cuenta con AWS Organizations.
  • Manejo de herramientas colaborativas y de documentación técnica como Jira, Confluence, Markdown y diagramas arquitectónicos.
  • Familiaridad con normativas nacionales y específicas de protección de datos personales y seguridad de la información en sector público (por ejemplo, Ley Nº 19.628).

Beneficios y cultura organizacional

En Zerviz Technologies ofrecemos un ambiente laboral colaborativo y enriquecedor, propicio para tu desarrollo profesional continuo. Contamos con flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales que enriquecerán significativamente tu experiencia en el ámbito digital.
Fomentamos un entorno diverso e inclusivo donde la creatividad y la innovación son pilares fundamentales. Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.
Si te apasiona la tecnología y deseas contribuir a mejorar la experiencia del cliente mediante soluciones tecnológicas de vanguardia, ¡te estamos esperando para que te unas a nuestro equipo!

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3600 Tiempo completo
Technical Lead – Cloud Computing & Infrastructure AWS / GCP
  • coderslab.io
Virtualization Amazon Web Services Docker Kubernetes

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Technical Lead – Cloud Computing & Infrastructure (AWS / GCP) to join our team and help drive our mission forward.

Applications at getonbrd.com.

Funciones del cargo

General Purpose:
Lead the multi-cloud (AWS and GCP) computing strategy at Payless, optimizing infrastructure and enabling new capabilities for the omnichannel vision. The role aims to enhance customer centricity and improve the experience across both physical stores and e-commerce, ensuring resilience, cost efficiency, and business acceleration.
Key Responsibilities:
  • Design and evolve cloud-native architectures in AWS and GCP.
  • Implement best practices for cost optimization, security, and performance.
  • Enable new cloud capabilities to support the omnichannel strategy.
  • Lead the adoption of cloud-native development and deployment models (DevOps, Infrastructure as Code).
  • Collaborate with business, product, and IT teams to align infrastructure with corporate objectives.

Requerimientos del cargo

Technical Requirements:
  • Proven experience with AWS and GCP.
  • Knowledge of Kubernetes, Docker, Terraform/CloudFormation, and Infrastructure as Code (IaC).
  • Experience designing scalable, secure, and highly available architectures.
  • Advanced English proficiency.
Key Competencies:
  • Strategic thinking with a strong business vision.
  • Technical leadership and team management.
  • Clear and effective communication skills.

Condiciones

Location: Remote LATAM
Working Hours: Miami time
Language Requirements: Advanced English and Spanish
Service Type: Service Provision – 160 hours/month, Monday to Friday

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2600 Tiempo completo
Site Reliability Engineer (SRE) / DevOps Senior
  • BC Tecnología
  • Santiago (Hybrid)
Python Go Amazon Web Services Google Cloud Platform
En BC Tecnología somos una consultora de servicios IT especializada en la formación de equipos ágiles para Desarrollo de Software, Infraestructura Tecnológica y Unidades de Negocio. Trabajamos con clientes líderes en sectores financieros, seguros, retail y gobierno, aportando soluciones tecnológicas a medida desde hace más de seis años. Nuestro enfoque se basa en metodologías ágiles, el cambio organizacional y el desarrollo de productos innovadores.
El proyecto en el que participarás está orientado a la gestión y operación de infraestructuras en la nube, con foco en la confiabilidad, automatización y escalabilidad. Formarás parte de un equipo que diseña y administra soluciones cloud, asegurando la alta disponibilidad y eficiencia operativa para empresas de alto nivel, contribuyendo a transformar su infraestructura mediante tecnologías modernas y mejores prácticas DevOps y SRE.

Apply to this job from Get on Board.

Responsabilidades principales

  • Administrar y mantener infraestructura en la nube utilizando herramientas de infraestructura como código, principalmente Terraform, en plataformas AWS, Google Cloud Platform (GCP) y Microsoft Azure.
  • Implementar y gestionar sistemas de monitoreo y observabilidad utilizando New Relic para garantizar la disponibilidad y el rendimiento óptimo de los servicios.
  • Diseñar, desarrollar y mantener pipelines de integración y entrega continua (CI/CD) para automatizar despliegues y acelerar la entrega de software.
  • Optimizar costos y recursos en la infraestructura cloud, aplicando buenas prácticas para asegurar eficiencia y escalabilidad.
  • Gestionar incidentes de producción de forma proactiva y reactiva, implementando soluciones duraderas para minimizar tiempos de inactividad.
  • Fomentar la adopción de prácticas DevOps y Site Reliability Engineering dentro del equipo e incentivar la mejora continua en procesos operativos.

Requisitos esenciales

  • Experiencia sólida y demostrable trabajando con los principales proveedores de nube pública: AWS, GCP y Azure.
  • Dominio avanzado en la gestión de infraestructura como código con Terraform, capaz de diseñar módulos reutilizables y estructurar despliegues complejos.
  • Conocimientos en la implementación y administración de sistemas de monitoreo y alertas, especialmente con New Relic u otras herramientas similares.
  • Habilidades de scripting en Python, Bash o Go para automatizar tareas, analizar logs y mejorar procesos operativos.
  • Conocimiento profundo en seguridad en entornos cloud, incluyendo prácticas para proteger la infraestructura y gestionar accesos de forma segura.
  • Experiencia probada en la gestión de incidentes, identificación rápida de problemas y aplicación de soluciones para mantener la disponibilidad del servicio.
  • Capacidad para trabajar en equipo, comunicarse efectivamente y adaptarse a contextos ágiles y dinámicos.
  • Orientación a la mejora continua y aprendizaje constante para estar al día con las nuevas tecnologías y metodologías en el ámbito cloud y DevOps.

Habilidades y conocimientos deseables

  • Experiencia previa en ambientes complejos de múltiples nubes y en la gestión de infraestructuras híbridas.
  • Conocimientos de otras herramientas y plataformas de monitoreo, como Prometheus, Grafana, Datadog, etc.
  • Familiaridad con contenedores y orquestadores como Kubernetes y Docker.
  • Experiencia en la implementación de políticas de seguridad avanzadas en la nube, incluyendo IAM, gestión de secretos y cumplimiento normativo.
  • Certificaciones relacionadas como AWS Certified DevOps Engineer, Google Professional Cloud DevOps Engineer o Microsoft Azure DevOps Engineer.
  • Capacidad para liderar iniciativas de automatización y participar activamente en la definición de la arquitectura SRE de la organización.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Site Reliability Engineer (SRE) Multicloud
  • BC Tecnología
  • Santiago (Hybrid)
Python Go Amazon Web Services Google Cloud Platform
En BC Tecnología somos una consultora IT con más de 6 años de experiencia en el diseño y desarrollo de soluciones tecnológicas para clientes de sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque está en crear equipos de trabajo ágiles y multidisciplinarios que se adapten a las necesidades específicas de cada cliente. En este contexto, ofrecemos oportunidades en proyectos innovadores relacionados con Infraestructura, Desarrollo de Software y unidades de negocio, combinando metodologías ágiles con un claro foco en el cliente y la mejora continua. El proyecto actual para el cual buscamos un Site Reliability Engineer es de 5 meses, modalidad híbrida, ubicado en Mall Alto Las Condes, donde trabajaremos implementando y optimizando arquitecturas en la nube para un cliente estratégico, garantizando alta disponibilidad, monitoreo sofisticado y optimización de costos en entornos multicloud.

Send CV through getonbrd.com.

Responsabilidades principales

Como Site Reliability Engineer (SRE) en BC Tecnología, tus responsabilidades serán:
  • Diseñar, implementar y mantener infraestructuras cloud robustas y escalables utilizando AWS, GCP y Azure.
  • Gestionar infraestructura mediante infraestructura como código, principalmente con Terraform, asegurando control de versiones y automatización.
  • Establecer y operar sistemas de monitoreo y observabilidad utilizando New Relic para detectar incidentes y tener visibilidad completa del estado de las aplicaciones y servicios.
  • Desarrollar y mantener scripts de automatización con Python, Bash y Go para facilitar tareas repetitivas, despliegues y gestión de sistemas.
  • Gestionar la respuesta ante incidentes, resolviendo problemas críticos para mantener la alta disponibilidad y confiabilidad de los servicios.
  • Optimizar el uso y los costos de los recursos cloud, proponiendo mejoras continuas en arquitectura y configuraciones.
  • Colaborar con equipos de desarrollo, operaciones y seguridad para diseñar arquitecturas seguras y resilientes, implementando mejores prácticas en redes, seguridad cloud y automatización.
La función requiere un enfoque proactivo, capacidad para trabajar en equipo y habilidades analíticas para anticipar problemas y proponer soluciones efectivas en ambientes multicloud complejos.

Requisitos y habilidades

Buscamos un profesional con una sólida experiencia práctica de al menos 3 años desempeñándose como Site Reliability Engineer o roles afines en entornos cloud. Debes tener conocimientos profundos en AWS, GCP y Azure, y experiencia en la gestión de infraestructura a través de Terraform.
Es fundamental el dominio en herramientas de monitoreo y observabilidad, específicamente New Relic, para poder gestionar la salud y el desempeño de sistemas distribuidos en la nube.
El candidato ideal deberá tener habilidades avanzadas de scripting y automatización, con experiencia en Python, Bash y Go, facilitando la automatización de procesos operativos y mejoras continuas.
Debe contar con experiencia en la gestión de incidentes, resolución de problemas bajo presión y conocimiento en arquitecturas de alta disponibilidad y recuperación ante desastres.
Se valoran conocimientos en seguridad informática, redes y diseño de arquitecturas cloud seguras, que permitan proteger los activos y datos del cliente.
Además, es indispensable contar con excelentes habilidades de comunicación, trabajo en equipo, orientación al detalle y capacidad para adaptarse ágilmente en un entorno dinámico y colaborativo.

Habilidades y conocimientos deseables

Sería ideal que el candidato tenga experiencia previa en entornos multicloud complejos, implementaciones de CI/CD integradas con infraestructuras cloud y conocimiento de frameworks de seguridad como CIS, NIST o ISO 27001.
Conocimientos en otras herramientas de monitoreo o gestión como Prometheus, Grafana o Datadog también son valorados positivamente.
Experiencia en metodologías ágiles como Scrum o Kanban, y familiaridad con contenedores (Docker, Kubernetes) aumentarán tus posibilidades de éxito en este rol.
Finalmente, se considerará favorable contar con certificaciones cloud oficiales, tales como AWS Certified Solutions Architect, Google Professional Cloud Engineer o Microsoft Azure Administrator.

Beneficios y cultura empresarial

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso, la innovación y el aprendizaje constante. Nuestra cultura está orientada al desarrollo profesional a través de la integración, el intercambio de conocimientos y el trabajo en equipo.
Ofrecemos modalidad híbrida en una oficina moderna ubicada en Mall Alto Las Condes, combinando lo mejor del trabajo remoto y presencial para favorecer un balance saludable entre vida laboral y personal.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el crecimiento técnico y profesional continuo.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1800 Tiempo completo
Ingeniero DevOps
  • TREM Group
Python Redis MySQL PostgreSQL

En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

Apply directly from Get on Board.

Funciones del Puesto

Como Ingeniero DevOps, formarás parte de un equipo técnico multidisciplinario encargado de diseñar, crear, mantener, escalar, monitorear y proteger nuestra infraestructura en la nube. Colaborarás estrechamente con equipos de ingeniería para identificar y aplicar herramientas que permitan iterar rápidamente nuestras líneas de productos, garantizando la seguridad en cada despliegue.

Entre tus responsabilidades principales estarán:

  • Amplio conocimiento en el manejo de Linux, especialmente con la distribucion Debian.
  • Implementar y mantener pipelines de integración y entrega continua automatizadas.
  • Gestionar infraestructuras usando herramientas de Infraestructura como Código (IaC) para asegurar la reproducibilidad y escalabilidad.
  • Optimizar el rendimiento, confiabilidad y seguridad de los sistemas en producción.
  • Monitorear y responder proactivamente a incidentes utilizando sistemas de observabilidad como Prometheus, Grafana y Loki.
  • Ejecutar y administrar contenedores en producción con plataformas como Docker, Kubernetes .
  • Brindar soporte y colaboración técnica a desarrolladores para que conviertan buenas prácticas en estándares de excelencia.
  • Comunicar de manera clara los planes, avances y desafíos al equipo de ingeniería, facilitando la toma de decisiones y la mejora continua.

Requisitos y Habilidades

Buscamos un ingeniero con entre 2 y 6 años de experiencia (preferentemente 4 o más) que disfrute una combinación de ingeniería de software, confiabilidad del sitio, automatización, optimización y operaciones. Debes ser un usuario avanzado de Linux, con sólida experiencia en scripting Bash y familiaridad con herramientas Open Source.

Es fundamental que tengas experiencia construyendo y gestionando infraestructuras en la nube utilizando Infraestructura como Código, con herramientas como Terraform, Ansible, scripting en Go o Python y el uso directo de APIs de proveedores cloud.

Debes conocer profundamente la creación y operación de contenedores (Docker principalmente) y la gestión de éstos en producción a gran escala usando Kubernetes.

Tienes que haber implementado pipelines de integración y entrega continua con herramientas como GitLab CI, Travis o CircleCI, que permitan despliegues automatizados y confiables.

Serás competente manejando bases de datos relacionales y NoSQL como MySQL, Redis, Elasticsearch, Postgres y RabbitMQ para el manejo de tareas asincronas. Comprendiendo su alta disponibilidad y limitaciones operativas.

Valoramos que tengas una mentalidad orientada a la toma de decisiones basada en datos y que puedas comunicar con claridad temas técnicos complejos, manteniendo la calma bajo presión y mostrando empatía y escucha activa en el equipo.

Experiencia con monitoreo y observabilidad a través de herramientas como Prometheus, Grafana y Loki es imprescindible.

Contar con conocimientos en distribuciones avanzadas de despliegue de software como Canary Deploys o Blue/Green Deployments, así como en pruebas de producción automatizadas, es un plus importante.

Preferimos candidatos que entiendan las arquitecturas distribuidas, los compromisos entre consistencia, disponibilidad y metodologías ágiles.

Conocimientos y Experiencia Deseable

Te destacará tener experiencia en software desarrollado en ámbitos académicos o de estudios de grado. El manejo de metodologías ágiles y trabajo en entornos dinámicos será una ventaja. Deseamos candidatos con capacidad para implementar prácticas avanzadas de despliegue continuo (Canary y Blue/Green) y que puedan diferenciar claramente cuándo usar bases de datos relacionales o NoSQL.

Una experiencia superior a 3 años en infraestructura basada en Terraform o Ansible será muy valorada, al igual que la capacidad para aportar en proyectos distribuidos y escalables. El trabajo 100% remoto es posible, por lo que buscamos profesionales autónomos y con excelente comunicación remota.

Beneficios

  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (freelance, contrato o tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.

Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer II
  • ZeroFox
DevOps Cloud Computing (AWS) Monitoring and Alerting (Prometheus, Grafana, Datadog) Scripting (Python, Go)
Opportunity Overview
At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.
We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Official job site: Get on Board.

Role and Responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desired qualifications and skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

    • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
    • Competitive compensation
    • Competitive PTO
    • Complementary health insurance
    • Daily catered lunches for in-office work
    • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
    • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
    • Additional Parental Leave
    • Excellent communication: between teams, people, organizations and leaders

Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Comunicaciones
  • BLUE SMILE TECHNOLOGY
  • Santiago (Hybrid)
REST API Linux JSON Virtualization
BLUE SMILE TECHNOLOGY es una empresa global y visionaria que se posiciona como líder en la transformación digital de sus clientes, generando soluciones tecnológicas de alto nivel que les permiten crecer de forma sostenible y consolidarse como actores relevantes en sus mercados. La división a la que se integrará el Ingeniero de Comunicaciones trabaja en proyectos innovadores de infraestructura y redes de comunicación, diseñando, implementando y manteniendo sistemas que soportan la conectividad y seguridad esenciales para las operaciones de clientes nacionales e internacionales.
Esta área es clave para asegurar el buen funcionamiento de las comunicaciones y la transmisión de datos, aprovechando las últimas tecnologías en redes definidas por software (SDN), nube pública y seguridad para garantizar soluciones robustas y eficientes.

Exclusive offer from getonbrd.com.

Responsabilidades principales

Este rol tiene como objetivo asegurar el diseño, la implementación y el mantenimiento óptimo de redes de comunicación para nuestros clientes y proyectos. Entre sus funciones principales se incluyen:
  • Diseñar arquitecturas de redes LAN/WAN, SDN y SD-WAN, integrando tecnologías de transmisión de datos avanzadas.
  • Implementar soluciones de conectividad seguras y escalables, incluyendo VPNs y equipos de telecomunicaciones como switches y routers.
  • Gestionar y optimizar el tráfico de red mediante análisis detallados para mejorar el rendimiento y la eficiencia.
  • Supervisar la seguridad de redes, aplicando protocolos y políticas para proteger la infraestructura frente a amenazas.
  • Administrar y mantener infraestructura en sistemas Linux, y utilizar tecnologías de contenedores como Kubernetes y Docker para desplegar y orquestar aplicaciones relacionadas.
  • Documentar procesos, configuraciones y desarrollos relacionados con redes y telecomunicaciones.
  • Colaborar con equipos interdisciplinarios en proyectos de transformación digital, aportando experiencia técnica y recomendaciones para la evolución tecnológica.

Requisitos del puesto

Buscamos un profesional titulado o egresado en Ingeniería, Ingeniería Civil, Ingeniería de Ejecución en Computación o Informática, o carreras afines. El candidato ideal debe contar con al menos 2 años de experiencia en telecomunicaciones o redes de comunicación, demostrando competencias en diseño, implementación y mantenimiento de redes.
Es imprescindible contar con al menos cuatro certificaciones reconocidas entre las siguientes:
  • CompTIA Network+ o similar.
  • CCNA (Cisco Certified Network Associate) o equivalente.
  • Certificaciones en tecnologías SDN (Cisco ACI, AWS, Azure, NSX VMware).
  • Certificación Palo Alto Networks (PCSFE).
  • Certificación en equipamiento de seguridad de redes.
  • Especialización o Maestría en Telecomunicaciones, Redes de Datos o áreas relacionadas.
  • Cursos complementarios en gestión de proyectos (PMI) o administración.
Además, el candidato debe demostrar profundos conocimientos en al menos seis de las siguientes áreas:
  • Tecnologías de red como SDN, SD-WAN, LAN/WAN, VPNs.
  • Protocolos de comunicación TCP/IP, UDP.
  • Tecnología DWDM (Dense Wavelength Division Multiplexing).
  • Conocimientos avanzados en sistemas Linux.
  • Programación y manejo de datos en JSON, API REST, XSLT, XML.
  • Gestión y orquestación con contenedores Kubernetes y Docker.
  • Manejo y configuración de equipos de telecomunicaciones como switches y routers.
  • Seguridad en redes y análisis de tráfico para optimización.
  • Sistemas de transmisión de datos.
  • Capacidad para analizar tráfico y mejorar la eficiencia de las redes.
Se valoran además habilidades blandas como trabajo en equipo, proactividad, capacidad analítica, resolución de problemas, y buena comunicación tanto técnica como interdepartamental.

Habilidades y certificaciones deseables

Es valorable contar con certificaciones adicionales o especializaciones en gestión avanzada de proyectos (PMI), experiencia en entornos cloud como AWS o Azure relacionados con redes, conocimientos en seguridad avanzada de redes más allá de lo básico y dominio de nuevas tendencias en redes definidas por software y virtualización de funciones de red.
Asimismo, se aprecia una actitud de aprendizaje permanente, capacidad para adaptarse a entornos ágiles y dinámicos, y experiencia previa en proyectos internacionales o con alcance global.

Beneficios y entorno de trabajo

Trabajamos en un entorno innovador dentro de una empresa global que impulsa el desarrollo profesional mediante formación continua y proyectos desafiantes que potencian el crecimiento personal y técnico.
Fomentamos un ambiente colaborativo y flexible, ofreciendo modalidad remota local para adaptarnos a las necesidades de cada colaborador.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Linux DevOps Virtualization
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPS para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

© getonbrd.com.

Funciones del cargo

Ingeniero de Plataforma con sólida experiencia en la gestión e implementación de infraestructura como código (IaC) y automatización de plataformas híbridas y multicloud. Especialista en Oracle Cloud Infrastructure (OCI), con dominio avanzado de Oracle Linux (8 y 9), incluyendo hardening, tuning y troubleshooting de sistemas en
entornos productivos críticos.
Competente en el diseño y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD, y Kong API Gateway, garantizando despliegues seguros, reproducibles y escalables. Fuerte orientación a la seguridad y gestión de secretos mediante HashiCorp Vault, cumpliendo estándares como PCI-DSS
y buenas prácticas de ciberseguridad.
Habilidad avanzada en scripting con Bash y Python para automatización de procesos, integración de pipelines y monitoreo. Experiencia práctica en diseño de pipelines CI/CD robustos, infraestructura autoservicio y GitOps.
Ideal con experiencia en otros motores como MSSQL, Postgresql y mysql

Requerimientos del cargo

Stack Principal
Cloud: Oracle Cloud (OCI), incluyendo Networking, IAM, Compute, VCN, Object
Storage, Vulnerability Scanning, WAF
Linux: Oracle Linux 8/9 (hardening, performance tuning, SELinux, systemd)
IaC & Automatización: Terraform (módulos reutilizables, workspaces, state remotos),
GitLab CI, ArgoCD
Contenedores: Docker, Kubernetes, Helm, Argo Workflows, Kong Ingress
Seguridad: HashiCorp Vault, integración con OCI IAM, gestión de tokens y políticas
Scripting: Bash avanzado, Python (scripts para automatización, integración con APIs
REST)
Docker: gestion de imagenes docker.
Fortalezas
Implementación de infraestructura reproducible y versionada en OCI con Terraform.
Automatización de despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en
GitLab.
Integración segura de servicios mediante Kong y políticas personalizadas.
Gestión de secretos y credenciales dinámicas en entornos sensibles usando Vault.
Experiencia en entornos bancarios y regulados, con foco en cumplimiento y resiliencia.

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 15 meses con renovacion

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python Docker CI/CD
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Apply to this job directly at getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2900 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Docker Kubernetes Ansible CI/CD

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Send CV through Get on Board.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros. Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi. Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño. Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP). Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro. Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización. Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Diseñar, implementar y mantener pipelines CI/CD eficientes y seguros.
Automatizar la provisión de infraestructura usando herramientas como Terraform, Ansible o Pulumi.
Colaborar con equipos de desarrollo para incorporar prácticas de FinOps desde la etapa de diseño.
Implementar monitoreo y trazabilidad de consumo en la nube (Azure, AWS, GCP).
Participar en análisis de costos cloud, etiquetas de recursos, alertas de sobregasto y recomendaciones de ahorro.
Generar tableros e informes para visibilizar costos, uso y oportunidades de optimización.
Apoyar en la definición y cumplimiento de políticas de gobernanza y cumplimiento nube.

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.) Conocimientos sólidos en Infraestructura como Código (IaC). Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI). Experiencia o certificación en FinOps (deseable). Manejo de contenedores y orquestadores (Docker, Kubernetes). Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Experiencia en herramientas CI/CD (GitLab CI, Jenkins, ArgoCD, etc.)
Conocimientos sólidos en Infraestructura como Código (IaC).
Familiaridad con modelos de costos cloud (preferencia Azure, GCP y/o OCI).
Experiencia o certificación en FinOps (deseable).
Manejo de contenedores y orquestadores (Docker, Kubernetes).
Conocimientos en observabilidad (Grafana, Prometheus, Datadog).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
AWS Engineer (Semi Senior / Senior)
  • Niuro
Docker CI/CD Terraform Cloud Formation
Niuro is a dynamic company that connects elite technology teams with leading U.S. companies, focusing on simplifying global talent acquisition through innovative, efficient solutions. We specialize in providing autonomous, high-performance tech teams that excel in delivering cutting-edge projects, chiefly within the industrial data space. Our teams engage in technically challenging and impactful initiatives that foster innovation and professional growth. By partnering with Niuro, you become part of a collaborative environment dedicated to excellence, continuous learning, and leadership development. Our commitment extends beyond technical contributions; we manage all administrative responsibilities such as hiring, payments, and training, enabling our engineers to focus wholly on delivering outstanding results.

Job opportunity published on getonbrd.com.

Role and Responsibilities

As an AWS Engineer at Niuro, your primary responsibility will be designing, deploying, and maintaining scalable, secure, and efficient infrastructure solutions on AWS. You will work closely with cross-functional US-based teams to define architecture and automation using infrastructure as code.

  • Design and implement cloud infrastructure using AWS services such as IAM, S3, VPC, Lake Formation, CloudFormation, and CloudWatch.
  • Develop and maintain deployment pipelines and infrastructure automation primarily through Terraform and CI/CD tools.
  • Ensure system security, monitoring, and performance tuning to meet high availability and reliability standards.
  • Collaborate with development and operations teams to integrate cloud-based systems smoothly and optimize workflows.
  • Participate actively in code reviews, technical discussions, and knowledge sharing sessions.
  • Support incident response and troubleshoot complex infrastructure issues efficiently.

Required Skills and Experience

We are looking for a Semi Senior to Senior AWS Engineer with a strong background in cloud infrastructure design and deployment. The ideal candidate must demonstrate proficiency in a broad range of AWS services such as IAM (Identity and Access Management), S3 (Simple Storage Service), VPC (Virtual Private Cloud), Lake Formation, CloudFormation, and CloudWatch.
Experience with DevOps practices and tools like Terraform and CI/CD pipelines is essential to ensuring the reliable delivery and automation of infrastructure.
The candidate should have conversational-level English skills, enabling effective communication and collaboration with US-based teams. A proactive mindset, problem-solving abilities, and passion for continuous improvement are highly valued.
Soft skills such as teamwork, adaptability, and a results-oriented attitude are vital for success in our fast-paced and collaborative environment.

Desirable Additional Skills

While not mandatory, experience and familiarity with FastAPI, Gunicorn, Pydantic, Boto3, Aestiva HTML/OS, Docker, TeamCity, GitHub, or Gitea will be considered a strong advantage. Knowledge in these areas will enable deeper integration and more versatile contributions within our technology stack and DevOps workflows.
Exposure to containerization technologies such as Docker and continuous integration servers like TeamCity can enhance overall effectiveness in deployment automation and system reliability.

Benefits and Work Environment

At Niuro, we provide a flexible 100% remote working structure tailored for professionals residing within LATAM, empowering you to work from your preferred location without compromising professional growth.
We foster a culture of continuous learning, offering professional development through ongoing technical and soft skills training, in addition to leadership development opportunities.
Our projects are technically challenging and impactful, driving innovation in the industrial data domain, which supports your career advancement.
Niuro handles all administrative aspects including hiring, payments, and training, allowing you to focus on what matters most — your work and career growth.
There is potential for long-term engagement and transition to stable full-time employment following the successful completion of the initial contract.
Join Niuro and become part of a global community committed to excellence, collaboration, and innovation.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
DevOps Engineer – Proyecto 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Docker Azure Jenkins Kubernetes
En BC Tecnología somos una consultora de TI con amplia experiencia en diferentes áreas tecnológicas, que desde hace 6 años diseñamos soluciones acorde a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores dentro del área de infraestructura tecnológica, en equipos ágiles que combinan la experiencia en desarrollo de software y consultoría IT para entregar resultados efectivos y adaptados a cada cliente.

Apply to this job without intermediaries on Get on Board.

Funciones principales

  • Implementar, mantener y optimizar pipelines de CI/CD utilizando herramientas como GitLab CI, Jenkins y ArgoCD.
  • Desarrollar y administrar infraestructura como código (IaC) utilizando Terraform, Ansible, Pulumi u otras tecnologías similares.
  • Gestionar y orquestar contenedores mediante Docker y Kubernetes para garantizar despliegues eficientes y escalables.
  • Monitorear sistemas y aplicaciones mediante herramientas de observabilidad como Prometheus, Grafana y Datadog.
  • Colaborar con equipos de desarrollo y operaciones para asegurar la automatización y mejora continua de procesos.
  • Participar en la definición y control de costos operativos en nube, apoyando con modelos de FinOps para optimización financiera.

Requisitos

  • Mínimo 3 años de experiencia como DevOps o Ingeniero de Automatización.
  • Dominio en herramientas CI/CD como GitLab CI, Jenkins y ArgoCD.
  • Sólidos conocimientos en Infraestructura como Código (Terraform, Ansible, Pulumi u otras).
  • Experiencia en contenedores y orquestadores: Docker y Kubernetes.
  • Familiaridad con herramientas de observabilidad y monitoreo (Prometheus, Grafana, Datadog).
  • Conocimientos en modelos de costos y operación en la nube, preferentemente Azure, Google Cloud Platform o Oracle Cloud.
  • Deseable experiencia o certificación en FinOps para control y optimización de gastos en la nube.
  • Capacidad para trabajar en equipo, orientación al detalle, proactividad y aptitud para la resolución de problemas en entornos ágiles.

Deseable

  • Certificaciones oficiales en DevOps, Kubernetes, Terraform o plataformas Cloud.
  • Experiencia con metodologías ágiles y colaboración en equipos multidisciplinarios.
  • Conocimiento en seguridad cloud y automatización de procesos de compliance.
  • Capacidad para documentar procedimientos técnicos y capacitar equipos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Experienced DevOps Engineer
  • coderslab.io
Linux Cloud Computing Infrastructure as Code Version Control

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Experienced DevOps Engineer para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job opportunity at getonbrd.com.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de CI/CD para mejorar la entrega continua de software.
  • Administrar y optimizar entornos de contenedores y orquestación con Docker, Kubernetes y otras tecnologías.
  • Implementar prácticas robustas de monitoreo, seguridad y alta disponibilidad.
  • Gestionar infraestructura mediante Infraestructura como Código (IaC) y herramientas de automatización.
  • Documentar, estandarizar y optimizar procesos y arquitecturas DevOps.
  • Colaborar con equipos de desarrollo y operaciones para fomentar la cultura DevOps y metodologías ágiles.

Requerimientos del cargo

Experiencia

  • Más de 3 años en roles de DevOps o administración de infraestructura.
  • Más de 2 años en administración de sistemas Linux (sysadmin).
  • Experiencia en entornos ágiles como Scrum y Kanban.
  • Familiaridad con la cultura y prácticas DevOps.

Conocimientos Clave

  • Oracle WL/OSB.
  • Infraestructura como Código (IaC): Terraform, Pulumi.
  • Control de versiones y CI/CD: GIT/GitLab, ArgoCD.
  • Contenedores y orquestación: Docker, Containerd, Swarm, Kubernetes (GKE, AKS).
  • Automatización y configuración: Chef, Ansible.
  • Cloud Computing: experiencia en Azure o GCP.
  • Gestión de secretos: Vault u otras herramientas similares.
  • Monitoreo y observabilidad: Prometheus, Grafana, ELK, Datadog.
  • Redes y seguridad: protocolos, balanceo de carga, firewalls.

Conocimientos Deseables

  • API Management: Apigee, Kong.
  • Mensajería: RabbitMQ.
  • Bases de datos: Postgres, Redis, MongoDB.

¿Qué ofrecemos?

  • Trabajo en un entorno dinámico y tecnológico.
  • Oportunidades de crecimiento y aprendizaje continuo.
  • Cultura colaborativa y orientada a la innovación.
  • Flexibilidad y modalidad de trabajo a negociar.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL NoSQL Docker
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply to this posting directly on Get on Board.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Applications: getonbrd.com.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Moventi
Redis Amazon Web Services Docker Celery
At Moventi, we are dedicated to helping organizations lead digital transformation by leveraging technology with an innovative mindset. We work within a multidisciplinary team of talented professionals, fostering continuous learning of new technologies and collaborative work methodologies. Our projects involve building scalable and robust cloud infrastructures, developing and deploying cutting-edge solutions, and driving innovations that create a positive market impact. Our office is centrally located and inspires teamwork with agile workspaces and recreational areas to enhance creativity and productivity.

Send CV through getonbrd.com.

Key Responsibilities

We are looking for a DevOps Engineer to strengthen our infrastructure and operational capabilities. In this role, you will be responsible for auditing and optimizing cloud infrastructure—primarily on AWS—ensuring performance, cost-efficiency, and scalability. You will manage Amazon DynamoDB configurations in production environments and be directly involved in implementing secure self-hosted solutions, including migrations and deployments like Langfuse.
Your daily work will also include configuring and maintaining Redis instances for high-availability production environments and collaborating closely with backend development teams to design and sustain efficient work queues using Celery or similar technologies.
Another important aspect is designing, implementing, and maintaining comprehensive monitoring, logging, and alerting systems using tools such as Prometheus, Grafana, and AWS CloudWatch to ensure reliability and rapid issue detection. You will lead and automate CI/CD pipelines and containerization workflows using Docker, GitHub Actions, GitLab CI, among others.
Additionally, you will apply strong expertise in networking, security best practices, system availability, and disaster recovery planning to ensure the robustness of our systems.

Required Skills and Experience

  • Experience auditing cloud infrastructure, preferably on AWS, focusing on performance and costs.
  • Strong knowledge of Amazon DynamoDB, including production configuration and scalability.
  • Experience implementing self-hosted solutions, such as the secure migration and deployment of Langfuse.
  • Proficiency in implementing and configuring Redis for production environments.
  • Experience collaborating with backend teams to design and support work queues (Celery or similar).
  • Experience designing, implementing, and maintaining monitoring, logging, and alerting systems (Prometheus, Grafana, CloudWatch).
  • Proficiency in CI/CD and containerization tools (Docker, GitHub Actions, GitLab CI, etc.).
  • Strong understanding of networking, security, availability, and disaster recovery.

Desirable Skills and Attributes

It is highly valuable if candidates bring additional knowledge of alternative cloud providers or hybrid cloud strategies. Familiarity with advanced security frameworks and compliance standards will enhance our infrastructure security posture. Experience with infrastructure-as-code tools such as Terraform or CloudFormation is a plus, enabling infrastructure automation and repeatability.
Strong problem-solving skills, the ability to thrive in a collaborative team environment, excellent communication abilities, and a proactive mindset towards continuous learning and innovation will allow you to excel in this role and contribute to our company’s growth.

What We Offer

  • Continuous opportunities for professional growth and learning new technologies alongside a multidisciplinary team.
  • Regular team activities and events designed to boost creativity, well-being, and team spirit.
  • Holidays paid
Join us at Moventi and be part of the positive change we aim to create in the technology market!

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Docker Deep Learning

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Exclusive offer from getonbrd.com.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Node.js Go
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Originally published on getonbrd.com.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Softserve
Linux Amazon Web Services Docker Kubernetes
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Apply from getonbrd.com.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Lead
  • Moventi
Python Docker Infrastructure as Code Chef

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Apply to this job through Get on Board.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net Docker Azure
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Exclusive offer from getonbrd.com.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1400 Tiempo completo
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Continuous Integration Amazon Web Services Docker Jenkins
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

This job is available on Get on Board.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3000 Tiempo completo
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Applications are only received at getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2200 Tiempo completo
Ingeniero/a de Datos
  • Apside
Python Git Web server Hadoop

Con más de 10 años de experiencia en el mercado y un crecimiento constante, nos destacamos por centrarnos en el desarrollo profesional de nuestros talentos. Trabajamos en proyectos variados, abarcando sectores como seguros, retail, banca, gobierno e innovación pública.
Nuestro equipo está compuesto por profesionales altamente calificados en la industria, con una amplia experiencia y apasionados por la tecnología. Fomentamos una relación con profesionales autónomos que valoran la excelencia técnica y la búsqueda constante de conocimiento.
¡Somos una empresa 100% remota, con personas en diferentes países de América Latina!

¿Que ofrecemos?
Te ofrecemos formar parte de un equipo con un muy buen ambiente de trabajo, multicultural, con personas que valoran la autonomia, el trabajo en equipo y el respeto mutuo.

Contamos con excelentes beneficios para nuestros Apsiders: Salud, Bienestar, Educación y diferentes bonos que se ajustan a las necesidades de nuestros talentos.

Apply directly through getonbrd.com.

¿Qué harás en este rol?

  • Serás protagonista en la construcción de pipelines de datos modernos y escalables con Apache Airflow (Composer) sobre GCP, asegurando su rendimiento y confiabilidad.
  • Impulsarás el procesamiento avanzado de datos aplicando Python y PySpark dentro del ecosistema Hadoop, aportando eficiencia y flexibilidad.
  • Diseñarás e implementarás infraestructura como código con Terraform, y explorarás el potencial de las arquitecturas serverless mediante Cloud Functions y Cloud Run.
  • Tendrás un rol activo en la automatización y despliegue continuo, participando en prácticas de CI/CD con GitHub Actions y flujos de trabajo colaborativos en Git.
  • Formarás parte del desarrollo de un Data Lake empresarial en GCP, incorporando estándares de calidad, seguridad y catalogación de datos.
  • Trabajarás de la mano con equipos de gobierno de datos, contribuyendo a definir políticas, estándares y procesos que garanticen la correcta gestión del ciclo de vida de la información.
  • Contribuirás al empaquetado y despliegue de soluciones en entornos de contenedores como Docker, Kubernetes y GKE, asegurando escalabilidad y eficiencia.
  • Velarás por la confiabilidad de los entornos de datos a través de monitoreo, logging y alertas efectivas, anticipándote a problemas y garantizando continuidad.

¿Que buscamos para este rol?

  • Más de 5 años experiencia demostrable como Ingeniero/a de Datos.
  • Haber estudiado una carrera, tal como, Ingeniería Civil en Computación e Informática, Ingeniería en Informática / Sistemas / o similar.
  • Experiencia en Apache Airflow (Composer) sobre GCP para la orquestación de pipelines de datos.
  • Dominio de Python y PySpark, con experiencia en el ecosistema Hadoop.
  • Conocimientos en Terraform (IaC) y en arquitecturas serverless con Cloud Functions y Cloud Run.
  • Práctica en CI/CD, especialmente con GitHub Actions y flujos de trabajo en Git.
  • Experiencia en la construcción y gestión de Data Lakes en GCP, aplicando estándares de calidad, seguridad y catalogación de datos.
  • Familiaridad con prácticas de gobierno de datos, incluyendo definición y aplicación de políticas y procesos de ciclo de vida de la información.
  • Manejo de contenedores y despliegue en Docker, Kubernetes y GKE.
  • Buenas prácticas en monitoreo, logging y alertas para entornos y pipelines de datos.
  • Se valorará contar con certificaciones GCP (ej: Professional Data Engineer o Cloud Architect), experiencia en entornos regulados (ISO, GDPR, etc.), así como haber colaborado con Data Stewards y Arquitectos de Datos.

¿Que te daría un plus++?

  • Experiencia con BigQuery u otros motores de consulta en la nube.
  • Familiaridad con modelos de Machine Learning o ML pipelines en entornos productivos.
  • Experiencia con herramientas de observabilidad como Prometheus, Grafana o Stackdriver.
  • Conocimientos en arquitecturas de datos en tiempo real (ej: Pub/Sub, Kafka).

Conditions

Wellness program Apside offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Internal talks Apside offers space for internal talks or presentations during working hours.
Life insurance Apside pays or copays life insurance for employees.
Health coverage Apside pays or copays health insurance for employees.
Computer repairs Apside covers some computer repair expenses.
Dental insurance Apside pays or copays dental insurance for employees.
Education stipend Apside covers some educational expenses related to the position.
Personal coaching Apside offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • Zerviz Technologies
Python SQL Scala Docker
En Zerviz Technologies, somos una empresa que desde 2017 nos dedicamos a transformar procesos mediante la innovación tecnológica y la experiencia de cliente. Nuestra misión es optimizar operatividad, atención, servicio y gestión a través de soluciones a medida, implementando procesos ágiles y personalizados. Contamos con presencia en las principales industrias y países de América Latina, posicionándonos como especialistas en entregar soluciones innovadoras, flexibles y capaces de responder a los retos cambiantes de la tecnología y la experiencia del cliente. Actualmente gestionamos más de 150 proyectos en más de 16 países, lo que nos brinda un entorno único para desarrollarse profesionalmente en proyectos tecnológicos y digitales de gran impacto.

Apply directly through getonbrd.com.

Principales Funciones

  • Diseñar, construir, probar y mantener pipelines ETL/ELT escalables desde fuentes internas o externas hacia un Data Lake o Data Warehouse en AWS.
  • Administrar y modelar estructuras de datos en soluciones como Amazon S3 (Data Lake), AWS Glue, Amazon Redshift o Amazon Athena, garantizando integración, gobernanza y seguridad.
  • Implementar flujos de orquestación de datos utilizando herramientas como AWS Step Functions, AWS Glue Workflows o Apache Airflow.
  • Integrar datos estructurados y no estructurados provenientes de APIs, archivos planos, bases de datos o servicios de terceros.
  • Desarrollar activos de datos reutilizables y consultas optimizadas para permitir el autoservicio a usuarios de negocio mediante SQL o herramientas de visualización compatibles.
  • Participar en el desarrollo de soluciones basadas en datos que incorporen técnicas de aprendizaje automático (ML) o inteligencia artificial.
  • Asegurar la trazabilidad, calidad, monitoreo y recuperación ante fallos en los procesos de datos.
  • Documentar desarrollos técnicos, participar en revisiones de código y controles de calidad.
  • Colaborar con equipos técnicos y funcionales, promoviendo la cultura de datos y el uso eficiente de la infraestructura analítica.

Requisitos del Cargo

Formación Académica
Título profesional en Ingeniería Civil en Computación, Ingeniería Informática, Ingeniería en Datos o carreras afines.
Experiencia Laboral
Mínimo 3 años de experiencia comprobable en diseño e implementación de soluciones de ingeniería de datos en ambientes productivos.
Experiencia práctica en servicios de AWS relacionados con procesamiento y almacenamiento de datos, tales como AWS Glue, Amazon S3, Amazon Redshift, AWS Lambda, AWS Step Functions, Amazon Athena y Amazon RDS.
Experiencia con herramientas de orquestación de datos como Apache Airflow o equivalentes nativos de AWS.
Conocimientos Técnicos (Excluyentes)
  • Desarrollo de procesos ETL/ELT en entornos distribuidos.
  • Lenguajes de programación: Python (excluyente) y/o Scala.
  • Dominio avanzado de SQL.
  • Uso de sistemas de control de versiones (GitLab).
  • Conocimientos en modelado de datos, optimización de consultas y performance tuning.
  • Experiencia en entornos Linux y uso de contenedores Docker.
Competencias Relevantes
  • Autonomía técnica y capacidad de autoaprendizaje.
  • Pensamiento analítico y orientación a la solución de problemas complejos.
  • Capacidad para el trabajo colaborativo y comunicación efectiva en equipos multidisciplinarios.
  • Compromiso con la calidad, documentación y cumplimiento de estándares técnicos y normativos.

Conocimientos Deseables

  • Uso de herramientas de infraestructura como código (IaC) como Terraform o AWS CloudFormation.
  • Conocimiento en metodologías ágiles.
  • Experiencia con arquitecturas Data Mesh o Data Lakehouse.
  • Uso de herramientas de observabilidad como CloudWatch, Grafana y Prometheus.
  • Conocimientos en herramientas de visualización como QuickSight y Power BI.
  • Familiaridad con estándares nacionales relacionados con protección de datos personales y seguridad de la información en el sector público (Ley N°19.628).

Beneficios

Ofrecemos un ambiente laboral colaborativo y enriquecedor, ideal para tu desarrollo profesional continuo. Proporcionamos flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales, brindándote una vasta experiencia en el ámbito digital.
En Zerviz fomentamos un entorno diverso e inclusivo donde la creatividad y la innovación son fundamentales. Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.
¡Si te apasiona la tecnología y deseas mejorar la experiencia del cliente, únete a nosotros!

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Moventi
Python SQL Docker Kubernetes
Moventi is a forward-thinking technology company dedicated to empowering organizations to lead in their industries through innovation and advanced technology solutions. Our work culture encourages transparency, teamwork, and continuous learning. We operate from a centrally located office offering modern collaborative spaces, including agile meeting tables and recreational areas, fostering a vibrant and supportive environment. The Senior Data Engineer will join a multidisciplinary team working on transformative projects in healthcare technology and software services, enabling data-driven decision making that positively impacts healthcare outcomes and technological advancements within our clients' businesses.

Find this vacancy on Get on Board.

Role and Responsibilities

As a Senior Data Engineer at Moventi, you will be a key player in architecting, developing, and maintaining scalable data pipelines and infrastructure. Your responsibilities will include:
  • Designing and implementing robust ETL/ELT pipelines using SQL, Python, and Airflow to process large volumes of complex data efficiently.
  • Managing and optimizing data storage and processing frameworks, particularly leveraging Snowflake's cloud data platform for high performance and scalability.
  • Collaborating closely with data scientists, analysts, and stakeholders to translate business needs into effective data solutions.
  • Developing and maintaining data visualization tools and dashboards using Tableau to provide actionable insights to business users.
  • Ensuring data quality, security, and governance best practices are implemented and monitored.
  • Mentoring junior data engineers and sharing knowledge to enhance team capabilities.
Your role is vital to transforming raw data into meaningful analytics deliverables that drive strategic business decisions and innovation within healthcare technology and software service domains.

Requirements and Qualifications

We are looking for a Senior Data Engineer with the following expertise and skills:
  • 5+ years of professional experience in data engineering or analytics engineering roles
  • Proven expertise with Snowflake (data modeling, performance optimization, security)
  • Strong proficiency in Python for data processing and automation
  • Hands-on experience with Apache Airflow for the orchestration of workflows
  • Proficiency in SQL with experience in optimizing queries and data transformations
  • Experience developing data visualizations using Tableau
  • Familiarity with healthcare technology, software services, or tech-enabled analytics platforms
  • Excellent communication skills and experience working with multidisciplinary stakeholders
  • Comfortable working autonomously and capable of delivering high-quality work independently
  • Previous exposure to remote-first work environments; adaptable and collaborative

Desirable Skills and Experience

Preferred additional skills include:
  • Experience with other cloud platforms such as AWS, Azure, or GCP.
  • Knowledge of containerization tools like Docker and orchestration platforms such as Kubernetes.
  • Familiarity with machine learning pipelines and collaboration with data science teams.
  • Understanding of healthcare data standards (e.g., HL7, FHIR) and data privacy regulations like HIPAA or GDPR.
  • Participation in open-source data engineering projects or community involvement.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work options, enabling you to balance work and personal life effectively.
  • Participation in highly challenging projects that encourage innovation and skill development.
  • A positive and collaborative company culture based on transparency, commitment, and innovative thinking.
  • Central office location with modern facilities including parking and recreational areas, ideal for hybrid work if preferred.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
Python SQL Docker Machine Learning

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Find this vacancy on Get on Board.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python Git SQL Docker
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Apply to this job without intermediaries on Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Kafka AWS Lambda AWS Athena AWS Redshift
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

This job offer is available on Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL BigQuery ETL
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

© Get on Board. All rights reserved.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Docker CI/CD
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

© getonbrd.com.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Senior Data Scientist
  • Niuro
BigQuery Docker Kubernetes Google Cloud Platform
Niuro connects projects with elite tech teams, specializing in collaboration with leading U.S. companies. The position is part of Niuro's international team focused on delivering impactful, data-driven solutions. These projects leverage advanced industrial data science techniques such as predictive maintenance, causal modeling, time series analysis, forecasting, classification, regression, and recommender systems. Niuro empowers tech teams with continuous growth opportunities and handles all administrative tasks, enabling team members to focus on cutting-edge innovation within global client projects.

Official job site: Get on Board.

Responsibilities

As a Senior Data Scientist at Niuro, you will be a key contributor to diverse data science projects across various industries. Your main responsibilities include designing and implementing models for predictive maintenance, causal inference, time series forecasting, classification and regression tasks, and recommender systems. You will collaborate with cross-functional teams to develop robust solutions that generate actionable insights for global clients.
You will also be expected to apply your deep knowledge of mathematical engineering and AI to solve complex problems, mentor junior data scientists, and ensure best practices in data preparation, modeling, and deployment, primarily using technologies like Google Cloud Platform (GCP) and BigQuery.
This role requires strong communication skills to translate technical findings into business value and participate in strategic decision-making.

Requirements

We are seeking candidates with a degree in Mathematical Engineering or related fields in Artificial Intelligence. You should have extensive experience working on a variety of data science projects, including but not limited to predictive maintenance, causal modeling, time series analysis, forecasting, classification and regression, causality analysis, and recommender systems.
Proficiency in Google Cloud Platform (GCP) and BigQuery is essential for this role. Experience with cloud-based data infrastructure and scalable data processing pipelines is required.
We value candidates with a strong analytical mindset, problem-solving skills, and a collaborative approach. Ability to work fully remotely with global teams while maintaining high engagement and communication standards is important.
Bonus experience includes working in sectors such as mining, mechanical systems, or finance, where domain-specific knowledge can enhance project impact.

Preferred Qualifications

Experience with additional cloud platforms, advanced causal inference frameworks, and big data technologies is highly desirable. Familiarity with containerization and orchestration tools like Docker and Kubernetes can be a plus.
Prior work in industrial or mechanical sectors, especially mining and finance, is beneficial to understand domain-specific challenges and tailor data solutions accordingly.
Strong leadership skills and experience mentoring junior data scientists will be considered valuable.

What We Offer

We offer the opportunity to engage in technically rigorous, impactful industrial data projects fostering professional growth and innovation. Our environment promotes technical excellence and continual learning.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere around the globe.
Continuous career development is encouraged through training programs and leadership growth opportunities.
Following successful initial collaboration, there is the possibility of transitioning into a stable, long-term full-time position.
Joining Niuro means becoming part of a global tech community backed by strong administrative support that allows you to focus on delivering exceptional results.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Git SQL Go

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Job source: getonbrd.com.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Docker AWS Lambda
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

This offer is exclusive to getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly on the original site at Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Wellness program NeuralWorks offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $8000 - 12000 Tiempo completo
AI Engineer
  • PEOPLE
Python Virtualization Docker Continuous Deployment
People Co. es una empresa especializada en la búsqueda y selección de talento, que ofrece soluciones ágiles y personalizadas en reclutamiento adaptadas a las necesidades de cada organización. En esta oportunidad, buscamos un/a AI Engineer para integrarse a un proyecto estratégico de un año de duración, con modalidad 100% remota. El proyecto está enfocado en la inteligencia artificial aplicada a la automatización empresarial, desarrollando y desplegando soluciones basadas en agentes inteligentes y arquitecturas cognitivas, que interactúan con múltiples sistemas y plataformas empresariales.

Job opportunity published on getonbrd.com.

Responsabilidades

  • Diseñar y supervisar arquitecturas de soluciones con agentes inteligentes y LLMs (LangChain, LlamaIndex, CrewAI, etc.).
  • Desarrollar agentes que interactúan con usuarios, APIs, ERPs y plataformas externas.
  • Implementar protocolos MCP y A2A para coordinación multi-agente.
  • Integrar agentes con bases de datos, APIs y sistemas legacy.
  • Colaborar con equipos de producto, backend, MLOps y UX.
  • Establecer buenas prácticas de desarrollo, monitoreo y trazabilidad de agentes.

Requisitos indispensables

  • Más de 5 años de experiencia en proyectos de inteligencia artificial.
  • Al menos 2 años trabajando con agentes autónomos o copilotos.
  • Dominio de Python, FastAPI, asyncio y Pydantic.
  • Experiencia con frameworks y herramientas como LangChain, AutoGen, CrewAI, LlamaIndex o similares.
  • Conocimiento sólido en arquitecturas RAG, procesamiento de lenguaje natural (NLP), embeddings y vector stores (Chroma, Pinecone, etc.).
  • Familiaridad con CI/CD, Docker, Kubernetes y monitoreo en entornos de MLOps.
  • Inglés técnico fluido.
Buscamos profesionales con capacidad de diseñar soluciones complejas, colaborar en equipos multidisciplinarios y buenas prácticas de desarrollo para garantizar la eficiencia y trazabilidad de los agentes inteligentes desplegados en el proyecto.

Deseables (no excluyentes)

  • Experiencia en servicios de IA en la nube (Azure, AWS, GCP).
  • Conocimientos en lenguajes como Golang, Java o C#.
  • Participación en comunidades open-source o contribuciones a frameworks de agentes.

Beneficios

Proyecto retador de alto impacto.
Modalidad: 100% remoto.
Duración: 1 año, con opción a extensión.
Esquema de contratación por asimilados.
Sueldo : $8000 a $12000 dolares mensuales

Computer provided PEOPLE provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
AI Engineer
  • Niuro
Python Docker FastAPI API Design
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. We focus on innovative and challenging projects that foster continuous professional growth and technological excellence.

This offer is exclusive to getonbrd.com.

About the Role:

We’re looking for an AI Engineer to help us develop intelligent agent systems that automate the processing of structured and semi-structured documents. Your work will improve user experience and internal workflows, focusing on automation, accuracy, and scalability.

Requirements:

  • Fluent English (written and spoken)
  • Strong programming skills in Python
  • Experience working with large language models (LLMs) such as OpenAI API or similar
  • Ability to design and build APIs using FastAPI
  • Familiarity with AWS or other cloud platforms

Nice-to-have:

  • Experience with Docker, Gunicorn, and Amazon ECS
  • Knowledge of Amazon Bedrock, Amazon Textract, BAML, and Pydantic AI
  • Familiarity with Aestiva HTML/OS and Streamlit for prototyping
  • Experience with frontend testing using Playwright and backend testing using pytest
  • Experience with monitoring tools like CloudWatch, Prometheus, and Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1500 Tiempo completo
Desarrollador/a Joven de IA
  • Catchai
  • Santiago (Hybrid)
JavaScript Python Git Node.js

En CatchAI es cri bir a Andres 9 catchai punto ai estamos construyendo el futuro del trabajo con agentes de inteligencia artificial que ya están operando en empresas reales de América Latina. No hablamos de promesas: ya estamos automatizando procesos de venta, postventa, análisis de datos y más, generando ahorro de tiempo y aumento de productividad real para nuestros clientes.

Estamos formando un equipo técnico ágil y creativo que diseñe, entrene y despliegue agentes de IA en ambientes productivos, utilizando herramientas modernas como OpenAI, LangChain, n8n y servicios cloud. Nuestro foco es claro: resolver problemas reales con tecnología simple, rápida y efectiva.

Queremos sumar a personas que no solo sepan programar, sino que tengan curiosidad, autonomía y ganas de probar, fallar, iterar y lanzar. Si te motiva el mundo de la IA aplicada y quieres trabajar en productos que impactan hoy (no en 10 años), te estamos buscando.

© Get on Board.

¿Qué valoramos en ti?

  • Bases sólidas en Python y/o JavaScript (Node.js, React)
  • Experiencia integrando APIs RESTful
  • Conocimiento básico en Docker, redes, cloud y microservicios
  • Capacidad de autogestión e investigación técnica
  • GitHub con proyectos propios, pruebas o prototipos
  • Buena comunicación remota y experiencia en equipos ágiles, incluso si es en proyectos personales

🧠 ¿Qué ofrecemos?

Buscamos un/a desarrollador/a con ganas de aprender rápidamente y con actitud startup: resolver problemas, lanzar productos y mejorar constantemente. Valoramos la curiosidad y el empuje para crecer profesionalmente en un entorno dinámico con impacto real. La experiencia en desarrollo de software se combina con habilidades de autogestión y comunicación efectiva para integrarse en un equipo pequeño y flexible.

Además, es importante contar con bases técnicas sólidas en Python y/o JavaScript (Node.js y React), tener experiencia en la integración de APIs RESTful, y un conocimiento básico de herramientas y conceptos como Docker, redes, cloud y microservicios. La participación activa en comunidades tecnológicas o proyectos personales demostrables en GitHub es un plus.

✨ Bonus que nos encantan (no excluyentes):

  • Experiencia probando tecnologías como OpenAI, HuggingFace, LangChain, LlamaIndex y n8n
  • Trabajo con automatización o herramientas no-code/low-code
  • Participación en hackathons, emprendimientos o side-projects

Ofrecemos un espacio para crecer rápidamente con impacto real, trabajo remoto y horario flexible. Somos un equipo pequeño, dinámico y sin burocracia, con buen clima laboral. El sueldo es competitivo y existe la posibilidad de acceso a participación accionaria (equity) en el futuro.

POSTULAR VÍA WEB Ver trabajo
Gross salary $5000 - 7000 Tiempo completo
MLOps Engineer
  • PEOPLE
DevOps Virtualization Docker Continuous Deployment
Role Summary
We are looking for an experienced MLOps Engineer with a strong background in implementing robust infrastructure to support the full lifecycle of machine learning models. This role is key to ensuring that models developed by data science teams can be trained, deployed, monitored, and maintained in production in a secure, scalable, and automated manner.

Send CV through getonbrd.com.

Responsibilities

  1. Design and implement training, validation, and deployment pipelines for machine learning models (CI/CD for models).
  2. • Manage and optimize infrastructure for distributed training, parallel processing, and efficient storage.
  3. • Automate model versioning, dataset management, environment configuration, and dependency management.
  4. • Collaborate with Data Scientists to operationalize experimental notebooks and turn them into production-ready services.
  5. • Integrate models with APIs and backend architectures, ensuring performance and security.
  6. • Establish processes for monitoring data drift and model performance in production.
  7. • Define standards for reproducibility, validation, and automated testing throughout the ML lifecycle.

Profile Requirements

  1. At least 4 years of experience as an SRE, DevOps, or Platform Engineer in ML projects.
  2. Knowledge of model monitoring frameworks such as Evidently, Arize AI, WhyLabs, or similar.
  3. Proficiency with tools like Prometheus, Grafana, ELK/EFK, OpenTelemetry, or Datadog.
  4. Experience with orchestration tools like Airflow, Kubeflow, or experiment tracking platforms (MLflow, Weights & Biases) Strong skills in Kubernetes, Docker, Helm, and infrastructure-as-code tools (Terraform, Pulumi). 
  5. Experience with CI/CD for ML pipelines (testing, validation, rollback).

Nice-to-Haves (not mandatory)

  1. Experience running ML models on Alibaba Cloud and configuring observability within that environment.
  2. Familiarity with canary deployment, shadow testing, and controlled experimentation strategies
  3. Knowledge of explainable AI frameworks and model auditing practices.
  4. Previous experience in high-transaction environments such as banking, payroll, accounting, or logistics.

Condiciones

Work modality: Remote
Project duration: 1 year
Salary: To be negotiated

Computer provided PEOPLE provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer Sr
  • CMPC
  • Santiago (Hybrid)
Python Analytics Agile Git

Responsable de la concepción, elaboración y despliegue de soluciones analíticas robustas y escalables en producción, priorizando la eficiencia, facilidad de mantenimiento y rapidez en la entrega. Centrado en el desarrollo en la nube, utilizando estadística, Machine Learning clásico, Deep Learning y/o Inteligencia Artificial Generativa (Gen AI). Responsable de asegurar altos niveles de calidad, rendimiento e integridad en modelos y pipelines implementados. Trabaja en estrecha colaboración con Ingenieros de Datos, Desarrolladores, DevOps, Arquitectos, Product Managers, Líderes Técnicos, Científicos de Datos y profesionales del negocio, promoviendo iniciativas estratégicas de la organización mediante la implementación de soluciones analíticas en producción.

Apply to this job opportunity at getonbrd.com.

Funciones del cargo

  • Crear Pipelines de Machine Learning completos: diseña, implementa y mantiene flujos de entrenamiento, validación y despliegue garantizando trazabilidad, reproducibilidad y monitoreo continuo en producción bajo principios de MLOps.
  • Gestiónar datos: Lidera procesos ETL para el entrenamiento y serving, asegurando calidad y disponibilidad mediante pipelines automatizados y versionados en el data warehouse.
  • Exponer modelos de Machine Learning: Despliega y opera modelos (propios, de terceros y gen-AI) como APIs seguras, escalables y monitorizadas, integradas con las aplicaciones analíticas de la gerencia.
  • Optimizar modelos de Machine Learning: realiza fine-tuning y aplica buenas prácticas (prompt management, feature store, RAG, etc.) para maximizar desempeño y eficiencia.
  • Aportar en la evolución del framework de MLOps: impulsa la mejora continua de estándares CI/CD, infra serverless, gobernanza de features y automatización de procesos.
  • Liderazgo técnico: Actúa como referente y agente de cambio digital, promoviendo buenas prácticas y documentación rigurosa en todo el equipo.

Requerimientos del cargo

Formación: Ingeniería informática, ingeniería matemática, ingeniería industrial, estadística o similar.

Experiencia:

  • 5 años o más como machine, learning engineer o equivalente.

Conocimiento específico:

  • Herramientas Cloud para Machine Learning y analítica, de preferencia Vertex AI o en su defecto, experiencia en kuberflow (Excluyente).
  • Control de versión con Git (Excluyente).
  • Experiencia creando pipelines de CI/CD (Excluyente).
  • Dominio en Gitlab /Github o similar (Excluyente).
  • Deseable Metodologías agiles (Scrum, Kanban).
  • Deseable experiencia comprobada en desarrollo de aplicaciones basadas en Gen IA (conocimiento de ADK preferente o LangGraph).
  • Deseable dominio de Terraform.
  • Deseable experiencia con solvers de optimización lineal entera de preferencia Gurobi.
  • Deseable experiencia con docker.
  • Deseable experiencia con Arquitectura serverless.

Computación:

  • Python Avanzado (Excluyente)
  • SQL (Excluyente)

Condiciones

  • Contrato: Indefinido
  • Ubicación: Santiago
  • Modalidad: 4x1( 4 días presencial, 1 día online)

Health coverage CMPC pays or copays health insurance for employees.
Computer provided CMPC provides a computer for your work.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Data Scientist & Machine Learning Engineer
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

Opportunity published on Get on Board.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
MLOps Engineer
  • Niuro
Python Linux Docker Kubernetes
Niuro is a global technology company dedicated to connecting elite tech teams with leading U.S. enterprises. We focus on delivering innovative industrial data projects that drive transformation and foster innovation. By partnering with top-tier companies in the United States, we enable our teams to work on impactful challenges in a collaborative and technically rigorous environment. Our projects typically involve developing scalable, automated machine learning pipelines, leveraging cloud services, and integrating cutting-edge MLOps tools to ensure continuous delivery and operational excellence.
As part of Niuro, you will contribute to these projects with a strong emphasis on automation, reliability, and scalability of ML solutions, while benefiting from our commitment to professional growth, training, and leadership development.

This job offer is on Get on Board.

Role and Responsibilities

As a Senior MLOps Engineer at Niuro, you will be responsible for designing, implementing, and maintaining robust machine learning operations pipelines to support large-scale data and ML workflows.
  • Build and manage end-to-end ML lifecycle automation using tools like Databricks and MLflow.
  • Collaborate closely with data scientists, software engineers, and project stakeholders to streamline model deployment, monitoring, and versioning.
  • Develop and optimize batch processing pipelines on Linux environments to ensure efficient data throughput.
  • Implement best practices for CI/CD within ML workflows using Bitbucket repositories and automated testing frameworks.
  • Ensure infrastructure reliability, scalability, and security for ML production environments.
  • Troubleshoot and resolve operational issues related to ML systems and data workflows.
  • Contribute to the team's continuous improvement by sharing knowledge, mentoring juniors, and participating in architecture discussions.

Required Skills and Experience

We are looking for experienced MLOps engineers with a strong technical background in operationalizing machine learning models and workflows in production environments. The ideal candidate will have:
  • Deep hands-on experience with Databricks for big data processing and ML model management.
  • Proficiency in using MLflow for experiment tracking, model registry, and deployment pipelines.
  • Strong Python programming skills, especially for scripting automation tasks and pipeline development.
  • Experience working with Bitbucket for source code management and CI/CD integration.
  • In-depth knowledge of designing and managing batch processing systems, optimizing job scheduling and resource allocation.
  • Comfortable working in Linux environments, with solid command-line skills and system administration basics.
  • Good conversational English skills to effectively communicate with our U.S.-based teams and stakeholders.
  • Strong problem-solving skills, attention to detail, and ability to work autonomously in a remote setting.
  • Prior experience in collaborative remote teams and agile methodologies is a plus.
We value individuals who are proactive learners and continuously seek innovative solutions to complex ML operational challenges.

Preferred Qualifications


  • Experience with cloud platforms such as AWS, Azure, or GCP, especially their ML and data pipeline services.
  • Familiarity with containerization tools like Docker and orchestration frameworks such as Kubernetes.
  • Knowledge of infrastructure-as-code (IaC) tools like Terraform or CloudFormation.
  • Exposure to real-time data streaming technologies such as Kafka or AWS Kinesis.
  • Background in software engineering practices including unit testing, code reviews, and design patterns.
  • Previous experience in mentoring or leading technical teams.

What We Offer

At Niuro, we provide a fully remote work environment with a flexible schedule that allows you to work from anywhere within the LATAM region. We believe in fostering a culture of continuous learning and professional development through ongoing training programs in both technical and leadership skills.
We offer the opportunity to join projects that are technically challenging and impactful in the industrial data space, enabling you to grow your skill set and advance your career. Our supportive infrastructure handles all administrative tasks including hiring, payments, and training so you can focus entirely on your core responsibilities.
Successful collaboration on initial contracts often leads to longer-term, stable employment opportunities, reinforcing our commitment to our team members’ career paths.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
AI Engineer
  • Niuro
JavaScript Python Docker FastAPI
Niuro is a company that connects projects with elite tech teams, collaborating with leading U.S. companies to simplify global talent acquisition. Our mission is to provide autonomous, high-performance tech teams that partner with top-tier U.S. companies. We emphasize continuous professional growth, technical and soft skills training, and leadership development. We also take care of all administrative tasks, such as hiring, payments, and training, so our teams can focus on delivering exceptional results. This AI Engineer position is part of our efforts to develop intelligent agent systems that automate processing of structured and semi-structured documents, improving platform user experience, internal workflows, and ensuring data accuracy and security.

This job offer is on Get on Board.

About the Role:

We are looking for an experienced AI Engineer to lead the development of intelligent agent systems that automate the processing of structured and semi-structured documents. The role aims to enhance the user experience on our platform by streamlining internal processes such as information validation and extraction. The AI Engineer will focus on improving accuracy, efficiency, and protecting sensitive data.
The engineer will be responsible for designing, implementing, and maintaining automation solutions using AI technologies and ensuring seamless integration within the platform's architecture. They will also collaborate with cross-functional teams to optimize workflows and monitor system performance through advanced monitoring tools.

Requirements:

  • Fluent English (both written and spoken) to communicate effectively in a distributed international team.
  • Proven experience building intelligent agents for document automation, demonstrating mastery of related AI concepts and frameworks.
  • Strong skills in improving user experience (UX) and internal workflows through automation, focusing on delivering value and efficiency.
  • Prioritize cost-efficiency, accuracy, and the protection of sensitive data when designing and deploying solutions.
  • Experience with the following technology stack:
    • Languages: Python, HTML, JavaScript
    • AI/Agent Frameworks: BAML, Pydantic AI, Amazon Bedrock, Amazon Textract
    • Infrastructure: FastAPI, Gunicorn, Docker, Amazon ECS
    • Frontend: Aestiva HTML/OS, Streamlit (primarily for prototyping)
    • Testing frameworks: pytest (backend), Playwright (frontend)
    • Monitoring tools: CloudWatch, Prometheus, Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 5000 Tiempo completo
Data Engineer / Machine Learning Engineer
  • Lilo AI
Python SQL NoSQL Docker
Lilo AI is an innovative startup dedicated to transforming procurement for Commercial Real Estate (CRE) businesses by creating the most hassle-free procurement platform globally. Our platform leverages artificial intelligence to automate and optimize various procurement workflows, including invoicing, vendor management, and price comparisons. Serving diverse sectors such as hotels, gyms, schools, and senior living homes, our solutions save clients valuable time and money while improving operational efficiency. Our major clients include prestigious brands such as Fairfield, Hampton Inn, and Hilton. By joining Lilo AI, you will contribute to revolutionizing procurement processes at scale through cutting-edge AI technologies.

Exclusive offer from getonbrd.com.

About the Role

As a Data Engineer / Machine Learning Engineer at Lilo AI, you will play a pivotal role in advancing and deploying machine learning solutions that enhance our procurement platform. Your primary responsibilities will include:
  • Designing, developing, and implementing machine learning models to optimize procurement workflows, such as price prediction algorithms, anomaly detection systems, and recommendation engines.
  • Building and maintaining robust data pipelines to efficiently preprocess and cleanse both structured and unstructured datasets.
  • Collaborating closely with engineers, product managers, and business stakeholders to integrate AI-driven insights seamlessly into our platform environment.
  • Optimizing model performance and reliability, including contributing to monitoring strategies and retraining pipelines to sustain production quality.
  • Keeping abreast of the latest developments in AI, machine learning, and data science to continually enhance our technology stack.
  • Supporting the deployment of machine learning models into production environments and improving MLOps workflows to increase operational efficiency.
This role requires a proactive mindset, a passion for AI applications in real-world business contexts, and the ability to thrive in a dynamic, fast-paced, and collaborative global team.

What You Will Need

To succeed in this role, candidates should demonstrate strong technical proficiency and relevant experience as detailed below:
  • A minimum of 2 years of professional experience in machine learning, data science, or closely related fields.
  • Proficiency in Python programming and familiarity with prominent ML frameworks and libraries such as Scikit-Learn, TensorFlow, or PyTorch.
  • Hands-on experience with both SQL and NoSQL databases, including but not limited to MongoDB and PostgreSQL.
  • Solid understanding of data preprocessing techniques, feature engineering, and model evaluation methodologies essential for robust ML model development.
  • Basic knowledge or experience with containerization (Docker), cloud computing platforms (AWS, Google Cloud Platform, or Azure), and MLOps tools is highly desirable.
  • Analytical mindset with strong problem-solving skills, able to handle and extract insights from large datasets effectively.
  • A continuous learner attitude, eager to develop technical and professional skills while contributing to team goals.
We value curiosity, collaboration, and adaptability, wanting individuals who are ready to grow alongside our rapidly expanding company.

Desirable Skills and Experience

While not mandatory, the following skills and experiences will give candidates an edge:
  • Experience working with time-series data, demand forecasting, or procurement-related AI models.
  • Familiarity with advanced ML techniques such as deep learning, reinforcement learning, or natural language processing.
  • Hands-on exposure to MLOps pipelines, automated model deployment, and monitoring platforms.
  • Knowledge of data engineering tools and frameworks like Apache Airflow, Spark, or Kafka.
  • Prior experience in the hospitality or Commercial Real Estate sectors.
  • Strong communication skills to effectively articulate technical concepts to non-technical stakeholders.

Why Lilo AI?

Joining Lilo AI offers a unique opportunity to make a significant impact at a fast-growing US-based startup while enjoying the flexibility of remote work from Latin America. We provide:
  • A high-impact role within a pioneering team revolutionizing procurement with AI.
  • Possibility to grow professionally with opportunities to increase responsibilities over time.
  • Stock options available for the right candidate, sharing in our long-term success.
  • A collaborative, global, and multi-cultural work environment fostering innovation and continuous learning.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Lilo AI pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Dental insurance Lilo AI pays or copays dental insurance for employees.
Computer provided Lilo AI provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Lilo AI gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
MLOps Engineer
  • Niuro
Python Linux Docker Kubernetes
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Apply to this posting directly on Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo