We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
AI Architect Senior
  • Improving South America
JavaScript Java Python Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Applications at getonbrd.com.

Funciones del cargo

Estamos en la búsqueda de un AI Architect SR con manejo de inglés para sumarse a un proyecto de la manos con un cliente enfocado en proporcionar a las empresas herramientas y experiencia necesarias para alcanzar el éxito, cumpliendo con:

  • Diseñar y ejecutar soluciones de IA/ML de punta a punta en plataformas cloud (GCP, AWS), incluyendo ingestión de datos, desarrollo de modelos, despliegue y monitoreo.
  • Liderar y guiar equipos de ingeniería multifuncionales, fomentando un entorno colaborativo y de alto rendimiento.
  • Colaborar con stakeholders para recopilar requisitos, definir el alcance del proyecto y alinear las soluciones técnicas con los objetivos del negocio.
  • Supervisar la modernización y migración de sistemas legacy hacia arquitecturas nativas en la nube, aprovechando tecnologías serverless y basadas en contenedores.
  • Diseñar y gestionar pipelines de CI/CD para flujos de trabajo de ML, asegurando despliegues automatizados, robustos y seguros.
  • Evaluar y seleccionar los frameworks, herramientas y tecnologías de IA/ML más adecuados (por ejemplo, TensorFlow, Scikit-learn, Vertex AI, Generative AI).
  • Desarrollar y aplicar buenas prácticas para la gestión de datos, entrenamiento, validación y gobernanza de modelos.
  • Impulsar la innovación explorando e integrando tecnologías y metodologías emergentes en IA/ML.
  • Garantizar el cumplimiento de estándares de privacidad y seguridad de datos, especialmente en industrias reguladas (por ejemplo, salud, finanzas).

Requerimientos del cargo

  • Nivel de Inglés oral y escrito B2/C1 (intermedio /avanzado) Excluyente.
  • Más de 7 años de experiencia en ingeniería de software, con al menos 4 años en arquitectura de soluciones de IA/ML en la nube.
  • Experiencia comprobada liderando equipos de ingeniería y gestionando proyectos complejos.
  • Amplia experiencia en plataformas cloud (GCP, AWS), incluyendo trabajo práctico con servicios como Vertex AI, Lambda, Cloud Functions, BigQuery, DynamoDB, entre otros.
  • Dominio de lenguajes de programación como Python, Java, JavaScript/TypeScript.
  • Sólido conocimiento de frameworks y herramientas de ML: Generative AI, Document AI.
  • Experiencia con contenedores y orquestación (Docker, Kubernetes, Terraform, Helm).
  • Sólida comprensión de procesos y herramientas de CI/CD (GitLab, AWS CodePipeline, Cloud Build).
  • Excelentes habilidades de comunicación, gestión de stakeholders y planificación de proyectos.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Senior Machine Learning Engineer – Computer Vision
  • Niuro
Python 3D Git DevOps
Niuro connects projects with elite tech teams, delivering autonomous, high-performance engineering groups to top U.S. companies. In this engagement, you will lead the design, implementation, and operation of end-to-end ML solutions for image and video analytics within a mining-industry context. The project emphasizes scalable ML pipelines, robust model quality, and strong MLOps practices to ensure reliable production deployment. You will collaborate closely with cross-functional teams to produce impactful ML products and maintain production-grade delivery standards.

© Get on Board. All rights reserved.

Key Responsibilities

  • Design and implement robust Computer Vision architectures for training and inference, building end-to-end data pipelines for image and video data.
  • Develop production-grade Python code with testing, logging, documentation, and engineering best practices.
  • Own and advance MLOps practices: CI/CD pipelines, dataset and model versioning, environment management, and monitoring for models and data in production.
  • Optimize models for latency, throughput, and hardware efficiency (GPU/CPU) while maintaining high accuracy through systematic experimentation.
  • Deploy and operate models in production—exposed APIs, batch processing, streaming, or edge deployments.
  • Collaborate with product, data, and business stakeholders to translate requirements into scalable ML solutions and drive continuous improvement.

Requirements

✅ Bachelor’s degree in Engineering, Computer Science, Mathematics, or related field.
✅ 5+ years of experience in Machine Learning / Deep Learning with a strong focus on Computer Vision (object detection, segmentation, tracking, pose estimation, 3D/stereo vision, or video understanding).
✅ Expert Python developer with hands-on experience in at least one DL framework (PyTorch, TensorFlow/Keras, JAX, etc.).
✅ Practical experience with CV libraries such as OpenCV, scikit-image, or similar tools.
✅ Proficient in Docker, Git, and CI/CD or MLOps platforms (e.g., Azure DevOps, GitLab CI, GitHub Actions, MLflow, Kubeflow).
✅ Proven track record deploying and operating ML models in production environments.
✅ Fluent in Spanish (required).

Nice-to-Have

🔸 Experience applying ML in industrial, mining, or edge environments.
🔸 Familiarity with cloud platforms (AWS, Azure, GCP).
🔸 Strong background in model monitoring, data quality, or ML observability.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
VP of Artificial Intelligence
  • Niuro
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects ambitious projects with elite tech teams and collaborates with leading U.S. companies. As our VP of AI, you will shape and execute the company’s AI strategy across multiple high-impact projects, overseeing the end-to-end lifecycle from ideation and research to production deployment and continuous optimization. You will partner with the CEO and cross-functional leaders to ensure AI initiatives align with business priorities, drive measurable value, and scale across diverse domains (data engineering, MLOps, cloud infrastructure, and productization). You will also lead the development of scalable, production-grade AI systems, foster a culture of technical excellence, and advocate for responsible AI practices within a globally distributed, remote-first organization.

Originally published on getonbrd.com.

Key Responsibilities

  • AI Strategy & Vision: Define and execute the organization's AI roadmap in close collaboration with the CEO, ensuring alignment with business priorities and market trends.
  • Technical Leadership: Lead by example—review architectures, guide model deployment strategies, and make high-impact decisions on data pipelines, LLM integration, and cloud scalability.
  • Architecture & Infrastructure: Oversee design and modernization of systems using AWS, Terraform, Kubernetes, FastAPI, Windows Server/IIS, and monitoring stacks (CloudWatch, Grafana).
  • Innovation & Productization: Drive the full lifecycle of AI initiatives—from research and prototyping to production deployment and ongoing optimization.
  • Cross-functional Collaboration: Partner with engineering, product, and data teams to ensure AI-driven initiatives deliver measurable value.
  • Executive Communication: Translate complex technical topics into actionable insights for leadership, investors, and clients.

Requirements

• 10+ years of experience in software engineering, AI/ML, or data architecture, with 5+ years leading technical or cross-functional teams. • Deep expertise in AI/ML engineering—proven ability to design, train, and deploy large-scale models (LLMs or ML pipelines) in production environments. • Expert-level skills in Python, cloud computing (AWS), and distributed systems. • Strong background in systems design, architecture modernization, and data engineering. • Hands-on experience implementing AI solutions end-to-end: data ingestion, model deployment, API integration, and monitoring. • Executive-level communication skills and ability to influence both technical and non-technical stakeholders. • Fluent in English (Spanish or Portuguese is a plus).

Nice to Have

• Experience in fintech, govtech, or enterprise SaaS environments. • Familiarity with AWS AI services, MLOps, and container orchestration (Kubernetes, ECS). • Exposure to LLM-based automation and agentic or retrieval-augmented systems (RAG). • Background in data governance, compliance, or model security.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
ML Engineer
  • Wird
Python Virtualization Amazon Web Services Continuous Deployment

Wird es una empresa en crecimiento que se especializa en mejorar la comunicación entre las empresas y sus clientes mediante soluciones basadas en Inteligencia Artificial. Su misión es transformar los procesos de ventas para aumentar la cantidad de cierres, reducir las tasas de fuga y mejorar la satisfacción del cliente. Además, se enfocan en rentabilizar las conversaciones, incrementando la eficiencia y la felicidad de los equipos de trabajo. La empresa está orientada a crear valor social en cada interacción y utiliza tecnologías de punta en IA, promoviendo un ambiente laboral agradable y colaborativo donde las contribuciones individuales son visibles y valoradas.

Job source: getonbrd.com.

Funciones del cargo

Como ML Engineer, tu propósito será diseñar, desarrollar y optimizar modelos de aprendizaje automático escalables, asegurando su precisión y eficiencia en producción. Implementarás y mantendrás pipelines de datos y métricas de monitoreo para garantizar un desempeño confiable.

Tus responsabilidades incluirán:

  • Diseñar, implementar y mantener pipelines de entrenamiento y fine-tuning para LLMs, incluyendo gestión de datasets, versionado y evaluación de modelos.
  • Optimizar la inferencia y el despliegue de modelos (batching, quantization, pruning, distillation) para lograr baja latencia y alto rendimiento en entornos productivos.
  • Desarrollar y mantener infraestructura MLOps especializada para LLMs, incluyendo automatización de retraining, monitoreo y control de calidad.
  • Integrar modelos de lenguaje de código abierto y APIs externas (OpenAI, Anthropic, Mistral, Llama, Hugging Face, etc.) dentro de los productos internos.
  • Implementar y escalar sistemas de Retrieval-Augmented Generation (RAG), manejo de embeddings y almacenamiento vectorial.
  • Crear herramientas para evaluar la calidad y comportamiento de los modelos (hallucinations, factuality, response consistency).
  • Colaborar con equipos de NLP y backend para integrar modelos de lenguaje en sistemas de producción de manera segura y eficiente.
  • Investigar, prototipar y aplicar los últimos avances en optimización de LLMs y modelos fundacionales, manteniendo a Wird a la vanguardia tecnológica.

Requerimientos del cargo

Buscamos un profesional con experiencia sólida en el ciclo de vida completo de los modelos de Machine Learning: desde el diseño hasta la implementación y monitoreo en entornos reales.

Se valorará especialmente:

  • Experiencia comprobable en entrenamiento, fine-tuning y despliegue de LLMs
  • Dominio de Python y frameworks como PyTorch, Transformers (Hugging Face) u otros
  • Conocimiento práctico en MLOps para LLMs: orquestación de pipelines (Airflow, Prefect, Kubeflow), versionado de datos/modelos (DVC, MLflow) y CI/CD.
  • Experiencia con infraestructura en la nube (AWS, GCP o Azure) y contenedores
  • Conocimientos en vector databases y servicios RAG, aplicados a la recuperación semántica y contextualización de respuestas.
  • Habilidad para analizar métricas de rendimiento y costo computacional, y para ajustar modelos según requerimientos de negocio.
  • Experiencia con optimización de inferencia (GPU/TPU utilization, quantization, mixed precision, caching).

Opcionales

Valoramos especialmente perfiles con una mentalidad analítica avanzada y entusiasmo por resolver problemas técnicos complejos.

  • Experiencia con LLM en plataformas como AI Foundry o Bedrock.
  • Capacidad para trabajar de forma colaborativa y efectiva en equipos multidisciplinarios, tanto técnicos como no técnicos.
  • Pasión por el aprendizaje continuo, la proactividad y la habilidad para tomar decisiones autónomas en contextos cambiantes.

Condiciones

  • Dias extra se vacaciones
  • Seguro de salud
  • Día libre de cumpleaños
  • Capacitaciones

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
NLP Engineer
  • Wird
Python Virtualization Amazon Web Services Docker
Wird es una empresa en crecimiento que se especializa en mejorar la comunicación entre las empresas y sus clientes mediante soluciones basadas en Inteligencia Artificial. Su misión es transformar los procesos de ventas para aumentar la cantidad de cierres, reducir las tasas de fuga y mejorar la satisfacción del cliente. Además, se enfocan en rentabilizar las conversaciones, incrementando la eficiencia y la felicidad de los equipos de trabajo. La empresa está orientada a crear valor social en cada interacción y utiliza tecnologías de punta en IA, promoviendo un ambiente laboral agradable y colaborativo donde las contribuciones individuales son visibles y valoradas.

Apply exclusively at getonbrd.com.

Funciones del cargo

Como NLP Engineer, tu misión principal será diseñar, desarrollar e implementar soluciones de procesamiento del lenguaje natural (NLP) que resuelvan problemas específicos del negocio, mejorando la eficiencia de los sistemas basados en texto.
Tus responsabilidades incluirán:
  • Diseñar y desarrollar pipelines de NLP end-to-end: limpieza, tokenización, vectorización, modelado y despliegue.
  • Implementar y adaptar modelos preentrenados (BERT, RoBERTa, GPT, Llama, Mistral), aplicando fine-tuning, prompt engineering y evaluación de desempeño.
  • Experimentar con técnicas de optimización (quantization, pruning, distillation) para mejorar eficiencia y latencia.
  • Desarrollar e integrar APIs y servicios que conecten los modelos NLP con los sistemas internos o productos de la empresa.
  • Analizar métricas de rendimiento (accuracy, F1, perplexity, latency) y realizar iteraciones basadas en evidencia.
  • Investigar y aplicar el estado del arte en aprendizaje profundo, embeddings semánticos, RAG (Retrieval-Augmented Generation) y agentes conversacionales.
  • Colaborar con equipos de Revenue y Produc

Requerimientos del cargo

Buscamos un profesional con experiencia comprobable en el diseño, desarrollo y optimización de soluciones de NLP.
  • Experiencia comprobable en procesamiento de lenguaje natural y desarrollo de modelos basados en Deep Learning.
  • Dominio de Python y bibliotecas como Hugging Face Transformers, PyTorch o TensorFlow.
  • Conocimientos en entrenamiento, fine-tuning y evaluación de modelos de lenguaje.
  • Experiencia con preprocesamiento de texto, embeddings, clasificación de texto, análisis de sentimientos o chatbots.
  • Familiaridad con MLOps, despliegue de modelos en entornos productivos (Docker, FastAPI, AWS/GCP/Azure).
  • Buen entendimiento de algoritmos de optimización, métricas de desempeño y manejo de datos desbalanceados.

Opcionales

Valoramos especialmente perfiles con una mentalidad analítica avanzada y entusiasmo por resolver problemas técnicos complejos.
  • Experiencia con LLM en plataformas como AI Foundry o Bedrock.
  • Capacidad para trabajar de forma colaborativa y efectiva en equipos multidisciplinarios, tanto técnicos como no técnicos.
  • Pasión por el aprendizaje continuo, la proactividad y la habilidad para tomar decisiones autónomas en contextos cambiantes.

Condiciones

  • Dias extra se vacaciones
  • Seguro de salud
  • Día libre de cumpleaños
  • Capacitaciones

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $4500 - 7500 Full time
Head of Artificial Intelligence
  • Niuro
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. The Head of AI will join Niuro’s remote-first environment to define and drive the AI strategy across the organization, partnering with the CEO to align technology with business goals. You will lead the design and deployment of scalable, secure AI platforms, modernizing legacy systems while delivering transformative AI capabilities for our clients. This role sits at the intersection of strategic leadership and hands-on technical execution, guiding cross-functional teams and ensuring that AI initiatives translate into measurable business outcomes. You will also help nurture a global, high-performance workforce through mentorship, training, and strong governance around AI programs.

Exclusive offer from getonbrd.com.

Key Responsibilities

  • Vision & Strategy: Partner with the CEO to define and execute Niuro's AI roadmap, ensuring alignment with business objectives and market opportunities. Translate strategy into actionable programs with clear milestones and metrics.
  • Architecture Leadership: Serve as the chief AI architect, designing scalable, secure AI-driven systems. Lead the transition from legacy platforms to modern infrastructure while ensuring reliability and compliance.
  • Innovation & Delivery: Drive rapid development of new AI-powered features and services, balancing speed with maintainability and long-term support.
  • Technology Oversight: Guide the use of cloud-based technologies (AWS, Terraform, Kubernetes, Python, Windows Server/IIS, FastAPI). Implement monitoring (CloudWatch, Grafana) and data pipelines (AWS Glue/Lambda) to ensure scalability and observability.
  • People & Stakeholders: Communicate complex technical concepts clearly to executives, clients, and internal teams. Mentor senior engineers and foster a culture of scientific rigor and responsible AI.

Required Skills & Experience

8+ years in software engineering, data science, or AI with at least 3+ years in leadership. Proven track record deploying AI/ML solutions at scale in production environments. Strong systems design background and experience with cloud platforms (AWS preferred). Advanced Python programming skills; experience with modern AI frameworks and LLMs. Demonstrated success modernizing legacy platforms and delivering scalable, maintainable AI solutions. Exceptional executive-level communication abilities and a talent for translating technical concepts into business value. Fluent in English; Spanish or Portuguese is a plus.

Desirable Skills & Experience

Experience in regulated industries (fintech, govtech) and products with active users and customer support operations. Familiarity with AWS AI services, container orchestration (Kubernetes/ECS), and MLOps. Exposure to LLM-based automation and data engineering workflows. A proactive, entrepreneurial mindset with a bias for action and strong collaboration skills.

Benefits & Perks

We offer the chance to participate in impactful, technically rigorous industrial data projects that drive innovation and professional growth. Niuro supports a 100% remote work model, enabling global flexibility. We invest in career development through ongoing training and leadership opportunities, ensuring continuous growth. Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment. Joining Niuro means being part of a global community with strong administrative support that enables you to focus on impactful work.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
Senior ML Engineer (Software Development Background)
  • Niuro
JavaScript Python Front-end Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Applications: getonbrd.com.

Role overview

We’re looking for a versatile engineer who can move across data, backend, and machine learning projects. The role combines strong software engineering foundations with applied ML expertise, ensuring scalable, reliable, and production-ready solutions.

What you’ll do

  • Contribute to end-to-end ML projects, bridging data engineering, backend development, and model deployment.
  • Design, implement, test, and maintain scalable data pipelines and production-ready ML systems.
  • Collaborate with cross-functional teams to translate business requirements into robust technical solutions.
  • Apply best practices in software engineering (testing, CI/CD, version control) and operate within AWS-powered environments.
  • Work with data platforms such as Snowflake and Databricks; handle data ingestion, cleaning, and processing.
  • Experiment with time-series modeling, generative models, or recommendation systems as applicable to projects.
  • Leverage JavaScript knowledge as a plus when interfacing with front-end or data visualization components.

Desired background

Proven experience in Python and AWS, strong software engineering mindset, solid understanding of data engineering pipelines, and hands-on ML experience in at least one of time series, generative modeling, or recommendation systems. Familiarity with Snowflake and Databricks is a plus. Strong communication skills and ability to work in an international, remote-first environment.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. We focus on innovative and challenging projects that foster continuous professional growth and technological excellence.

Apply to this job without intermediaries on Get on Board.

About the Role:

We’re looking for an AI Engineer to help us develop intelligent agent systems that automate the processing of structured and semi-structured documents. Your work will improve user experience and internal workflows, focusing on automation, accuracy, and scalability.

Requirements:

  • Fluent English (written and spoken)
  • Strong programming skills in Python
  • Experience working with large language models (LLMs) such as OpenAI API or similar
  • Ability to design and build APIs using FastAPI
  • Familiarity with AWS or other cloud platforms

Nice-to-have:

  • Experience with Docker, Gunicorn, and Amazon ECS
  • Knowledge of Amazon Bedrock, Amazon Textract, BAML, and Pydantic AI
  • Familiarity with Aestiva HTML/OS and Streamlit for prototyping
  • Experience with frontend testing using Playwright and backend testing using pytest
  • Experience with monitoring tools like CloudWatch, Prometheus, and Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

Send CV through getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Virtual Assistant
  • TileImpact, Inc.
  • Remoto 🌎
Full Time Monday.com Google Workspace QuickBooks Online ChatGPT

📌 Rol: Virtual Assistant

🌎 Ubicación: 100% remoto (Colombia; Bogotá preferido)

💼 Tipo de Contrato: Full-Time | Contractor (independent contractor)

🎓 Formación: GED


📋 Descripción General

TileImpact, Inc. (contratista comercial de tile y stone en el área de San Francisco Bay Area) busca un/a Virtual Assistant para apoyar al Presidente y al equipo de Operaciones. Es un rol para alguien muy organizado/a, tech-savvy y con capacidad de dar seguimiento y crear estructura en un entorno dinámico. Se trabaja en horario full-time remoto con solapamiento en las mañanas de Pacific Time.


📋 Responsabilidades Principales

• Gestionar inbox, calendario, reuniones y prioridades diarias del Presidente.

• Crear y mantener workflows en Monday.com (proyectos, tareas, seguimientos, dashboards).

• Tomar notas de reuniones y convertirlas en planes de acción claros.

• Dar seguimiento a tareas, deadlines y responsables para que nada se pierda.

• Apoyar en organización de archivos, CRM notes y records management.

• Soporte liviano en QuickBooks Online (invoicing, bills, receipts, AR follow-ups).

• Redactar resúmenes, SOPs, investigación y documentación interna.

• Usar herramientas de IA (ej.: ChatGPT) para optimizar emails, workflows y documentación.

• Manejar información sensible con discreción y profesionalismo.


🎯 Requisitos

• Experiencia comprobable como Executive Assistant o Virtual Assistant (mid-level: 4–7 años) apoyando a un/a business owner.

• Experiencia sólida creando y gestionando workflows en Monday.com.

• Inglés fluido (B2+) con excelente comunicación escrita.

• Manejo de Google Workspace y QuickBooks Online (básico) + facilidad para aprender sistemas nuevos.

• Perfil proactivo, detallista y muy organizado.

• Disponibilidad para trabajar solapando mañanas de Pacific Time.

• Residir en Colombia (Bogotá preferido) con home office e internet confiables.


🏖️ Beneficios

• 100% remoto con schedule de lunes a viernes.

• Posibilidad de aumentos según performance.

• Cultura “lean” (2-Second Lean) y empresa estable con visión de largo plazo.

• Rol con impacto directo en operaciones y crecimiento, con espacio para crecer.

VIEW JOB APPLY VIA WEB
$$$ Full time
Logistics Operations Assistant - Pacific Standard Time
  • Valatam
  • Remoto 🌎
Full Time Google Workspace Microsoft Office (plus: Asana Notion Trello)

📌 Rol: Logistics Operations Assistant (Pacific Standard Time)

🌎 Ubicación: 100% remoto

💼 Tipo de Contrato: Full time

💰 Salario: Rate por hora equivalente a USD $696 – $1,044/mes (según experiencia)

🕒 Horario: Lunes a Viernes, 8:00 AM – 5:00 PM PST


📋 Descripción General

Valatam busca un/a Logistics Operations Assistant para coordinar tareas operativas, gestionar comunicaciones y asegurar flujos de trabajo eficientes. El rol incluye coordinación con clientes y vendors, manejo de requests, invoicing/quoting y soporte administrativo, manteniendo altos estándares de servicio y organización.


📋 Responsabilidades Principales

• Atender stakeholders internos y externos con excelente servicio.

• Monitorear y responder comunicaciones (teléfono, email, redes).

• Revisar, aceptar y despachar service requests con precisión.

• Coordinar con clientes el servicio, follow-ups y satisfacción.

• Coordinar con vendors: solicitar pricing, ordenar y dar seguimiento.

• Realizar procesos diarios de invoicing y quoting con alta exactitud.

• Mantener y mejorar sistemas y procesos internos.

• Investigar y preparar información para uso interno/externo.

• Brindar soporte tipo executive assistant al CEO y líderes cuando se requiera.


🎯 Requisitos

• Inglés fluido (C1/C2) y español.

• 1–3 años de experiencia en operaciones o asistencia logística.

• Manejo de Google Workspace y Microsoft Office.

• Plus: Asana, Notion, Trello o similar.

• Buenas habilidades de comunicación y problem-solving.

• Home office silencioso, internet estable (≥10 Mbps down / 2 Mbps up) y conexión backup.

• Plus: Bachelor’s o Associate’s degree.


🏖️ Beneficios

• Incrementos anuales.

• Bonos discrecionales del cliente (muchos dan bono anual).

• 7 feriados federales de EE. UU. + 4 días PTO pagos.

• Stipend mensual de seguro médico (después de inducción).

• Bonos por cumpleaños/aniversario + gym/wellness allowance.

• Clases fitness online ilimitadas + eventos de compañía.

• Importante: durante los primeros 4 meses no se puede viajar; se debe trabajar desde los países listados.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Strategy & Reporting Manager
  • SOUTH
  • Remoto 🌎
Full Time Jenzabar Salesforce CRM Anthology Element451 data warehouse/lake (Azure/AWS/Snowflake)

📌 Rol: Data Strategy & Reporting Manager

🌎 Ubicación: 100% Remoto (LATAM) – Córdoba (AR), Buenos Aires (AR), Santiago (CL), CDMX/Monterrey (MX), Bogotá/Cali/Santander (CO), Río/Brasilia (BR), Panamá, San Salvador, Santo Domingo, San José, etc.

💼 Tipo de Contrato: Full Time

🎓 Formación: No especificada (CV en inglés requerido)


📋 Descripción General

South busca un/a Data Strategy & Reporting Manager para liderar el desarrollo, gobernanza y optimización del ecosistema de datos institucional de PHSU. El rol integra datos de múltiples sistemas universitarios (Jenzabar, Salesforce, Anthology, Element451, etc.) hacia un data warehouse/lake, y define un framework de reporting consistente (reportes diarios, semanales, mensuales y trimestrales) para decisiones estratégicas y operativas.


📋 Responsabilidades Principales

• Definir la estrategia end-to-end de integración de datos y evaluar fuentes actuales.

• Implementar un data warehouse o data lake (Azure, AWS, Snowflake, etc.).

• Construir y mantener pipelines y procesos ETL/ELT; mapear fields y estandarizar definiciones.

• Limpiar/transformar/validar datasets; prevenir duplicación y problemas de integridad.

• Crear políticas de data governance (definiciones, metadata, stewardship) y documentación/data dictionaries.

• Trabajar con equipos cross-funcionales (Enrollment, Academics, Marketing, Finance, IT, Institutional Research).

• Traducir necesidades de negocio a especificaciones técnicas y outputs analíticos; liderar sesiones de requirements.

• Diseñar dashboards/scorecards/reportes automatizados en BI (Power BI, Tableau, Looker, etc.).

• Construir reporting institucional: reportes diarios, semanales, mensuales y trimestrales.

• Desarrollar forecasting models y marcos de goal-tracking; optimizar integraciones para velocidad y confiabilidad.


🎯 Requisitos

• Residir en Latinoamérica (excluyente).

• Enviar CV en inglés (aplicaciones en otros idiomas no se consideran).

• Loom video opcional (prioriza candidatos).

• Competencias: pensamiento estratégico, atención al detalle, resolución de problemas, expertise técnico, comunicación cross-funcional, project management, data visualization/storytelling, accountability y follow-through.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Strategy & Reporting Manager
  • SOUTH
  • Remoto 🌎
Full Time Jenzabar Salesforce Anthology Element451 Data Warehouse/Lake (Azure/AWS/Snowflake

📌 Rol: Data Strategy & Reporting Manager

🌎 Ubicación: 100% Remoto (LatAm; múltiples ciudades listadas)

💼 Tipo de Contrato: Full Time

🎓 Formación: No especificada


📋 Descripción General

El rol lidera el desarrollo, gobernanza y optimización del ecosistema de datos institucional de PHSU. Será responsable de recolectar, limpiar, organizar e integrar datos de múltiples sistemas universitarios (Jenzabar, Salesforce, Anthology, Element451) hacia un data warehouse/lake, asegurando datos confiables para decisiones estratégicas, operativas y ejecutivas, y creando un marco de reporting consistente (diario/semanal/mensual/trimestral).


📋 Responsabilidades Principales

• Definir estrategia de integración end-to-end y evaluar fuentes (CRMs, plataformas de marketing, KPI trackers).

• Implementar data warehouse/lake (Azure, AWS, Snowflake u otros) y construir pipelines ETL/ELT.

• Mapear campos entre sistemas y estandarizar definiciones/naming conventions.

• Asegurar data quality (limpieza, validación, evitar duplicados) y crear políticas de data governance + documentación.

• Colaborar con Enrollment, Academics, Marketing, Finance, IT e Institutional Research; levantar requerimientos y capacitar equipos.

• Diseñar reporting framework: reportes trimestrales, dashboards mensuales, métricas semanales y snapshots diarios.

• Crear dashboards/scorecards/reportes automatizados en BI (Power BI, Tableau, Looker, etc.).

• Desarrollar forecasting models, goal-tracking y optimizar integraciones para velocidad y confiabilidad.


🎯 Requisitos

• Residencia en Latinoamérica (elegibilidad).

• CV en inglés (obligatorio).

• Loom video (opcional; da prioridad).

• Competencias clave: pensamiento estratégico, detalle, problem-solving, expertise técnico, comunicación cross-funcional, project management, data visualization/storytelling y accountability.

VIEW JOB APPLY VIA WEB
Gross salary $4200 - 5300 Full time
Líder Técnico de IA / MLOps
  • Norun SpA
C C++ Python Linux

Norun SpA es una empresa nacional líder en estudios de transporte y tránsito, enfocada en mejorar la movilidad con tecnología de punta. Nuestra área de I+D está desarrollando una plataforma para gestión de tráfico mediante visión computacional aplicada a video. El proyecto busca entrenar modelos de IA con pipelines de ML Ops, desplegarlos en edges, y desarrollar una plataforma web que entregue los resultados agregados a usuarios finales. El/la Líder Técnico de IA y ML Ops desarrolla y además es el referente técnico del equipo de desarrollo/data science, con responsabilidad sobre arquitectura, rendimiento y escalabilidad.

Apply directly at getonbrd.com.

Funciones principales

  • Liderazgo Técnico: Trabajar junto al Data Scientist para alinear experimentación con producción. Guiar a desarrolladores junior en la creación de una plataforma web para usuarios finales compatible con la infraestructura de IA. Garantizar código de alta calidad y buenas prácticas de ingeniería.
  • Arquitectura: Diseñar la arquitectura de sistema de punta a punta desde ingestión de datos hasta despliegue en hardware edge. Seleccionar el stack tecnológico óptimo (edge, librerías de optimización, plataformas cloud).
  • Productización y Optimización de Modelos: Tomar modelos entrenados por el Data Scientist y aplicar técnicas de optimización (cuantización, pruning, destilación). Realizar profiling y benchmarks para asegurar FPS y latencia requeridos en edge. Desarrollar la inferencia de alto rendimiento en Python y/o C++ para dispositivos edge.
  • Infraestructura y Automatización MLOps: Diseñar y construir pipelines CI/CD para entrenamiento, validación y despliegue. Implementar control de versiones de datos (DVC) y de modelos (MLflow). Configurar infraestructura en Cloud/local con Docker y Kubernetes para un entorno de producción escalable.

Descripción detallada

Buscamos un/a Líder Técnico/a de IA con fuerte experiencia en desarrollo de software y entrega de soluciones de IA en producción. El/la candidato/a ideal debe combinar habilidades técnicas profundas (ingeniería de software, optimización de modelos para inferencia en edge, pipelines de MLOps) con capacidad de liderazgo y visión de arquitectura de software. Será responsable de la gestión técnica del proyecto, desde la concepción de la arquitectura hasta la entrega de productos de software que cumplan con los KPIs establecidos.

Requisitos de entorno técnico incluyen Python y/o C++, herramientas de MLOps (ej. MLflow), contenedores Docker, y experiencia con servicios de IA/ML en AWS o GCP. Se valorará experiencia en edge computing, perfiles de hardware (CPU/GPU/VPU) y conocimientos en Linux. La persona deberá liderar técnicamente el equipo, promover buenas prácticas de desarrollo y garantizar la calidad del producto, además de actuar como traductor entre ciencia de datos y desarrollo de aplicaciones.

Deseable

  • Habilidades de liderazgo técnico, capacidad de mentoría, visión de arquitectura de software y propiedad de la infraestructura. Se espera proactividad, autonomía, y facilidad para adaptarse a cambios.
  • Experiencia comprobable de despliegue de modelos de IA para procesamiento de video en infraestructura edge.
  • Experiencia comprobable en ML Ops.
  • Idiomas: inglés técnico para lectura de documentación.

Beneficios y condiciones

  • Se prefiere presencialidad pero existe opción híbrida/remota para candidatos excepcionales.
  • Este cargo cuenta con opción part time, más enfocada en el liderazgo técnico.
  • Ofrecemos un entorno de crecimiento y respeto, con enfoque en desarrollo profesional dentro de una empresa líder en análisis de transporte y movilidad. Únete a un equipo que está transformando la movilidad en Chile y la región con tecnología de vanguardia.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Norun SpA provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior AWS Cloud Engineer
  • Merapar
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Cloud Computing
Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

Find this job on getonbrd.com.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developers

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Merapar pays or copays health insurance for employees.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1800 Full time
Escalation Engineer – Cloud & Infrastructure
  • Devups
Virtualization Amazon Web Services Azure Cloud Computing
En Devups, ofrecemos servicios de staff augmentation para clientes que buscan escalar sus equipos de IT sin las cargas administrativas tradicionales. Este rol de Escalation Engineer forma parte de nuestro equipo de ingeniería de infraestructura híbrida y cloud, orientado a gestionar incidentes complejos, migraciones y despliegues de alto impacto para clientes empresariales. Trabajarás directamente con entornos on-premise y en la nube (Azure, AWS, Google Cloud), apoyando a equipos de TI en proyectos críticos y asegurando la continuidad del negocio mediante soluciones robustas y documentadas. Nuestro objetivo es combinar la experiencia técnica con una ejecución ágil para entregar resultados de alta calidad y garantizar la seguridad y confidencialidad de la información.

This job offer is available on Get on Board.

Funciones principales

  • Gestionar escalaciones técnicas de nivel avanzado relacionadas con infraestructuras cloud y on-premise.
  • Diseñar, implementar y dar soporte a despliegues y migraciones en Microsoft Azure, AWS y Google Cloud Platform.
  • Administración, despliegue y migración de Microsoft 365 / Office 365.
  • Administrar servidores físicos y virtuales, tanto on-premise como en la nube, incluyendo VMware, Nutanix, Cisco HyperFlex y Hyper-V.
  • Diseñar e implementar soluciones de backup y disaster recovery (Datto y Veeam como tecnologías principales).
  • Soporte y mantenimiento de servicios críticos: Active Directory, DNS, Windows Servers.
  • Configuración y soporte de firewalls, switching y VPNs; gestión de incidentes y resolución proactiva de riesgos.
  • Identificación proactiva de peligros técnicos y mitigación a través de buenas prácticas de seguridad y gestión de cambios.
  • Documentación técnica detallada y participación activa en proyectos de infraestructura; coordinación con equipos y stakeholders.
  • Rotación de guardias (On-Call) y desplazamientos locales a instalaciones de clientes dentro de la región asignada.
  • Garantizar confidencialidad absoluta de datos, credenciales y sistemas.

Descripción

Buscamos un profesional con sólida experiencia en administración de infraestructuras híbridas y servicios en la nube para gestionar incidentes críticos, realizar migraciones y promover migraciones eficientes. Se requiere capacidad de trabajo autónomo, orientación a resultados y habilidades de comunicación técnica para documentar soluciones, gestionar escalaciones y colaborar con equipos multicisciplinarios. Se valorará experiencia previa en MSP o CSP, y certificaciones relevantes en Microsoft, AWS, VMware, Cisco u otras. El candidato ideal tiene un enfoque analítico, alta capacidad de resolución de problemas, y capacidad para trabajar bajo presión en entornos productivos y con clientes exigentes. Nivel de inglés mínimo intermedio para lectura técnica y comunicación básica.

Requisitos Deseables

Título universitario en Informática, Ingeniería o carrera afín. Certificaciones IT (Microsoft, AWS, VMware, Cisco u otras). Experiencia en gestión de proyectos IT. 5+ años de experiencia en roles similares. Perfil ideal: Ingeniero/a con fuerte criterio técnico, capacidad de análisis y enfoque en la calidad del servicio; experiencia manejando incidentes críticos y entornos productivos; excelente capacidad de documentación y comunicación técnica; capacidad para trabajar bajo presión y en contextos de escalación.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VIEW JOB APPLY VIA WEB
$$$ Full time
Site Reliability Engineer
  • BC Tecnología
  • Santiago (Hybrid)
DevOps SRE Automation Cybersecurity
BC Tecnología es una consultora de TI con foco en servicios, outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Enfocada en equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, la empresa acompaña a sus clientes en diseño de soluciones, formación de equipos y desarrollo de proyectos. El proyecto objetivo de este rol de Site Reliability Engineering es asegurar la confiabilidad, disponibilidad y performance de soluciones críticas, mediante prácticas de ingeniería de confiabilidad, monitoreo, incidentes y automatización, alineadas a estándares corporativos. Participarás en un entorno de alta exigencia tecnológica, con énfasis en observabilidad, resiliencia por diseño y mejora continua de performance, dentro de una cultura que promueve el aprendizaje y la colaboración entre equipos.

Exclusive to Get on Board.

Funciones principales

  • Garantizar disponibilidad y confiabilidad de los sistemas y servicios
  • Diseñar arquitecturas resilientes y escalables
  • Implementar monitoreo, alertas y dashboards para observabilidad
  • Gestión de incidentes críticos y respuesta rápida
  • Automatizar procesos operativos para reducir toil
  • Estabilización post-producción y mejoras de performance
  • Colaborar con equipos de desarrollo e infraestructuras para diseño orientado a la confiabilidad
  • Aplicar prácticas de Site Reliability Engineering alineadas a estándares corporativos

Qué buscamos

Buscamos profesionales con experiencia en Site Reliability Engineering o roles de DevOps/Infraestructuras con foco en confiabilidad. Deben poseer habilidades para diseñar soluciones resilientes, implementar monitoreo y gestionar incidentes de forma eficiente, con enfoque en automatización y reducción de toil operativo. Se valorará conocimiento en plataformas de nube, herramientas de orquestación y criptografía aplicada para asegurar la seguridad y continuidad de negocio. Se requieren capacidades de comunicación, trabajo en equipo y orientación a resultados en un entorno ágil.

Requisitos deseables

Experiencia previa en entornos financieros o regulados, conocimiento de herramientas de observabilidad (como Prometheus, Grafana), sistemas de registro (ELK/EFK), y automatización con scripts o herramientas como Ansible, Terraform, o similar. Familiaridad con contenedores (Docker, Kubernetes) y prácticas de CI/CD. Certificaciones en SRE, DevOps, o nube (AWS, Azure, GCP) serán valoradas. Habilidades de resolución de problemas, pensamiento analítico y capacidad para trabajar en entornos dinámicos y multicultura.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo y enfocado en el aprendizaje continuo. La modalidad híbrida, ubicada en Las Condes, facilita equilibrio entre remoto y presencial. Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, con una cultura de inclusión, respeto y desarrollo técnico. Ofrecemos crecimiento profesional, capacitación y oportunidades de movilidad interna, junto a beneficios corporativos y un entorno que valora la innovación y la excelencia.

VIEW JOB APPLY VIA WEB
Gross salary $1000 - 1500 Full time
QA Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Agile SQL QA Scrum
Company: Coderslab.io es una empresa tecnológica en crecimiento que ayuda a las organizaciones a transformarse y crecer mediante soluciones innovadoras. Formarás parte de un equipo diverso compuesto por más de 3,000 empleados a nivel global, con oficinas en América Latina y Estados Unidos. Trabajarás con los mejores talentos del sector en proyectos desafiantes e innovadores que impulsarán tu carrera.
Proyecto: Participarás en un programa de aseguramiento de calidad (QA) para software en un entorno ágil. Colaborarás con equipos de desarrollo y producto para garantizar la entrega de software estable, confiable y de alta calidad, empleando prácticas modernas de pruebas y automatización según las necesidades del proyecto.

Apply without intermediaries from Get on Board.

Funciones principales

Como QA Semi Senior, serás responsable de apoyar la verificación y validación de software a lo largo del ciclo de vida del desarrollo. Tus tareas incluirán:
Experiencia de 2 años trabajando como QA / Analista de Pruebas.
Experiencia comprobable en:
Pruebas funcionales y de regresión sobre aplicaciones web.
Diseño y documentación básica de casos de prueba.
Conocimiento práctico de:
Uso de alguna herramienta para pruebas de APIs (Postman o similar).
SQL básico para consultar y validar datos.
Familiaridad trabajando en equipos ágiles (Scrum o Kanban) o ciclos iterativos de desarrollo.
Conocimiento básico de servicios y entornos en la nube (AWS), orientado a la comprensión de
ambientes de prueba, despliegues, endpoints y análisis de incidencias.
Habilidad para documentar hallazgos de forma clara y ordenada.

Perfil buscado

Buscamos un/a QA Semi Senior con actitud proactiva y enfoque en la calidad. Debes tener experiencia práctica en pruebas de software, capacidad para comprender requerimientos, y ganas de crecer en un entorno ágil y tecnológicamente avanzado. Valoramos la atención al detalle, habilidades de análisis y comunicación efectiva para trabajar con equipos distribuidos.
Requisitos técnicos y de experiencia:
  • Experiencia comprobable en pruebas de software (funcionales, de regresión, exploratorias).
  • Conocimiento de metodologías de QA y herramientas de gestión de pruebas y defectos.
  • Habilidad para diseñar y ejecutar casos de prueba y planes de prueba; creación de matrices de trazabilidad.
  • Familiaridad con conceptos de automatización de pruebas y frameworks relevantes (según el stack del proyecto).
  • Capacidad para trabajar en entornos ágiles (Scrum/Kanban) y colaborar con equipos de desarrollo y producto.
  • Buena capacidad de análisis, enfoque en calidad, organización y gestión del tiempo.
  • Espíritu de equipo, comunicación clara y proactividad para identificar mejoras de calidad.
  • Idioma: español e inglés técnico deseable para lectura de documentación y herramientas.
Nivel de experiencia: Semi Senior (aproximadamente 2-4 años en QA o rol similar).

Requisitos deseables

Experiencia en pruebas automatizadas o scripting para pruebas, conocimiento de herramientas de automatización, experiencia en entornos multinacionales, certificaciones en QA (por ejemplo, ISTQB) y habilidades para trabajar en un entorno remoto/global. Capacidad para adaptarse rápidamente a nuevas tecnologías y procesos, y para aportar ideas de mejora continua en QA y calidad de producto.
Experiencia de 2 años trabajando como QA / Analista de Pruebas.

Beneficios y entorno

La posición es de contratación a plazo fijo para un proyecto de 7 meses, con modalidad de trabajo en remoto global y oportunidades de crecimiento dentro de Coderslab.io. El equipo ofrece mentoría de profesionales experimentados, acceso a tecnologías de punta y un entorno que promueve el desarrollo profesional continuo. Comprometidos con un equilibrio entre vida personal y laboral, y con un enfoque en proyectos desafiantes en mercados internacionales. Si estás interesado, continúa investigando las oportunidades dentro de nuestra organización y prepárate para colaborar con especialistas de alto rendimiento.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior QA Engineer
  • Improving South America
JavaScript Ruby Ruby on Rails Python

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Exclusive offer from getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Commvault Backup Specialist
  • Servicio Latam
  • Bogotá (In-office)
MySQL SQL Oracle Virtualization

Descripción del puesto:

SERVICIO LATAM es una empresa líder en el sector de tecnologías de la información, dedicada a brindar soluciones innovadoras y eficientes a sus clientes. Nuestra empresa se destaca por fomentar un ambiente de trabajo colaborativo, con oportunidades de crecimiento profesional y desarrollo personal para todos los empleados.

En Servicio Latam nos encontramos en la búsqueda de Commvault Implementador para unirse a un proyecto tecnológico en crecimiento. La posición está orientada a perfiles con experiencia y con sólidos conocimientos en Red Hat OpenShift, que puedan brindar acompañamiento técnico y soporte al equipo.

Apply at the original job on getonbrd.com.

Job functions

El Implementador Commvault es el profesional responsable de diseñar, implementar, configurar y administrar soluciones de respaldo, recuperación y protección de datos utilizando la plataforma Commvault. Su objetivo principal es garantizar la continuidad del negocio, la seguridad de la información y la recuperación eficiente ante desastres, tanto en infraestructuras on-premise, virtuales y en la nube.

Trabaja en estrecha colaboración con equipos de infraestructura, seguridad y aplicaciones para asegurar que las políticas de backup y recuperación cumplan con los requerimientos técnicos, normativos y del negocio.

Qualifications and requirements

Funciones principales

Implementar y configurar soluciones de backup, restore y disaster recovery con Commvault.

Diseñar arquitecturas de respaldo según criticidad, retención y cumplimiento normativo.

Administrar respaldos de:

Servidores físicos y virtuales (VMware, Hyper-V).

Bases de datos (SQL Server, Oracle, MySQL, etc.).
Aplicaciones empresariales.

Configurar políticas de retención, deduplicación y encriptación de datos.

Ejecutar y validar pruebas de restauración y planes de recuperación ante desastres (DRP).

Monitorear respaldos, analizar fallos y realizar ajustes para optimizar desempeño.

Gestionar integraciones con nube (Azure, AWS, Google Cloud).

Elaborar documentación técnica y procedimientos operativos.

Brindar soporte de segundo o tercer nivel sobre la plataforma.

Asegurar el cumplimiento de buenas prácticas y normativas de seguridad de la información.

Desirable skills

Herramientas y tecnologías

  • Backup y protección de datos

Commvault Complete Data Protection

Commvault Command Center

Commvault Media Agents y Storage Policies

  • Infraestructura

Windows Server / Linux

VMware vSphere / Hyper-V

Almacenamiento SAN / NAS

  • Bases de datos

Microsoft SQL Server

Oracle

MySQL / PostgreSQL

  • Nube

Microsoft Azure

AWS

Google Cloud Platform (GCP)

Conditions

Tipo de contrato: Prestación Servicios

Salario: Abierto según experiencia

VIEW JOB APPLY VIA WEB
$$$ Full time
SRE
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps
About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Applications at getonbrd.com.

Funciones del cargo

Cross-Functional Collaboration

  • Partner with engineering teams to improve system reliability and deployment practices
  • Engage with Openloop teams on SRE guidelines and best practices about automation and infrastructure
  • Work with security teams to implement secure, compliant infrastructure

Operational Excellence

  • Ensure 24/7 system availability and rapid incident response
  • Implement and maintain disaster recovery and business continuity plans
  • Skilled at performance tuning — identifying bottlenecks at infra, app, and database layers.

Security

  • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
  • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.

Cultural

  • Advocate for blameless culture and continuous improvement.
  • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requerimientos del cargo

  • 2 - 3 years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Good background in AWS, particularly with serverless architectures
  • Understanding of observability and incident management
  • Strong knowledge in at least one programming language (Typescript, Python, Go, etc.). Previous experience as a Developer is a plus
  • Knowledge of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Experience managing monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, GitLab CI, etc)
  • Understanding of database systems and performance optimization
  • Leadership & Communication
  • English (C1) fluency
  • Excellent verbal and written communication skills
  • Ability to translate technical concepts to non-technical audiences
  • Good problem-solving and decision-making capabilities
  • Experience with agile methodologies

Condiciones

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Talana
PostgreSQL Git DevOps Virtualization
Empresa dedicada a la gestión de negocios busca un DevOps Engineer con mentalidad disruptiva, capaz de construir puentes sólidos en automatizadas.
Tu misión será ser responsable de diseñar y mantener la infraestructura que soporta nuestros productos, optimizando el ciclo de vida del software mediante la automatización. Tu foco estará en la resiliencia de los sistemas y en la colaboración estrecha con los equipos de desarrollo para implementar arquitecturas modernas en la nube.

Apply to this job directly at getonbrd.com.

Funciones del cargo

  • Automatización Integral: Diseñar y ejecutar tareas de automatización para el aprovisionamiento, gestión de configuración y despliegues (CI/CD).
  • Arquitectura On-Prem: mantención y gestión de infraestructura on-prem a través de Proxmox
  • Arquitectura Cloud: Implementar y escalar infraestructuras en ambientes AWS, colaborando en el diseño de nuevos productos.
  • Cultura de Observabilidad: Monitorear servicios y recursos utilizando herramientas de telemetría para asegurar el rendimiento y la disponibilidad.
  • Seguridad y Escalabilidad: Garantizar que cada componente de la infraestructura cumpla con estándares de seguridad y pueda crecer según la demanda del negocio.
  • Resolución de Problemas: Actuar como nivel avanzado en el análisis y solución de incidentes complejos en sistemas distribuidos.

Requerimientos del cargo

  • Experiencia: Mínimo 5 años en roles de DevOps, SRE o Infraestructura.
  • Sistemas Operativos: Conocimientos avanzados tanto en Windows Server como en entornos GNU/Linux.
  • Cloud & IaaS: Conocimientos avanzados operando con Proxmox, además de familiaridad con AWS. Manejo transversal de Infraestructura como Código (IaC) con herramientas como Docker y Docker Swarm.
  • Stack CI/CD: Operación fluida de herramientas como GitHub Actions o similares para la automatización de pipelines.
  • Telemetría: Experiencia con sistemas de monitoreo y alertas (Elasticsearch + Kibana)
  • Bases de Datos: Capacidad para realizar consultas y gestión básica de tabla en
    mariaDB o postgreSQL.
  • Control de versión: amplia experiencia utilizando git
  • Formación: Estudios avanzados o finalizados en Ingeniería Civil Informática, Computación o carreras afines.
Competencias Blandas
  • Comunicación Adaptativa: Capacidad para traducir conceptos técnicos complejos a stakeholders no técnicos al discutir plazos o soluciones.
  • Mentalidad de Equipo: Disposición para compartir conocimientos, mentorizar y colaborar de forma abierta.
  • Proactividad e Innovación: Ganas constantes de aprender y proponer nuevas formas de hacer las cosas.
  • Foco en Automatización: Pasión por eliminar tareas repetitivas y mejorar la experiencia de desarrollo (DevEx).

Plus que te hará destacar

  • Motivación y fascinación por la automatización de procesos, y migración hacía arquitecturas basadas en contenedores.
  • Experiencia en gestión de entornos Windows en base a “Remote Windows Services” y servidores de licencia.
  • Familiaridad con arquitecturas de Microservicios y APIs REST.
  • Experiencia utilizando AWS AppStream o similares.

Condiciones/Beneficios

  • Modalidad Híbrida: 1 o 2 días presenciales en nuestra oficina de Santiago, manteniendo el resto de la semana en remoto.
  • Flexibilidad: Apertura para viajar o trabajar fuera de Santiago en ocasiones excepcionales según sea necesario.
  • Salud: Seguro complementario
  • Días libres: 3 MyDay adicionales a las vacaciones.
  • Co-creación Ágil: No te sumas a una estructura rígida; buscamos que nos ayudes a definir y mejorar nuestras metodologías de trabajo basándonos en tu feedback.
  • Entorno de Innovación: Espacio para experimentar con las últimas herramientas del mercado.

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer Senior
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Analytics
En BC Tecnología operamos como una consultora de TI con foco en servicios IT, desarrollo de proyectos y outsourcing. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, apoyando la entrega de soluciones de calidad desde la definición de requisitos hasta la validación y mejora continua de procesos. Nuestro objetivo es integrar soluciones que respondan a las necesidades del cliente, con énfasis en metodologías ágiles, crecimiento profesional y desarrollo de productos, manteniendo un enfoque claro en la experiencia del usuario y la eficiencia operativa.

Apply to this job directly at getonbrd.com.

Funciones principales

Participar en la definición de requisitos, flujos de trabajo y procesos de control de calidad. Colaborar activamente en ceremonias ágiles (Scrum, Kanban). Diseñar, documentar y ejecutar planes y casos de prueba. Ejecutar pruebas funcionales y no funcionales (usabilidad, compatibilidad, rendimiento, seguridad). Realizar testing frontend, backend, APIs y mobile. Reportar, gestionar y dar seguimiento a bugs, defectos e incidencias. Analizar logs, servicios y data de prueba para identificar causas raíz. Evaluar el impacto de cambios en el producto. Monitorear métricas de calidad y estabilidad (Grafana, Kibana u otras). Participar en la ejecución y análisis de procesos de CI/CD. Ejecutar y analizar procesos automatizados de prueba. Detectar oportunidades de mejora en el proceso de desarrollo. Apoyar la gestión de calidad de uno o más equipos de desarrollo.

Requisitos y perfil

Más de 3 años de experiencia en roles de QA / Quality Assurance. Experiencia sólida en QA manual avanzado. Experiencia en pruebas de aplicaciones web, mobile y web services. Experiencia en pruebas de API (Postman, SoapUI). Conocimiento del ciclo de vida del desarrollo de software (SDLC). Experiencia trabajando con metodologías ágiles. Manejo de herramientas de gestión de pruebas e incidencias (Jira, TestLink, Zephyr u otras). Capacidad de documentación técnica clara (casos de prueba, resultados, defectos). Habilidad analítica, atención al detalle y orientación a la mejora continua.
Conocimientos técnicos valorados: lenguajes orientados a objetos (Python, Java o JavaScript). Buenas prácticas de desarrollo (encapsulamiento, escalabilidad). Automatización de pruebas (web, servicios, mobile o scripting). Revisión de código (peer review). Herramientas de debugging (IDE, navegador). Patrones arquitectónicos (MVC, arquitectura en capas, event-driven). CI/CD (Pipelines, Jenkins, Bitrise). Infraestructura y cloud (Docker, AWS, Azure). Control de versiones (GitHub, GitLab, Bitbucket).
“Para avanzar en el proceso, es necesario cumplir con los requisitos técnicos y de experiencia señalados.”

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

VIEW JOB APPLY VIA WEB
$$$ Full time
AWS Cloud Engineer IA & Automation
  • WiTi
  • Santiago (Hybrid)
Python Analytics Virtualization Amazon Web Services

WiTi es una empresa chilena de tecnología enfocada en software de integración de sistemas y soluciones móviles, con presencia en Chile, Uruguay y Colombia. Buscamos fortalecer nuestro equipo con un AWS Cloud Engineer especializado en configuración de servicios cloud, automatización y herramientas de IA dentro del ecosistema AWS. El foco del rol es la orquestación de servicios, configuración de agentes inteligentes, bases de conocimiento y flujos automatizados para clientes enterprise. El candidato se integrará en proyectos de transformación digital, impulsando soluciones escalables de IA sin desarrollo extensivo de código y trabajando en estrecha colaboración con equipos de desarrollo y negocio para traducir requerimientos en arquitecturas cloud orientadas a IA y automatización.

Apply at the original job on getonbrd.com.

Funciones

Configurar y administrar servicios de IA dentro de la consola AWS (Bedrock, agentes, bases de conocimiento) para soluciones empresariales. Diseñar e implementar flujos automatizados y spaces para procesamiento inteligente de información. Orquestar servicios cloud para habilitar soluciones de IA aplicada sin necesidad de desarrollo extenso de código. Configurar y optimizar herramientas de analytics y visualización (QuickSight). Participar en la definición de arquitecturas cloud orientadas a IA y automatización. Colaborar con equipos de desarrollo y negocio para traducir requerimientos en soluciones cloud escalables. Mantener buenas prácticas de seguridad, gobernanza y cumplimiento. Identificar oportunidades de optimización de coste y rendimiento. Documentar procedimientos, guías y patrones de migración. Apoyar en la formación y transferencia de conocimiento a equipos internos.

Descripción

Buscamos un profesional con experiencia en el ecosistema AWS, enfocado en configuración de servicios de IA, agentes inteligentes y automatización de flujos. El foco principal es la orquestación y configuración de servicios dentro de la consola AWS, no desarrollo de código intensivo. Se valorará experiencia con AWS Bedrock, bases de conocimiento vectoriales, configuración de agentes y QuickSight. Se espera capacidad analítica, orientación a la resolución de problemas y habilidad para trabajar en equipos multidisciplinarios. Conocimiento de Python es un plus, pero no excluyente. Debes estar cómodo trabajando en entornos dinámicos y en colaboración con clientes y equipos internos para entregar soluciones robustas y escalables.

Requisitos Deseables

Experiencia con AWS Bedrock y servicios de IA de Amazon; familiaridad con RAG y bases de conocimiento; experiencia en configuración de pipelines de datos sin código; conocimientos de Python como complemento. Se valorará certificaciones relevantes de AWS y experiencia en entornos multiculturales y regionales. Capacidad de comunicar conceptos técnicos a audiencias no técnicas y de trabajar con stakeholders para alinear soluciones con objetivos de negocio.

Beneficios

En WiTi ofrecemos un entorno de trabajo híbrido (presencial los lunes en oficina, resto remoto). Promovemos una cultura de aprendizaje continuo y colaboración. Beneficios clave:

  • Plan de carrera personalizado para desarrollo profesional.
  • Certificaciones, para seguir creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, queremos conocerte.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
Gross salary $2200 - 3000 Full time
DevOps / Infraestructura Cloud
  • Centro Medico del Trabajador
  • Santiago (Hybrid)
DevOps Continuous Integration QA Virtualization

Centro Medico del Trabajador (CMT Salud) es un centro de salud enfocado en exámenes preocupacionales y medicina preventiva, con altos estándares de calidad. Buscamos escalar nuestra operación tecnológica para soportar despliegues por paises, con planes de expansión a nuevos mercados. El equipo técnico se orienta a entregar soluciones confiables, seguras y escalables que faciliten la gobernanza, monitoreo y continuidad operativa en un entorno regulado. Este rol será pieza clave en la separación de ambientes por país, migraciones a la nube y mejoras de rendimiento, trabajando en conjunto con QA, desarrollo y liderazgo técnico para lograr entregas predecibles y controladas.

This job offer is on Get on Board.

🛠️ Funciones del Rol

  • Gestionar y optimizar la infraestructura en AWS (IAM, VPC, cuentas, accesos).
  • Mantener, mejorar y documentar los pipelines CI/CD, idealmente usando CodePipeline, GitHub Actions o Jenkins.
  • Implementar y mantener flujos ETL usando herramientas como AWS Glue o ZeroETL.
  • Optimizar entornos QA, staging y producción con foco en eficiencia, seguridad y confiabilidad.
  • Coordinar con QA y desarrollo los lanzamientos a producción, asegurando orden, visibilidad y rollback.
  • Ser responsable técnico de los procesos de release y despliegue binacional, incluyendo su planificación, documentación y trazabilidad.
  • Liderar mejoras de gobernanza, monitoreo, seguridad y continuidad operativa.
  • Participar en proyectos estratégicos: separación de ambientes por país, gestión de políticas de acceso, mejoras de performance.

📌 Requisitos y perfil

Buscamos profesionales con experiencia comprobable en DevOps / Infraestructura cloud (al menos 2 años). Dominio sólido de AWS (IAM, ECS/EKS, EC2, S3, VPC, CloudWatch, Glue, etc.) y experiencia con herramientas de CI/CD (CodePipeline, GitHub Actions o Jenkins). Habilidad para diseñar, documentar y ejecutar procesos de despliegue a producción, así como gestionar pipelines y ETL's (Glue o Zero ETL). Se valora conocimiento en infraestructura como código (Terraform, CDK) y buenas prácticas de seguridad, monitoreo y continuidad operativa. Capacidad para colaborar con equipos de QA, desarrollo y producto, manteniendo siempre un enfoque de mejora continua.

🧩 Perfil Deseable

  • Autonomía técnica y capacidad para estructurar soluciones sin supervisión directa.
  • Experiencia en equipos con entregas frecuentes y flujos CI/CD activos.
  • Participación en proyectos de estandarización de entornos o mejora continua en infraestructura cloud.
  • Buenas prácticas en seguridad, monitoreo y continuidad operativa en AWS.
  • Capacidad para colaborar con equipos en Chile y Perú, en un entorno distribuido.

🎁 Beneficios y cultura

  • Cursos en udemy: Nos importa que constantemente estés aprendiendo y creciendo profesionalmente.
  • Convenio con gimnasio.
  • Convenio con Caja Los Andes.
  • Exámenes preventivos realizados en el CMT.
  • Seguro complementario de salud.
  • Convenio App MUVU (bienestar corporativo).
  • No dresscode: ¡Vístete como tú quieras!
  • Bar Office: al menos una vez al mes salimos a trabajar a un bar para generar un ambiente distendido.

VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer Bogotá
  • Servicio Latam
  • Bogotá (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

Apply exclusively at getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python).

Conditions

Compensation
Contratación Prestación de Servicios
Salario Abierto

VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4000 Full time
Generative AI Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Azure
Somos una empresa con 35 años en el mercado, con una fábrica de desarrollo de software y servicios de outsourcing. Nuestra matriz está en Concepción y operamos desde Santiago. Buscamos incorporar a un/una Generative AI Engineer para unirse a nuestro equipo de innovación y desarrollo de soluciones avanzadas de Inteligencia Artificial. El proyecto implica diseñar, desarrollar y desplegar soluciones de IA generativa, con foco en modelos de lenguaje de gran tamaño (LLMs), IA multimodal y pipelines escalables que se integren en entornos productivos. Colaborarás con equipos multidisciplinarios para identificar casos de uso, aplicar técnicas de ML y asegurar el cumplimiento de estándares éticos y de privacidad. Este rol te permitirá trabajar en proyectos desafiantes dentro de un entorno dinámico y orientado a la transformación digital de nuestros clientes en Latinoamérica.

Applications at getonbrd.com.

Funciones

Desarrollar, ajustar (fine-tuning) y optimizar modelos de IA generativa (LLMs, modelos de difusión, etc.) para distintos casos de uso. Implementar pipelines de IA escalables e integrar los modelos en entornos productivos. Colaborar con equipos multidisciplinarios para identificar casos de uso y entregar soluciones basadas en IA. Investigar tendencias emergentes en IA generativa y aplicar técnicas innovadoras para mejorar el rendimiento de los modelos. Asegurar el cumplimiento de principios éticos de IA y estándares de privacidad de datos. Participar en la definición de roadmaps tecnológicoss y participar en revisiones de código y pruebas de rendimiento.

Descripción

Requisitos y Habilidades: Título profesional o magíster en Computación, Inteligencia Artificial o carrera afín. 5 a 8 años de experiencia en desarrollo AI/ML, con al menos 2 años trabajando en IA generativa. Dominio de Python, TensorFlow y/o PyTorch. Experiencia con bases de datos vectoriales: Azure AI Search, OpenSearch, PgVector, ChromaDB, entre otras. Conocimiento de frameworks de IA agéntica como LangGraph, CrewAI, Autogen u otros. Manejo avanzado de herramientas de desarrollo asistido por IA como Cursor, Claude Code o GitHub Copilot. Fuerte comprensión de LLMs, transformers y modelos de difusión. Experiencia en plataformas cloud (AWS, Azure o GCP) y herramientas de MLOps. Buenas habilidades de comunicación y resolución de problemas. Deseable: experiencia en prompt engineering y RLHF. Conocimientos en IA multimodal (texto, imagen, audio).

Deseables

Experiencia en prompt engineering y RLHF (Reinforcement Learning from Human Feedback). Conocimientos en IA multimodal (texto, imagen, audio). Experiencia trabajando en entornos de desarrollo colaborativo y metodologías ágiles. Capacidad para aprender rápidamente y adaptarse a cambios en un entorno tecnológico en constante evolución.

Beneficios

Ofrecemos contratación por proyecto con condiciones claras en un ambiente laboral dinámico y orientado al desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el soporte técnico. Si te sumas a nuestro equipo, tendrás la oportunidad de crecer y contribuir al desarrollo de soluciones innovadoras en IA para nuestros clientes.

VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer México
  • Servicio Latam
  • Ciudad de México (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

© getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python)

Conditions

Condiciones
Contrato prestacion de servicios
Salario abierto

VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer Costa Rica
  • Servicio Latam
  • San José (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

© getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python).

Conditions

Condiciones
Contrato prestación de servicios
Salario abierto

VIEW JOB APPLY VIA WEB
$$$ Full time
Docente Introducción a Herramientas DevOps
  • Duoc UC
  • Valparaíso (In-office)
DevOps Continuous Integration Virtualization Amazon Web Services
Duoc UC Sede Valparaíso, Escuela de Informática y Telecomunicaciones, busca incorporar a su equipo docente para la asignatura Introducción a Herramientas Devops. El proyecto educativo tiene como objetivo formar profesionales con una sólida base en prácticas de DevOps, alineadas al marco valórico institucional y a las necesidades del desarrollo tecnológico actual. El o la docente liderará la planificación, implementación y evaluación de procesos de aprendizaje, promoviendo un enfoque práctico, colaborativo y orientado a resultados, dentro de una institución con trayectoria y reconocimiento en la educación superior técnica profesional.

Apply to this job through Get on Board.

Funciones del cargo

  • Planificar, liderar y ejecutar las actividades de enseñanza-aprendizaje de la asignatura Introducción a Herramientas Devops, conforme al modelo educativo y al marco institucional de valores.
  • Diseñar y actualizar contenidos, guías de aprendizaje, prácticas y evaluaciones alineadas a estándares de DevOps (CI/CD, infraestructura como código, automatización, contenedores y nube).
  • Integrar herramientas y tecnologías mandatarias (AWS, Azure, Docker) con énfasis práctico para el desarrollo de proyectos estudiantiles.
  • Facilitar sesiones teóricas y prácticas, promoviendo el aprendizaje basado en proyectos y la colaboración entre estudiantes.
  • Evaluar avances y resultados de aprendizaje, entregando retroalimentación oportuna y participando en procesos de mejora continua.
  • Trabajar en equipo con otros docentes y autoridades académicas para asegurar la calidad educativa y el cumplimiento de metas institucionales.

Requisitos y perfil deseado

Requerimos formación de Ingeniero/a en Informática, Ingeniero/a en Ejecución Informática o carrera afín. Se solicita al menos 3 años de experiencia en desarrollo de proyectos implementados en DevOps, con competencia avanzada en prácticas y herramientas del ámbito. Disponibilidad para jornada diurna en la sede de Valparaíso (horario específico indicado en la convocatoria). Se valorarán certificaciones en alguna nube y conocimientos en AWS, Azure y Docker. Se busca profesional proactivo, con capacidad de enseñar de forma clara, estructurada y orientada a resultados, y con habilidades para trabajar en equipos multidisciplinarios y para gestionar procesos de aprendizaje de estudiantes.

Requisitos deseables

Certificación en nube (AWS, Azure, Google Cloud u otras) y experiencia en implementación de pipelines de CI/CD. Participación previa en proyectos educativos o de formación técnica, familiaridad con metodologías ágiles y capacidad para adaptar contenidos a grupos con distintos niveles de experiencia. Habilidades de comunicación efectiva, empatía y orientación al aprendizaje de los estudiantes.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
$$$ Full time
DBA Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
SQL Virtualization Amazon Web Services Azure
En BC Tecnología, somos una consultora de TI que administra portafolio, desarrolla proyectos y realiza outsourcing y selección de profesionales para clientes en los sectores financiero, seguros, retail y gobierno. Diseñamos equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con enfoque en clientes, metodologías ágiles y desarrollo de productos. Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno colaborativo que promueve el aprendizaje y la mejora continua. Ubicados en Las Condes, ofrecemos un modelo híbrido que combina trabajo remoto y presencia en oficina para un adecuado equilibrio trabajo-vida.

Apply to this posting directly on Get on Board.

Funciones principales

  • Administrar y monitorear bases de datos SQL / SQL Server.
  • Implementar y gestionar políticas de respaldo y recuperación.
  • Optimizar consultas y realizar tuning de bases de datos.
  • Gestión de usuarios, roles y permisos.
  • Aplicar parches y actualizaciones de seguridad.
  • Dar soporte a equipos de desarrollo y resolver incidentes de BD.
  • Documentar procedimientos y buenas prácticas.

Perfil y experiencia

Buscamos un/a DBA Semi Senior para entregar excelencia en la administración de bases de datos y apoyo a operaciones y proyectos. Requisitos: Ingenierías en Informática, Sistemas o carrera afín; mínimo 3 años de experiencia en administración de bases de datos SQL Server; dominio de SQL avanzado; experiencia en entornos SQL Server, GCP y On-Premise; experiencia en replicación, clustering y alta disponibilidad; herramientas de monitoreo y performance tuning; conocimiento en seguridad de datos. Deseable experiencia en entornos Cloud (GCP, AWS, Azure) y manejo de procedimientos almacenados y scripting. Proactividad, trabajo en equipo, orientación a resultados y capacidad de aprendizaje continuo.

Deseables

Experiencia adicional en entornos Cloud (GCP, AWS, Azure), scripting y automatización, conocimiento de DevOps y prácticas de seguridad avanzadas. Fuertes habilidades analíticas, de resolución de problemas y comunicación para interactuar con equipos de desarrollo y negocio.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Ingeniero DevOps Semi Senior
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
DevOps Continuous Deployment Soporte técnico Cloud Computing
Genesys Tecnologías de Información SpA es una empresa con más de 35 años en el mercado, dedicada a desarrollo de software y servicios de TI. Contamos con una matriz en Concepción y operación en Santiago, y una sólida trayectoria en outsourcing, con foco en transformación digital y soluciones de datos. Buscamos incorporar a nuestro equipo técnico un Ingeniero DevOps Semi Senior para apoyar la operación de entornos de datos, la creación de pipelines y la automatización de infraestructuras para clientes de diversos sectores, apoyando proyectos de datos desde desarrollo, pruebas y producción. Formarás parte de una organización consolidada en Latinoamérica, con cultura de innovación, colaboración y mejora continua.

Apply from getonbrd.com.

Funciones principales del rol

  • Soporte y operación de entornos de datos (dev, test y prod) para proyectos de datos.
  • Crear y mantener infraestructuras para proyectos de datos en la nube (BigQuery, GCS, Composer, Dataproc, redes, entre otros).
  • Diseñar, implementar y mantener pipelines CI/CD para despliegue de soluciones de datos.
  • Apoyar en el despliegue de nuevos proyectos de datos y en la gestión de cambios.
  • Automatización de infraestructura utilizando Terraform y gestión de configuraciones.
  • Gestión y ejecución de upgrades de componentes y recuperación ante incidentes de infraestructura.
  • Resolución de incidentes complejos en repositorios e infraestructuras.
  • Apoyo en pruebas de concepto (POCs) y evaluación de nuevas herramientas/ambientes (p. ej., CloudWatch, etc.).

Requisitos y habilidades

Buscamos un Ingeniero DevOps Semi Senior con al menos 3 años de experiencia en roles DevOps o similares, orientado a datos y nube. Competencias técnicas clave: experiencia en entornos cloud, diseño e implementación de pipelines CI/CD, automatización con Terraform, gestión de infraestructuras y mecanismos de observabilidad. Habilidades de análisis y resolución de problemas complejos, capacidad de trabajar de forma colaborativa con equipos de datos y desarrollo, y buena comunicación para soporte de operaciones. Se valorará experiencia en herramientas de monitorización y soluciones de datos en la nube, así como enfoque en buenas prácticas de automatización y observabilidad. Capacidad de aprendizaje, proactividad y orientación a resultados.

Requisitos deseables

Experiencia adicional en entornos cloud (GCP, AWS, Azure), manejo de herramientas de observabilidad (CloudWatch u otros), conocimiento de seguridad y gestión de credenciales, y experiencia en metodologías ágiles. Capacidad de trabajo en equipo, buenas habilidades de comunicación y orientación a la resolución de problemas complejos.

Beneficios y condiciones

Ofrecemos contrato a plazo fijo e indefinido en modalidad híbrida ( martes, miércoles y viernes; teletrabajo. Jornada de 09:00 a 18:30 de lunes a jueves y 09:00 a 16:00 los viernes. Ambiente de trabajo dinámico y colaborativo, con oportunidades de desarrollo profesional, formación continua y participación en proyectos desafiantes en Latinoamérica. Contamos con un equipo multidisciplinario y apoyo técnico constante entre las oficinas de Concepción y Santiago. Si te interesa crecer con nosotros, te invitamos a unirte a nuestro equipo.

VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps con AWS, Terraform y Github Actions
  • WiTi
DevOps Virtualization Amazon Web Services Continuous Deployment
WiTi es una empresa de software y soluciones tecnológicas dedicada a la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles. Nuestro objetivo es resolver problemas complejos mediante soluciones innovadoras y actuar como un partner estratégico para ayudar a nuestros clientes a tomar decisiones tecnológicas.
Este puesto forma parte de nuestro equipo de DevOps, trabajando en un entorno 100% remoto y multicultural, enfocado en la gestión de infraestructuras en la nube y en la automatización de procesos para mejorar la eficiencia operativa.

Apply through Get on Board.

Funciones del cargo

Buscamos un DevOps con experiencia en la gestión y optimización de infraestructura en la nube, especialmente en AWS. Será responsable de la implementación y gestión de IaC utilizando Terraform, así como de la automatización de flujos de trabajo con GitHub Actions. Sus funciones incluyen:
  • Administrar y mantener la infraestructura en AWS, asegurando disponibilidad, escalabilidad y seguridad.
  • Diseñar, implementar y mantener pipelines de CI/CD para liberar software de forma eficiente y segura.
  • Automatizar procesos para mejorar la eficiencia operativa y reducir tiempos de entrega.
  • Monitorear rendimiento, capacidad y costos; proponer mejoras basadas en métricas.
  • Colaborar estrechamente con equipos de desarrollo y operaciones para resolver incidencias y mejorar prácticas.
  • Aplicar buenas prácticas de seguridad y cumplimiento normativo en la infraestructura y procesos.
Buscamos proactividad, capacidad de comunicarse con diferentes equipos y orientación a resultados.

Descripción

Requerimos al menos 3 años de experiencia trabajando con Terraform para provisión y administración de infraestructuras en AWS. Se valorará experiencia en diseñar y mantener pipelines CI/CD con GitHub Actions y en prácticas de automatización y monitorización modernas. Debe demostrar capacidad para diseñar soluciones escalables, seguras y eficientes, y trabajar de forma colaborativa en equipos multidisciplinares. Se esperan habilidades de resolución de problemas, comunicación clara y enfoque en la mejora continua. Conocimientos en seguridad de la nube, cumplimiento normativo y gestión de costos son deseables.

Desirable

Certificaciones relevantes en AWS (por ejemplo, AWS Solutions Architect, DevOps Engineer) y/o Terraform Certified. Experiencia adicional con herramientas de orquestación, plataformas de observabilidad y scripting (Python, Bash). Capacidad para gestionar incidentes críticos y experiencia en entornos ágiles. Habilidades de mentoría y capacidad para compartir conocimientos dentro de un equipo remoto.

Beneficios

En WiTi, ofrecemos un entorno de trabajo 100% remoto, lo que permite una gran flexibilidad y autonomía. Además, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:
  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.
En WiTi, nuestro centro son las personas y la agilidad. Creemos en equipos 100% remotos y multiculturales, compartimos conocimientos entre todas las áreas y promovemos un ambiente de aprendizaje continuo. Horario flexible, posibilidad de formación y acompañamiento en tu desarrollo profesional. Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Fully remote You can work from anywhere in the world.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Linux Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply from getonbrd.com.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VIEW JOB APPLY VIA WEB
Gross salary $3600 - 4300 Full time
Ingeniero DevOps Senior
  • Checkr
  • Santiago (In-office)
Linux DevOps Virtualization Amazon Web Services

Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Senior DevOps, trabajarás en estrecha colaboración con nuestros equipos de plataforma para crear y ejecutar los componentes que impulsan Checkr. Permitirás que todos los equipos asuman responsabilidad colectiva de la confiabilidad, escalabilidad y rendimiento de su software. También guiarás a otros equipos en el ajuste de sus servicios, lo que se traducirá en una mayor solidez y eficiencia, garantizando que cada equipo pueda centrarse en crear un software superior respaldado por una infraestructura confiable, escalable y eficiente

Apply directly on the original site at Get on Board.

Responsabilidades del cargo

  • Crear, mantener, optimizar y ampliar la infraestructura en la nube y local de Checkr.
  • Mejorar las operaciones y los procesos de infraestructura mediante la automatización y el uso de herramientas.
  • Optimizar los procesos de CI/CD y las herramientas de DevOps.
  • Depurar problemas de producción en todos los servicios y niveles de la pila.
  • Garantizar la escalabilidad y la seguridad de la infraestructura de Checkr.
  • Colaborar con los desarrolladores de aplicaciones para garantizar las mejores prácticas y el uso eficiente de la infraestructura.
  • Crear y fomentar relaciones de colaboración con otros equipos de ingeniería y líderes.
  • Planificar el crecimiento de la infraestructura de Checkr

Calificaciones y Requisitos del cargo

  • Licenciatura en Informática (o campo relacionado)
  • Más de 5 años de experiencia como ingeniero de DevOps o experiencia relacionada
  • Experiencia en el diseño de arquitectura técnica y la creación de una hoja de ruta estratégica para hacer realidad una visión técnica
  • Experiencia con Linux, Kubernetes, Terraform y AWS o Azure
  • Experiencia con contenedores y orquestación de contenedores
  • Conocimientos avanzados de TCP/IP, seguridad de aplicaciones web y HTTP/HTTPS
  • Tus planes de reversión son tan meticulosos como tus planes de implementación.
  • Experiencia en impulsar la adopción de plataformas con diversos equipos de ingeniería de productos, guiado por un enfoque de autoservicio y prioridad del producto.
  • Capacidad, disposición y deseo de orientar y mejorar a ingenieros de infraestructura con menos experiencia.
  • Pasión por la orientación al cliente y el establecimiento de relaciones con otros equipos.
  • Compromiso inquebrantable con la seguridad operativa y las mejores prácticas.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 3200 Full time
Cloud Engineer AWS + Python
  • CoyanServices
Python Agile SQL Virtualization

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Apply exclusively at getonbrd.com.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3600 Full time
Technical Lead – Cloud Computing & Infrastructure AWS / GCP
  • Coderslab.io
Virtualization Amazon Web Services Docker Kubernetes

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Technical Lead – Cloud Computing & Infrastructure (AWS / GCP) to join our team and help drive our mission forward.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

General Purpose:
Lead the multi-cloud (AWS and GCP) computing strategy at Payless, optimizing infrastructure and enabling new capabilities for the omnichannel vision. The role aims to enhance customer centricity and improve the experience across both physical stores and e-commerce, ensuring resilience, cost efficiency, and business acceleration.

Key Responsibilities:

  • Design and evolve cloud-native architectures in AWS and GCP.
  • Implement best practices for cost optimization, security, and performance.
  • Enable new cloud capabilities to support the omnichannel strategy.
  • Lead the adoption of cloud-native development and deployment models (DevOps, Infrastructure as Code).
  • Collaborate with business, product, and IT teams to align infrastructure with corporate objectives.

Requerimientos del cargo

Technical Requirements:

  • Proven experience with AWS and GCP.
  • Knowledge of Kubernetes, Docker, Terraform/CloudFormation, and Infrastructure as Code (IaC).
  • Experience designing scalable, secure, and highly available architectures.
  • Advanced English proficiency.

Key Competencies:

  • Strategic thinking with a strong business vision.
  • Technical leadership and team management.
  • Clear and effective communication skills.

Condiciones

Location: Remote LATAM
Working Hours: Miami time
Language Requirements: Advanced English and Spanish
Service Type: Service Provision – 160 hours/month, Monday to Friday

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Senior (Automatización + AWS)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Python Agile QA

En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos, realizar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos integrar a un QA Senior especializado en automatización de pruebas y validación de plataformas en AWS, para trabajar en proyectos de alto impacto con clientes de primer nivel. El rol forma parte de un equipo ágil y dinámico, orientado a la entrega de soluciones confiables y escalables en entornos de Cloud y tecnología avanzada.

Applications: getonbrd.com.

Funciones

  • Definir e implementar estrategias de automatización de pruebas para aplicaciones web y APIs, utilizando herramientas como Playwright, Cypress, Puppeteer, Selenium o Pytest según el stack.
  • Diseñar, mantener y ejecutar planes de pruebas automatizadas, incluyendo pruebas de API, integración y regresión, con pipelines de CI/CD (Jenkins, GitHub Actions o GitLab).
  • Trabajar con AWS (ECS, Lambda, API Gateway, SQS, etc.) para validar despliegues, entornos y configuraciones, asegurando rendimiento y estabilidad.
  • Configurar y ejecutar pruebas de rendimiento (JMeter, k6, Gatling) y validar métricas con herramientas de monitoreo (CloudWatch, New Relic u otros).
  • Gestionar entornos contenedores Docker, ejecutando pruebas en entornos aislados y paralelos para acelerar la entrega.
  • Realizar pruebas de validación de interfaces, datos y flujos de negocio, asegurando la calidad de extremo a extremo.
  • Gestionar defectos y seguimientos en Jira, TestRail, Zephyr u otras herramientas de gestión de pruebas, proporcionando reportes claros y métricas de calidad.
  • Trabajar de forma colaborativa con equipos de desarrollo, seguridad y operaciones para promover prácticas de calidad y automatización.

Descripción

Buscamos un QA Senior con al menos 3 años de experiencia en automatización y validación de plataformas en AWS. El candidato ideal debe estar orientado a la entrega de soluciones de alta fiabilidad, con capacidad para diseñar e implementar estrategias de pruebas automatizadas y de rendimiento en entornos Cloud.
Requisitos clave incluyen experiencia en automatización con JavaScript/TypeScript (Playwright, Cypress, Puppeteer) o Python (Selenium, Pytest, Behave), pruebas de API (Postman/Newman) y BDD (Gherkin/Cucumber). Se valorará experiencia en CI/CD, contenedores Docker y monitoreo de aplicaciones en AWS, así como conocimiento de herramientas de gestión de pruebas (Jira, TestRail, Zephyr u similares). Se espera capacidad de trabajar en equipo, pensamiento analítico, atención al detalle y habilidades de comunicación para reportar hallazgos de forma clara.
Deseables conocimientos en fintech, medios de pago o retail, y experiencia previa en entornos ágiles, multiculturales y con clientes de alto perfil.

Requisitos deseables

Experiencia en entornos de servicios financieros, fintech o retail, con exposición a proyectos de integración de sistemas y plataformas de pago. Conocimiento adicional en seguridad de aplicaciones, pruebas de accesibilidad y cumplimientonormativo relacionado con regulaciones del sector. Habilidad para priorizar tareas, gestionar múltiples historias de usuario y trabajar de forma proactiva en un ambiente colaborativo. Certificaciones relacionadas con AWS, pruebas de software o metodologías ágiles serán valoradas positivamente.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
DevOps Semi Senior
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Git DevOps Virtualization Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa de desarrollo de software y servicios TI con más de 30 años de experiencia en el mercado latinoamericano. Nuestro objetivo es acompañar a las empresas en su Transformación Digital, brindando soluciones en desarrollo de software, monitoreo y mantenimiento de plataformas, IA, QA y servicios de outsourcing. Buscamos incorporar un Ingeniero DevOps Semi Senior para fortalecer nuestro equipo técnico en un entorno híbrido entre Concepción y Santiago, enfocado en garantizar la disponibilidad y rendimiento de nuestra plataforma web, APIs y servicios asociados, a través de prácticas de monitoreo, automatización y mejora continua.

This job is original from Get on Board.

Principales funciones

  • Implementar, configurar y mantener herramientas de monitoreo y alertas para todos los componentes de la plataforma web.
  • Monitorear el rendimiento de la infraestructura en la nube (AWS), APIs, servicios backend y aplicaciones frontend para garantizar alta disponibilidad y rendimiento.
  • Detectar, diagnosticar y resolver incidentes de disponibilidad o rendimiento de forma oportuna.
  • Colaborar con equipos de desarrollo, infraestructura y soporte para optimizar entornos de despliegue y operación.
  • Automatizar tareas de monitoreo, despliegue y gestión de incidentes cuando sea posible, promoviendo prácticas CI/CD.

Requisitos y perfil deseado

Buscamos un Ingeniero DevOps Semi Senior con al menos 2-3 años de experiencia en roles DevOps. Se valora sólida experiencia en servicios Cloud AWS y en monitoreo de plataformas web (Grafana, Prometheus, Datadog, New Relic u otras herramientas similares). Debe poseer conocimientos en CI/CD, Docker y control de versiones (Git). Capacidad para trabajar de forma colaborativa con equipos multidisciplinarios y para resolver problemas con pensamiento crítico y enfoque en la calidad.
Competencias clave: compromiso con la excelencia operativa, proactividad, buenas habilidades de comunicación, capacidad de trabajar en entornos dinámicos, orientación a la resolución de problemas y capacidad para gestionar múltiples prioridades. Se valorará experiencia en automatización de pipelines y experiencia en entornos híbridos o multi-nube.

Perfil deseable

Conocimientos adicionales en orquestación (Kubernetes), scripting (Python, Bash) y experiencia trabajando en proyectos de fábrica de software o outsourcing. Familiaridad con herramientas de gestión de incidentes, gestión de cambios y buenas prácticas de seguridad en la nube. Disponibilidad para operar en un entorno con matriz y coordinación entre sedes en Concepción y Santiago.

Beneficios

Ofrecemos contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico y colaborativo, enfocado en desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica, con más de tres décadas de experiencia y un equipo multidisciplinario. Contamos con comunicación diaria con nuestra matriz y otras operaciones, lo que facilita la colaboración y el apoyo técnico. En Genesys, valoramos el talento y la innovación, y te acompañamos en tu crecimiento profesional. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer – Proyecto (Híbrido)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Kubernetes
BC Tecnología es una consultora de TI que acompaña a clientes de servicios financieros, seguros, retail y gobierno en proyectos de infraestructura, desarrollo de software y outsourcing de personal. En este rol te incorporarás a un proyecto estratégico dentro de nuestra práctica de DevOps, trabajando con equipos multidisciplinarios para entregar soluciones escalables y seguras en entornos cloud. Nuestro foco es la excelencia técnica, la agilidad y la satisfacción del cliente, con un marco de trabajo colaborativo y oportunidades de crecimiento profesional.
Como parte del equipo, tendrás la oportunidad de contribuir a la automatización de infraestructuras, la gestión de entornos cloud y la madurez de pipelines de CI/CD, apoyando a clientes en su transformación digital y en la operación de entornos críticos.

This posting is original from the Get on Board platform.

Funciones y responsabilidades

  • Gestionar infraestructura en la nube (AWS, GCP u OCI) y redes virtuales, asegurando disponibilidad, escalabilidad y seguridad.
  • Diseñar, implementar y mantener pipelines de CI/CD con enfoque en automatización y reproducibilidad.
  • Configurar y administrar contenedores (Kubernetes) y entornos Linux, optimizando rendimiento y costos.
  • Trabajar con Terraform para aprovisionamiento de infraestructura multi-ambiente y gestión de estado.
  • Monitorear, registrar y automatizar respuestas a incidentes, garantizando alta disponibilidad y recuperación ante desastres.
  • Participar en revisiones de arquitectura y colaborar con equipos de desarrollo para entregar soluciones eficientes.
  • Apoyar en prácticas de seguridad, cumplimiento y gestión de cambios dentro de proyectos de clientes.

Requisitos y perfil deseado

Buscamos un profesional con al menos 3 años de experiencia comprobable en DevOps, capaz de gestionar infraestructuras en la nube y de liderar iniciativas de automatización. Debe demostrar dominio técnico en Terraform, Kubernetes y GitLab, así como experiencia sólida en automatización, CI/CD y despliegue de infraestructuras. Se valorarán conocimientos en contenedores, Linux y buenas prácticas de seguridad y monitoreo. Buscamos alguien proactivo, orientado a la entrega de valor, con habilidad para comunicarse de manera clara con equipos técnicos y de negocio. Se valorarán certificaciones relevantes y experiencia en entornos regulados o financieros.

Habilidades deseables

Experiencia en entornos multi-nube, herramientas de observabilidad (Prometheus, Grafana, ELK), experiencia en scripting (Bash, Python) y gestión de costos en la nube. Capacidad para trabajar de forma autónoma, con mentalidad de mejora continua, y habilidades de colaboración para trabajar en equipos ágiles y multiculturales.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Automatizador – Latam (, Proyecto)
  • BC Tecnología
JavaScript Java Python Git
En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos y brindar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un QA Automatizador para LATAM, orientado a liderar iniciativas de automatización, promover cultura Shift Left y participar en pipelines CI/CD para garantizar QA continua en ecosistemas modernos. Colaborarás con equipos multidisciplinarios para entregar soluciones de software de alta calidad y mejorar procesos de pruebas a lo largo del ciclo de desarrollo.

Apply directly through getonbrd.com.

QA Automatizador – LATAM (Remoto, Proyecto)

  • Diseñar e implementar frameworks de automatización robustos para pruebas funcionales, de regresión, smoke y end-to-end (E2E).
  • Automatizar pruebas sobre microservicios, APIs y UI, asegurando cobertura adecuada y mantenimiento de las suites en pipelines CI/CD.
  • Gestionar ambientes con Docker y Kubernetes para entornos de pruebas consistentes y escalables.
  • Coaching al equipo de QA, revisión de pull requests y promoción de prácticas de calidad desde etapas tempranas (Shift Left).
  • Colaborar con equipos de desarrollo y DevOps para optimizar pipelines de integración y entrega continua (CI/CD) y mejorar la calidad del producto.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas y un historial comprobable en entornos modernos. Debe dominar herramientas como Playwright, Cypress, Selenium, Postman y frameworks como Robot Framework o similares. Experiencia con REST APIs, pruebas en contenedores (Docker) y orquestación (Kubernetes) es imprescindible. Conocimientos en Java, JavaScript, TypeScript, Python o Bash para scripting y mantenimiento de pruebas. Familiaridad con herramientas de CI/CD (GitHub Actions, Jenkins, GitLab CI, Bitbucket) y gestión de código en repositorios (Git). Capacidad para comunicarse efectivamente en español e inglés técnico, y habilidades para trabajar en entornos dinámicos y orientados a resultados. Se valorarán experiencia en AWS o tecnologías cloud y capacidad de liderazgo técnico dentro de equipos de QA.

Requisitos deseables

Conocimientos en herramientas de testing de rendimiento y seguridad, experiencia en automatización en entornos multi-nube, certificaciones en calidad de software y familiaridad con metodologías ágiles. Capacidad para adaptar frameworks a nuevas tecnologías y promover una cultura de calidad y mejora continua. Se valorará experiencia en equipos que trabajan en sectores regulados y con alta exigencia de cumplimiento.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer / Cloud Engineer (Latam)
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología, una consultora de TI con experiencia en servicios, outsourcing y selección de profesionales, busca ampliar su equipo con un DevOps Engineer / Cloud Engineer para un proyecto inicial de 6 meses con posibilidad de extensión. El rol contribuirá a la estabilidad y rendimiento de plataformas en producción, trabajando en colaboración con Desarrollo y Seguridad, en un entorno de clientes de alto nivel y diversos sectores (finanzas, seguros, retail y gobierno).

Job opportunity published on getonbrd.com.

Funciones

  • Garantizar la disponibilidad, estabilidad y rendimiento de sistemas productivos.
  • Gestionar infraestructura como código y automatizar despliegues.
  • Administrar contenedores y clusters Kubernetes.
  • Implementar monitoreo y alertas (Prometheus, CloudWatch, Grafana).
  • Organizar respuestas a incidentes y participar en post-mortems para mejora continua.
  • Trabajar estrechamente con Desarrollo y Seguridad para optimizar la arquitectura.
  • Documentar runbooks y procedimientos operativos para soporte y escalamiento.

Requisitos y perfil

Ingeniería en Informática, Sistemas o similar. Mínimo 3 años en roles DevOps, Cloud u Operations. Sólido dominio de Linux/UNIX, redes y conceptos de seguridad. Experiencia en arquitecturas de alta disponibilidad y gestión de incidentes. Se valora experiencia con entornos en la nube (AWS, Azure, GCP) y herramientas IaC (Terraform, CloudFormation, Ansible). Conocimientos en contenedores (Docker) y orquestación (Kubernetes). Habilidades de scripting (Bash, Python; PowerShell deseable). Capacidad para trabajar de forma proactiva, con buena comunicación y enfoque colaborativo.

Deseables

Certificaciones relevantes en nube (AWS/Azure/GCP) y DevOps; experiencia en entornos regulados; experiencia en monitoreo avanzado (ELK, Datadog) y gestión de costos en la nube. Orientación a soluciones y capacidades de análisis para resolver incidentes de manera eficiente; habilidades de documentación y entrega de runbooks claros.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Site Reliability Engineer
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps
About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Apply from getonbrd.com.

About the Role

  • Cross-Functional Collaboration
    • Partner with engineering teams to improve system reliability and deployment practices
    • Engage with teams on SRE guidelines and best practices about automation and infrastructure
    • Work with security teams to implement secure, compliant infrastructure
  • Operational Excellence
    • Ensure 24/7 system availability and rapid incident response
    • Implement and maintain disaster recovery and business continuity plans
    • Lead efforts to increase automation, observability and monitoring
    • Skilled at performance tuning — identifying bottlenecks at infra, app, and network layers.
  • Security
    • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
    • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.
  • Cultural
    • Advocate for blameless culture and continuous improvement.
    • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requirements

  • 4-5 years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Proven track record implementing large-scale, distributed systems
  • Strong background in AWS, particularly with serverless architecture and container orchestration
  • Solid understanding of observability, incident management, and system resilience best practices.
  • Strong proficiency in at least one programming language (Typescript, Python, Go, etc.).
  • Knowlegde of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Proficiency with monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, Jenkins, etc)
  • Understanding of database systems and performance optimization
  • English (C1/C2) fluency
  • Ability to translate technical concepts to non-technical audiences
  • Experience with agile methodologies and project management

Nice to have

Previous experience as a Fullstack Developer is a plus

Our Benefits

  • Formal employment (“Planilla”) under a Peruvian entity — all legal benefits in soles (CTS, Gratificaciones, etc.).
  • Full-time schedule: Monday–Friday, 9am–6pm.
  • Unlimited vacation days 🏖️ — yes, we mean it!
  • EPS healthcare (Rimac) covered 100%.
  • Oncology insurance (Rimac) covered 100%.
  • AFP retirement plan.
  • Coworking access in Miraflores, Lima — with free beverages, talks, bicycle parking, and amazing city views.
  • Company laptop and tools provided.

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Free car parking You can park your car for free at the premises.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4200 Full time
Senior DevOps Engineer
  • Checkr
  • Santiago (Hybrid)
Linux DevOps Virtualization Amazon Web Services

Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Senior DevOps, trabajarás en estrecha colaboración con nuestros equipos de plataforma para crear y ejecutar los componentes que impulsan Checkr. Permitirás que todos los equipos asuman responsabilidad colectiva de la confiabilidad, escalabilidad y rendimiento de su software. También guiarás a otros equipos en el ajuste de sus servicios, lo que se traducirá en una mayor solidez y eficiencia, garantizando que cada equipo pueda centrarse en crear un software superior respaldado por una infraestructura confiable, escalable y eficiente

© Get on Board.

Job functions

  • Crear, mantener, optimizar y ampliar la infraestructura en la nube y local de Checkr.
  • Mejorar las operaciones y los procesos de infraestructura mediante la automatización y el uso de herramientas.
  • Optimizar los procesos de CI/CD y las herramientas de DevOps.
  • Depurar problemas de producción en todos los servicios y niveles de la pila.
  • Garantizar la escalabilidad y la seguridad de la infraestructura de Checkr.
  • Colaborar con los desarrolladores de aplicaciones para garantizar las mejores prácticas y el uso eficiente de la infraestructura.
  • Crear y fomentar relaciones de colaboración con otros equipos de ingeniería y líderes.
  • Planificar el crecimiento de la infraestructura de Checkr.

Qualifications and requirements

  • Licenciatura en Informática (o campo relacionado)
  • Más de 5 años de experiencia como ingeniero de DevOps o experiencia relacionada
  • Experiencia en el diseño de arquitectura técnica y la creación de una hoja de ruta estratégica para hacer realidad una visión técnica
  • Experiencia con Linux, Kubernetes, Terraform y AWS o Azure
  • Experiencia con contenedores y orquestación de contenedores
  • Conocimientos avanzados de TCP/IP, seguridad de aplicaciones web y HTTP/HTTPS
  • Tus planes de reversión son tan meticulosos como tus planes de implementación.
  • Experiencia en impulsar la adopción de plataformas con diversos equipos de ingeniería de productos, guiado por un enfoque de autoservicio y prioridad del producto.
  • Capacidad, disposición y deseo de orientar y mejorar a ingenieros de infraestructura con menos experiencia.
  • Pasión por la orientación al cliente y el establecimiento de relaciones con otros equipos.
  • Compromiso inquebrantable con la seguridad operativa y las mejores prácticas.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
Senior AWS Engineer (Night Shift)
  • Niuro
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply to this job through Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior en Automatización de Pruebas
  • CoyanServices
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

This posting is original from the Get on Board platform.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2500 Full time
DevOps Senior Freelance
  • CoyanServices
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply only from getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2600 Full time
AWS Network Engineer
  • Interfell
Virtualization Amazon Web Services Planning Cloud Computing

En Interfell nos especializamos en conectar a las empresas con los mejores profesionales IT de Latinoamérica, impulsando el futuro de los negocios a través del talento remoto.
En este contexto se busca un/a AWS NETWORK ENGINEER con experiencia en AWS para diseñar, implementar y mantener soluciones de red en AWS que sean sólidas y seguras. La persona seleccionada tendrá la oportunidad de liderar la gestión de proyectos relacionados con actividades de red en AWS, incluyendo actualizaciones, implementaciones y migraciones dentro de la nube.

Ubicación; 100% Remoto. Latam
Horario de trabajo: 9 am a 6 pm EST
Inglés:
C1 o superior (será evaluado)
Contratación: 12 meses con renovaciones autómaticas.

Apply through Get on Board.

Job functions

  • Diseñar, implementar y mantener soluciones de red en AWS que sean sólidas y seguras, incluyendo VPCs, subredes, tablas de enrutamiento, grupos de seguridad, listas de control de acceso de red (Network ACLs), Transit Gateways, VPNs (site-to-site, acceso remoto y conexiones basadas en la nube) y Direct Connect.
  • Implementar y gestionar dispositivos de red en AWS (AWS Network Appliances) como Palo Alto Networks, Fortinet, Check Point, entre otros, garantizando su rendimiento y seguridad óptimos dentro del entorno de AWS.
  • Monitorear y gestionar el rendimiento de la red dentro de los entornos de AWS, asegurando la funcionalidad, seguridad y escalabilidad óptima de los recursos en la nube.
  • Colaborar con otros equipos de TI para lograr una integración de red fluida y soporte entre diversas plataformas en la nube y on-premises.
  • Crear, actualizar y mantener documentación completa sobre configuraciones de red en AWS, procedimientos operativos y mejores prácticas.
  • Colaborar con el equipo de Seguridad de TI para implementar controles de seguridad de red sólidos en AWS, incluyendo listas de control de acceso (ACLs), firewalls (como AWS WAF y Network Firewall), sistemas de detección y prevención de intrusiones, y el desarrollo de políticas de seguridad de red en la nube.
  • Brindar soporte técnico a usuarios internos y partes interesadas externas para temas de conectividad de red en AWS y problemas relacionados.
  • Liderar la gestión de proyectos relacionados con actividades de red en AWS, incluyendo actualizaciones, implementaciones y migraciones dentro de la nube.
  • Gestionar y optimizar entornos de red multi-nube (Azure, GCP), incluyendo configuración, seguridad y optimización de recursos, con un enfoque principal en AWS.
  • Colaborar con clientes externos durante todo el ciclo de vida de la red, entregando soluciones de red en AWS que sean confiables y seguras, desde la evaluación inicial hasta la implementación exitosa de cambios.
  • Llenar el timesheet laboral diariamente

Qualifications and requirements

  • Más de 3 años de experiencia dedicada como Ingeniero de Redes en AWS o en un rol altamente especializado en redes de AWS.
  • Inglés C1
  • Experiencia a nivel experto con servicios de redes de AWS, incluidos, entre otros, VPC, Transit Gateway, Direct Connect, VPN, Route 53 y balanceadores de carga.
  • Experiencia comprobada implementando y gestionando dispositivos de red en AWS (por ejemplo, Palo Alto Networks, Fortinet, Check Point, etc.).
  • Experiencia práctica con funciones de seguridad de red en AWS y mejores prácticas.
  • Sólidas habilidades de resolución de problemas y troubleshooting, especialmente en problemas complejos de redes en la nube.
  • Experiencia práctica con herramientas de monitoreo, diagnóstico de redes y administración específicas de AWS.
  • Experiencia comprobada y exitosa en el diseño e implementación de redes en AWS.
  • Experiencia comprobada en planificación de capacidad de red, principios de seguridad de redes y mejores prácticas generales de administración de redes en un entorno en la nube.

Desirable skills

  • Plus: Certificación AWS Certified Advanced Networking - Specialty
  • Plus: Experiencia gestionando entornos de red en la nube en Azure y GCP
  • Plus: Familiaridad con herramientas de automatización en la nube (por ejemplo, Terraform, CloudFormation)
  • Plus: Experiencia con tecnologías locales (on-premises) de enrutadores, switches y firewalls

Conditions

Días de descanso no remunerados

Pago USD

Trabajo remoto - Latam

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Official source: getonbrd.com.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
DevOps AWS Opensearch/Elasticsearch & Containers Engineer
  • Coderslab.io
DevOps Virtualization Amazon Web Services Microservices

At coderslab.io, we help companies transform and grow their businesses through innovative technology solutions. We are a fast-growing organization with over 3,000 employees worldwide and offices in Latin America and the United States. We are looking for a Devops - AWS OpenSearch/ElasticSearch & Containers Engineer to join our team and help drive our mission forward.

Apply to this job through Get on Board.

Funciones del cargo

Role Purpose

Design, implement, and optimize AWS-based solutions focused on OpenSearch/ElasticSearch and containers (ECS/EKS) to support Payless’ omnichannel operations in retail and e-commerce. The role ensures efficient data pipelines, scalable microservices, and robust search capabilities integrating SAP HANA, Retail Pro, e-commerce, POS, and the AWS ecosystem.

Key Responsibilities

  • Deploy, manage, and optimize AWS OpenSearch/ElasticSearch clusters, ensuring performance and high availability.
  • Design and maintain data pipelines for log processing, analytics, and search-driven applications.
  • Manage workloads in Amazon ECS/EKS, ensuring deployment, scaling, and resilience of microservices.
  • Integrate search and container solutions with critical platforms: SAP HANA, Retail Pro, e-commerce, WMS, and CRM.
  • Implement monitoring, alerting, and automated recovery mechanisms for production environments.
  • Optimize costs, performance, and scalability across AWS architectures.
  • Collaborate closely with cloud architects, data engineers, and developers to ensure reliable and scalable digital services.

Requerimientos del cargo

  • Bachelor’s degree in Computer Science, Systems Engineering, or related fields (or equivalent experience).
  • 5+ years of experience in DevOps/Cloud roles with production projects in AWS.
  • Proven experience with OpenSearch/ElasticSearch and ECS/EKS implementations.
  • Strong ability to optimize performance and costs in enterprise cloud environments.
  • Advanced English (spoken and written) and fluent Spanish.

Opcionales

  • Experience integrating cloud architectures with retail and e-commerce systems.
  • Familiarity with SAP HANA, Retail Pro, POS, and inventory/CRM platforms.
  • Knowledge of IaC (Infrastructure as Code) and automation in AWS.
  • Proficiency with monitoring and logging tools (CloudWatch, Prometheus, Grafana, Kibana).

Condiciones

Location: Remote (LATAM)
Schedule: Miami time (Monday to Friday, 160 hours/month)
Contract: 12 months – Service contract
Languages: Advanced English & Spanish

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2700 - 3500 Full time
DevOps
  • Coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply at the original job on getonbrd.com.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply to this job from Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $3200 - 3500 Full time
Ingeniero/a de Datos Inglés Avanzado
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Agile SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años en el mercado latinoamericano, busca un/a Ingeniero/a de Datos con inglés avanzado para planificar, ejecutar y reportar proyectos de datos de diverso alcance. El rol implica trabajar de forma autónoma con información compleja, proponiendo soluciones sólidas a problemas de negocio. La posición forma parte de nuestro equipo de ingeniería de datos, colaborando con clientes de alto perfil y con una visión de transformación digital que integra tecnologías de nube, analítica y automatización.

Apply through Get on Board.

Funciones y Responsabilidades

  • Diseñar, construir y mantener pipelines de datos utilizando SQL, NoSQL (MySQL, PostgreSQL, MongoDB, Redshift, SQL Server) y herramientas de orquestación.
  • Desarrollar procesos de ETL/ELT y soluciones de Data Warehouse para ingesta y transformación de datos a escala empresarial.
  • Desarrollar y mantener código en Python para procesamiento y automatización de datos.
  • Orquestar flujos de datos con herramientas como Apache Airflow y DBT.
  • Gestión de ingesta en tiempo real, incluyendo etiquetado web y plataformas de datos en tiempo real (p. ej., Snowplow, Google Tag Manager).
  • Definir y mantener pipelines CI/CD con herramientas como Bitbucket y Jenkins.
  • Aplicar metodologías ágiles: gestión de backlog, seguimiento de proyectos e informes (idealmente con Jira).
  • Trabajar en entornos cloud (AWS) y big data, con experiencia en PySpark u otras tecnologías para ingeniería y despliegue de datos.
  • Conocimiento de herramientas complementarias (deseables): Digdag, Embulk, Presto.
  • Capacidad para comprender el negocio y aportar en analítica de marketing/Martech y/o Adtech como valor agregado.
  • Aplicación de modelos de machine learning en plataformas de datos de clientes (deseable).
  • Conocimientos de publicidad programática como plus.
  • Gestión de bloques de datos y calidad de datos, asegurando trazabilidad y gobernanza.
  • Colaboración con equipos multidisciplinarios y apoyo a stakeholders internos y externos.

Requisitos y Perfil

Buscamos un/a Ingeniero/a de Datos con experiencia sólida en desarrollo e implementación de soluciones de datos complejas. Debe demostrar capacidad para planificar, ejecutar y comunicar avances de proyectos de datos en entornos dinámicos, con especial atención a la calidad de datos, escalabilidad y rendimiento. Se valorará experiencia en proyectos de Martech/Adtech y en entornos de nube. Se requiere habilidad para trabajar de forma autónoma, resolver problemas y colaborar de manera efectiva con equipos multifuncionales.
Habilidades técnicas esenciales: dominio de SQL y NoSQL, experiencia con Data Warehouse y ETL/ELT, Python para procesamiento, herramientas de orquestación (Airflow, DBT), ingestas en tiempo real, CI/CD (Bitbucket, Jenkins), metodologías ágiles (Jira), y experiencia en AWS o plataformas similares. Se valora conocimiento en herramientas como Snowplow, Google Tag Manager, Digdag, Embulk y Presto, así como experiencia en marketing analytics y/o ML en datos de clientes.
Habilidades blandas: mentalidad de ingeniero/a, capacidad de resolución de problemas, buen colaborador/a en equipo, orientación al aprendizaje continuo y crecimiento profesional, comunicación clara y capacidad para gestionar prioridades en entornos con información parcial.

Competencias Deseables

  • Experiencia en publicidad programática y plataformas de publicidad digital.
  • Conocimientos avanzados en ML aplicado a datos de clientes y casos de uso de marketing automation.
  • Experiencia con Digdag, Embulk o Presto; familiaridad con pipelines complejos y orquestación multicampo.
  • Conocimiento de gobernanza de datos y buenas prácticas de seguridad y cumplimiento.

Beneficios y Condiciones

Ofrecemos contrato por proyecto con posibilidad de continuidad, en una empresa consolidada en Latinoamérica con más de tres décadas de experiencia. Forma parte de un equipo multidisciplinario, con comunicación directa con la matriz y operaciones en Santiago y otras ciudades, fomentando desarrollo profesional y crecimiento. Modalidad de trabajo híbrida con proyección a 100% presencial, horario habitual de lunes a jueves, con viernes reducido, y posibilidad de ajuste según proyecto. Ubicaciones en Concepción y Santiago, con oportunidades de desarrollo y aprendizaje continuo. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

© getonbrd.com. All rights reserved.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos robustos y escalables utilizando Python y tecnologías de datos en la nube.
  • Desarrollar procesos ETL/ELT, modelado de datos y soluciones de almacenamiento (data lake/warehouse) en plataformas cloud.
  • Colaborar con equipos de datos, BI y producto para entender requerimientos, traducirlos en soluciones técnicas y garantizar la calidad de los datos.
  • Implementar soluciones de monitoring, logging y alerting; asegurar la confiabilidad, rendimiento y seguridad de los datos.
  • Automatizar despliegues y mantener pipelines mediante CI/CD; aplicar prácticas de versionado y pruebas de datos.
  • Participar en la mejora continua de procesos y en la migración hacia arquitecturas basadas en la nube.

Requisitos y perfil

Buscamos un Data Engineer con fuerte dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.
Requisitos técnicos:
  • Experiencia sólida desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Conocimiento en al menos una plataforma cloud (AWS, GCP o Azure) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Conocimientos de SQL avanzado y modelado de datos; experiencia con almacenes de datos y data lakes.
  • Conocimientos de contenedores (Docker), CI/CD y herramientas de observabilidad (Prometheus, Grafana, etc.).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.
Habilidades blandas:
  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).
Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.
Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

Find this job on getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB
En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

This posting is original from the Get on Board platform.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

© Get on Board. All rights reserved.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2200 Full time
Data Analyst
  • TCIT
Python Agile Data Analysis SQL
En TCIT aceleramos la transformación digital de organizaciones a través de soluciones innovadoras y sostenibles en la nube. Nuestro equipo de Data analiza grandes volúmenes de datos para entregar insights accionables que impulsan decisiones estratégicas en clientes de diversos sectores. Buscamos a un Data Analyst con visión analítica y pasión por la mejora continua para unirse a proyectos que integran soluciones de negocio, herramientas de BI y pipelines de datos en entornos ágiles. El candidato trabajará en estrecha colaboración con equipos de producto, ingeniería y negocio, asegurando que los tableros y modelos de datos generen valor real y resultados medibles para nuestros clientes y socios tecnológicos.

This posting is original from the Get on Board platform.

Responsabilidades clave

  • Definir y ejecutar análisis exploratorios para identificar impulsores de negocio y áreas de mejora a partir de datasets complejos.
  • Diseñar, construir y mantener dashboards e informes interactivos en Looker Studio para stakeholders de negocio y operaciones.
  • Desarrollar y mantener modelos en Looker ML (LookML) para estructurar datos y facilitar consultas eficientes.
  • Colaborar con equipos de ingeniería para diseñar pipelines de datos confiables, asegurar calidad de datos y gobernanza.
  • Trabajar con SQL avanzado para extraer, transformar y cargar datos desde diversas fuentes y data warehouses.
  • Participar en reuniones de requisitos, traduciendo necesidades de negocio en métricas y visualizaciones comprensibles.
  • Aplicar principios de análisis de datos para apoyar decisiones estratégicas, medir impacto de iniciativas y controlar KPIs.
  • Automatizar procesos de reporte y desarrollar documentación clara de dashboards, métricas y definiciones de datos.
  • Contribuir a un entorno ágil (scrum) con entregas iterativas y revisión continua de resultados.

Requisitos y perfil

Buscamos un Data Analyst con 3 a 5 años de experiencia comprobable en análisis de datos, con fuerte capacidad para convertir datos en insights accionables. Debe dominar Looker Studio para visualización avanzada y Looker ML para modelado y acceso a datos a través de Looker. Se valorará experiencia en entornos de nube y en gestión de datos desde fuentes heterogéneas. Requisitos mínimos: SQL avanzado, experiencia práctica con Looker Studio y LookerML/Looker ML, análisis estadístico y habilidades de comunicación para presentar hallazgos a stakeholders. Deseable conocimiento de Python o R para manipulación de datos y automatización, así como experiencia con ETL, data warehousing (BigQuery, Snowflake u otros), y metodologías ágiles. Buscamos perfiles proactivos, orientados a resultados, con pensamiento crítico y excelentes habilidades de storytelling para negocios.

Requisitos deseables

Experiencia adicional con herramientas de BI y visualización, familiaridad con soluciones en la nube (p. ej., BigQuery, Snowflake, AWS Redshift), conocimientos de Git para control de versiones, y capacidad de trabajar en inglés técnico. Valoramos experiencia en sectores regulados o con altos requerimientos de gobernanza de datos, así como habilidades de comunicación para colaborar con equipos multifuncionales y coaches de datos.

Conditions

Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Commvault Data Protection Consultant
  • Servicio Latam
  • San Salvador (In-office)
Soporte técnico Cloud Audit Backup
Descripción del puesto:
SERVICIO LATAM es una empresa líder en el sector de tecnologías de la información, dedicada a brindar soluciones innovadoras y eficientes a sus clientes. Nuestra empresa se destaca por fomentar un ambiente de trabajo colaborativo, con oportunidades de crecimiento profesional y desarrollo personal para todos los empleados.
En Servicio Latam nos encontramos en la búsqueda de Commvaul Consultor para unirse a un proyecto tecnológico en crecimiento. La posición está orientada a perfiles con experiencia y con sólidos conocimientos en Red Hat OpenShift, que puedan brindar acompañamiento técnico y soporte al equipo.

Apply to this job without intermediaries on Get on Board.

Job functions

Descripción del perfil
El Consultor Commvault es el especialista encargado de asesorar, diseñar y optimizar soluciones de protección y gestión de datos utilizando la plataforma Commvault. Su rol es estratégico y técnico, orientado a garantizar la continuidad del negocio, la seguridad de la información y el cumplimiento normativo, adaptando la solución a las necesidades específicas del cliente o de la organización.
Actúa como enlace entre el negocio y la tecnología, proponiendo arquitecturas eficientes de respaldo, recuperación ante desastres y protección contra ransomware en entornos on-premise, híbridos y en la nube.

Qualifications and requirements

Funciones principales
  • Levantar requerimientos técnicos y de negocio relacionados con protección de datos.
  • Diseñar arquitecturas de backup, recuperación y DRP con Commvault.
  • Implementar y/o supervisar implementaciones de Commvault.
  • Definir políticas de retención, cifrado, deduplicación y almacenamiento.
  • Asesorar en estrategias de protección contra ransomware y recuperación segura.
  • Optimizar el rendimiento y costos de las soluciones de respaldo.
  • Realizar auditorías y diagnósticos de ambientes Commvault existentes.
  • Ejecutar y validar pruebas de recuperación y planes de continuidad.
  • Elaborar documentación técnica, diseños y buenas prácticas.
  • Brindar soporte especializado (nivel 3) y transferencia de conocimiento.
  • Acompañar procesos de migración a la nube y modernización de backups.

Desirable skills

Herramientas y tecnologías - Plataforma principal
  • Commvault Complete Data Protection
  • Commvault Command Center
  • Commvault Activate (analítica y clasificación de datos)
Infraestructura
  • Windows Server / Linux
  • VMware vSphere / Hyper-V
  • Almacenamiento SAN / NAS
Bases de datos
  • Microsoft SQL Server
  • Oracle
  • MySQL / PostgreSQL
Nube
  • Microsoft Azure (Blob Storage, Azure Backup)
  • AWS (S3, EC2)
  • Google Cloud Platform (GCP)
Automatización y seguridad
  • PowerShell / Bash
  • Active Directory
  • Cifrado, control de accesos y políticas de seguridad
  • Integración con soluciones de monitoreo
Formación y perfil profesional
  • Ingeniero de Sistemas
  • Ingeniero Informático
  • Ingeniero de Telecomunicaciones
  • Tecnólogo en Sistemas con amplia experiencia en backup e infraestructura

Conditions

Tipo de contrato: Prestación Servicios
Salario: Abierto según experiencia

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer (AWS Redshift / Zero‑ETL / Consumption Layer)
  • WiTi
Analytics SQL Business Intelligence Virtualization
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

This company only accepts applications on Get on Board.

Funciones del cargo

Buscamos un Data Engineer con experiencia sólida construyendo y optimizando capas de consumo analíticas en entornos cloud, idealmente sobre Amazon Redshift Serverless.
Tu misión será diseñar, modelar y mantener una capa de consumo en Redshift a partir de datos replicados vía Zero‑ETL desde Aurora, habilitando datasets confiables y performantes para reporting, métricas multi‑dominio y casos de uso de analítica/IA.

Responsabilidades principales:

  • Diseñar modelos analíticos (facts, dims y marts) orientados a autoservicio de datos y consumo por herramientas BI/IA.
  • Implementar y optimizar consultas SQL avanzadas sobre Redshift (joins grandes, agregaciones, window functions) garantizando buen performance y costo.
  • Analizar y tunear el rendimiento de Redshift (EXPLAIN, DS_BCAST/DS_DIST, scans, spill, skew) proponiendo mejoras continuas en diseño físico.
  • Definir y ajustar DISTSTYLE/DISTKEY, SORTKEY, CTAS/materializaciones y estadísticas para maximizar la performance de la capa de consumo.
  • Construir pipelines livianos en AWS (Redshift Data API, Lambda, EventBridge u otros servicios equivalentes) para refrescar la capa de consumo con mínima latencia y alta confiabilidad.
  • Colaborar con analistas, producto y stakeholders de negocio para entender métricas clave y reflejarlas correctamente en los datasets.

Requerimientos del cargo

  • Experiencia comprobable como Data Engineer (ideal 3+ años) trabajando con warehouses en cloud.
  • Experiencia práctica con Amazon Redshift (idealmente Redshift Serverless) y SQL avanzado.
  • Conocimientos fuertes de performance tuning en Redshift: lectura de EXPLAIN, comprensión de broadcast vs redistribution (DS_BCAST/DS_DIST), manejo de scans, spill y skew.
  • Diseño físico y optimización de tablas en Redshift: DISTSTYLE/DISTKEY, SORTKEY, uso de CTAS/materializaciones y manejo de estadísticas.
  • Experiencia en modelado analítico (esquemas de hechos y dimensiones, data marts, agregados) orientado a consumo.
  • Experiencia construyendo pipelines livianos en AWS para refrescar datos (por ejemplo Redshift Data API, Lambda, EventBridge o servicios equivalentes).

Nice‑to‑have (deseables):

  • Experiencia usando dbt para modelado y orquestación ligera sobre el warehouse.
  • Prácticas de data quality (tests, checks, monitoreo de calidad de datos).
  • Experiencia exponiendo la capa de consumo a través de herramientas BI como QuickSight u otras.
  • Haber habilitado semantic layers o datasets pensados para IA/LLM o analítica avanzada.

Soft Skills

Resolución de problemas: Capacidad analítica para identificar cuellos de botella de performance y proponer soluciones técnicas simples y efectivas.

  • Comunicación: Habilidad para explicar decisiones de diseño de datos y métricas a perfiles técnicos y de negocio.
  • Colaboración: Experiencia trabajando con equipos ágiles y en coordinación con analistas, científicos de datos y desarrolladores.
  • Orden y detalle: Prolijidad en documentación, definición de contratos de datos y buenas prácticas en modelado.

Condiciones

En WiTI, nuestro centro son las personas y la agilidad, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.

  • Plan de carrera
  • Certificaciones
  • Cursos de idiomas
  • Aguinaldos

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3400 Full time
Senior Data Engineer
  • Forest
  • Santiago (Hybrid)
Python PostgreSQL Git SQL

What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all customers free cycling minutes daily.

We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.

If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.

Please note: our company is based in the UK and has Chilean Founders.

*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

Apply exclusively at getonbrd.com.

About the Role

We are looking for a SeniorData Engineer with strong experience in database migrations, specifically moving large-scale datasets and pipelines from Postgres to Snowflake. You will design, build, and optimize migration workflows using Mage as our orchestration platform, while leveraging both AWS and GCP infrastructure.

This role is ideal for someone who knows how to work with complex schemas, high-volume data, and performance tuning, and who can drive a seamless migration with minimal downtime.

Migration & Pipeline Development

  • Lead the end-to-end migration of datasets, ETL jobs, and schemas from Postgres to Snowflake.
  • Design, build, and maintain data ingestion and transformation pipelines using Mage.
  • Ensure data quality, consistency, and performance across the migrated ecosystem.

Architecture & Optimization

  • Optimize query performance and warehouse usage in Snowflake (clustering, micro-partitioning, caching, etc.).
  • Work with cloud infrastructure on AWS and GCP, integrating pipelines with storage (S3/GCS), compute, IAM, networking, and secret management.
  • Create scalable, cost-efficient data models and workflows.

Tableau Integration & Support

  • Support the migration of Tableau data sources from Postgres connections to Snowflake connections.
  • Work with the Data team to validate Tableau dashboards after migration.
  • Optimize Snowflake models and queries used by Tableau to ensure performance and cost efficiency.
  • Help redesign or refactor extracts, live connections, and published data sources to align with best practices.

Collaboration & Delivery

  • Partner with Data, Product, and Engineering to understand data needs and ensure smooth transition.
  • Document migration steps, architecture decisions, and pipeline designs.
  • Troubleshoot and resolve issues related to performance, data inconsistencies, and pipeline failures.

Requirements

Technical Skills

  • 5+ years of experience in Data Engineering or similar roles.
  • Strong expertise with Postgres (schema design, query tuning, replication strategies).
  • Hands-on experience with Snowflake (Snowpipe, Tasks, Streams, Warehouses).
  • Solid experience orchestrating pipelines using Mage (or Airflow/Prefect with willingness to learn Mage).
  • Strong SQL skills and Python.
  • Experience working with AWS and GCP
  • Familiarity with CI/CD pipelines and Git-based workflows.

Optionals

  • Experience migrating large datasets or re platforming data stacks.
  • Experience implementing security and governance frameworks.
  • Strong communication and documentation habits.
  • Ability to work independently and drive projects from start to finish.
  • Problem-solver with a focus on reliability and scalability.
  • Comfortable working in a fast-paced, cloud-native, multi-cloud environment.

What we offer

  • Opportunity to design and influence the core data architecture.
  • Flexibility, learning resources, and ownership over high-impact projects.
  • Play a key role in the transformation of sustainable urban mobility in our cities.
  • Competitive compensation plan with plenty of development opportunities.
  • Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.
  • Private Health Insurance plan.
  • 20 days holiday plus your birthday.
  • Work for an international company that has a link between Chile and the UK.
  • Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Forest pays or copays life insurance for employees.
Meals provided Forest provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Forest pays or copays health insurance for employees.
Dental insurance Forest pays or copays dental insurance for employees.
Computer provided Forest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Forest gives you paid vacations over the legal minimum.
Beverages and snacks Forest offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Database Lead Architect – Clinical Trial Systems (Azure/aWS)
  • Signant Health
Python Linux Virtualization Amazon Web Services

Want to do the Best Work of Your Life?

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations and reimagining the path to proof.

Where do you fit in?
We are seeking a highly experienced Lead Cloud OperationsDatabase Architect to design, implement, and govern our enterprise data architecture that supports regulated clinical research systems. This role is responsible for all database-related aspects across Microsoft Azure and AWS cloud environments, ensuring performance, security, and compliance with GxP, FDA 21 CFR Part 11, and ICH-GCP regulations. The ideal candidate combines deep technical expertise in MS SQL, Azure SQL, AWS RDS, and Cloud SQL platforms in high volume production environment with strong leadership in data governance, architecture design, and lifecycle management.

Official job site: Get on Board.

Job functions

  • Architecture & Design:
    Develop and maintain enterprise-scale data architectures supporting clinical trial systems, ensuring high availability, scalability, and security across Azure and AWS environments.
  • Database Administration & Operations:
    Oversee all aspects of database setup, configuration, backup/recovery, replication, and performance optimization for MS SQL, Azure SQL, Cloud SQL, and RDS instances.
  • Regulatory Compliance:
    Establish and enforce database procedures aligned with clinical and regulatory frameworks (e.g., GxP, 21 CFR Part 11). Partner with QA/Compliance to support audits and validation activities.
  • Security & Data Integrity:
    Implement robust access controls, encryption, monitoring, and logging mechanisms to safeguard sensitive clinical and patient data.
  • Automation & DevOps Integration:
    Automate database provisioning, patching, and schema deployments via CI/CD pipelines and Infrastructure as Code (IaC) tools (e.g., Terraform, OpenTofu, ARM templates, AWS CloudFormation).
  • Cross-Functional Leadership:
    Collaborate closely with Engineering, Project Management and Compliance teams to align data strategies across the enterprise.
  • Monitoring & Optimization:
    Design and implement proactive alerting, capacity planning, and performance tuning to maintain system reliability and speed.
  • Documentation & Standards:
    Maintain detailed architecture diagrams, SOPs, and technical documentation to support validation and internal audits.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Systems, or related field (Master’s preferred).
  • 10+ years in database architecture/administration, including 5+ years in cloud environments (Azure/AWS).
  • Expertise with MS SQL Server, Azure SQL Database and AWS RDS including strong proficiency in SQL queries and stored procedures
  • Proven experience supporting regulated (GxP/FDA) environments.
  • Strong understanding of data security, governance, and compliance in life sciences or healthcare settings.
  • Proficiency with IaC tools, monitoring platforms (CloudWatch, Azure Monitor), and automation scripting (PowerShell, Python, or Bash).
  • Strong communication skills and experience engaging with cross-functional technical and clinical teams.

Desirable skills

  • Experience integrating with clinical data systems (CDMS, EDC, LIMS).
  • Familiarity with Snowflakedatalake architectures and ETL/ELT pipelines.
  • Certifications in Azure Database Administrator, AWS Database Specialty, or equivalent cloud credentials.

Conditions

Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Apply to this job at getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Apply without intermediaries through Get on Board.

Descripción del trabajo

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $3400 - 4000 Full time
Sr Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Python SQL NoSQL

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de evaluar a los solicitantes de empleo. Fundada en 2014, Checkr pone tecnología moderna impulsada por aprendizaje automático en manos de los equipos de contratación, ayudando a contratar talento con una experiencia rápida, fluida y segura.

Checkr cuenta con más de 100,000 clientes como DoorDash, Coinbase, Lyft, Instacart y Airtable. Trabajar en Checkr implica colaborar con mentes brillantes, revolucionar un sector y abrir oportunidades a candidatos que suelen pasar desapercibidos. Checkr es reconocida en la lista Forbes Cloud 200 2024 y es una empresa innovadora de Y Combinator 2023.

Find this vacancy on Get on Board.

Job functions

Acerca del equipo/puesto

Buscamos un SR Data Engineer con experiencia para incorporarse a nuestro equipo de Plataforma de Datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene plataformas de datos escalables para tomar decisiones de contratación justas y seguras.

Como ingeniero del equipo de la plataforma de datos, trabajarás en la plataforma de datos centralizada de Checkr, fundamental para la visión de la empresa. La plataforma de datos centralizada es el núcleo de todos los productos clave orientados al cliente. Trabajarás en proyectos de gran impacto que contribuyen directamente a los productos de próxima generación.

Qué harás:

  • Serás un colaborador independiente capaz de resolver problemas y ofrecer soluciones de alta calidad con una supervisión mínima/de alto nivel y un alto grado de responsabilidad.
  • Aportarás una mentalidad centrada en el cliente y orientada al producto: colaborarás con los clientes y las partes interesadas internas para resolver ambigüedades del producto y ofrecer funciones impactantes.
  • Te asociarás con ingeniería, producto, diseño y otras partes interesadas en el diseño y la arquitectura de nuevas funciones.
  • Mentalidad experimental: autonomía y empoderamiento para validar las necesidades de los clientes, conseguir la aceptación del equipo y lanzar rápidamente un MVP.
  • Mentalidad de calidad: insistes en la calidad como pilar fundamental de tus productos de software.
  • Mentalidad analítica: instrumenta y despliega nuevos experimentos de productos con un enfoque basado en datos.
  • Entrega código de alto rendimiento, confiable, escalable y seguro para una plataforma de datos altamente escalable.
  • Supervisa, investiga, clasifica y resuelve los problemas de producción que surjan en los servicios propiedad del equipo.

Qualifications and requirements

  • Inglés fluido (reporta a jefatura en USA y las entrevistas técnicas son 100% en inglés). Adjunta tu CV en inglés para postular.
  • Licenciatura en un campo relacionado con la informática o experiencia laboral equivalente.
  • Más de 6-7 años de experiencia en desarrollo en el campo de la ingeniería de datos (más de 5 años escribiendo PySpark).
  • Experiencia en la creación de canalizaciones de procesamiento de datos a gran escala (cientos de terabytes y petabytes), tanto por lotes como en flujo continuo.
  • Experiencia con ETL/ELT, procesamiento de datos en flujo y por lotes a gran escala.
  • Gran dominio de PySpark, Python y SQL.
  • Experiencia en la comprensión de sistemas de bases de datos, modelado de datos, bases de datos relacionales, NoSQL (como MongoDB).
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake y AWS stack (EKS, EMR, Serverless, Glue, Athena, S3, etc.).
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Gran capacidad para resolver problemas y atención al detalle.

Desirable skills

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.
  • Conocimiento de almacenes de datos gráficos y vectoriales (preferible).

Conditions

  • Trabajo híbrido, vamos a la oficina 3 días a la semana y 2 días desde casa.
  • Almuerzo los días que vayas a la oficina.
  • Un entorno colaborativo y dinámico.
  • Contrato indefinido
  • Formar parte de una empresa internacional con sede en Estados Unidos.
  • Bono de $3.000 USD al año para formación y desarrollo.
  • Remuneración competitiva y oportunidad de crecimiento profesional y personal.
  • Cobertura médica, dental y oftalmológica al 100 % para empleados y familiares a cargo.
  • 5 días extra de vacaciones
  • RSU

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Meals provided Checkr provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y América Latina, en Devsu hemos desarrollado soluciones de alto impacto en industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de aprender constantemente y participar en proyectos desafiantes y de alto impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en distintos productos y soluciones de software.

Formarás parte de un entorno multicultural, con una estructura organizacional plana, donde el trabajo en equipo, el aprendizaje continuo y la flexibilidad son pilares fundamentales.

Actualmente, estamos en la búsqueda de un DATA ENGINEER experimentado para sumarse a nuestro equipo de forma híbrida en Quito/Ecuador

© Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
VIEW JOB APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Data Analyst / Data Engineer/Solution Architect
  • MAS Analytics
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Apply without intermediaries through Get on Board.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Apply exclusively at getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

This posting is original from the Get on Board platform.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Semi Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Web server Virtualization
BC Tecnología es una consultora de TI especializada en servicios IT, con foco en diseñar soluciones y formar equipos que acompañen a clientes en sectores como financiero, seguros, retail y gobierno. El proyecto en curso busca a un/a Semi Senior Data Engineer para un equipo orientado a la gestión de datos y la construcción de pipelines robustos. El objetivo es habilitar flujos de datos eficientes, escalables y seguros, alineados a prácticas de gobierno de datos, sinergias con arquitectos y líderes técnicos, y entrega continua de valor al negocio.
Trabajarás en un entorno que premia la colaboración, la innovación y la mejora continua, con un mix de trabajo híbrido en Las Condes y presencia colaborativa cuando se requiera, para asegurar la cohesión técnica y la calidad de los entregables.

Job opportunity on getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines de datos eficientes para ingesta, transformación y disponibilización de datos, priorizando escalabilidad y rendimiento.
  • Asegurar la calidad, consistencia y confiabilidad mediante pruebas y validaciones técnicas a lo largo del ciclo de datos.
  • Implementar y mantener flujos CI/CD en entornos de desarrollo y producción para pipelines de datos.
  • Diseñar soluciones avanzadas con resiliencia, idempotencia y arquitecturas orientadas a eventos (event-driven).
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje, promoviendo prácticas de data discipline.
  • Optimizar procesos y estándares de ingesta y transformación, proponiendo mejoras continuas y buenas prácticas.
  • Colaborar estrechamente con arquitectos y líderes técnicos para asegurar el cumplimiento de lineamientos y arquitectura de referencia.

Requisitos y perfil

Estamos buscando un/a profesional con al menos 2 años de experiencia diseñando y construyendo pipelines de datos. Se requiere dominio avanzado de Python, Spark y SQL, y experiencia trabajando en AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia en arquitecturas Lakehouse (Delta Lake, Apache Iceberg o Apache Hudi).
Competencias técnicas complementarias incluyen visión de datos, capacidad para resolver problemas complejos, enfoque en calidad y buenas prácticas de pruebas, y experiencia en entornos de entrega continua. Se valora pensamiento analítico, proactividad, creatividad y habilidad para comunicar resultados a equipos multidisciplinarios. Se ofrece un entorno de aprendizaje y desarrollo contínuo, con foco en crecimiento profesional y trabajo colaborativo.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist Senior Freelance AWS/Sagemaker
  • CoyanServices
Python SQL Virtualization Big Data

CoyanServices busca apoyar a un cliente regional a través de una empresa tecnológica privada. El proyecto es 100% remoto y freelance, abierto a profesionales de cualquier país de Latinoamérica. Trabajarás en un entorno tecnológico moderno, con foco en soluciones analíticas para decisiones estratégicas. El equipo utiliza AWS para desplegar soluciones de ML/AI y necesitamos un Data Scientist Senior para diseñar, entrenar y desplegar modelos end‑to‑end, estandarizar ingesta y gobierno de datos en el Data Lake, y traducir insights técnicos en productos analíticos utilizables para decisiones de negocio.

Objetivos del rol:

Diseñar, entrenar y desplegar modelos de ML/AI end-to-end sobre infraestructura AWS.

Estandarizar procesos de ingesta, limpieza y gobierno de datos en el Data Lake.

Traducir insights técnicos en productos analíticos útiles para la toma de decisiones.

Apply to this job through Get on Board.

Funciones

Ingeniería de datos: Pipelines en S3, Glue, Lambda, Athena. Feature engineering, validación y monitoreo de calidad.

Modelado estadístico y ML: Regresión, clasificación, series de tiempo, NLP. Evaluación rigurosa y documentación técnica.

Deployment y MLOps: Productización en SageMaker/Lambda. CI/CD, versionamiento y monitoreo de modelos.

Análisis y comunicación: Dashboards, storytelling y soporte a decisiones estratégicas.

Gobierno y ética de datos: Mejores prácticas, documentación, reproducibilidad y cumplimiento normativo.

Requisitos y perfil

Formación en Ingeniería, Estadística, Matemáticas, Ciencias de la Computación o afines.

Python avanzado (pandas, numpy, scikit-learn, PyTorch/TensorFlow deseable).

Experiencia comprobable con AWS: S3, Athena, Data Lake, Lambda, SageMaker Studio.

Sólida base en estadística aplicada e inferencia. • Experiencia completa en ciclos de vida ML/AI.

SQL avanzado (Athena, Presto, Redshift).

Control de versiones, documentación y testing de modelos/datos.

Deseables: Conocimientos en PySpark o SparkSQL. • Visualización con herramientas como Power BI.

Habilidades blandas

Pensamiento crítico y enfoque científico.

Autonomía, comunicación efectiva y colaboración.

Curiosidad y aprendizaje continuo.

Beneficios

Freelancer. Oportunidad de trabajar con una empresa tecnológica líder y un cliente regional. Modalidad 100% remota, flexible, con posibilidad de crecimiento profesional. Participación en proyectos estratégicos y exposición a tecnologías punteras en AWS y ML/AI. Agenda y horarios acordes al trabajo remoto. Si te interesa, te invitamos a aplicar para conversar sobre el encaje y próximos pasos.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Agile Git Virtualization Amazon Web Services
BC Tecnología, una consultora de TI con enfoque en soluciones para clientes en finanzas, seguros, retail y gobierno, busca un Data Engineer AWS para un proyecto orientado a arquitecturas Lakehouse y pipelines de datos escalables. Trabajarás en un entorno híbrido, con énfasis en ingesta, procesamiento y gobierno de datos, asegurando calidad y observabilidad de flujos de datos en un ecosistema AWS.

Find this job on getonbrd.com.

Funciones del rol

  • Diseñar e implementar pipelines de datos escalables en AWS y entornos Lakehouse.
  • Desarrollar ingestas eficientes, transformaciones y consumo de datos con buena gobernanza y calidad.
  • Configurar monitoreo, logging y observabilidad de pipelines con herramientas de AWS y terceros.
  • Trabajar con herramientas como AWS Glue, Glue Catalog, Lambda, Step Functions, EventBridge, CloudWatch, S3, Redshift/Serverless/Spectrum, Athena, Airflow, Terraform, GitHub, Jira y Confluence.
  • Colaborar en equipos multidisciplinarios para entregar soluciones robustas y alineadas a las necesidades del negocio.

Requisitos y perfil

  • Experiencia demostrable como Data Engineer enfocado en AWS y arquitecturas Lakehouse.
  • Conocimientos en patrones de ingesta y consumo de datos, gobernanza y calidad de datos.
  • Dominio de herramientas AWS mencionadas y experiencia en orquestación con Airflow y Terraform.
  • Buenas prácticas de monitoreo, observabilidad y performance de pipelines.
  • Capacidad de diseño, documentación y trabajo en entornos Agile.
  • Espíritu de aprendizaje continuo, proactividad y habilidades de comunicación para coordinar con equipos internos y clientes.

Deseables

  • Certificaciones AWS relacionadas con data (por ejemplo, AWS Certified Data - Specialty).
  • Experiencia en Spark/EMR, Redshift Serverless, Glue Studio o herramientas equivalentes.
  • Conocimientos de DBT y prácticas de calidad de datos en Lakehouse.
  • Experiencia en entornos regulados y cumplimiento de seguridad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2600 Full time
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Consultor Científico de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Data Analysis SQL

🚀 ¡Estamos buscando talento para el equipo Lab de Microsystem! ⚗️

Si te gustan los datos, la programación y los desafíos que realmente generan impacto, acá hay una oportunidad muy entretenida. Estamos desarrollando proyectos innovadores ligados a Machine Learning, ingeniería y ciencia de datos: desde modelos predictivos de pesca (sí, con datos reales y complejos 👀), hasta modelos bancarios inteligentes que anticipan comportamientos y mejoran decisiones de negocio.

Buscamos a alguien motivado, curioso y con ganas de aprender tecnologías de punta. Alguien que disfrute mezclar lo técnico con lo consultivo: entender al cliente, su contexto y transformar eso en modelos funcionales y útiles.

Trabajarás con un equipo joven, colaborativo y con experiencia 🤓, en un ambiente donde se prueba, se crea y se innova. Si te gusta programar, experimentar y resolver problemas reales, este es tu lugar 💪.

¿Te interesa o conoces a alguien? ¡Hablemos! 🚀

Apply directly from Get on Board.

Funciones del cargo

1. Levantamiento y entendimiento del negocio con el cliente

  • Participar en reuniones con clientes para comprender sus necesidades, procesos, problemas y expectativas.
  • Traducir requerimientos de negocio en objetivos analíticos y diseños de modelos.
  • Presentar hallazgos, resultados y recomendaciones de manera clara y comprensible.

2. Preparación, exploración y análisis de datos

  • Recopilar, limpiar y transformar datos provenientes de distintas fuentes.
  • Realizar análisis exploratorio (EDA) para descubrir patrones, anomalías y oportunidades de modelamiento.
  • Definir y construir pipelines de preparación de datos cuando sea necesario.

3. Construcción y entrenamiento de modelos predictivos

  • Diseñar, programar y entrenar modelos de Machine Learning (supervisados y no supervisados).
  • Seleccionar técnicas adecuadas según el problema: regresión, clasificación, series de tiempo, clustering, árboles, ensembles, etc.
  • Ajustar, validar y optimizar modelos para maximizar desempeño y robustez.

4. Implementación y despliegue de modelos

  • Implementar pipelines end-to-end: desde ingesta de datos hasta predicciones automatizadas.
  • Trabajar con herramientas y entornos de desarrollo modernos (Python, Jupyter, Git, APIs, etc.).
  • Colaborar con equipos Dev/Data Engineering para integrar los modelos en producción.

5. Documentación y comunicación

  • Documentar procesos, decisiones técnicas, métricas, versiones de modelos y flujos de trabajo.
  • Preparar presentaciones y reportes para explicar resultados a stakeholders técnicos y no técnicos.

6. Iteración, mejora continua y acompañamiento al cliente

  • Monitorear el rendimiento de los modelos y proponer mejoras.
  • Acompañar al cliente en el uso, interpretación y adopción del modelo.
  • Levantar nuevas oportunidades de mejora o proyectos relacionados.

7. Participación activa en el equipo Lab

  • Compartir aprendizajes, buenas prácticas y nuevos enfoques con el equipo.
  • Explorar tecnologías emergentes y sugerir innovaciones aplicables a los proyectos.

Requerimientos del cargo

Requisitos Técnicos (Hard Skills)

  • Formación en Ingeniería, Estadística, Matemáticas, Computación o carrera afín.
  • Experiencia comprobable en construcción de modelos predictivos (regresión, clasificación, series de tiempo, clustering, etc.).
  • Dominio de Python para ciencia de datos (pandas, scikit-learn, NumPy, matplotlib, etc.).
  • Conocimientos sólidos en limpieza, transformación y análisis exploratorio de datos (EDA).
  • Manejo de bases de datos y consultas SQL.
  • Conocimiento en APIs REST e integración de datos.
  • Capacidad para construir pipelines end-to-end de ML (ingesta, entrenamiento, evaluación, despliegue).
  • Manejo a nivel básico de herramientas analíticas como Power BI y/o Tableau para exploración y entendimiento de datos.
  • Deseable: experiencia en ML Ops, automatización, versionado de modelos o despliegue en la nube (AWS, Azure, etc.).

Requisitos Interpersonales (Soft Skills)

  • Habilidad para comunicarse claramente con clientes no técnicos.
  • Capacidad de levantar requerimientos, entender el contexto del negocio y traducirlo a problemas analíticos.
  • Buenas habilidades de presentación y storytelling con datos.
  • Proactividad, autonomía y ganas de aprender tecnologías nuevas.
  • Trabajo colaborativo en equipos multidisciplinarios.

Otros Deseables

  • Experiencia en consultoría o interacción directa con clientes.
  • Conocimiento en herramientas de visualización adicionales (Tableau, Looker, Power BI, etc.).
  • Inglés intermedio para lectura de documentación y soporte técnico.
  • Conocimiento de metodologías como CRISP-DM y otras a fines.
  • Conocimiento en otros lenguajes (TypeScript, JavaScript, etc.)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Education stipend Microsystem covers some educational expenses related to the position.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Data Engineer (Azure / AWS)
  • Devups
Python SQL Virtualization Amazon Web Services

En Devups, ofrecemos un servicio de staff augmentation que permite incorporar desarrolladores y técnicos a tu empresa sin gestionar reclutamiento, contratación ni costes asociados. Nuestro enfoque flexible facilita añadir, intercambiar o reducir recursos de desarrollo de forma rápida, manteniendo la responsabilidad y reduciendo la fricción operativa. Trabajamos para que nuestros clientes escalen sus capacidades tecnológicas con rapidez y sin la carga de una estructura interna permanente.

Como parte de nuestro equipo, el proyecto de Data Engineering se centrará en diseñar soluciones robustas y escalables para flujos de datos en la nube, colaborando con analítica y ciencia de datos para decisiones basadas en datos de calidad. Buscamos un perfil que contribuya a la modernización de pipelines, data lakes y data warehouses, aplicando buenas prácticas de seguridad, gobernanza y costo-eficiencia para entornos Azure y AWS.

Find this vacancy on Get on Board.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en entornos cloud (Azure Data Factory, Databricks, Synapse; AWS Glue, Lambda, S3).
  • Integrar, transformar y limpiar grandes volúmenes de datos provenientes de múltiples fuentes para su consumo en analítica y ML.
  • Administrar y optimizar data lakes y data warehouses (Snowflake, Redshift, Synapse, BigQuery según el stack del cliente).
  • Implementar versionado, gobernanza, seguridad y monitoreo continuo de datos; gestionar costos y performance tuning en nube.
  • Colaborar estrechamente con equipos de analítica, ciencia de datos y desarrollo para entregar soluciones centradas en negocio.
  • Participar en prácticas de CI/CD y, si aplica, contenerización con Docker y flujos de orquestación (Airflow, Prefect o similar).

Descripción

Buscamos un Data Engineer con experiencia en el diseño, construcción y optimización de pipelines de datos en la nube ( Azure o AWS ). El objetivo es asegurar el flujo confiable, escalable y seguro de datos desde múltiples fuentes hacia sistemas analíticos o de machine learning, soportando decisiones de negocio basadas en información de calidad. Requisitos clave: +3 años de experiencia en Data Engineering, experiencia en Azure (Data Factory, Databricks, Synapse) o AWS (Glue, Redshift, Lambda, S3), sólidos conocimientos en Python y SQL, modelado de datos, pipelines, APIs y orquestación (Airflow, Prefect o similar), inglés técnico. Se valoran Docker, CI/CD, herramientas de MLOps y certificaciones en Azure o AWS. Ofrecemos un proyecto desafiante con tecnologías cloud y trabajo remoto con horarios flexibles, en un equipo técnico de alto nivel.

Desirable

Experiencia adicional en seguridad de datos, costos y performance tuning en cloud. Conocimientos de seguridad de datos, cumplimiento de normativas y experiencia con herramientas de monitoreo y observabilidad. Capacidad para trabajar de forma autónoma, con buen manejo de prioridades y comunicación clara en entornos multiculturales. Preferible experiencia trabajando en proyectos con impacto directo en negocio y con clientes o equipos remotos.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Analytics Git SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this posting directly on Get on Board.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

This job is original from Get on Board.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Project Manager
  • Autofact
Agile Project Manager Product Owner Business Analyst

Autofact es la empresa de información y tecnología que más innovaciones ha desarrollado en el proceso de compra y venta de vehículos en la industria automotriz de Chile. Con más de 13 años de trayectoria, nuestro propósito es hacer simple y segura la compra de vehículos.

¡Seguimos creciendo! Nuestro equipo está compuesto por más de 130 personas con gran espíritu de compañerismo, actitud y entusiasmo, quienes día a día buscan desarrollar los mejores productos y servicios para nuestros clientes.

¿Cómo? A través de herramientas digitales y servicios de información, entregando más de 100 mil informes y realizando más de 16 mil transferencias de vehículos mensualmente, todo a través de nuestras aplicaciones.

Si te gusta una dinámica ágil e innovadora y compartir con equipos que les gusta trabajar y celebrar aún más ¡Autofact es para ti!

Official source: getonbrd.com.

Funciones principales

  • Definir y priorizar tareas para el desarrollo del proyecto, manteniendo un backlog actualizado y alineado con los objetivos estratégicos.
  • Gestionar sprints de desarrollo en coordinación con el Lead TI, asegurando plazos, calidad y objetivos definidos.
  • Supervisar el trabajo de desarrolladores (fijo y matricial), velando por su productividad y la alineación con el proyecto.
  • Mantener comunicación constante con stakeholders internos, recoger feedback y ajustar el avance del proyecto.
  • Monitorear indicadores de progreso y desempeño, proponiendo acciones correctivas ante desviaciones.
  • Preparar el proyecto para su transición hacia un producto formal, asegurando bases sólidas de operación, calidad y escalabilidad.

Perfil y experiencia requerida

Formación profesional, en carreras como Ingeniería Comercial, Ingeniería Informática, Ingeniería Civil Industrial o afines; con experiencia en metodologías ágiles y desarrollo de productos tecnológicos. Al menos 2 años gestionando proyectos o desarrollos ágiles. Deseable experiencia previa liderando proyectos o en roles como Product Owner o Business Analyst.

Competencias y experiencia deseables

Habilidades de liderazgo, orientación a resultados, estructura, solución de problemas y pensamiento analítico. Capacidad para trabajar en entornos dinámicos, gestionar múltiples stakeholders y tomar decisiones orientadas al negocio.

Beneficios y cultura

  • Te facilitamos un computador, junto con otros implementos que necesites para armar tu home office.
  • Horario flexible con cumplimiento semanal de 37,5 horas, gestionado de forma autónoma dentro de límites razonables.
  • Somos una empresa Cloud First, con toda nuestra arquitectura en AWS.
  • Modalidad de trabajo 100% remoto.
  • Ropa libre (con límites razonables).
  • Programa de beneficios por puntos para personalizar según tus preferencias (cumpleaños, días libres, capacitación, giftcards, etc.).

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Jefe de Proyectos TI
  • Coderslab.io
  • Lima (Hybrid)
Project Manager Cloud Computing Cloud Infrastructure

Coderslab.io es una compañía global que impulsa la transformación empresarial y el crecimiento a través de soluciones tecnológicas innovadoras. Con más de 3,000 empleados en América Latina y Estados Unidos, trabajamos en proyectos desafiantes y de alto impacto, reuniendo equipos de élite para entregar resultados que impulsan tanto las carreras como las compañías hacia adelante. Nuestro ecosistema fomenta el aprendizaje continuo mediante la colaboración con profesionales senior y el uso de tecnologías de vanguardia.

Actualmente estamos en búsqueda de un Jefe de Proyectos TI.

Find this vacancy on Get on Board.

Funciones del cargo

Diseñar, implementar y mantener soluciones de telecomunicaciones, infraestructura y arquitectura de aplicaciones, asegurando la escalabilidad, seguridad y disponibilidad de los entornos tecnológicos.

Liderar proyectos de adopción y optimización de servicios en la nube, incluyendo la planificación, ejecución y supervisión de migraciones de data centers hacia plataformas cloud (AWS, Azure, GCP, u otras).

Colaborar con equipos multidisciplinarios para definir estrategias de modernización tecnológica, evaluando riesgos, proponiendo mejoras y garantizando la continuidad operativa durante procesos de transformación digital.

Requerimientos del cargo

  • Indispensable:
    • 3 a 5 años de experiencia en telecomunicaciones, infraestructura y arquitectura de aplicaciones
    • 3 a 5 años de experiencia de servicios cloud y migración de data centers a cloud
  • Deseado:
    • Experiencia en implementación de controles PCI
    • Experiencia en banca o servicios financieros

Condiciones

Modalidad de contratación: Recibo por honorarios.
Duración del proyecto: 6 meses con posibilidad de extension.

VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
Commvault Consultant
  • Servicio Latam
  • Medellín (In-office)
Soporte técnico Cloud Audit Backup

Descripción del puesto:

SERVICIO LATAM es una empresa líder en el sector de tecnologías de la información, dedicada a brindar soluciones innovadoras y eficientes a sus clientes. Nuestra empresa se destaca por fomentar un ambiente de trabajo colaborativo, con oportunidades de crecimiento profesional y desarrollo personal para todos los empleados.

En Servicio Latam nos encontramos en la búsqueda de Commvaul Consultor para unirse a un proyecto tecnológico en crecimiento. La posición está orientada a perfiles con experiencia y con sólidos conocimientos en Red Hat OpenShift, que puedan brindar acompañamiento técnico y soporte al equipo.

Job opportunity on getonbrd.com.

Job functions

Descripción del perfil

El Consultor Commvault es el especialista encargado de asesorar, diseñar y optimizar soluciones de protección y gestión de datos utilizando la plataforma Commvault. Su rol es estratégico y técnico, orientado a garantizar la continuidad del negocio, la seguridad de la información y el cumplimiento normativo, adaptando la solución a las necesidades específicas del cliente o de la organización.

Actúa como enlace entre el negocio y la tecnología, proponiendo arquitecturas eficientes de respaldo, recuperación ante desastres y protección contra ransomware en entornos on-premise, híbridos y en la nube.

Qualifications and requirements

Funciones principales

  • Levantar requerimientos técnicos y de negocio relacionados con protección de datos.
  • Diseñar arquitecturas de backup, recuperación y DRP con Commvault.
  • Implementar y/o supervisar implementaciones de Commvault.
  • Definir políticas de retención, cifrado, deduplicación y almacenamiento.
  • Asesorar en estrategias de protección contra ransomware y recuperación segura.
  • Optimizar el rendimiento y costos de las soluciones de respaldo.
  • Realizar auditorías y diagnósticos de ambientes Commvault existentes.
  • Ejecutar y validar pruebas de recuperación y planes de continuidad.
  • Elaborar documentación técnica, diseños y buenas prácticas.
  • Brindar soporte especializado (nivel 3) y transferencia de conocimiento.
  • Acompañar procesos de migración a la nube y modernización de backups.

Desirable skills

Herramientas y tecnologías - Plataforma principal

  • Commvault Complete Data Protection
  • Commvault Command Center
  • Commvault Activate (analítica y clasificación de datos)

Infraestructura

  • Windows Server / Linux
  • VMware vSphere / Hyper-V
  • Almacenamiento SAN / NAS

Bases de datos

  • Microsoft SQL Server
  • Oracle
  • MySQL / PostgreSQL

Nube

  • Microsoft Azure (Blob Storage, Azure Backup)
  • AWS (S3, EC2)
  • Google Cloud Platform (GCP)

Automatización y seguridad

  • PowerShell / Bash
  • Active Directory
  • Cifrado, control de accesos y políticas de seguridad
  • Integración con soluciones de monitoreo

Formación y perfil profesional

  • Ingeniero de Sistemas
  • Ingeniero Informático
  • Ingeniero de Telecomunicaciones
  • Tecnólogo en Sistemas con amplia experiencia en backup e infraestructura

Conditions

Tipo de contrato: Prestación Servicios

Salario: Abierto según experiencia

VIEW JOB APPLY VIA WEB
$$$ Full time
Commvaul Consultor
  • Servicio Latam
  • Bogotá (In-office)
Analytics Soporte técnico Cloud Audit

Descripción del puesto:

SERVICIO LATAM es una empresa líder en el sector de tecnologías de la información, dedicada a brindar soluciones innovadoras y eficientes a sus clientes. Nuestra empresa se destaca por fomentar un ambiente de trabajo colaborativo, con oportunidades de crecimiento profesional y desarrollo personal para todos los empleados.

En Servicio Latam nos encontramos en la búsqueda de Commvaul Consultor para unirse a un proyecto tecnológico en crecimiento. La posición está orientada a perfiles con experiencia y con sólidos conocimientos en Red Hat OpenShift, que puedan brindar acompañamiento técnico y soporte al equipo.

Apply to this posting directly on Get on Board.

Job functions

Descripción del perfil

El Consultor Commvault es el especialista encargado de asesorar, diseñar y optimizar soluciones de protección y gestión de datos utilizando la plataforma Commvault. Su rol es estratégico y técnico, orientado a garantizar la continuidad del negocio, la seguridad de la información y el cumplimiento normativo, adaptando la solución a las necesidades específicas del cliente o de la organización.

Actúa como enlace entre el negocio y la tecnología, proponiendo arquitecturas eficientes de respaldo, recuperación ante desastres y protección contra ransomware en entornos on-premise, híbridos y en la nube.

Qualifications and requirements

Funciones principales

  • Levantar requerimientos técnicos y de negocio relacionados con protección de datos.
  • Diseñar arquitecturas de backup, recuperación y DRP con Commvault.
  • Implementar y/o supervisar implementaciones de Commvault.
  • Definir políticas de retención, cifrado, deduplicación y almacenamiento.
  • Asesorar en estrategias de protección contra ransomware y recuperación segura.
  • Optimizar el rendimiento y costos de las soluciones de respaldo.
  • Realizar auditorías y diagnósticos de ambientes Commvault existentes.
  • Ejecutar y validar pruebas de recuperación y planes de continuidad.
  • Elaborar documentación técnica, diseños y buenas prácticas.
  • Brindar soporte especializado (nivel 3) y transferencia de conocimiento.
  • Acompañar procesos de migración a la nube y modernización de backups.

Herramientas y tecnologías - Plataforma principal

  • Commvault Complete Data Protection
  • Commvault Command Center
  • Commvault Activate (analítica y clasificación de datos)

Desirable skills

Infraestructura

  • Windows Server / Linux
  • VMware vSphere / Hyper-V
  • Almacenamiento SAN / NAS

Bases de datos

  • Microsoft SQL Server
  • Oracle
  • MySQL / PostgreSQL

Nube

  • Microsoft Azure (Blob Storage, Azure Backup)
  • AWS (S3, EC2)
  • Google Cloud Platform (GCP)

Automatización y seguridad

  • PowerShell / Bash
  • Active Directory
  • Cifrado, control de accesos y políticas de seguridad
  • Integración con soluciones de monitoreo

Formación y perfil profesional

  • Ingeniero de Sistemas
  • Ingeniero Informático
  • Ingeniero de Telecomunicaciones
  • Tecnólogo en Sistemas con amplia experiencia en backup e infraestructura

Conditions

Tipo de contrato: Prestación Servicios

Salario: Abierto según experiencia

VIEW JOB APPLY VIA WEB
$$$ Full time
IT Delivery Manager (Cloud & Platforms)
  • Devsu
  • Quito (In-office)
Agile DevOps Virtualization Project Manager

Con más de 10 años impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y América Latina, en Devsu hemos desarrollado soluciones de alto impacto en industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de aprender constantemente y participar en proyectos desafiantes y de alto impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en distintos productos y soluciones de software.

Formarás parte de un entorno multicultural, con una estructura organizacional plana, donde el trabajo en equipo, el aprendizaje continuo y la flexibilidad son pilares fundamentales.

Actualmente, estamos en la búsqueda de un Delivery Manager experimentado para sumarse a nuestro equipo de forma presencial en Quito.

This job is available on Get on Board.

Funciones del cargo

  • Liderar el delivery end-to-end de múltiples iniciativas y/o programas tecnológicos dentro del entorno bancario.
  • Definir, ejecutar y dar seguimiento a planes de proyecto y delivery bajo un marco metodológico estandarizado (ágil, híbrido o tradicional).
  • Coordinar equipos multidisciplinarios: desarrollo, arquitectura, cloud, DevOps, QA, seguridad, negocio y proveedores.
  • Actuar como nexo entre negocio y tecnología, facilitando la toma de decisiones y el alineamiento con prioridades estratégicas.
  • Gestionar riesgos, dependencias, issues y cambios, considerando el contexto regulatorio y operativo del sector financiero.
  • Asegurar la adopción de estándares de gobierno, delivery, reporting y documentación.
  • Preparar y presentar reportes ejecutivos, KPIs y métricas de delivery a stakeholders clave y alta dirección.
  • Acompañar la transición de soluciones a operación y soporte, garantizando estabilidad, continuidad y cumplimiento.
  • Promover la mejora continua, buenas prácticas y excelencia operativa en los procesos de delivery.

Requerimientos del cargo

  • 4–6 años de experiencia en roles de Delivery Manager, Project Manager Senior o Program Manager en entornos tecnológicos.
  • Experiencia previa en sector bancario, financiero o entornos altamente regulados.
  • Sólidos conocimientos técnicos en cloud (Azure y/o AWS): arquitecturas, servicios gestionados, seguridad, modelos de despliegue.
  • Experiencia en proyectos con integraciones, plataformas, APIs, middleware o soluciones transversales.
  • Dominio de metodologías ágiles y tradicionales (Scrum, Kanban, PMI, híbridas).
  • Gestión simultánea de múltiples iniciativas o programas.
  • Capacidad para interactuar con equipos técnicos con criterio y entendimiento del impacto en el delivery.
  • Fuertes habilidades de liderazgo, comunicación, negociación y gestión de stakeholders.

Deseable:

  • Certificaciones: PMP, Scrum Master, SAFe, ITIL u otras afines.
  • Experiencia trabajando con DevOps, CI/CD y modelos operativos cloud.
  • Conocimiento de marcos de seguridad, compliance y regulación bancaria.
  • Inglés intermedio o avanzado.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

VIEW JOB APPLY VIA WEB
Gross salary $2600 - 3200 Full time
IT Business Architect
  • CoyanServices
Agile DevOps Microservices Soporte técnico

CoyanServices busca un IT Business Architect(tiempo completo, remoto LATAM) para liderar la traducción de objetivos de negocio en arquitectura tecnológica y el diseño de soluciones digitales integradas, seguras y escalables. El rol actúa como puente entre negocio y TI, definiendo y gobernando arquitecturas empresariales y mapas de procesos (BPM), integraciones SAP / APIs / microservicios, y soluciones cloud (AWS); además, impulsa DevOps y prácticas ágiles para asegurar valor, calidad, desempeño y alineamiento con la estrategia digital. Deberás evaluar tecnologías, coordinar con stakeholders, documentar y mantener el roadmap de aplicaciones, y supervisar ciclo de vida, pruebas (unitarias, integrales, UAT, performance) y cumplimiento de políticas y estándares.

This job is published by getonbrd.com.

Objetivos del rol:

  • Conectar la estrategia de negocio con la arquitectura tecnológica, definiendo soluciones digitales integradas, seguras y escalables que soporten los procesos clave de la compañía.
  • Traducir los requerimientos funcionales y objetivos de negocio en diseños de arquitectura aplicativa y de infraestructura.
  • Liderar el diseño, coordinación y validación de soluciones tecnológicas asegurando valor, calidad, desempeño y alineamiento con la estrategia digital.
  • Actuar como puente entre negocio y tecnología, integrando equipos multidisciplinarios (negocio, IT, desarrollo, seguridad y operaciones)

Responsabilidades:

Relación con Stakeholders

  • Promover la propuesta de valor de la estrategia de TI ante los stakeholders de negocio.
  • Participar activamente en reuniones, planes y estrategias del proceso asignado.
  • Identificar y gestionar conflictos, asegurando la alineación entre autonomía y objetivos del negocio.

Análisis y Estrategia Tecnológica

  • Investigar y analizar soluciones de tecnología del mercado, identificando tendencias y proveedores relevantes.
  • Evaluar y proponer tecnologías emergentes que optimicen los procesos empresariales.
  • Establecer alianzas estratégicas con proveedores locales, regionales e internacionales.

Diseño y Presentación de Soluciones

  • Definir junto a arquitectos técnicos y de software los atributos de calidad, diseño aplicativo e infraestructura.
  • Analizar requerimientos, problemas y oportunidades para proponer soluciones de valor.
  • Negociar beneficios, costos y compromisos con los sponsors y equipos de operación.

Control y Gobierno de Soluciones

  • Asegurar la integridad técnica y funcional de las soluciones en desarrollo e implementadas.
  • Supervisar el cumplimiento de políticas, metodologías y buenas prácticas.
  • Gestionar el ciclo de vida de las aplicaciones, incluyendo deuda técnica y obsolescencia.
  • Coordinar planes de prueba técnicos, funcionales y de seguridad (unitarias, integrales, UAT, performance).

Prototipado y Entrega de Soluciones

  • Liderar la construcción de prototipos funcionales, validando iterativamente con el cliente.
  • Integrar y mantener el gobierno de activos de arquitectura (negocio, datos, aplicaciones, tecnología).
  • Coordinar la entrega y soporte de las soluciones, colaborando con equipos de proyectos y operaciones.

Documentación y Mejora Continua

  • Documentar mapas de aplicaciones, datos e integraciones de los sistemas a su cargo.
  • Mantener actualizada la arquitectura y proponer mejoras a estándares y lineamientos.
  • Definir y mantener el roadmap de aplicaciones alineado a la estrategia corporativa.

Requisitos Técnicos:

  • Experiencia en arquitectura de soluciones y procesos digitales (mínimo 5 años).
  • Conocimientos sólidos en BPM, arquitectura empresarial, integración de sistemas, APIs y microservicios.
  • Experiencia en plataformas cloud (AWS) y entornos híbridos.
  • Conocimiento en metodologías Agile / Scrum y prácticas DevOps.
  • Capacidad para liderar iniciativas de transformación digital y gestión de cambio.
  • Deseable certificación TOGAF u otras en arquitectura de TI.
  • Experiencia en gestión de ciclo de vida de aplicaciones y herramientas de documentación (Confluence, Jira, Visio, ArchiMate).

Habilidades blandas:

  • Comunicación efectiva con equipos técnicos y ejecutivos.
  • Liderazgo colaborativo y enfoque en resolución de conflictos.
  • Pensamiento estratégico y visión de negocio.
  • Capacidad analítica y orientación a resultados.
  • Autonomía, organización y compromiso con la calidad de las soluciones.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Technical Product Manager
  • Dynamic Devs
  • Santiago (Hybrid)
Agile QA Scrum Kanban

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

📢 En Dynamic Devs, estamos buscando un Technical Product Manager con iniciativa y ambición de crecimiento. Este rol es clave para guiar a nuestros equipos técnicos en proyectos desafiantes, asegurando que los objetivos técnicos se alineen con las metas comerciales del cliente. Es necesario que la persona se encuentre en Santiago de Chile para que pueda asistir a la oficina algunos días a la semana según la necesidad del proyecto.

Official job site: Get on Board.

Funciones del cargo

  • Coordinar y supervisar proyectos de complejidad variable, asegurando la entrega dentro del tiempo y el presupuesto establecidos.
  • Actuar como punto de contacto entre los equipos de desarrollo y los stakeholders del cliente, facilitando una comunicación clara y eficiente
  • Participar en la definición de requisitos junto con el equipo de desarrollo y el cliente.
  • Gestionar el backlog y priorizar tareas de acuerdo a los objetivos del proyecto.
  • Apoyar en la implementación y mejora de procesos ágiles (Scrum, Kanban) dentro del equipo.
  • Identificar riesgos y proponer soluciones para mitigar problemas durante el ciclo de vida del proyecto.
  • Facilitar el descubrimiento técnico junto al equipo, asegurando que las soluciones propuestas se alineen con las expectativas del cliente.
  • Documentar decisiones técnicas y de producto, asegurando transparencia y trazabilidad en los proyectos.

Requerimientos del cargo

  • 2 a 3 años de experiencia en roles de gestión de proyectos o Technical Product Manager en proyectos de tecnología.
  • Experiencia con metodologías ágiles (Scrum, Kanban) y herramientas de gestión de proyectos como Jira, Trello, Notion, o similares.
  • Familiaridad con conceptos técnicos en desarrollo de software (QA, pipelines, cloud, APIs) para poder colaborar con equipos técnicos.
  • Excelentes habilidades de comunicación y experiencia en la gestión de la relación cliente-equipo.
  • Capacidad para identificar riesgos y priorizar soluciones.
  • Iniciativa y proactividad para liderar proyectos y equipos.
  • Excelentes habilidades interpersonales, con capacidad para trabajar con equipos diversos y multiculturales.
  • Fuerte habilidad de gestión del tiempo y manejo de proyectos simultáneos.

Modalidad de trabajo: Híbrida – Se requiere disponibilidad para trabajar de manera presencial en las oficinas del cliente cuando sea solicitado.

Opcionales

  • Experiencia previa en consultoría o gestión de proyectos de software en sectores como retail, seguros, finanzas, etc.
  • Habilidades avanzadas en gestión de métricas y evaluación de KPIs.
  • Deseo de crecimiento en la organización y asumir roles de mayor responsabilidad.
  • Conocimiento cloud a nivel ejecutivo (AWS, GCP)

Beneficios Dynamo!!

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Life insurance Dynamic Devs pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Education stipend Dynamic Devs covers some educational expenses related to the position.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Originally published on getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Senior AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams to deliver cutting-edge technological solutions for leading U.S. companies. As part of our AI-focused initiatives, you’ll join a global team building autonomous, agent-based AI systems and maintaining production-grade AI services. You will work on industrial data projects that demand high reliability, scalability, and robust operational practices. The role emphasizes collaboration with core engineers, product, and leadership to ensure AI systems significantly improve business outcomes while staying aligned with strategic goals. This position offers ongoing training, leadership development, and the opportunity to contribute to long-term, high-impact projects in a fully remote environment.

Job opportunity on getonbrd.com.

What You’ll Do

  • Design, build, and improve AI-driven systems, including agent-based workflows, to solve real-world problems.
  • Hands-on debugging, refactoring, and stabilizing existing AI/LLM systems in production to reduce debt and improve reliability.
  • Develop and integrate AI capabilities through REST APIs and service-oriented architectures (e.g., FastAPI or equivalent).
  • Deploy, monitor, and operate AI services in AWS, ensuring performance, cost-efficiency, and security.
  • Collaborate with engineers to address technical debt, optimize pipelines, and enhance system observability.
  • Communicate progress, risks, and trade-offs clearly to stakeholders and leadership.

Requirements

  • Fluent English (written and spoken).
  • Strong programming skills in Python.
  • Experience working with LLMs (e.g., OpenAI, Anthropic, Bedrock, or similar).
  • Ability to design and build APIs and services (FastAPI or equivalent).
  • Experience deploying and operating services in AWS or other cloud platforms.
  • Hands-on mindset and comfort working in messy, real-world systems.

Nice to Have

  • Experience with agent or multi-agent frameworks (LangGraph, LlamaIndex, LangChain, MCP, etc.).
  • Docker and containerized deployments (Docker, ECS, Gunicorn).
  • Familiarity with monitoring and observability (CloudWatch, Prometheus, Grafana).
  • Experience with semantic search, embeddings, or vector databases.
  • Knowledge of document processing or extraction tools (e.g., Textract).
  • Experience with testing (pytest, Playwright) and basic CI/CD workflows.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Docente Full-Stack Iii
  • Duoc UC
  • Santiago (In-office)
Virtualization Amazon Web Services Docker Microservices
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. En nuestra sede Plaza Norte, formamos a profesionales con una sólida trayectoria en informática y telecomunicaciones, integrando a docentes de alto calibre para entregar una educación de calidad. El proyecto docente para la asignatura Fullstack III se enmarca en el plan de estudios de la Escuela de Informática y Telecomunicaciones, con enfoque en desarrollo de soluciones Full Stack, microservicios y prácticas modernas de arquitectura y entrega de software. Buscamos potenciar el aprendizaje práctico de los estudiantes, promoviendo el trabajo en equipo, la creatividad y la responsabilidad académica, dentro de un marco de valores institucionales y desarrollo profesional continuo.

Apply at getonbrd.com without intermediaries.

Funciones

El/la docente será responsable de liderar el proceso de enseñanza y aprendizaje de la asignatura Fullstack III, alineada al modelo educativo y al marco valórico institucional. Sus principales funciones incluirán: planificar y gestionar unidades didácticas y evaluaciones; impartir clases teóricas y prácticas en laboratorios; supervisar proyectos de desarrollo de software en equipo; asesorar y orientar a los estudiantes en la resolución de problemas técnicos y en la aplicación de buenas prácticas de desarrollo; promover la integración de tecnologías modernas (arquitecturas de microservicios, contenedores, cloud, Docker); colaborar con equipos multidisciplinarios para enriquecer la experiencia educativa; realizar seguimiento del rendimiento estudiantil y entregar retroalimentación oportuna; participar en actividades de desarrollo docente y actualización tecnológica; contribuir a la continuidad de la mejora curricular y al aseguramiento de la calidad educativa.

Requisitos

  • Formación: Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín.
  • Experiencia: 3 años de experiencia. Sólida experiencia en el desarrollo de proyectos en rol FullStack. Arquitecturas de MicroServicios, Contenedores, Cloud, Docker.
  • Disponibilidad: Martes: 08:31 a 14:20/ Jueves: 08:31 a 14:20
  • Otros requisitos: Deseable que cuente con certificación en alguna nube como AWS

Deseables

Certificaciones en servicios de nube (AWS, Azure, Google Cloud) y experiencia en entornos de DevOps. Participación previa en proyectos educativos o de investigación aplicada. Habilidades de comunicación efectiva, empatía, y capacidad para adaptarse a metodologías de enseñanza innovadoras.

Beneficios

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
$$$ Full time
Cpa Bookkeeper with Tax Prep
  • Virtual Staffing Careers
Accounting Integration Testing Compliance Analytical Skills

Virtual Staffing Careers is a dedicated staffing partner focused on delivering exceptional financial and administrative support. Our finance team seeks a skilled CPA (Bookkeeper) with hands-on tax preparation experience to help ensure precise financial reporting, accurate tax filing, and regulatory compliance for our clients and the company. The role collaborates with internal teams to provide insightful financial analysis and supports audits and documentation across diverse client engagements. You will contribute to process improvements, maintain robust financial records, and support strategic decision-making with timely, accurate data.

This job offer is on Get on Board.

Key responsibilities

  • Prepare, review, and file tax returns for clients and the company, ensuring accuracy and compliance with applicable laws and regulations.
  • Maintain up-to-date financial records, including general ledger entries, accounts payable/receivable, and bank reconciliations.
  • Assist with audits and regulatory compliance documentation, providing clear documentation and explanations as needed.
  • Collaborate with internal teams to deliver meaningful financial insights, reports, and forecasts to support decision-making.
  • Ensure timely submission of tax-related filings and maintain a calendar of important deadlines.
  • Review and streamline accounting processes to improve efficiency, accuracy, and control environments.
  • Stay current with tax rules and industry standards, implementing best practices within the organization.

Required skills and experience

We are seeking a licensed CPA with proven tax preparation and accounting experience. The ideal candidate is detail-oriented, highly organized, and capable of managing multiple deadlines in a fast-paced environment. You should be proficient in QuickBooks Online (QBO) and Accounta, with strong analytical skills and the ability to translate complex financial data into actionable insights. The role requires excellent communication and collaboration across teams, a commitment to accuracy, and a proactive approach to process improvements. A professional demeanor and reliability are essential to ensure the highest standards of financial integrity and compliance.

Desirable qualifications

• CPA active license with demonstrated tax preparation expertise and broad accounting knowledge.
• Proficiency in QuickBooks Online (QBO) and Accounta (or similar accounting software).
• Strong analytical mindset and problem-solving abilities, with meticulous attention to detail.
• Excellent organizational skills, time management, and ability to meet tight deadlines.
• Effective communicator capable of presenting complex information clearly to stakeholders.
• Prior experience supporting audits and regulatory reporting; familiarity with tax regulations for multiple jurisdictions is a plus.

What you’ll love about working with us

  • Work from Home, no commute!
  • HMO
  • WiFi Subsidy
  • Paid time off and sick leaves
  • Birthday bonus
  • Referral bonus
  • Annual performance bonus
  • Loyalty Program and more!

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB