We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
DevOps Engineer
  • Monetech Servicios

Monetech Servicios es una startup fintech de nueva generación que desarrolla soluciones inteligentes y fáciles de usar para automatizar las operaciones financieras en el segmento B2C. Nuestro objetivo es transformar el mercado y evolucionar hasta convertirnos en una entidad financiera totalmente autorizada con nuestra propia infraestructura bancaria. Esto nos permitirá emitir nuestras propias tarjetas, proporcionar servicios de crédito, ampliar nuestra oferta financiera y ofrecer el nivel de flexibilidad, accesibilidad y fiabilidad que nuestros clientes merecen.

Estamos en camino de convertirnos en el próximo neobanco inclusivo y basado en datos de México, ofreciendo financiación justa, rápida y totalmente digital a millones de personas que actualmente están fuera del sistema tradicional.

📌 Dado que somos una startup con miembros de varios países, enviar tu CV en inglés ayudará a agilizar el proceso de selección.

Find this job and more on Get on Board.

Tu día a día

  • Colaborar estrechamente con los equipos de negocio, desarrolladores e ingenieros DevOps para diseñar e implementar soluciones para funciones empresariales.
  • Contribuir al diseño de la arquitectura de infraestructura para los objetivos comerciales a mediano plazo, asegurando su alineación con estrategias de crecimiento a largo plazo.
  • Automatizar la configuración y el mantenimiento de la infraestructura, implementando las mejores prácticas de monitoreo y alertas para reducir el tiempo de resolución de problemas y mejorar la satisfacción del cliente.
  • Mantenerse actualizado sobre las últimas características de la plataforma AWS y adaptarlas a los objetivos de la empresa y las necesidades del equipo.
  • Desarrollar continuamente sus propias habilidades mientras orienta y apoya el crecimiento de los miembros del equipo.

Habilidades Indispensables

  • Experiencia como Ingeniero DevOps o en un rol similar de ingeniería de software.
  • Experiencia práctica con AWS u otros proveedores de nube, incluyendo diseño e implementación de infraestructura (redes, autoescalado, registro de logs, monitoreo, etc.).
  • Experiencia en la implementación de prácticas de seguridad a nivel de infraestructura en la nube y aplicaciones (por ejemplo, PCI DSS, protección de datos, ISO 27001).
  • Dominio de Git y flujos de trabajo con GitHub.
  • Sólidos conocimientos de scripting en Bash y Python.
  • Conocimientos de bases de datos (estructuradas/no estructuradas) y SQL.
  • Nivel de inglés B1 para comunicarse eficazmente con equipos internacionales.
  • Mentalidad resolutiva y espíritu de trabajo en equipo.
  • Título universitario (o equivalente) en Informática, Ingeniería o un campo relevante.
  • Experiencia en el desarrollo o ingeniería de aplicaciones tanto para startups como para empresas de gran escala.

¿Qué Distingue a los Mejores Candidatos?

  • Certificación en AWS (gran ventaja).
  • Experiencia en diseño de arquitectura de infraestructura en una empresa de tamaño medio o grande.
    Habilidad para mentorear y desarrollar miembros del equipo en prácticas de DevOps y cultura empresarial.
  • Fuertes habilidades de comunicación para diseñar y articular principios de infraestructura a largo plazo y patrones de arquitectura que respalden los requisitos empresariales funcionales y no funcionales con una perspectiva de más de 3 años.

¿Por Qué Unirse a Nosotros?

  • Forma parte de una empresa fintech en rápido crecimiento, impulsando la innovación en soluciones de préstamos accesibles.
  • Oportunidad de trabajar en proyectos de alto impacto en un entorno dinámico e innovador.
  • Colabora con un equipo apasionado y comprometido con la inclusión financiera.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

This job is published by getonbrd.com.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

This job offer is on Get on Board.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2200 - 2700 Full time
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python MySQL Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Applications: getonbrd.com.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Especialista Power BI
  • Adecco
SQL Power BI Google Cloud Platform Data Visualization
Adecco Chile, líder en servicios de Recursos Humanos con más de 35 años de trayectoria en el país, ofrece soluciones integrales de selección, staffing, payroll y capacitación a diversos sectores industriales. Actualmente, buscamos fortalecer el equipo de analítica y BI para que lidere proyectos de visualización avanzada de datos, optimización de la toma de decisiones y gobernanza de la información mediante herramientas de Power BI y Google Cloud Platform, contribuyendo a la transformación digital y eficiencia operativa de nuestros clientes.

Opportunity published on Get on Board.

Funciones y responsabilidades

Como Especialista Power BI, serás responsable de diseñar, desarrollar y mantener dashboards y reportes avanzados utilizando Power BI, asegurando la correcta implementación de seguridad a nivel de fila (RLS estático y dinámico). Trabajarás estrechamente con bases de datos SQL y el ecosistema Google Cloud Platform (GCP) para la integración y modelado de datos. Además, usarás herramientas externas como Tabular Editor y DAX Studio para optimizar modelos tabulares y expresiones DAX.
Deberás colaborar con equipos multidisciplinarios, traduciendo requerimientos de negocio en soluciones técnicas efectivas, garantizando la calidad, desempeño y usabilidad de los reportes. Supervisarás buenas prácticas en el versionado y despliegue de proyectos Power BI.

Descripción del perfil requerido

Buscamos un profesional con un nivel avanzado de experiencia (4-5 años) en Power BI, incluyendo modelado avanzado, seguridad RLS, y diseño de reportes eficientes. Se requiere conocimiento sólido en SQL y Google Cloud Platform para manejo e integración de datos. La experiencia con herramientas como Tabular Editor y DAX Studio es fundamental para optimizar el rendimiento de los modelos tabulares y expresiones DAX complejas.
Se valorará un nivel de inglés B2 que permita comunicación fluida en entornos técnicos y documentación. Buscamos una persona proactiva, analítica, con capacidad para resolver problemas complejos, y que pueda trabajar en modalidad remota dentro de Chile, manteniendo alta autonomía y compromiso.

Habilidades y experiencias deseables

Es deseable tener experiencia previa en ambientes híbridos de trabajo y manejo de metodologías ágiles. Conocimientos en otras tecnologías de BI o análisis avanzado de datos serán un plus. Experiencia en proyectos de transformación digital, con enfoque en usabilidad y atención al usuario final, aportará ventaja competitiva.

Beneficios y condiciones laborales

Ofrecemos un ambiente de trabajo desafiante y dinámico que impulsa tu desarrollo profesional, dentro de un equipo altamente calificado. Contamos con formación continua para mantenerte actualizado en las últimas tecnologías. La modalidad de trabajo es híbrida, con 2 días presencial en oficina ubicada en la comuna de Las Condes y 3 días de trabajo remoto. El horario laboral es de lunes a viernes, de 09:00 a 18:00 hrs.
Además, entregamos contrato inicialmente a plazo fijo, con posibilidad de extensión indefinida con el cliente final, bono anual por desempeño, seguro complementario de vida y salud, y oportunidades reales de crecimiento dentro de la empresa y sector tecnológico.

APPLY VIA WEB
$$$ Full time
Data Engineer
  • Compara
Python PostgreSQL Kafka CI/CD

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Originally published on getonbrd.com.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $4500 - 6000 Full time
Platform Engineer
  • Kore RPO
TSQL Databricks DAX Data Modeling

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

We are looking:

  • An excellent communicator across all organizational levels with the ability to derive insights from data.
  • A professional with sound judgment and decision-making skills.
  • A self-starter with a strong sense of urgency.
  • A creative, energetic problem solver with flexibility in approach.
  • A relationship-builder with leadership capabilities.

This job is original from Get on Board.

Job functions

  • Deliver and improve prioritized enterprise-certified data assets to support analytics, reporting, and visualization.
  • Design, build, test, and maintain end-to-end data solutions within a global analytics environment using established design patterns and modeling techniques.
  • Promote tools and data usage for increased organizational data access and decision-making capabilities.
  • Explore and integrate internal/external data sources for analysis and development using tools like datalake, databricks, and synapse.
  • Collaborate with product teams to support large-scale business initiatives, perform data modeling, validate/report data, and deliver insights to stakeholders.
  • Respond to ad-hoc analytical needs with validated, actionable findings.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Technology, or equivalent experience.
  • 4+ years of hands-on experience with Data/BI delivery for data warehouses and related applications.
  • 3+ years of experience in Azure SQL and services.
  • Experience with Microsoft Power BI for data visualization.
  • Technical and/or business experience designing BI solutions.
  • Familiarity with installation, configuration, and stabilization of BI/Enterprise Reporting implementations.
  • Knowledge of relational and dimensional modeling and data warehousing methodologies.
  • Expertise in writing T-SQL and DAX.
  • Experience in creating application support documentation for production changes.

APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily. Con más de 10 años de trayectoria, Assetplan ha sido pionera en innovar y aplicar tecnología en el sector inmobiliario, promoviendo un modelo de negocio basado en la eficiencia, innovación y mejora continua.
El proyecto al que te integrarás busca potenciar la gestión de datos para respaldar la toma de decisiones estratégicas en toda la organización. Forma parte de un equipo joven con una estructura horizontal que valora el aprendizaje, la colaboración y la generación de valor a través de la innovación tecnológica aplicada a la información y análisis de grandes volúmenes de datos.

Apply directly through getonbrd.com.

Responsabilidades principales

Como Ingeniero de Datos, serás responsable de:
  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos y habilidades necesarias

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL Medio
  • Manejo de Python Intermedio/Avanzado (excluyente)
  • Manejo de Power BI Medio
  • Manejo de Excel Avanzado
  • 1-3 años de experiencia (excluyente)

Conocimientos adicionales deseables

Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Beneficios y cultura empresarial

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por desempeño
  • Eventos empresa y happy hours financiados por la compañía
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $4500 - 6000 Full time
Sr. Business Intelligence Engineer
  • Kore RPO
TSQL Data lake Databricks DAX

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

We are looking:

  • An excellent communicator across all organizational levels with the ability to derive insights from data.
  • A professional with sound judgment and decision-making skills.
  • A self-starter with a strong sense of urgency.
  • A creative, energetic problem solver with flexibility in approach.
  • A relationship-builder with leadership capabilities.

Apply to this job at getonbrd.com.

Job functions

  • Deliver and improve prioritized enterprise-certified data assets to support analytics, reporting, and visualization.
  • Design, build, test, and maintain end-to-end data solutions within a global analytics environment using established design patterns and modeling techniques.
  • Promote tools and data usage for increased organizational data access and decision-making capabilities.
  • Explore and integrate internal/external data sources for analysis and development using tools like datalake, databricks, and synapse.
  • Collaborate with product teams to support large-scale business initiatives, perform data modeling, validate/report data, and deliver insights to stakeholders.
  • Respond to ad-hoc analytical needs with validated, actionable findings.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Technology, or equivalent experience.
  • 4+ years of hands-on experience with Data/BI delivery for data warehouses and related applications.
  • 3+ years of experience in Azure SQL and services.
  • Experience with Microsoft Power BI for data visualization.
  • Technical and/or business experience designing BI solutions.
  • Familiarity with installation, configuration, and stabilization of BI/Enterprise Reporting implementations.
  • Knowledge of relational and dimensional modeling and data warehousing methodologies.
  • Expertise in writing T-SQL and DAX.
  • Experience in creating application support documentation for production changes.

APPLY VIA WEB
$$$ Full time
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

This job offer is on Get on Board.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Arquitecto/a de Datos Big Data
  • Interfell
Python SQL NoSQL Scala

En Interfell, impulsamos el futuro de las empresas conectándolas con el mejor talento IT de Latinoamérica. Somos una organización comprometida con el desarrollo y la fidelización de profesionales calificados, promoviendo el trabajo remoto y la inclusión en el sector tecnológico. Actualmente apoyamos un proyecto estratégico que demanda la renovación y optimización de la arquitectura de datos empresarial en un entorno híbrido, integrando tecnologías Big Data y cloud. Nuestro enfoque está en ofrecer soluciones escalables, seguras y alineadas con las metas corporativas para ayudar a las empresas a transformar sus sistemas de información y potenciar sus capacidades analíticas y de inteligencia artificial.
La persona trabajará con el equipo de analítica, producto e inteligencia artificial para garantizar la constante innovación y desafíos tecnológicos de la empresa.

Applications: getonbrd.com.

Responsabilidades principales

  • Diseñar arquitecturas escalables para el manejo eficiente de datos estructurados y no estructurados en ambientes cloud, on-premise e híbridos.
  • Asegurar la interoperabilidad entre sistemas locales y en la nube, considerando aspectos críticos como latencia, sincronización y seguridad.
  • Elaborar modelos de datos conceptuales, lógicos y físicos que reflejen y soporten los objetivos estratégicos del negocio.
  • Definir y establecer estándares rigurosos de calidad, acceso y gobernanza de datos aplicables en entornos mixtos.
  • Liderar y gestionar la migración de sistemas legados hacia arquitecturas modernas y flexibles, garantizando la continuidad operacional.
  • Diseñar estrategias para una transición progresiva hacia la nube, minimizando riesgos e impactos en la operación diaria.
  • Diagnosticar y optimizar el rendimiento de sistemas distribuidos para asegurar eficiencia y estabilidad.
  • Gestionar de forma eficiente los costos y recursos tanto en plataformas cloud como en infraestructura local.
  • Coordinar colaborativamente con áreas de datos, producto, inteligencia artificial y analítica para anticipar y solucionar necesidades tecnológicas.
  • Promover la adopción de tecnologías emergentes que impulsen el manejo estratégico de los datos e innovación corporativa.

Descripción del perfil requerido

Formación y experiencia: Contar con al menos 5 años de experiencia en tecnologías Big Data como Snowflake, Databricks, Apache Spark y bases NoSQL. Mínimo 3 años de trabajo en plataformas cloud AWS o Azure, con sólida familiaridad en entornos híbridos u on-premise.

Habilidades técnicas: Experiencia demostrable en diseño de arquitecturas mixtas (cloud + local), avanzado modelado de datos y desarrollo de procesos ETL complejos. Conocimiento en gestión de data lakes, data warehouses distribuidos y seguridad de datos, incluyendo respaldo y recuperación en ambientes heterogéneos. Competencia en programación orientada a datos usando SQL, Python o Scala.

Competencias blandas: Capacidad para comunicarse eficazmente con stakeholders técnicos y de negocio, liderar equipos en entornos dinámicos y colaborativos, poseer pensamiento analítico y resolver problemas de manera proactiva y eficiente.

Beneficios y condiciones

Oportunidad de crecimiento con un equipo multinivel

Vacaciones y feriados

Flexibilidad y autonomía

Pago USD

Trabajo remoto - Latam

APPLY VIA WEB
Gross salary $2300 - 2500 Full time
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python SQL Azure ETL

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Exclusive to Get on Board.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

APPLY VIA WEB
Gross salary $1800 - 2800 Full time
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git SQL

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. Estamos en búsqueda de un Business Intelligence Analyst para unirse a nuestro equipo de Product Operation. Tu misión será ayudarnos a entender y mejorar el desempeño de nuestros productos de inteligencia artificial, transformando datos en decisiones que generen impacto real.

This company only accepts applications on Get on Board.

¿Qué harás?

  • Generar reportes detallados, dashboards interactivos y métricas clave que permitan monitorear el desempeño y la efectividad de los productos de inteligencia artificial desarrollados por Compara.
  • Analizar los KPIs relevantes para identificar errores, tendencias y oportunidades de mejora que potencien el rendimiento y la experiencia del usuario.
  • Colaborar estrechamente con los equipos de producto, tecnología y otras áreas funcionales para abordar desafíos estratégicos basados en datos y asegurar una comunicación fluida entre departamentos.
  • Apoyar en la configuración, mantenimiento y optimización continua de los productos de inteligencia artificial, incluyendo la ejecución de tareas especializadas relacionadas con prompt engineering, que mejoran la interacción con modelos de lenguaje.

¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).

¿Qué ofrecemos?

En Compara ofrecemos horarios flexibles que permiten un equilibrio ideal entre la vida personal y laboral, fomentando un ambiente que favorece el crecimiento profesional y el aprendizaje continuo. Valoramos la cultura de desarrollo individual y de equipo, brindando una atmósfera colaborativa para la innovación y la optimización constante de infraestructuras de datos y procesos tecnológicos. Si te apasiona trabajar con datos, impulsar mejoras estratégicas y adoptar nuevas herramientas tecnológicas, ¡nos encantaría que formes parte de nuestro equipo! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply to this job without intermediaries on Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Amazon Web Services

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply exclusively at getonbrd.com.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Ingeniero/a de Datos / AI
  • Devups
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

© Get on Board. All rights reserved.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer con Power BI/ Azure
  • Improving South America
SQL Power BI Data lake DAX
Leniolabs_ es una empresa internacional de desarrollo de software con una sólida presencia en Argentina, Chile, España y USA. Cobrimos un espectro diverso de clientes, mayoritariamente en San Francisco, ofreciendo soluciones innovadoras en el desarrollo de software. Nuestro enfoque se centra en trabajar codo a codo con nuestros clientes, integrando equipos y asegurando que las soluciones sean totalmente adaptadas a sus necesidades específicas.
Actualmente, tenemos un proyecto significativo en marcha donde estamos asistiendo a en la implementación de BeyondTrust (PAM) para la gestión de acceso privilegiado. Este esfuerzo no solo permitirá mejorar los protocolos de seguridad, sino que también abre puertas para la transferencia de conocimientos y creación de un entorno colaborativo entre nuestros equipos y el personal.

Apply exclusively at getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de profesionales especializados en ingeniería de datos para una posición de Data Engineer (Semi Senior/ Senior)
El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en Power BI, DAX, Azure Data Lake, Synapse.
El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.
Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento

Requerimientos del cargo

  • Experiencia +5 años como Data Engineer.
  • Experiencia con Power BI, DAX, Power Query (Excluyente).
  • Experiencia con Synapse y Azure Data Factory (Excluyente)
  • Experiencia con Data Lake y SAP SCM (Deseable).
  • Sólido manejo de SQL.
  • Inglés avanzado.

Beneficios que ofrecemos

  • Contrato de trabajo indefinido (España)
  • 100% Teletrabajo.
  • Posibilidad de recibir 2 bonos al año por desempeño.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.
  • Día de cumpleaños libre

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1700 - 2500 Full time
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job at getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job offer is available on Get on Board.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

APPLY VIA WEB
$$$ Full time
Data Analyst
  • ARKHO
  • Santiago (Hybrid)
Python Agile Data Analysis SQL

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Find this job on getonbrd.com.

Funciones del cargo

Estamos en busca de un Data Analyst con por lo menos tres años de experiencia, para incorporarse a nuestro equipo ágil en proyectos de Data Analytics. Buscamos a alguien con experiencia en recopilar, procesar y analizar datos para ayudar a las organizaciones a tomar decisiones informadas, este rol es clave para convertir los datos en información significativa que pueda impulsar la toma de decisiones y la estrategia empresarial. Dentro de las principales actividades se encuentran:

  • Obtener datos de diversas fuentes, que pueden incluir bases de datos internas, archivos Excel, sistemas de gestión empresarial, APIs (interfaces de programación de aplicaciones), entre otros.
  • Preparar y limpiar datos para garantizar su calidad y confiabilidad. Esto implica eliminar duplicados, corregir errores, manejar valores faltantes y estandarizar formatos.
  • Explorar y analizar datos mediante técnicas estadísticas y visualización para comprender su distribución, identificar patrones, y detectar posibles outliers.
  • Crear informes y dashboards que resuman los resultados del análisis de datos de manera clara y comprensible para los interesados, como gerentes y tomadores de decisiones.
  • Identificar tendencias a lo largo del tiempo y patrones en los datos que puedan ser útiles para la toma de decisiones estratégicas.
  • Aplicar técnicas de modelado de datos para prever tendencias futuras o realizar proyecciones basadas en datos históricos.
  • Trabajar en estrecha colaboración con equipos interdisciplinarios, como científicos de datos, ingenieros de datos y profesionales de negocios, para comprender mejor los objetivos y desafíos de la organización.
  • Participar en el control y seguimiento de tareas utilizando herramientas como Jira, asegurando la correcta trazabilidad del avance de los proyectos y la priorización de actividades.
  • Mantenerse al tanto de las tendencias tecnológicas y de la industria, así como actualizar y mejorar continuamente los procesos y métodos utilizados en el análisis de datos.

Perfil

Buscamos un profesional con sólidas habilidades analíticas y conocimientos técnicos en herramientas y lenguajes de programación, capaz de comunicar de manera efectiva los resultados de sus análisis a diferentes audiencias dentro de la organización. Si eres una persona apasionada por los datos, con un enfoque en resolver problemas de negocio y habilidades técnicas destacadas, ¡queremos conocerte! En nuestra compañía valoramos a personas autosuficientes, proactivas e innovadoras, que puedan gestionar su propia carga de trabajo, tomar decisiones acertadas y cumplir con los plazos y objetivos establecidos. ¡Buscamos profesionales de excelencia e íntegros, dentro y fuera de la cancha!"

En tu carrera profesional deberías contar al menos con:

  • Experiencia mínima de 3 años en proyectos de Data Analyst y/o Business Intelligence o en roles similares.
  • Habilidad avanzada en SQL para consultas y análisis de bases de datos.
  • Conocimiento en herramientas de visualización de datos como Tableau, Power BI, AWS QuickSight, etc.
  • Experiencia en el manejo de servicios de AWS relacionados con análisis de datos (AWS Glue, Redshift, Athena, S3, cloudwatch, RDS, etc.).
  • Familiaridad con el uso de Python o R para análisis de datos.
  • Habilidades analíticas y capacidad para interpretar datos complejos y traducirlos en insights accionables.
  • Excelentes habilidades de comunicación para presentar datos de manera clara y concisa a partes interesadas no técnicas.
  • Profesional en Ingeniería de Sistemas, Ciencias de la Computación, Matemáticas, Estadística u otros.

Habilidades Opcionales

Si posees experiencia en los puntos siguientes, es un plus:

  • Experiencia trabajando en ambientes de consultoría o proyectos con múltiples clientes.
  • Nivel de inglés Intermedio - Avanzado
  • Experiencia en metodologías ágiles como Scrum

Condiciones

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido con posibilidad a remoto)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided ARKHO provides a computer for your work.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This offer is exclusive to getonbrd.com.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

APPLY VIA WEB
$$$ Full time
Especialista Senior en ETL Powercenter
  • BC Tecnología
  • Santiago (Hybrid)
SQL ETL Power Center Agile Methodologies
BC Tecnología es una consultora de TI que ofrece servicios especializados en diferentes áreas tecnológicas. Con seis años de experiencia, brindamos soluciones personalizadas en consultoría, formación de equipos ágiles, outsourcing y desarrollo de proyectos para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque está orientado a metodologías ágiles, cambio organizacional y desarrollo de productos, siempre con un claro enfoque en la satisfacción y necesidades del cliente.
El área de integración de datos es una pieza clave dentro de nuestra estructura, apoyando a clientes en la gestión eficiente y segura de su información mediante el diseño y desarrollo de procesos ETL que permiten la migración y transformación efectiva de datos en entornos complejos.

Apply to this posting directly on Get on Board.

Responsabilidades principales

Como especialista senior en ETL utilizando PowerCenter, serás responsable de analizar y diseñar soluciones técnicas que permitan la integración eficiente y precisa de datos para nuestros clientes. Trabajarás en la creación y desarrollo de flujos de trabajo ETL asegurando que los procesos de extracción, transformación y carga cumplan con los estándares de calidad y tiempos definidos.
Además, apoyarás la mejora continua de los procesos existentes y brindarás soporte técnico y documentación detallada para facilitar la operatividad y manejo de los usuarios funcionales. Mantendrás una comunicación estrecha con otros equipos técnicos para coordinar e integrar soluciones en entornos multicapa y complejos, siempre con un enfoque colaborativo y orientado a resultados.
  • Análisis funcional y técnico de requerimientos para integración de datos.
  • Diseño y desarrollo de flujos ETL con PowerCenter.
  • Implementación y mejora continua de procesos de ETL.
  • Elaboración de documentación técnica y soporte a usuarios funcionales.
  • Coordinación con equipos técnicos multidisciplinarios.

Perfil y requisitos técnicos

Buscamos un profesional con al menos 3 años de experiencia comprobada en desarrollo de procesos ETL utilizando PowerCenter, capaz de diseñar soluciones técnicas sólidas y eficientes para la integración de datos. Es fundamental contar con un conocimiento profundo en SQL y experiencia en diseño de soluciones de integración en entornos reales y desafiantes.
El candidato ideal demostrará habilidades en análisis funcional y técnico, autonomía para solucionar problemas técnicos bajo presión, y capacidad para trabajar en equipo, con un fuerte enfoque a la calidad y resultados. Además, se valorará experiencia previa o conocimientos en Control-M para la orquestación de procesos y preferiblemente en el sector financiero o bancario, dado que nuestros clientes principales provienen de este rubro.
Se requieren también competencias interpersonales que faciliten la comunicación con usuarios funcionales y técnicos, adaptabilidad a metodologías ágiles y capacidad de documentación clara y efectiva.

Conocimientos y experiencias valoradas

Será altamente valorado el conocimiento en herramientas de automatización de tareas como Control-M, que aportan a la eficiencia del proceso ETL y su correcta ejecución programada. También se considerará una ventaja tener experiencia o familiaridad previa con el sector financiero y bancario, lo que facilitará la comprensión de los requisitos específicos de la industria y normativas asociadas.
Habilidades adicionales en gestión de proyectos, manejo de metodologías ágiles y experiencia colaborando en equipos multidisciplinarios también serán consideradas importantes para el desempeño óptimo del puesto.

Beneficios y ambiente laboral

Aunque el anuncio no menciona específicamente beneficios o condiciones particulares, en BC Tecnología ofrecemos un ambiente colaborativo donde valoramos el compromiso, el aprendizaje continuo y el trabajo en equipo. Promovemos el desarrollo profesional mediante asignación en proyectos desafiantes con clientes de alto nivel en el sector financiero y otros sectores variados.
Como consultora orientada a soluciones ágiles y a la satisfacción del cliente, fomentamos la integración y coordinación entre equipos, lo que se traduce en oportunidades de crecimiento y aprendizaje constante.

APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Data Engineer
  • Muruna
  • Lima (Hybrid)
Azure ETL RabbitMQ Data lake
Muruna es una empresa chilena con amplia experiencia en el sector financiero, especializada en proveer servicios tecnológicos y staffing altamente especializados. Nos distinguimos por brindar soluciones innovadoras y contar con un equipo profesional orientado a la excelencia. Actualmente, el equipo de datos se enfoca en construir y mantener infraestructuras de datos modernas y escalables para clientes del sector financiero, utilizando las últimas tecnologías en cloud computing y análisis de datos. Nuestra propuesta está enfocada en entregar soluciones robustas que impulsan la toma de decisiones basada en datos, aprovechando plataformas de nube y arquitecturas de datos avanzadas como Medallion.

© Get on Board.

Responsabilidades principales:

  • Diseño de arquitecturas de datos: Definir, diseñar y documentar flujos de datos, modelos lógicos y estándares de calidad en plataformas cloud como AWS y Azure, asegurando que la infraestructura soporte escalabilidad y seguridad.
  • Implementación de pipelines ETL/ELT: Construir, monitorear y optimizar canalizaciones de ingestión, transformación y carga de datos para garantizar la integridad y disponibilidad de la información en los sistemas destino.
  • Modelado y almacenamiento: Diseñar esquemas eficientes tanto en bases de datos relacionales como NoSQL; gestionar y administrar data lakes y data warehouses para una correcta organización y accesibilidad de los datos.
  • Monitoreo y optimización: Establecer métricas clave de rendimiento, configurar alertas proactivas y ejecutar procesos de tuning para asegurar la eficiencia, disponibilidad y calidad continua de las soluciones implementadas.

Descripción del perfil y habilidades requeridas:

Buscamos un Data Engineer con una experiencia sólida de 3 a 5 años en el diseño, construcción y mantenimiento de soluciones de datos escalables en ambientes cloud. El candidato ideal posee conocimientos profundos en plataformas AWS y Azure, con práctica comprobada en el uso de Databricks y Spark SQL para procesamiento de datos. Debe estar familiarizado con arquitecturas de datos modernas, especialmente el patrón Medallion (capas bronze, silver y gold) que permite una gestión eficiente y escalable de diferentes niveles de datos.
Se valoran altos estándares en gobernanza, seguridad y calidad de datos, aplicando buenas prácticas para proteger la integridad y privacidad de la información. El candidato debe contar con habilidades analíticas, pensamiento crítico y capacidad para resolver problemas complejos de forma autónoma y en equipo. Además, es fundamental la capacidad de documentar procesos y comunicarse eficazmente con equipos multidisciplinarios para alinear objetivos tecnológicos con las necesidades del negocio.

Conocimientos y tecnologías deseables:

Se consideran un plus pero no excluyentes las siguientes habilidades adicionales: experiencia con tecnologías de streaming y mensajería como Apache Kafka y RabbitMQ, así como manejo de procesamiento en tiempo real usando Apache Flink o Spark Streaming. También es deseable experiencia en el desarrollo de APIs REST para integraciones y la orquestación de workflows complejos.
Las certificaciones oficiales en AWS, Azure o Databricks son altamente valoradas como indicativo del compromiso con la excelencia y actualización tecnológica, aunque no son un requisito obligatorio para la postulación.

Beneficios:

Ofrecemos una modalidad híbrida 4x1, que requiere la presencia en oficina dos días por semana, siendo el miércoles uno de ellos. Nuestras oficinas están ubicadas en Las Condes, Santiago de Chile, equipadas con infraestructura moderna que favorece un entorno de trabajo dinámico y colaborativo.
Promovemos un equilibrio saludable entre la vida laboral y personal al permitir flexibilidad para trabajar de forma remota los días restantes. Valoramos el desarrollo profesional continuo e incentivamos la obtención de certificaciones y formación en tecnologías vanguardistas, especialmente en el ecosistema Google, gracias a nuestras alianzas estratégicas.
El ambiente laboral es innovador y participativo, fomentando el trabajo en equipo, la iniciativa individual y la motivación permanente mediante beneficios competitivos que garantizan que nuestro talento se sienta valorado e integrado como parte fundamental del proyecto empresarial.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Muruna provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Arquitecto de Datos / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Apache Spark CI/CD Data governance Data Architecture

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros. En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente

Buscamos un Arquitecto de Datos con experiencia comprobada en el diseño e implementación de soluciones de procesamiento de datos en NRT utilizando Spark . El candidato ideal deberá diseñar y construir arquitecturas escalables y realizar la integración de sistemas complejos para satisfacer las necesidades de negocio.

Es una posición híbrida en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Trabajarás en un entorno ágil, con un equipo increíble en la implementación de productos de software de clase mundial.

This job is exclusive to getonbrd.com.

Funciones del cargo:

  • Diseñar e implementar soluciones de procesamiento de datos en NRT y por lotes utilizando Spark.
  • Optimizar y mantener flujos de datos para garantizar su eficiencia y confiabilidad.
  • Colaborar con equipos multidisciplinarios para integrar sistemas y desarrollar soluciones de datos robustas.
  • Asegurar la integridad y la seguridad de los datos, aplicando las mejores prácticas y estándares de la industria.
  • Proporcionar mentoría y acompañamiento a otros miembros del equipo.
  • Cocreación y despliegue de flujos de datos en Spark vía CI/CD

Requerimientos del cargo:

  • Mínimo 3 años de experiencia en arquitectura de datos.
  • Experiencia demostrable con apache spark y plataformas de datos al menos 3 años.
  • Conocimiento en la creación y mantenimiento de flujos de datos en NRT en al menos 3 proyectos comprobables de complejidad media o alta con gran volumen de datos.
  • Familiaridad con la gobernanza de datos y la seguridad de la información.
  • Habilidad para trabajar en entornos ágiles y dinámicos.
  • Excelentes habilidades de comunicación y trabajo en equipo.

Deseables:

  • Certificación Oracle DBA / MCSA SQL Server Administrator / DB2 DBA for Unix Linux & Windows.
  • Certificados relacionados con Arquitectura de solución y/o Arquitectura de Software.

Beneficios:

  • En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:
  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
Gross salary $1800 - 2800 Full time
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git SQL

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. Estamos en búsqueda de un Business Intelligence Analyst para unirse a nuestro equipo de Product Operation. Tu misión será ayudarnos a entender y mejorar el desempeño de nuestros productos de inteligencia artificial, transformando datos en decisiones que generen impacto real.

Apply exclusively at getonbrd.com.

¿Qué harás?

  • Generar reportes detallados, dashboards interactivos y métricas clave que permitan monitorear el desempeño y la efectividad de los productos de inteligencia artificial desarrollados por Compara.
  • Analizar los KPIs relevantes para identificar errores, tendencias y oportunidades de mejora que potencien el rendimiento y la experiencia del usuario.
  • Colaborar estrechamente con los equipos de producto, tecnología y otras áreas funcionales para abordar desafíos estratégicos basados en datos y asegurar una comunicación fluida entre departamentos.
  • Apoyar en la configuración, mantenimiento y optimización continua de los productos de inteligencia artificial, incluyendo la ejecución de tareas especializadas relacionadas con prompt engineering, que mejoran la interacción con modelos de lenguaje.

¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).

¿Qué ofrecemos?

En Compara ofrecemos horarios flexibles que permiten un equilibrio ideal entre la vida personal y laboral, fomentando un ambiente que favorece el crecimiento profesional y el aprendizaje continuo. Valoramos la cultura de desarrollo individual y de equipo, brindando una atmósfera colaborativa para la innovación y la optimización constante de infraestructuras de datos y procesos tecnológicos. Si te apasiona trabajar con datos, impulsar mejoras estratégicas y adoptar nuevas herramientas tecnológicas, ¡nos encantaría que formes parte de nuestro equipo! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Business Intelligence Developer
  • TECLA
Agile MySQL PostgreSQL Oracle

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

© getonbrd.com. All rights reserved.

Job Details:

We are seeking a Business Intelligence Developer to contribute to the design, development, and implementation of data visualization solutions. This role provides an exciting opportunity to work with and learn about downstream data visualization tools to enable insights and decisions across the organization. This role will aid in the visualization of data across R&D, Finance, and Manufacturing workflows.

Responsibilities:

  • Collaborate within a highly cross-functional biotechnology data solutions team to deliver decision-enabling dashboards for R&D, Finance and Manufacturing.
  • Engage with stakeholders to understand best-case data visualization solutions, using dashboarding tools such as PowerBI, Tableau, Spotfire, etc.
  • Extract and source data from custom systems from third parties, such as TOTVS, and from data warehouses.
  • Follow Agile methodology to deliver reports and dashboards.
  • Prepare documentation and conduct functionality tests.
  • Clearly articulate and communicate results, solutions, and vision to stakeholders and managers.

Required Qualifications:

  • Bachelor’s degree in Computer Science, Information Technology, Biotechnology, or equivalent.
  • 2+ years working experience in a scientific solutions, commercial or public research organization handling a wide variety of datasets.
  • 5+ years of experience developing dashboards from complex data models using PowerBI, or mixed experience with an alternate data visualization tool such as Tableau.
  • Familiarity with at least two database design and querying languages such as SQL Server, MySQL, PostgreSQL, or Oracle.
  • Experience with ERP systems such as TOTVS ERP, D365 F&O, Salesforce etc.
  • Agility and a solution-oriented mindset.
  • Demonstrated commitment to maintaining a high level of ownership and seeing assignments through to completion.
  • Excellent communication skills with a diverse set of stakeholders.
  • Fluent in English.

Preferred Qualifications:

  • Master’s degree in Computer Science, Information Technology, Life Science, Biotechnology, or equivalent.
  • Hands-on data aggregation, cleaning, normalization and visualization experience within the Microsoft ecosystem.
  • Knowledge of financial, manufacturing and lab processes and operations.
  • Highly proficient in Excel, with experience developing functions and VBA macros.
  • Ability to interact with both data and non-data personnel to apply an off-the-shelf data management system based on a collected set of user requirements.
  • Experience in writing software documentation and conducting testing.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to work with a fast-growing company driving digital transformation across enterprise IT infrastructure and operations.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note our company is only looking for full-time dedicated team members who are eager to fully integrate within our team.

APPLY VIA WEB
Gross salary $1700 - 2100 Full time
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply without intermediaries through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Analista / Desarrollador ETL Powercenter
  • coderslab.io
  • Santiago (Hybrid)

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Analista / Desarrollador ETL PowerCenter para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications: getonbrd.com.

Job functions

  • Realizar el análisis, diseño y desarrollo de procesos ETL utilizando PowerCenter.
  • Participar en el relevamiento de requerimientos técnicos y funcionales.
  • Colaborar con equipos multidisciplinarios para garantizar la correcta implementación de soluciones.
  • Ejecutar pruebas y validaciones para asegurar la calidad de los desarrollos.
  • Documentar procesos, flujos y procedimientos técnicos asociados a las soluciones implementadas.

Qualifications and requirements

🎯 Requisitos

  • Mínimo 3 años de experiencia comprobable en desarrollo con PowerCenter.
  • Sólidas habilidades en análisis funcional y técnico.
  • Dominio de SQL para consultas y optimización de procesos.
  • Conocimientos deseables en Control-M para automatización y scheduling de tareas.
  • Capacidad para desenvolverse en entornos de alta demanda y cambios constantes.

🧠 Habilidades blandas valoradas

  • Alta capacidad de análisis y resolución de problemas.
  • Trabajo en equipo y colaboración efectiva con otras áreas.
  • Buena comunicación interpersonal.
  • Manejo de la presión y actitud resiliente frente a desafíos.

Conditions

Hibrido en Santiago de Chile.
Renta en pesos Chilenos

APPLY VIA WEB
$$$ Full time
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply directly through getonbrd.com.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Ingeniero Analítica y Gestión Financiera
  • Agrosuper
  • Rancagua (Hybrid)
Python SQL Data Transformation Power BI

En Agrosuper, tenemos la misión de llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nos mueve el deseo de alimentar el talento y las ganas de crecer constantemente. Buscamos mejorar y fomentar un entorno donde todos disfruten lo bueno de la vida, por lo que valoramos a las personas, que son el alma de nuestra organización .

Te invitamos a participar del proceso de selección para el cargo Ingeniero Analítica y Gestión Financiera. Buscamos incorporar profesionales de formación Ingeniero Civil, para trabajar en la Gerencia de Planificación y Gestión de Administración y Finanzas, y desempeñarse en la ciudad de Rancagua.

El objetivo del cargo es integrar habilidades en data science y desarrollo de proyectos tecnológicos, proporcionando soporte estratégico y analítico a los equipos de la Gerencia de Planificación y Gestión; Además de colaborar estrechamente con las áreas de excelencia operacional, transformación digital y tecnología & datos.

Job opportunity published on getonbrd.com.

Funciones del cargo

1 .Desarrollo de Modelos Predictivos y Prescriptivos: Crear modelos que integren variables financieras y operativas en coordinación con los equipos de planificación y control de gestión para mejorar las proyecciones.
2. Asesoría Técnica en Análisis y Sensibilización de Escenarios: Proveer asesoría técnica para el análisis de escenarios, detección de patrones y optimización de proyecciones financieras.
3. Aseguramiento de la Calidad e Integridad de los Datos: Garantizar la calidad e integridad de los datos, involucrando a los equipos pertinentes para obtener resultados precisos y confiables.
4. Diseño e Implementación de Paneles y Reportes Interactivos: Diseñar e implementar paneles y reportes interactivos para monitorear y controlar KPIs financieros, operativos y estratégicos.
5 Consolidación y Transformación de Datos: Consolidar y transformar datos de diversas fuentes en análisis integrales, trabajando con los equipos involucrados para decisiones basadas en información confiable.
6 Liderazgo en Proyectos de Transformación Digital y Automatización: Liderar iniciativas de transformación digital y proyectos de automatización en procesos recurrentes como cierre mensual y proyecciones.
7. Evaluación de Viabilidad Financiera y Técnica de Proyectos: Evaluar la viabilidad financiera de proyectos de inversión y la viabilidad técnica de proyectos de transformación, proporcionando herramientas de análisis a los equipos.
8.Soporte Analítico y Promoción de Cultura Data-Driven: Colaborar con equipos de planificación financiera y gestión estratégica, asesorar en la formulación de proyectos y evaluaciones del negocio, y promover una cultura basada en datos.

Requerimientos del cargo

1.Ingeniero Civil
2.Experiencia en el uso de herramientas de visualización de datos (ej.: Power BI, Tableau).
3. Dominio de herramientas de análisis de datos (ej. Python, R o SQL).
4. Disponibilidad para trabajar en Rancagua 4x1.
5. Deseable experiencia en gestión financiera.

Condiciones

Te mostramos algunos de nuestros beneficios:
Planes de crecimiento y desarrollo.
Capacitaciones y becas de estudios.
Convenios con distintas instituciones.
Bonos asociados al desempeño.

Computer provided Agrosuper provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Technical Business Analyst
  • Nisum Latam
Agile SQL Scrum Power BI

Nisum is a leading global digital commerce firm headquartered in California, with services spanning digital strategy and transformation, insights and analytics, blockchain, business agility, and custom software development. Founded in 2000 with the customer-centric motto “ Building Success Together® ,” Nisum has grown to over 1,800 professionals across the United States, Chile, Colombia, India, Pakistan and Canada.


Nisum is an Equal Opportunity Employer and we are proud of our ongoing efforts to foster diversity and inclusion in the workplace.

This offer is exclusive to getonbrd.com.

What You’ll Do

  • Understand and define complex business needs and translate them into technical requirements.
  • Act as a liaison between business stakeholders and technical teams to ensure clear understanding and delivery of solutions.
  • Drive continuous process improvements across projects and teams.
  • Define, document, and manage functional requirements, user stories, use cases, business cases, and BRDs. Engage stakeholders through effective communication, elicitation of requirements, and impactful presentations.

Qualifications and requirements

  • You must reside in Chile or Colombia
  • Advanced english skills
  • 4+ years of relevant experience
  • Strong experience with Tableau, Power BI, and SQL.
  • Understanding of how a Scrum team operates, including the creation and management of user stories and Business Requirements Documents (BRDs).
  • Ability to define and understand business needs clearly and translate them into functional requirements.

Critical Skills

  • Analytical Thinking: Business process modeling, root cause analysis
  • Communication: Stakeholder engagement, requirements elicitation, presentation skills
  • Documentation: Business cases, user stories, use cases, BRDs
  • Problem Solving : Gap analysis, SWOT analysis, decision modeling
  • Domain Knowledge: Strong understanding of industry standards, business operations, and best practices
  • Tools: MS Excel, Visio, JIRA, Confluence, BPM tools, Tableau/Power BI (for data insights)

What can we offer you?

  • Belong to an international and multicultural company that supports diversity.
  • Be part of international projects with a presence in North America, Pakistan, India and Latam.
  • Work environment with extensive experience in remote and distributed work, using agile methodologies.
  • Culture of constant learning and development in current technologies.
  • Pleasant and collaborative environment, with a focus on teamwork.
  • Access to learning platforms, Google Cloud certifications, Databricks, Tech Talks, etc.
  • Being part of various initiatives and continuous participation in internal and external activities of innovation, hackathon, technology, agility, talks, webinars, well-being and culture with the possibility not only to participate but also to be an exhibitor.

APPLY VIA WEB
Gross salary $2200 - 2500 Full time
Analista Senior BI
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Power BI Data Visualization
BC Tecnología es una consultora de Servicios IT con más de seis años de experiencia ofreciendo soluciones tecnológicas adaptadas a las necesidades específicas de sus clientes, que incluyen sectores como servicios financieros, seguros, retail y gobierno. Nos especializamos en la formación de equipos ágiles para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Además, administramos portafolios de proyectos, realizamos outsourcing y llevamos a cabo selección de profesionales especializados, siempre con un enfoque claro en el cliente, metodologías ágiles y el desarrollo continuo de productos de alta calidad.

Job opportunity published on getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener dashboards e informes utilizando Power BI para respaldar decisiones estratégicas de negocio.
  • Realizar análisis de datos orientados a identificar oportunidades de mejora y resolver problemáticas comerciales, apoyando diferentes áreas de la organización.
  • Colaborar estrechamente con varias unidades de negocio para recopilar requerimientos y proponer soluciones analíticas basadas en datos.
  • Fomentar la adopción y uso eficiente de herramientas analíticas, promoviendo la alfabetización digital dentro de la empresa.
  • Implementar buenas prácticas en el modelamiento de datos, diseño visual de informes y validación de fuentes confiables para garantizar la precisión de la información.
  • Participar activamente en iniciativas de automatización y mejora continua de reportes para optimizar procesos y reducir tiempos.

Requisitos

Buscamos un Analista Senior BI con dominio avanzado en Power BI, especialmente en DAX, modelamiento de datos y visualización efectiva de información. Es fundamental tener conocimientos sólidos en SQL para extracción y manipulación eficiente de datos, así como habilidades avanzadas en Excel para el análisis complementario. Se valorará experiencia adicional con herramientas de visualización como Tableau, que aporte diversidad en la presentación de datos, y conocimientos en plataformas en la nube tales como Google BigQuery o AWS Redshift, que ayuden a gestionar grandes volúmenes de información.
Además, el candidato debe contar con fuertes habilidades de comunicación para interactuar efectivamente con clientes internos y equipos multifuncionales, tener orientación al cliente para entender sus necesidades y una mentalidad analítica que permita transformar datos en insights estratégicos. La capacidad para trabajar en entornos colaborativos, con metodologías ágiles y una proactividad constante será clave para el éxito en este rol.

Conocimientos deseables

Serán altamente valorados conocimientos y experiencia previa en Tableau, que permita complementar y diversificar las soluciones de visualización de datos. Asimismo, el manejo de plataformas de datos en la nube como Google BigQuery o AWS Redshift es deseable para facilitar el procesamiento y análisis de grandes volúmenes de datos desde infraestructuras modernas y escalables. Estas habilidades aportarán mayor flexibilidad y profundidad a las soluciones de inteligencia de negocios en la organización.

Beneficios

Ofrecemos un contrato inicial para un proyecto de dos meses, con posibilidad de extensión dependiendo del desempeño y las necesidades del proyecto. La modalidad de trabajo es híbrida, combinando la flexibilidad del trabajo remoto con la colaboración presencial. Promovemos un ambiente de aprendizaje continuo apoyado en metodologías ágiles y un equipo diverso enfocado en la calidad y los resultados. Este proyecto es ideal para quienes disfrutan enfrentar retos tecnológicos en ambientes dinámicos y críticos, donde el impacto de su trabajo es tangible.

APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python SQL Spark Google Cloud Platform

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Apply to this job without intermediaries on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Apply to this job at getonbrd.com.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $1800 - 3000 Full time
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Apply to this job at getonbrd.com.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
$$$ Full time
Data Architect Semi Senior Advanced
  • Improving South America
Python Azure ETL Power BI

Leniolabs_ es ahora Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply only from getonbrd.com.

Job functions

En mproving South America buscamos un Data Architect Senior para sumarse a este equipo multicultural. Diseñarás modelos y pipelines ETL/ELT en Azure, optimizarás SQL de alto rendimiento y liderarás mejores prácticas de calidad y gobierno de datos, colaborando de forma 100 % remota con equipos técnicos y de negocio. Si te apasiona transformar datos complejos en decisiones estratégicas, este desafío es para vos.

Qualifications and requirements

  • Alrededor de8 años en desarrollo/arquitectura de datos,
  • Nivel de inglés intermedio–avanzado
  • .SQL avanzado (tuning, stored procs, optimización de queries)
  • Modelado de datos & Data Warehouse (diseño lógico/físico, diagramado)
  • ETL/ELT & Orquestación: SSIS / Azure Data Factory, pipelines CI/CD (Azure DevOps, Git)
  • Python + Pandas / PySpark para profiling y data wrangling
  • Cloud Azure (Storage, Synapse, contenedores)
  • Power BI (visualización, mejores prácticas de reporting)
  • Conocimientos de data quality, data retention & compliance
  • Experiencia diseñando data flows y migraciones entre sistemas legacy/API

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1700 - 1900 Full time
Administrador de Bases de Datos
  • ZerviZ
  • Santiago (In-office)
En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Apply directly from Get on Board.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Scientist
  • ARKHO
Python SQL Machine Learning Deep Learning

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Apply through Get on Board.

Funciones

Estamos en busqueda de un Data Scientist con por lo menos dos años de experiencia, para incorporarse a nuestro equipo ágil para diversos proyectos Data Analytics. Será el encargado de velar por soluciones integrales para las problemáticas de cada uno de los clientes y proyectos en los cuales se desenvuelva junto al equipo.
Dentro de sus actividades principales se encuentran:
  • Comprender el contexto de negocio del cliente, desde la bajada comercial, indicadores claves que se busca potenciar, fuentes de datos y cómo sacar el mayor provecho de esta data para potenciar los resultados.
  • Analizar datos de alta complejidad utilizando técnicas de análisis estadístico, aprendizaje automático.
  • Acompañar y orientar al cliente respecto a diversas alternativas de solución.
  • Todos nuestros proyectos nos desafían a desplegar productos y servicios más rápidos, seguros, escalables y robustos en la nube.
Nos gusta conformar equipos colaborativos y auto-gestionados, por lo que las habilidades de comunicación y responsabilidad son muy importantes. ¡Buscamos profesionales de excelencia e íntegros dentro y fuera de la cancha!

Perfil del rol

En nuestra compañía valoramos a las personas autosuficientes, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo los plazos y objetivos.
En tu carrera profesional deberías contar al menos con:
  • Experiencia mínima de 3 años en roles similares.
  • Técnicas de machine learning (Clustering, PCA, regresión logística, etc) y Deep Learning.
  • Desarrollo e implementación de modelos de IA utilizando embeddings y Large Language Models (LLMs)
  • Dominio de lenguajes de programación: Structured Query Language (SQL) y Python.
  • Experiencia con AWS cloud (SageMaker, S3, Lambda, bedrock).
  • Manejo de librerías: Pandas, Sklearn, Numpy, Matplotlib.
  • Ser graduado de Ingeniería de sistemas, Ingeniería matemática o afín.

Habilidades opcionales

  • Idioma inglés nivel intermedio

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario (sólo para Chile)
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad + 10 días (5 días adicionales a la Ley Chilena)
  • Bonda (Workshops de temáticas diversas, Wellness y descuentos en locales comerciales)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Engineer
  • TECLA
Python Excel SQL BigQuery

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Apply directly on Get on Board.

Job Details:

We are seeking a motivated, detail-oriented, and technically curious Data Engineer to become part of our core team. This is a foundational role for someone with 2+ years of experience who wants to go beyond just writing code—someone who’s excited to take ownership, work directly with clients, and help small businesses grow using data, automation, and smart systems. You’ll play a hands-on role in building data pipelines, automation workflows, dashboards, and client deliverables. Because we are a small and nimble team, you will also participate in client meetings, contribute to workshops, and take ownership of delivering insightful, high-quality work that creates real business value.

Responsibilities:

The role will evolve as your experience grows, but initially your time will likely break down across the following 4 areas:

1. Data Engineering and Automation (60%)

  • Build and maintain ETL pipelines using tools like Google Apps Script, Coupler.io, Zapier, and other low/no-code tools.
  • Clean and transform raw data from systems like QuickBooks, HubSpot, and ActiveCampaign into structured, usable formats.
  • Maintain and improve our internal Google Sheets-based data warehouse and reporting dashboards.
  • Automate repetitive workflows and monitor data reliability.
  • Work across the Google technology stack (Sheets, Apps Script, BigQuery, etc.), with exposure to the Microsoft stack (Excel, Power BI, SharePoint, etc.), and a future roadmap involving Supabase and SQL.
  • Use Asana (or a similar project management tool) to manage scope, tasks, and requirements—and maintain clear, self-managed progress updates.

2. Client Delivery and Communication (25%)

  • Attend and sometimes lead client meetings and working sessions.
  • Present dashboards, explain workflows, and gather feedback directly from clients.
  • Communicate findings clearly and help translate business needs into data solutions.
  • Take ownership of key deliverables and contribute meaningfully to client success.

3. Documentation and Data Ops (10%)

  • Document data models, business logic, and pipeline workflows.
  • Create and maintain SOPs and data dictionaries.
  • Help build scalable internal systems and templates for reuse.

4. Internal Projects and Tooling (5%)

  • Support our internal reporting, project tracking, and automation initiatives.
  • Identify and propose improvements to our data and operational infrastructure.

Requirements:

  • 2+ years of professional or internship experience in data, engineering, or operations.
  • 1+ year of experience leveraging LLMs via integrated coding tools, Python, and SQL.
  • Proficiency in Google Sheets, Excel, and basic scripting (e.g., Apps Script or Python).
  • Strong written communication and documentation skills.
  • Excellent task and time management—you will be expected to own and organize your work independently using task tracking tools.
  • A strong sense of ownership, curiosity, and drive to solve real business problems.
  • Comfort working in a fast-paced, client-facing environment where priorities shift.

Nice to have:

  • Familiarity with APIs and REST integrations.
  • Experience with tools like Coupler.io, Zapier, Make.com, or Retool.
  • Experience with the Google Workspace or Microsoft Teams technical stack.
  • Consulting or small business exposure.
  • Interest or experience in SQL, Supabase, or dashboarding tools like Power BI.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to help small businesses scale through data, automation, and smart systems.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Data BI Engineer
  • Financia Capital
  • Santiago (In-office)
SQL BigQuery Power BI Google Cloud Platform

En FinanciaCapital, somos una empresa fintech especializada en soluciones de financiamiento. Nuestro objetivo es facilitar el acceso al capital de trabajo mediante procesos ágiles, análisis de riesgo automatizado y plataformas tecnológicas que permiten a nuestros clientes tomar mejores decisiones financieras.

Estamos buscando un(a) Data BI Engineer apasionado(a) por el modelado de datos y la construcción de soluciones analíticas eficientes que impacten directamente en las decisiones de negocio. El rol se enfoca en el desarrollo y mantenimiento de modelos de datos en BigQuery, utilizando herramientas como Dataform o DBT, asegurando la calidad, consistencia y escalabilidad de los datasets que soportan reportes, dashboards y análisis estratégicos.

Trabajarás estrechamente con equipos de análisis y tecnología para traducir requerimientos de negocio en soluciones de datos robustas, bien estructuradas y mantenibles.

© Get on Board. All rights reserved.

Funciones del cargo

  • Diseñar y mantener modelos de datos en BigQuery utilizando herramientas como Dataform o DBT, siguiendo buenas prácticas de modularización, documentación y versionamiento.
  • Construir datasets eficientes, auditables y reutilizables que sirvan como base para reportes, dashboards y análisis ad hoc.
  • Optimizar consultas SQL y estructuras de tablas para asegurar buen rendimiento y bajo consumo de recursos.
  • Colaborar con stakeholders de distintas áreas para entender necesidades analíticas y traducirlas en soluciones de datos.
  • Asegurar la calidad y trazabilidad de los datos mediante tests, validaciones y prácticas de control de cambios.
  • Participar en la gobernanza y estandarización del modelo de datos dentro de la organización.

Requerimientos del cargo

  • Título en Ingeniería en Computación, Ingeniería de Datos, Ciencias de la Computación, Estadística o carrera afín.
  • Experiencia práctica con Dataform, DBT o herramientas similares de modelado SQL.
  • Dominio avanzado de SQL, especialmente en entornos como BigQuery.
  • Conocimientos en diseño de esquemas analíticos, modelado en capas (staging, intermediate, mart).
  • Experiencia trabajando con herramientas de visualización como Looker Studio, Power BI o similares.
  • Buenas habilidades de comunicación para colaborar con perfiles técnicos y no técnicos.

Opcionales

  • Experiencia en entornos colaborativos con control de versiones (ej. Git).
  • Familiaridad con métricas de negocio, KPIs financieros o de performance comercial.
  • Conocimientos básicos en servicios de Google Cloud Platform (GCP), especialmente alrededor de BigQuery.

APPLY VIA WEB
$$$ Full time
Senior Ingeniero de Datos / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Java Python SQL Scala
Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros. En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente
Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data.

Es una posición híbrida en la ciudad de Quito-Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Trabajarás en un entorno ágil, con un equipo increíble en la implementación de productos de software de clase mundial.

This job is exclusive to getonbrd.com.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.
Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:
  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso
Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Apply to this job opportunity at getonbrd.com.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
APPLY VIA WEB
$$$ Full time
Consultor/a de Datos en Azure – Power BI & Databricks
  • Factor IT
SQL Oracle Big Data Azure

En FactorIT, somos líderes en tecnología y soluciones de datos, trabajando con grandes empresas en sus procesos de transformación digital. Buscamos un/a Consultor/a de Datos que apoye a nuestras iniciativas de explotación de datos en una institución bancaria clave mientras implementamos soluciones innovadoras en Azure.

Nuestro objetivo es brindar a nuestros clientes servicios de analítica avanzada y transformación digital. Aquí, tendrás la oportunidad de participar en grandes proyectos que marcan la diferencia y promueven el uso estratégico de la información.

Job opportunity on getonbrd.com.

Descripción del Rol

Estamos buscando a un/a Consultor/a de Datos en Azure, quien será fundamental en nuestra misión de optimizar el uso de datos dentro de la banca. Las responsabilidades incluyen:

  • Identificar oportunidades de explotación de datos junto a las áreas de negocio.
  • Desarrollar pipelines y modelos en Azure Databricks.
  • Diseñar y construir dashboards y reportes interactivos en Power BI.
  • Realizar talleres con usuarios del negocio para levantar requerimientos.
  • Acompañar a las áreas funcionales en la adopción de una cultura data-driven.
  • Traducir necesidades del negocio en soluciones técnicas sostenibles.
  • Documentar soluciones y reportes desarrollados.

Requisitos del Puesto

Solicitamos a un/a profesional con experiencia técnica en las siguientes áreas:

  • Experiencia comprobable en Azure Databricks (PySpark / Spark SQL).
  • Conocimiento avanzado en Power BI, cualquier experiencia en DAX, modelado y visualización es un plus.
  • Familiaridad con servicios de datos de Azure como Data Lake, Synapse y Data Factory.
  • Competencia en SQL, preferiblemente en Oracle y/o Azure SQL.

Además, el candidato ideal debe poseer excelentes habilidades comunicativas, siendo capaz de interactuar con usuarios no técnicos y traducir sus necesidades. Buscamos a una persona empática, colaborativa y proactiva que impulse la adopción de soluciones en un entorno de rápida transformación tecnológica.

Habilidades Adicionales Preferidas

Además de los requisitos mencionados, se valorará la experiencia previa en:

  • Proyectos de transformación digital o migraciones tecnológicas.
  • Sector bancario, seguros o industrias reguladas.

El dominio del español es excluyente, mientras que el inglés técnico para lectura y escritura es deseable.

Beneficios y Oportunidades

Ofrecemos un entorno laboral flexible, permitiendo equilibrar trabajo en oficina y remoto, adaptándonos a tus necesidades. Además de un salario competitivo basado en tu experiencia, contamos con:

  • Flexibilidad laboral y modalidad de trabajo remoto.
  • Capacitación continua en tecnologías emergentes enfocadas en inteligencia artificial y automatización.
  • Cultura inclusiva que fomenta la creatividad y la innovación.

Si te apasiona la tecnología y quieres unirte a un equipo innovador en expansión, ¡esta es tu oportunidad!

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $1400 - 1900 Full time
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Job opportunity published on getonbrd.com.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Software Engineer ETL Powercenter/ Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
Data Analysis Excel SQL ETL

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Software Engineer ETL (PowerCenter) para sumarse a nuestro equipo de expertos en tecnología. Si te apasiona el procesamiento de datos, la optimización de flujos ETL, ¡postula con nosotros!

Job source: getonbrd.com.

Funciones del cargo

✅ Desarrollar y mantener procesos ETL utilizando PowerCenter, asegurando la correcta integración de datos desde diferentes fuentes y transformándolos para análisis y uso posterior.
✅ Escribir y ejecutar sentencias SQL para consultas, actualizaciones, inserciones y eliminaciones de datos, interactuando de forma fluida con bases de datos.
✅ Configurar orígenes de datos y parametrizar procesos de integración de datos en el entorno de PowerCenter, asegurando la correcta integración de información.
✅ Utilizar Excel a nivel intermedio para análisis de datos, creación de reportes y manejo de funciones y fórmulas para realizar tareas más complejas.
✅ Colaborar con equipos multidisciplinarios para mejorar flujos de datos, integrando soluciones que optimicen procesos de análisis y gestión de datos.

Requerimientos del cargo

✅ Experiencia mínima de 2 años en:

- Desarrollo y optimización de procesos ETL con PowerCenter.
- Manejo y administración de bases de datos (estructura, acceso y gestión de datos).
- Uso avanzado de SQL para manipulación y consulta de datos.
- Conocimientos intermedios en Excel.
📍Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago-Chile (modalidad híbrida, requisito excluyente).

Beneficios Dynamo!!

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

APPLY VIA WEB
$$$ Full time
Data Engineer Spark y AWS / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Big Data

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala y un sólido conocimiento en PySpark, AWS EMR y Glue.

Official job site: Get on Board.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply exclusively at getonbrd.com.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Analista de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
PostgreSQL Data Transformation ETL Power BI
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años de trayectoria en el mercado Latinoamericano, especializada en desarrollo de software y servicios TI para acompañar a las empresas en sus procesos de transformación digital. Con sedes en Concepción y Santiago, Genesys se especializa en ofrecer soluciones basadas en tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos (RPA).
En esta oportunidad, el proyecto se enfoca en la definición e implementación de una arquitectura de datos moderna y eficiente que soporte la toma de decisiones, facilite la interoperabilidad entre sistemas y garantice la calidad y trazabilidad de la información. Se trata de un proyecto de transformación estratégica dentro de la compañía, donde el equipo técnico de alto nivel trabaja con tecnologías y buenas prácticas aplicadas en un entorno real y desafiante.

© Get on Board.

Responsabilidades Clave

  • Diseñar la arquitectura de datos del proyecto, abarcando esquemas lógicos y físicos, así como los flujos de datos necesarios para garantizar la integridad y escalabilidad.
  • Modelar y normalizar estructuras de datos relacionales optimizadas en PostgreSQL, asegurando eficiencia en almacenamiento y consulta.
  • Participar activamente en la recolección y análisis de los requerimientos de negocio, interpretándolos para desarrollar modelos de datos alineados con las necesidades analíticas y operativas.
  • Establecer procesos robustos de ingesta, limpieza, transformación y catalogación de datos, para soportar casos de uso presentes y futuros en la organización.
  • Colaborar con equipos multidisciplinarios en la definición e integración de mecanismos de transferencia de datos mediante APIs, servicios externos y diversas fuentes de datos.
  • Definir y aplicar estándares claros de calidad, gobernanza y seguridad de datos en conjunto con los roles técnicos relacionados.
  • Apoyar la construcción y validación de dashboards o reportes exploratorios cuando sea necesario para dar soporte a las áreas de negocio.
  • Documentar meticulosamente las estructuras de datos, procesos implementados y decisiones tomadas para asegurar la trazabilidad y reutilización futura de los modelos desarrollados.

Requisitos Técnicos y de Experiencia

Buscamos profesionales con experiencia comprobable como Analista de Datos, Data Engineer o roles afines, preferentemente que hayan participado en proyectos de arquitectura de datos o transformación digital organizacional.
El candidato ideal debe tener dominio avanzado en el diseño y modelamiento de bases de datos relacionales, con un énfasis particular en PostgreSQL, además de conocimientos en bases de datos no relacionales.
Es imprescindible el entendimiento profundo de arquitecturas de datos modernas, incluyendo Data Lakes, Data Warehouses o arquitecturas híbridas que se complementen entre sí para soportar cargas analíticas y operativas.
Se requiere experiencia demostrable en el diseño y ejecución de procesos ETL/ELT para la obtención, procesamiento y almacenamiento eficiente de grandes volúmenes de datos.
Se valorará positivamente el manejo de herramientas específicas de ETL/ELT, así como el conocimiento en plataformas de visualización de datos tales como Power BI, Metabase, Tableau o Looker, para la realización de pruebas exploratorias y validaciones de datos.
Además de las competencias técnicas, buscamos una persona con mentalidad analítica orientada a la comprensión profunda del negocio facilitada por el análisis de datos, con iniciativa, atención al detalle y un fuerte compromiso con la calidad y consistencia en la información. La capacidad para trabajar en entornos colaborativos y multidisciplinarios, así como para comunicar conceptos técnicos complejos en términos claros y estructurados, es fundamental. Se valorará la curiosidad y la apertura para el aprendizaje continuo, contribuyendo así al crecimiento profesional y al éxito del equipo.

Habilidades y Herramientas Deseables

Además de los requisitos técnicos principales, es deseable que el candidato posea experiencia con herramientas específicas de ETL/ELT que faciliten la automatización y optimización de los procesos de transformación de datos.
Se valorará el conocimiento en herramientas de visualización de datos reconocidas en el mercado, como Power BI, Tableau, Looker o Metabase, para la validación rápida y exploratoria de los datos procesados, permitiendo una mejor toma de decisiones basada en información confiable.
El manejo de técnicas y metodologías de gobernanza de datos, calidad y seguridad será un plus para asegurar la integridad y protección de la información en todos los procesos.
Finalmente, poseer habilidades comunicativas y colaborativas que faciliten la interacción entre áreas técnicas y de negocio será un diferencial para fortalecer el trabajo en equipo.

Se Ofrece

Ofrecemos un contrato a plazo fijo dentro de un ambiente laboral dinámico y colaborativo, que fomenta el crecimiento profesional y el aprendizaje constante. Nuestro horario laboral es de lunes a jueves de 08:30 a 18:30 hrs, y viernes de 08:30 a 17:30 hrs, bajo modalidad híbrida que combina trabajo presencial y remoto.
Formarás parte de una empresa con más de 30 años de experiencia en el sector tecnológico, con presencia en las ciudades de Concepción y Santiago. Valoramos el talento y promovemos el desarrollo de nuestros colaboradores en un entorno que impulsa la innovación y la excelencia técnica.
Únete a Genesys Tecnologías de Inform. SpA y sé parte de un equipo tecnológico comprometido con mantener los negocios en movimiento y elevar el estándar tecnológico de las empresas en Latinoamérica. ¡Te esperamos con entusiasmo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Exclusive to Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • Forma - Moovmedia Group
Python SQL BigQuery Docker
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Apply at the original job on getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Exclusive offer from getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This job offer is available on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Data Engineer Senior GCP
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Big Data BigQuery

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Engineer Senior - GCP para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

This job is original from Get on Board.

Job functions

  • Ejecutar procesos de ingesta y modelamiento de datos en entornos de Google Cloud Platform (GCP).
  • Participar activamente en el desarrollo y mantenimiento de pipelines de datos (ETLs).
  • Colaborar en el diseño y optimización de arquitecturas de datos eficientes.
  • Trabajar de forma colaborativa en equipos multidisciplinarios, tanto de forma remota como presencial.
  • Documentar procesos y contribuir a las buenas prácticas de desarrollo y versionamiento de código.

Qualifications and requirements

Experiencia comprobable en proyectos de datos (ETLs) sobre GCP.

Dominio de productos de GCP como:

  • BigQuery
  • Cloud Functions
  • Cloud Composer / Airflow
  • Cloud Storage

Conocimientos en DBT (deseable).

Sólida experiencia en SQL y Python.

Experiencia trabajando con sistemas de versionamiento como GitLab, Bitbucket o GitHub.

Habilidades blandas:

  • Alta capacidad de trabajo en equipo.
  • Autonomía y habilidades de autogestión.
  • Buenas capacidades analíticas y de resolución de problemas.

Conditions

Modalidad: Híbrida (mínimo 2 días presencial en Santiago, Chile)
Duración: contrato por 8 meses con extension

APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Exclusive to Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Compara
Python PostgreSQL DevOps Kafka

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Find this vacancy on Get on Board.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1000 - 1200 Full time
Analista de Datos
  • LFi
  • Santiago (Hybrid)
Data Analysis Excel Marketing SQL

En LFI buscamos talento para ofrecer las mejores soluciones de tecnología y marketing de la región. Desarrollamos proyectos que construyen la presencia digital de nuestros clientes y que hacen la vida más fácil y mejor a sus usuarios. Queremos innovar, buscar nuevas tecnologías, ser un equipo diverso y combinar nuestros talentos.

© Get on Board. All rights reserved.

Funciones del cargo

Nos encontramos en búsqueda de un Analista de Datos talentoso para unirse a nuestro equipo dinámico y en crecimiento.
Como Analista de Datos, jugarás un papel crucial en la extracción de información valiosa de nuestros datos, lo que nos ayudará a tomar decisiones estratégicas más informadas y mejorar nuestras campañas de marketing digital.

Funciones:

  • Recopilar, limpiar y analizar grandes conjuntos de datos de diversas fuentes.
  • Identificar tendencias y patrones en los datos que sean relevantes para nuestras campañas de marketing digital.
  • Crear informes y visualizaciones de datos claros y concisos para comunicar los hallazgos a las partes interesadas.
  • Desarrollar y mantener modelos de análisis de datos para predecir y optimizar el rendimiento de las campañas.
  • Colaborar con el equipo de marketing digital para desarrollar e implementar estrategias basadas en datos.

Requerimientos del cargo (excluyentes)

  • Ingeniero civil industrial, Ingeniero industrial, Ingeniero comercial o carrera afín.
  • Mínimo de 2 años de experiencia laboral como Analista de Datos.
  • Sólida experiencia en SQL, Power BI y Office avanzado.
  • Excelentes habilidades de comunicación escrita y oral.
  • Capacidad para trabajar de forma independiente y como parte de un equipo.
  • Fuerte orientación a los detalles y capacidad para resolver problemas.
  • Pasión por el marketing digital y los datos.

Habilidades

- Excelente trato con el clientes y colaboradores
- Entusiasta
- Proactividad.
- Adaptabilidad.
- Trabajo en equipo.

Condiciones y beneficios

  • De lunes a jueves de 9 a 17 hs y los días viernes de 9 a 16hs
  • Inicialmente la posición es presencial, luego es modalidad híbrida. Las oficinas se encuentran ubicadas en Santiago Centro
  • Desarrollo profesional ilimitado... ¡el cielo es el límite!
  • Entrenamiento permanente con diversas plataformas
  • Metodologías de trabajo colaborativas en un buen ambiente
  • Respeto total
  • Día de cumpleaños off

Partially remote You can work from your home some days a week.
Computer provided LFi provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks LFi offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Ingeniero de Datos/ Dbt
  • BC Tecnología
  • Santiago (Hybrid)
SQL Big Data BigQuery Google Cloud Platform

En BC Tecnología, somos una consultora de TI con más de seis años de experiencia, especializada en ofrecer soluciones personalizadas para nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nos enfocamos en consultoría, outsourcing, desarrollo de proyectos y formación de equipos, siempre con un claro compromiso hacia la satisfacción del cliente. Como parte de nuestro equipo, el ingeniero/a de datos jugará un papel clave en la creación de soluciones basadas en tecnologías de la nube, impulsando la innovación y la colaboración en un entorno de trabajo ágil.

Job opportunity published on getonbrd.com.

Responsabilidades Clave

El ingeniero/a de datos será responsable de:

  • Diseñar y mantener pipelines de datos utilizando BigQuery y DBT.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para la ingesta y procesamiento continuo de datos.
  • Construir y documentar modelos de datos optimizados para su análisis.
  • Validar y realizar pruebas para garantizar la precisión de los datos transformados.
  • Realizar seguimiento y documentación de cambios en modelos y sus transformaciones.

Requisitos Técnicos

Buscamos un ingeniero/a de datos con:

  • Experiencia avanzada en BigQuery y DBT.
  • Conocimiento práctico en Google Cloud Platform, incluyendo la programación de tareas y almacenamiento.
  • Sólido manejo de SQL y experiencia en modelado de datos.
  • Capacidad para documentar procesos y realizar pruebas de calidad de datos de manera eficiente.

Lo que ofrecemos

Brindamos un contrato por proyecto de 12 meses en modalidad híbrida, lo que permite combinar trabajo remoto con visitas a la oficina 2 a 3 días a la semana. También garantizamos un enfoque en la inclusión, en cumplimiento con la Ley Nº 21.015, promoviendo un entorno donde todos los empleados puedan prosperar.

APPLY VIA WEB
Gross salary $2200 - 2600 Full time
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

This job is published by getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

APPLY VIA WEB
$$$ Full time
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official source: getonbrd.com.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1000 - 1300 Full time
Data Scientist Junior
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Business Intelligence Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Junior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official job site: Get on Board.

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santigo de Chile
Renta en pesos Chilenos

APPLY VIA WEB
$$$ Full time
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply exclusively at getonbrd.com.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

Apply to this job through Get on Board.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Applications at getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Improving South America
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This job is published by getonbrd.com.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job source: getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Apply to this job opportunity at getonbrd.com.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Official source: getonbrd.com.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

Job opportunity published on getonbrd.com.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
APPLY VIA WEB
$$$ Full time
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply from getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Ingeniero de Datos GCP
  • BC Tecnología
  • Santiago (Hybrid)
SQL Big Data BigQuery Data Transformation
En *BC Tecnología*, somos un equipo apasionado de consultores de TI que ofrece soluciones innovadoras. Nos especializamos en proyectos relacionados con el análisis de datos, principalmente en plataformas como Google Cloud. Como parte de nuestro equipo, estarás involucrado en diseñar y mantener sistemas eficaces de gestión y análisis de datos que atienden a clientes de diversos sectores, incluyendo servicios financieros, seguros y retail. Este puesto te permitirá aplicar tus habilidades en un ambiente que fomenta el crecimiento personal y profesional mediante el uso de tecnologías avanzadas como BigQuery y DBT.

Apply to this posting directly on Get on Board.

Responsabilidades Clave

  • Diseñar y mantener pipelines de datos en BigQuery utilizando DBT.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para ingesta y procesamiento continuo de datos.
  • Construir y documentar modelos de datos optimizados para análisis.
  • Validar y probar la precisión de los datos transformados para asegurar su calidad.
  • Realizar seguimiento de cambios en modelos y transformaciones para asegurar la adaptabilidad y eficiencia de los procesos.

Requisitos Técnicos

Buscamos un profesional especializado que tenga experiencia avanzada con BigQuery y DBT. Debes tener un amplio conocimiento práctico en Google Cloud Platform, específicamente en la creación y programación de tareas, así como en el almacenamiento de datos. Un sólido manejo de SQL y habilidades en modelado de datos son esenciales. Además, es crucial que tengas la capacidad para documentar de manera efectiva y realizar pruebas de datos, asegurando que los procesos sean eficientes y que los resultados sean confiables.

Habilidades Deseables

Si bien no son estrictamente necesarias, se valoran habilidades adicionales como experiencia previa en proyectos de transformación de datos o en el sector de TI. Una comprensión de las metodologías ágiles y la experiencia en trabajo colaborativo será un plus, ya que buscamos un candidato que se adapte rápidamente a nuestro entorno de trabajo dinámico.

Beneficios

En *BC Tecnología*, valoramos el bienestar y crecimiento profesional de nuestro equipo. Ofrecemos un ambiente de trabajo colaborativo y ágil, así como beneficios como seguro complementario, Amipass de $4.500 por día laborado para fomentar tu desarrollo, activaciones y actividades especiales, y bonos de rendimiento. ¡Únete a nosotros y sé parte de un equipo donde tu talento hará la diferencia! 🌟

APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Official job site: Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply exclusively at getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Data Analysis SQL Big Data BigQuery
En CodersLab actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un ANALISTA DE PROCESAMIENTO DE DATOS quien deberá ser una persona motivada y orientada al cumplimiento de objetivos.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Applications: getonbrd.com.

Funciones del cargo

  1. Utilización de BigQuery:
    • Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
  2. Transformación de Datos:
    • Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
  3. Pruebas de Precisión de Datos:
    • Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
  4. Seguimiento de Cambios:
    • Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
  5. Construcción de Modelos de Datos:
    • Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
  6. Escritura de Código de Transformación:
    • Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
  7. Implementación y Documentación:
    • Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

  • BigQuery:
    • Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos.
  • DBT (Data Build Tool):
    • Conocimiento y experiencia en DBT para modelar, transformar y documentar datos.
  • Lenguajes de Programación:
    • Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.
  • Análisis de Datos:
    • Capacidad para analizar datos, identificar patrones y tendencias, y ofrecer recomendaciones basadas en los hallazgos.
  • Atención al Detalle:
    • Fuerte atención al detalle y habilidades analíticas para asegurar la precisión de los datos.
  • Comunicación:
    • Habilidades de comunicación efectivas, tanto escritas como verbales, para colaborar con otros equipos y presentar resultados de manera clara.

Competencias Personales:
  • Habilidad para trabajar en un ambiente dinámico y bajo presión.
  • Capacidad de trabajo en equipo y colaboración interdepartamental.
  • Flexibilidad y adaptabilidad a cambios en proyectos y prioridades.

APPLY VIA WEB
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

This job is published by getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB
Gross salary $2200 - 2700 Full time
Senior Business Development Consultant
  • MAS Analytics
  • Santiago (Hybrid)
Python Agile SQL Business Intelligence

En MAS Analytics nos dedicamos a desarrollar proyectos de Data Science, Gen AI, Cloud Architecture y Business Intelligence. Somos una consultora joven, tecnológica y emprendedora con gran crecimiento. Hoy en día tenemos muchos proyectos con grandes clientes de muchos rubros distintos y necesitamos ingenieras/os apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo joven, de mucho talento, y alto rendimiento, este puesto es lo que estás buscando. El área de Business Development de MAS Analytics cumple un rol clave para el desarrollo y crecimiento de la empresa, y así lograr la misión de ser la empresa líder de consultoría en Transformación Digital.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Sobre el Rol

Buscamos un Ingeniero que se quiera integrar al equipo de consultores de Business Development tomando un rol activo en la estrategia y el diseño de las soluciones para los clientes.

Responsabilidades del Cargo

- Entender los problemas del cliente de diversas industrias y diseñar soluciones: desarrollo de propuestas funcionales y técnicas, diseño de soluciones de Analytics en ecosistemas Cloud (Azure, GCP, AWS), desarrollo de pruebas de concepto, búsqueda y levantamiento de oportunidades en clientes actuales, relación frecuente y buena comunicación con la alta dirección y los ejecutivos de diferentes empresas.
- Desarrollo de competencias cloud
- Investigación: tecnologías emergentes, nuevas funcionalidades, productos y servicios cloud

- Rol Comercial / Estratégico: Retención de clientes, diseño de planes de venta, account manager (responsabilidad de ciertas cuentas existentes), promover y mantener el nivel de calidad y confiabilidad de la empresa

Requerimientos del cargo

- Ingeniero civil industrial con 3 años de experiencia, idealemente en consultoría.

Herramientas y metodologías:

Conocimientos deseables:
- Conocimiento básico de herramientas Cloud (Azure, AWS, GCP)
- Conocimiento de herramientas de BI (PowerBI, Tableau, Data Studio)
- Experiencia con metodologías ágiles de desarrollo
- Conocimiento de lenguajes de base de datos (SQL)
- Conocimiento básico de lenguajes de programación (Python)

Competencias

- Interés Activo en Tecnologías emergentes
- Mucha proactividad, automotivación y autodisciplina
- Capacidad de aprendizaje veloz y entendimiento de ls distintas industrias
- Habilidades comunicacionales (presentación y venta)

Condiciones

- Trabajo flexible
- Ambiente laboral joven
- Sistema de beneficios por puntaje (días libre, bonos, aguinaldos)
- Ayudas monetarias y de estudio para capacitaciones y certificados
- Viernes se trabaja medio día
- MUCHO aprendizaje y desarrollo profesional

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage MAS Analytics pays or copays health insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1500 - 1700 Full time
KAM Key Account Manager B2B
  • Autofact
  • Santiago (Hybrid)
Autofact es la empresa de información y tecnología que más innovaciones ha desarrollado en el proceso de compra y venta de vehículos en la industria automotriz de Latinoamérica. Con más de 13 años de trayectoria, nuestro propósito es hacer simple y segura la compra de vehículos.
¡Seguimos creciendo! Nuestro equipo está compuesto por más de 120 personas con gran espíritu de compañerismo, actitud y entusiasmo, quienes día a día buscan desarrollar los mejores productos y servicios para nuestros clientes.
¿Cómo? A través de herramientas digitales y servicios de información, entregando más de 100 mil informes y realizando más de 16 mil transferencias de vehículos mensualmente, todo a través de nuestras aplicaciones.
Si te gusta una dinámica ágil e innovadora y compartir con equipos que les gusta trabajar y celebrar aún más ¡Autofact es para ti!

Applications are only received at getonbrd.com.

Responsabilidades del Cargo

Como Key Account Manager (KAM) en Autofact, serás responsable de gestionar y fortalecer las relaciones estratégicas con clientes clave del segmento asignado, llevando adelante la estrategia comercial definida por la compañía. Aportarás directamente al crecimiento de ingresos, fidelización y captación de nuevos clientes a través de la venta consultiva, cross selling y la generación de valor sostenible a largo plazo.
  • Implementarás la estrategia comercial orientada a incrementar la fidelidad y satisfacción de los clientes, así como a aumentar los ingresos mediante procesos de ventas proactivos y asesoramiento personalizado.
  • Recopilarás y analizarás el feedback y la información de los clientes para identificar oportunidades de mejora y generar insights que perfeccionen la calidad de los servicios ofrecidos.
  • Coordinarás las actividades comerciales en conjunto con el equipo, asegurando una correcta ejecución de la estrategia comercial dictada por el/la Líder B2B.
  • Atenderás y resolverás situaciones críticas con los clientes mediante soluciones consensuadas, haciendo seguimiento hasta la completa resolución de los temas.
  • Actualizarás constantemente la base de datos de clientes y prospectos con información precisa, que facilite la planificación y gestión comercial efectiva.
  • Revisarás indicadores clave como el Net Promoter Score (NPS), proponiendo e implementando acciones concretas dirigidas a reducir la insatisfacción y mejorar significativamente la experiencia del cliente.

Requerimientos

Buscamos profesionales responsables, orientados a resultados y con habilidades para establecer relaciones comerciales duraderas y de confianza. Se requiere formación como Ingeniero Comercial, Industrial o carrera afín, con al menos dos años de experiencia en roles comerciales, preferentemente en ventas consultivas o gestión de cuentas clave B2B.
Es imprescindible disponer de un enfoque autónomo, metódico y con fuerte orientación hacia el logro de objetivos, además de una actitud proactiva centrada en la satisfacción del cliente. Se valorará la capacidad de analizar información y utilizarla para generar mejoras continuas tanto en productos como en procesos comerciales.
Las competencias deseadas incluyen habilidades avanzadas de negociación, dominio de tecnologías Microsoft Office y aplicaciones Google Workspace para una gestión eficiente del trabajo diario.
Debido a la naturaleza del cargo, será necesario residir en Santiago de Chile, con disponibilidad para realizar visitas presenciales a clientes en la región cuando las circunstancias lo requieran.

Habilidades y Conocimientos Deseables

Se considera un plus el manejo de herramientas de bases de datos y análisis como SQL y MySQL, que permitan acceder a información técnica o comercial de manera autónoma y aportar a la toma de decisiones con datos concretos.
Estas habilidades facilitarán una mejor comprensión de los productos y servicios de Autofact, así como la capacidad de dialogar con equipos técnicos y clientes de manera efectiva, contribuyendo a una gestión comercial más completa e inteligente.

Beneficios y Entorno Laboral

En Autofact, fomentamos un ambiente de trabajo alegre y colaborativo, donde la innovación y el compañerismo son fundamentales. Te ofrecemos:
  • Un equipo de trabajo con alto espíritu de camaradería y entusiasmo.
  • Modalidad de trabajo remoto con algunas excepciones para tareas presenciales.
  • Computador y artículos para facilitar el teletrabajo.
  • Seguro complementario de salud 100% cubierto por la empresa.
  • Reembolsos para capacitaciones que contribuyan al desarrollo profesional.
  • 18 horas semestrales de formación continua en horario laboral para mantenernos actualizados.
  • Celebraciones periódicas tanto a nivel empresa como equipo para reforzar la cultura corporativa.
  • Programa flexible de beneficios que permite canjear 5 días libres adicionales, días especiales como cumpleaños o navidad, aguinaldos, giftcards para alimentación o cumpleaños, reembolsos por actividad física y mucho más!.
¡Únete a nosotros y sé parte fundamental de la transformación digital en la industria automotriz chilena!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Autofact pays or copays health insurance for employees.
Computer provided Autofact provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Autofact gives you paid vacations over the legal minimum.
Beverages and snacks Autofact offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Business Development Representative
  • Modyo
Analytics Marketing Sales English
We are a fully remote software company that builds awesome software with passion and discipline to fundamentally improve the digital experience for millions of people. We dream of becoming a world class software company and we are working every day to achieve it.
We know that the main value of Modyo is the people we work with. That's why we invest time when we see talent and, above all, passion for learning and technology.

This job is exclusive to getonbrd.com.

ABOUT THE ROLE

Your responsibility as a BDR is to generate demand so new qualified leads are included in the sales process. As a BDR, you will be the sales team's first point of contact with potential customers. You will generate demand, interest and enthusiasm for our product to create a constant flow of leads to the sales team and will be a key part of Modyo's growth into new markets.
Some of your responsibilities will be:
  • Map new markets and identify prospects according to the definition of our Sales strategy
  • Initiate lead contact throughout cold calls.
  • Create relationships with customers to identify potential needs and qualify their interests and feasibility to drive sales.
  • Maintain updated information, detailing interactions, conversations and type of prospect according to each case.
  • Coordinate meetings with contacts in strategic roles.
  • Qualify leads into qualified marketing prospects (MQL) or qualified sales prospects (SQL) in order to promote opportunities.

WHAT WE ARE LOOKING FOR:

  • At least 1 year of front line sales experience, preferably in the financial or technology industry.
  • Experience working in a B2B environment.
  • Bachelor's degree or studies in Civil Engineering, Commercial Engineering, Business, Computer Science or in a related field.
  • Proven experience excelling in SDRs related skills. For example in prospecting via cold calling, email, and social selling.
  • Experience in outbound lead generation, sales/marketing analytics and managing data quality.
  • Advanced English.
  • Self-study skills (if you love reading, you’ll fit right in!)
  • Enthusiasm to help us generate new opportunities in a new market ;)
  • The desire to provide a customer-centric experience to potential new customers.

Some of our benefits:

  • 🌴 Additional vacation days
  • 🌎 Distributed team - Work From Anywhere!
  • ⏰ Flexible schedule
  • 🥇 Career development
  • 📚Free access to online training tools
  • 💻 Equipment
  • 🎉 Team building and celebrations
  • 🏥 Complementary Health Insurance
  • 💚 And more
At Modyo we work to promote an inclusive culture. This translates into gender, religion, people with disabilities, LGBTQ+, race, ethnicity and diversity of experience. We encourage everyone that is passionate about professional growth, innovation and the opportunity to participate in a growing industry with a top-level team, to join us because our journey is just beginning!

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Modyo provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Modyo gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1500 - 1800 Full time
Analista de Proyectos y Procesos (por Proyecto)
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis SQL Power BI Project Management
En BC Tecnología, una consultora de TI con amplia experiencia en distintas áreas tecnológicas, desarrollamos soluciones a medida para clientes de sectores financieros, seguros, retail y gobierno. Contamos con un portafolio diversificado que abarca consultoría, desarrollo de proyectos, outsourcing de profesionales y servicios de soporte y administración de IT. Nuestro enfoque se centra en la creación de equipos ágiles alineados con las necesidades de cada cliente, aportando valor mediante metodologías ágiles, cambio organizacional y desarrollo de productos innovadores.
El proyecto para el área de análisis de proyectos y procesos busca fortalecer la ejecución de iniciativas operativas, tecnológicas y de sistemas, garantizando la calidad y continuidad operativa en un ambiente dinámico y colaborativo.

This job is original from Get on Board.

Funciones principales

  • Apoyar en la planificación detallada, análisis y documentación exhaustiva de proyectos operativos y tecnológicos.
  • Coordinar de manera efectiva con diversas áreas internas para asegurar el desarrollo eficiente de todas las actividades relacionadas.
  • Identificar desviaciones y riesgos potenciales en los procesos y proyectos, proponiendo oportunamente mejoras y ajustes necesarios.
  • Hacer un seguimiento constante de los indicadores clave y avances de cada iniciativa para asegurar el cumplimiento de los plazos y estándares de calidad.
  • Supervisar los servicios de apoyo y los procesos transaccionales, garantizando la continuidad operativa y la correcta gestión de los mismos.

Requisitos y habilidades

Estamos buscando un Analista de Proyectos y Procesos con una experiencia sólida de entre 3 a 6 años en roles similares, que demuestre un perfil analítico, metódico y orientado a resultados. El candidato ideal debe tener un manejo avanzado de SQL para la gestión y análisis de datos, así como un nivel intermedio en Power BI para la visualización e interpretación de información.
Además, valoramos especialmente la autonomía para gestionar tareas y la capacidad para trabajar de manera ordenada, manteniendo un enfoque claro en el cumplimiento de objetivos y plazos. Las habilidades blandas esenciales incluyen pensamiento crítico, comunicación efectiva y capacidad de trabajo colaborativo en entornos dinámicos y multidisciplinarios. La persona deberá adaptarse al trabajo híbrido, promoviendo la colaboración tanto presencial como a distancia.

Competencias deseables

Se valorarán conocimientos adicionales en metodologías ágiles y experiencia en gestión de indicadores de desempeño en proyectos tecnológicos y operacionales. Familiaridad con herramientas complementarias de análisis de datos o automatización de procesos será positiva para enriquecer la función.
Asimismo, será un plus la capacidad para detectar oportunidades de mejora continua, un fuerte compromiso con la calidad y la predisposición para aprender y adaptarse a nuevos desafíos tecnológicos y organizacionales.

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior PMO Analyst
  • Apply Digital Latam
Slack Project Management Operational Efficiency Cross-functional Collaboration

Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Marketing Services, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to their business and customers.

Our 750+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Dropbox, Atlassian, A+E Networks, and The Very Group.

LOCATION: Apply Digital is hybrid/remote friendly. The preferred candidate should be based either in Canada or Latin America, in working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Candidates located in Santiago (Chile), Vancouver (Canada), or Toronto (Canada) are able to work from one of our offices as remote/hybrid employees. Candidates located outside of these locations will be fully remote employees.

Apply to this job directly at getonbrd.com.

Responsibilities

The Global Operations team reports to our Head of Operations, Enable & Transform. It plays an important role in setting up the operational structure, systems, protocols and standards at Apply Digital. The Operations team supports all disciplines at Apply Digital at various phases of the project lifecycle. The Operations team also plays a key role in supporting the Project Management team and Business Development.

  • Create and maintain comprehensive project artifacts to support project initiation, tracking, planning, controlling, and monitoring.
  • Oversee, maintain and enhance tracking dashboards; troubleshoot and resolve errors to maintain dashboard functionality and accurate project data.
  • Ensure alignment and consistency among project management processes and business operations to drive efficiency and scalability across the organization.
  • Develop and implement templates, guidelines, and protocols for various operations and processes, enabling structured and systematic growth for the Company.
  • Support Project Manager on project budget tracking, conducting financial analyses, and ensuring timely updates and maintenance of project artifacts.
  • Review and refine project agreements and estimation, providing high-level proofreading, editing, and feedback as needed.
  • Support contractor engagement and onboarding to meet project needs.
  • Facilitate communication between delivery team and back-office team to foster smooth project operations.
  • Facilitate internal resourcing meetings and coordinate action item follow-ups.
  • Lead the PMO Overview orientation for new hires, ensuring a strong understanding of company general policies, processes and practices.
  • Provide strategic support to the Project Manager and cross-functional teams in response to relevant requests, identifying and implementing process improvements as needed.

Qualifications and requirements

  • Bachelor’s degree in computer science, engineering, finance, or a related field; advanced degree is a plus.
  • 5+ years of progressive work experience in operations or a related role, demonstrating increased responsibility and impact.
  • Proficient in spreadsheets, Slack workflow, and Google Suite for daily operations.
  • Demonstrate strong interest in adopting new technologies, tools, or advanced automation and integration capabilities for operational efficiency enhancement and optimization.
  • Exceptional analytical, observational, and problem-solving skills, with a proven ability to navigate complex scenarios and propose practical solutions.
  • Strong organizational skills, detail-oriented, and capable of thriving under pressure, with the ability to multitask and prioritize effectively.
  • Highly efficient, responsive, and comfortable working in a fast-paced environment with shifting priorities.
  • Quick learner with a commitment to self-learning and professional development; self-motivated and proactive.
  • Collaborative team player fostering positive relationships across the organization.
  • Proficient in English writing, reading and speaking.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2300 - 2800 Full time
Líder de Tecnología y Sistemas (TI)
  • Adecco
  • Concepción (In-office)
SQL Cloud Computing SAP HANA Project Management

En Adecco estamos en la búsqueda de un(a) profesional que lidere el área de Tecnologías de la Información de una empresa clave con presencia en Concepción. Su misión principal será diseñar la estrategia de TI de la organización y garantizar la instauración de todos los sistemas necesarios para respaldar las operaciones y objetivos estratégicos del negocio.

El o la profesional se integrará a un equipo multidisciplinario y transversal, actuando como un pilar clave para asegurar que las tecnologías de la información aporten el máximo valor a la empresa, facilitando procesos eficientes, seguros y alineados a los objetivos corporativos. Será el nexo técnico y estratégico entre los distintos departamentos, proveedores externos y el equipo de soporte interno.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

El cargo reporta directamente a la jefatura general y tendrá a su cargo la gestión completa del área de TI, incluyendo planificación estratégica, operaciones, soporte, adquisiciones y mejoras tecnológicas. Entre sus funciones específicas se encuentran:

  • Mantener operativos y actualizados todos los recursos de red y servidores.
  • Seleccionar e implementar la tecnología adecuada para mejorar las operaciones internas y optimizar beneficios estratégicos.
  • Administrar y mantener actualizados los sistemas propios de la empresa, incluyendo bases de datos y plataformas.
  • Programar y ejecutar actividades de:
    • Soporte técnico
    • Actualizaciones
    • Instalaciones de software y nuevos equipos
    • Solicitud de insumos
    • Seguimiento de servicio técnico
    • Atención de inquietudes generales
  • Elaborar el plan anual de capacitaciones del personal a su cargo.
  • Gestionar integraciones entre sistemas locales y los sistemas de proveedores.
  • Liderar procesos de licitaciones para adquisición de equipos y/o servicios TIC.
  • Asegurar el óptimo estado operativo de la Sala de Servidores, incluyendo la definición y cumplimiento de procesos, procedimientos y protocolos técnicos.
  • Establecer los objetivos y estrategias del departamento TI.
  • Diseñar y personalizar plataformas y sistemas tecnológicos para mejorar la experiencia de los clientes.
  • Planificar la implementación de nuevos sistemas y asesorar a los equipos TI y otras áreas de la empresa.
  • Aprobar compras tecnológicas, gestionar presupuestos y establecer relaciones con proveedores.
  • Supervisar toda la infraestructura tecnológica (redes, servidores, sistemas informáticos).
  • Liderar proyectos relacionados con TI y evaluar permanentemente avances tecnológicos que entreguen ventajas competitivas.
  • Analizar costos, riesgos y valor de las TI para asesorar a la dirección general.

Requerimientos del cargo

El o la candidata ideal deberá contar con:

🎓 Título profesional en alguna de las siguientes áreas: Ingeniería Civil Industrial con mención en Informática o carrera a fines

💼 Conocimientos excluyentes:

  • SAP Hana
  • Redes
  • Cloud Computing
  • Administración de servidores
  • Bases de datos SQL
  • Gestión de infraestructura tecnológica
  • Liderazgo técnico y estratégico

Opcionales

Se considerarán como un plus adicional los siguientes conocimientos o experiencias:

  • Experiencia en diseño o personalización de plataformas orientadas a la experiencia del cliente
  • Ejecución y control de licitaciones TIC
  • Diseño y ejecución de planes de capacitación
  • Conocimiento de marcos de gestión como ITIL, PMP u otros
  • Capacidad de análisis de costos, valor y riesgos tecnológicos
  • Capacidad de detección de oportunidades tecnológicas para obtener ventajas competitivas

Condiciones

💰 Compensación:

  • Salario líquido mensual de $2.500.000 CLP

📍 Modalidad:

  • Trabajo 100% presencial en Concepción

🌟 ¿Por qué unirte a este desafío?

  • Serás protagonista de la estrategia tecnológica de una organización en constante crecimiento.
  • Tendrás autonomía para proponer e implementar soluciones que generen impacto directo en el negocio.
  • Formarás parte de una empresa comprometida con la excelencia operativa y la innovación.

APPLY VIA WEB
$$$ Full time
Strategic Revenue Management Consultant
  • Airnguru
  • Abu Dhabi (Hybrid)
Data Analysis SQL Data Science Revenue Management

We are airline Revenue Management experts along with Big Data and Data Science experts building a new generation of pricing solutions to streamline high-impact business decisions and help airlines around the world to leap forward with innovation, scalability, and efficiency.

Our vision is to become the world's best solutions provider for airlines. Massive parallel data processing and automation, AI/ML and data science, along with superb user experience and customer support, and a continuous drive for innovation are at the core of our business. Ten international airlines across four continents trust Airnguru solutions and services, including two of the world's ten largest carriers.

Join a stimulating and entrepreneurial work environment, learn from savvy Revenue Management, Tech, and Data Science experts, and work with Agile Methodologies and Lean Product Development. If you want to have fun learning new stuff and solving challenging problems for a global industry, come to Airnguru!

Apply to this posting directly on Get on Board.

Description of Role

We are looking for a professional with hands-on experience in airline Revenue Management, proven leadership and communication skills, passion for process improvement and change management leveraging the power of new technologies, to help Airnguru customers accelerate the adoption of Airnguru solutions and maximize user satisfaction.

The job starts with a thorough on-boarding and training on Airnguru solutions (remote), followed by an on-site assignment of 3 to 6 months at the headquarters of one of our customers in the Middle East (housing and transportation will be provided). This first assignment involves leading a plan and proposing, coordinating, and executing actions aimed at maximizing the system adoption and user satisfaction, directly helping airline pricing analysts and managers solve business challenges with the use of Airnguru solutions, intensively pursuing data analysis and the use of SQL for strategy configuration in the system, remote interaction with Airnguru Product and Tech teams, and other related tasks. After successful completion of this assignment the candidate will be allocated to other strategic consulting projects in Revenue Management, with remote or on-site assignments.

Initial role assignment includes the following tasks and responsibilities:

  • Propose, coordinate, supervise, and execute tasks aimed to maximize adoption of Airnguru solutions and user sentiment
  • Lead regular meetings with airline's designated executives to review priorities and general progress
  • Provide first line customer support
  • Fix issues with the configuration of automations
  • Coordinate the solution of backend issues with Airnguru Product & Tech teams
  • Help prioritize, supervise and control the progress of the customer development roadmap and the use of development points, in coordination with the airline's stakeholders
  • End user survey results, user sentiment, and system adoption KPIs

Requirements

Mandatory

  • -Engineer, Economist or equivalent
  • -3 or more years of hands-on experience in airline Pricing and/or Revenue Management
  • -team and / or project management experience
  • -Strategic thinking skills
  • -Strong communication, leadership, and teamwork skills
  • -Fluency in English
  • -Knowledge of SQL
  • -Strong analytical skills
  • -Strong problem solving skills
  • -Robust data and number crunching skills
  • -Flexibility to travel and work on-site in customers' offices for extended periods when mandated, or remotely from home (usually).

Optional Requirements

  • These are optional requirements which may add to your application's score if you comply with the mandatory requirements:
  • -MBA or M.Sc.
  • -International certificate in project management
  • -Spoken Spanish
  • -Programming experience

Benefits

  • Flexible schedule, work for objectives and results
  • Work base is flexible
  • Individual yearly budget for productivity gadgets
  • Per diem for work travel
  • Bonus for recruiting new consulting customers and for project upsells
  • Bonus for complementary insurance (health, dental, life)
  • One paid free week after on-deadline project completions
  • Open participation in weekly company updates

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Airnguru pays or copays health insurance for employees.
Computer provided Airnguru provides a computer for your work.
Vacation over legal Airnguru gives you paid vacations over the legal minimum.
Beverages and snacks Airnguru offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Expense Analyst
  • Apply Digital Latam
  • Santiago (Hybrid)
Data Analysis Excel Accounting Reporting

ABOUT APPLY DIGITAL

Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.

If you'd like to learn more about Apply Digital's culture click HERE.

LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

This job is published by getonbrd.com.

Responsibilities:

  • Analyze and monitor company expenses, ensuring accuracy, compliance with policies, and alignment with budgetary guidelines.
  • Leverage Excel and other Microsoft tools to analyze data, generate reports, and provide actionable insights to support decision-making.
  • Work closely with internal teams to streamline procurement processes and enhance overall expense management efficiency.
  • Assist with financial reconciliations, offering insights and recommendations to refine and improve existing financial workflows.
  • Maintain comprehensive records and ensure all financial transactions are documented accurately and in accordance with company procedures.
  • Foster strong communication across all Apply Digital team members, gathering necessary endorsements and relevant expense details to ensure smooth and accurate reporting.
  • Review and validate expenses to ensure they are accurately recorded and reported, aligning with both internal and external financial standards.
  • Monitor and manage accounts payable and receivable, playing a crucial role in maintaining the company’s financial health and liquidity.
  • Take on additional tasks as needed, contributing to the overall success of the team and company.

Requirements:

  • At least 3 years of experience in a similar role, showcasing your expertise in accounting or finance.
  • A Bachelor’s degree in Accounting, Finance, or a related field, providing a solid foundation for success.
  • Proficiency in Google Sheets or Microsoft Excel, with a knack for data analysis and turning numbers into insights.
  • Strong understanding of basic accounting principles and financial analysis, enabling you to manage expenses and support decision-making effectively.
  • A proactive, self-starter attitude with a focus on tackling challenges and maintaining a positive, solutions-oriented approach.
  • Detail-oriented and results-driven, with an emphasis on accuracy, quality, and delivering outcomes.
  • Excellent English communication skills, with the ability to collaborate effectively with cross-functional teams and present ideas clearly.
  • Experience within the information technology services sector, adding valuable industry-specific knowledge to your financial expertise.
  • Based in Santiago, Chile or a nearby location, ensuring smooth collaboration with the local team.

Nice to Haves:

  • Your experience with Brex or Float for expense management will ensure you’re well-versed in modern financial tools.

APPLY VIA WEB
$$$ Full time
Ingeniero de Control y Cierre Operacional
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Data Analysis Excel PL/SQL SQL Server
¿Quieres ser parte de los líderes en la revolución de los seguros?

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.
✅Nos encontramos entre los top 20 "Mejores lugares para trabajar en Chile" (contamos con certificación de GPTW).

This job offer is on Get on Board.

Funciones del cargo

Hoy estamos en busca de un Ingeniero de Control y Cierre Operacional que se sume al equipo de Operaciones, donde tú misión será coordinar y asegurar la generación, validación y conciliación de procesos dentro del marco de cierre de la compañía. Además, deberás cumplir con el rol asignado por jefatura en el equipo de trabajo para la ejecución de la misión y cumplimiento de los diversos objetivos y metas definidas para el área, asegurando el respeto absoluto a los valores y estándares de la Compañía y velando por la integridad y calidad junto con la entrega oportuna y fidedigna de datos y reportes, así como sus procesos de extracción y carga.

¿Cuáles son los principales desafíos del cargo?

  • Generación, validación y conciliación en cierre, asegurando la correcta ejecución de estos procesos, dentro del marco de cierre de la compañía.
  • Control del flujo operacional; gestionando áreas como seguros, siniestros, manteniendo comunicación con clientes internos y contrapartes.
  • Canalizar requerimientos y procesar solicitudes de las áreas Técnica y Contable.
  • Implementar controles preventivos y reactivos para las operaciones diarias y la corrección de incidentes.
  • Asegurar la calidad de la información transaccional durante el proceso.
  • Establecer mecanismos de control y documentación para proyectos, basados en los flujos internos.
  • Recolectar datos y generar reportes para la CMF relacionados al cierre de la compañía.
  • Reportes post-cierre; elaborar reportes de producción cumpliendo con los calendarios de entrega.
  • Cumplir con controles para el manejo seguro de la información sensible y reportar incidentes de seguridad.

Requerimientos del cargo

¿Cómo saber si hago match con esta vacante? Buscamos a alguien que:

Requisitos:

  • Estudios de Ingenieria Civil Industrial, Ejecución Industrial o Carrera afin.
  • Recién titulado o experiencia de 0 a 1 año en análisis de información y bases de datos, creación y seguimiento de indicadores, propuesta de mejoras para procesos

Conocimientos:

  • MS Excel y VBA – Macros - Nivel intermedio.
  • SQL Server – Nivel básico,
  • Visual Studio – Deseable (no excluyente).
  • PL/SQL ORACLE – Nivel básico.
  • Alta capacidad de analisis, metodologia y rigurosidad.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas".

Conditions

Partially remote You can work from your home some days a week.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal BNP Paribas Cardif gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1200 - 1500 Full time
Jefe de Proyecto – área de Operaciones
  • ZiYU
  • Santiago (Hybrid)
Data Analysis Excel SQL Project Manager

En ZiYU, nos dedicamos con pasión al mundo de la logística, ofreciendo soluciones que optimizan los procesos y garantizan la entrega efectiva de carga. Con un enfoque en mejorar la calidad de vida y seguridad de las personas, trabajamos para que nuestros servicios logísticos se conviertan en una ventaja competitiva para nuestros clientes, permitiéndoles alcanzar nuevas metas en Chile. Expandimos nuestro equipo y buscamos un Jefe de Proyecto que desempeñará un papel crucial en la planificación y gestión de proyectos que aseguren el éxito de nuestras operaciones.

Find this job on getonbrd.com.

Funciones del cargo

  • Contacto constante con los clientes, tanto en visitas a terreno como de manera remota.
  • Gestionar proyectos operacionales asegurando su alineación con los objetivos estratégicos de la empresa.
  • Coordinar con los diferentes equipos internos y externos para garantizar el cumplimiento de plazos y entregables.
  • Supervisar y optimizar los procesos logísticos para mejorar la eficiencia y reducir costos.
  • Cumplimiento de metas de la empresa y de los clientes asignados.
  • Analizar datos operacionales y generar reportes que permitan una mejor toma de decisiones.
  • Apoyar en la mejora de procesos y en la optimización del uso de herramientas digitales.

Requerimientos del cargo

  • Título profesional en Ingeniería Civil Industrial o carrera afín.
  • No se requiere experiencia previa, pero se valorará conocimiento en gestión de proyectos y operaciones logísticas.
  • Conocimientos en SQL, Power BI, manejo de bases de datos, Excel y PowerPoint.
  • Habilidades analíticas y capacidad para trabajar en equipo.
  • Compromiso, proactividad y disposición para enfrentar desafíos en un entorno dinámico.

Opcional

Conocimiento de Jira

Beneficios de trabajar con nosotros

En ZiYU, nos preocupa tu bienestar y crecimiento profesional. Por eso te ofrecemos:

  • 💻 Computador para que puedas trabajar.
  • 🗓️ Trabajo en modalidad híbrida. Días presencial en la oficina ubicada en Santiago, días online
  • 📈 Oportunidades de crecimiento y desarrollo profesional.
  • 🎂 Día libre en tu cumpleaños y GiftCard.
  • 🎉 GiftCard para Fiestas Patrias y Navidad.
  • Becas de estudio. ¡Te invitamos a formar parte de este gran equipo! 🚀

APPLY VIA WEB
Gross salary $700 - 800 Full time
Control de Gestión
  • LFi
  • Santiago (Hybrid)
Excel SQL Power BI CRM
En LFI buscamos talento para ofrecer las mejores soluciones de tecnología y marketing de la región. Desarrollamos proyectos que construyen la presencia digital de nuestros clientes y que hacen la vida más fácil y mejor a sus usuarios. Queremos innovar, buscar nuevas tecnologías, ser un equipo diverso y combinar nuestros talentos.

Apply exclusively at getonbrd.com.

Funciones del cargo

• Analizar y controlar costos operacionales directos.
• Elaborar reportes de gestión, dashboards e informes para la toma de decisiones.
• Realizar conciliaciones relacionadas con costos.
• Controlar la ejecución del presupuesto y detectar desviaciones.
• Proponer mejoras de procesos de análisis de datos para optimizar la eficiencia operativa.
• Manejar y administrar bases de datos, automatizando reportes y análisis de información.
• Colaborar con distintas áreas para generar información clave para la gestión de la empresa.

Requerimientos del cargo

Formación Académica: Ingeniero o Técnico en Control de Gestión, Administración, Comercial, Ingeniero en Finanzas, Contador Auditor o carrera afín.
Experiencia:Contar con al menos 1 año de experiencia en el área de control de gestión, análisis de costos o áreas financieras.
Conocimiento en:
- Control presupuestario.
- Manejo de Excel nivel avanzado y herramientas de análisis de datos (Power BI, SQL).
- Conocimientos en ERP.
- Conocimientos en CRM.

Condiciones y Beneficios

  • Desarrollo profesional ilimitado... ¡el cielo es el límite!
  • Entrenamiento permanente - Udemy
  • Metodologías de trabajo colaborativas en un buen ambiente
  • Respeto total
  • Día de cumpleaños off
  • Horario de trabajo: De lunes a viernes de 9 a 18:30hs modalidad híbrida. Las oficinas están ubicadas en Las Condes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided LFi provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Revenue Operations Specialist
  • OpenLoop
  • Lima (Hybrid)
Analytics Marketing SQL Business Intelligence
OpenLoop is a fast-growing health tech company with a mission to transform the healthcare industry through innovative technology solutions. We service all 42,000 zip codes nationwide, connecting certified clinicians with digital health companies to expand access to quality care.
As part of our dynamic team, you'll collaborate with the Marketing, Sales, and Customer Success departments to drive efficiency and optimize our marketing operations. Our comprehensive services streamline the HR and Operations challenges in telehealth, making a significant impact in patient care across all 50 states.

Apply only from getonbrd.com.

Key Responsibilities

  • Own the operations for our fast growing partnerships program.
  • Manage and execute partner referral programs with a focus on using automation to set us up for rapid scale.
  • Work with our design team to get partner marketing materials created and shipped quickly.
  • Dive deep into our partnership data and surface optimization and growth opportunities.
  • Project manage the operational requirements for new partner marketing opportunities.
  • Analyze website and app data through SimilarWeb to find new partnership opportunities for our sales team to work.
  • Revenue Operations Optimization: Work closely with marketing, sales, and revenue teams to understand and build business processes to ensure consistent data and operations.
  • Dashboard & Reporting: Create and maintain dashboards for marketing and revenue metrics, delivering actionable insights to leadership and teams.
  • Stakeholder Communication: Present complex data in clear formats for stakeholders,

Requirements

We are seeking a dynamic Rev Operations Specialist with:

  • 5+ years of experience in marketing or revenue operations in a tech or SaaS environment.
  • 2+ years of experience with referral programs
  • Excellent organization and project management skills
  • Proven expertise in managing CRM tools such as Zoho, Salesforce, or HubSpot, along with strong integration and reporting knowledge.
  • A strong track record in designing insightful dashboards for revenue and marketing performance.
  • Strong proficiency in analytics and visualization tools with proven experience building dashboards from scratch in platforms such as Zoho Analytics, Tableau, Snowflake, or Funnel.io
  • Excellent analytical, strategic thinking, and communication skills (Fluency in English - C1).
  • Ability to work independently and prioritize tasks in a fast-paced environment.

Desirable Skills

While not required, the following competencies are desirable:
  • HubSpot experience strongly preferred
  • Experience with go-to-market operations platforms such as Clay a plus
  • Advanced skills in SQL or Zoho Deluge scripting to customize and automate CRM processes a plus
  • Experience working in a startup or fast-growing organization.
  • Familiarity with social media management tools and their impact on lead generation.
  • Knowledge of the healthcare industry and related marketing strategies.
Your background in these areas could give you an edge as you help us enhance our marketing operations.

Our Benefits

At OpenLoop, we prioritize employee well-being with a competitive benefits package, including:
  • Contracting under a Peruvian company ID ('Planilla') with all legal benefits in Peruvian soles.
  • Flexible full-time work schedule from Monday to Friday (9 am - 6 pm)
  • Unlimited vacation days to promote a healthy work-life balance.
  • 100% coverage of EPS healthcare with RIMAC, because you deserve great healthcare.
  • AFP retirement plan for future savings.
  • Provision of a computer and access to a vibrant coworking space in Lima – Miraflores with fantastic amenities.
Join us in shaping the future of telehealth and make a meaningful difference. We’d love to meet you! 🚀

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2000 - 2100 Full time
Analista Assurance de Procesos Contables
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Data Analysis SQL
En *BC Tecnología*, somos especialistas en la creación de soluciones que se alinean a las necesidades de nuestros clientes. Durante más de 6 años hemos trabajado con sectores como servicios financieros, seguros, retail y gobierno, entregando consultoría y diseñando soluciones innovadoras.
En el contexto de un proyecto de 6 meses, buscamos un Analista Assurance de Procesos Contables que sea parte vital de nuestro equipo, aportando su experiencia en análisis de procesos contables y herramientas tecnológicas.

© Get on Board.

Responsabilidades del Rol:

Como Analista Assurance de Procesos Contables, tus principales responsabilidades incluirán:
  • Realizar análisis detallados de procesos contables, garantizando la precisión y cumplimiento de las normativas vigentes.
  • Desarrollar informes y visualizaciones utilizando Power BI para facilitar la comprensión de datos financieros.
  • Colaborar con el equipo en la integración de Google Cloud Platform y asegurar que la migración de datos se realice sin inconvenientes.
  • Trabajar con bases de datos usando Python o SQL, mejorando las eficiencias operativas en los procesos contables.
  • Apoyar en la implementación de herramientas SAP y ofrecer formación donde sea necesario.

Perfil del Candidato:

Buscamos a un profesional con un mínimo de 2 años de experiencia en áreas relacionadas, quien cuente con:
  • Manejo avanzado de Power BI, para la creación de dashboards eficientes.
  • Conocimiento en plataformas de Google Cloud, y su aplicación en un entorno contable.
  • Familiaridad con principios de contabilidad bancaria y cómo se aplican en la práctica.
  • Habilidades en manejo de bases de datos, específicamente con Python o SQL.
  • Experiencia previa en el uso de herramientas SAP.
Valoramos las habilidades interpersonales, el trabajo en equipo, así como la capacidad para adaptarse a metodologías ágiles. La pasión por la tecnología y la resolución de problemas será esencial en este rol.

Habilidades Deseables:

A diferencia de los requisitos, hay ciertas habilidades que serán consideradas un plus, tales como:
  • Certificaciones en análisis de datos o herramientas de visualización (Power BI, Tableau).
  • Experiencia previa en sectores de finanzas o auditoría.
  • Conocimiento de otras herramientas en la nube, como Amazon Web Services (AWS).

Lo Que Ofrecemos:

En *BC Tecnología* nos preocupamos por nuestro equipo. Algunos de los beneficios que ofrecemos son:
  • Contrato inicial por proyecto, con opción a estabilidad indefinida después del tercer mes.
  • Tarjeta Amipass, que proporciona un beneficio adicional de $4,500 por día trabajado.
  • Seguro Complementario de Salud y Seguro de Vida para garantizar tu bienestar.
  • Aguinaldos especiales durante Fiestas Patrias y Navidad.
  • Acceso a capacitaciones y certificaciones en plataformas como AWS y Azure.
  • Convenios con Gimnasio Pacific y Clínica Dental MasDent.
  • Participación en la Caja de Compensación Los Andes.
Si te apasiona la tecnología y buscas estabilidad laboral con grandes beneficios, esta es tu oportunidad! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Ingeniero/a de Control y Cierre Operacional
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Data Analysis Excel SQL Oracle

¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

Opportunity published on Get on Board.

Funciones del cargo

BNP Paribas Cardif busca a un Ingeniero de Control y Cierre Operacional que se sume al equipo de Operaciones, donde tú misión será coordinar y asegurar la generación, validación y conciliación de procesos dentro del marco de cierre de la compañía. Además, deberás cumplir con el rol asignado por jefatura en el equipo de trabajo para la ejecución de la misión y cumplimiento de los diversos objetivos y metas definidas para el área, asegurando el respeto absoluto a los valores y estándares de la Compañía y velando por la integridad y calidad junto con la entrega oportuna y fidedigna de datos y reportes, así como sus procesos de extracción y carga.

¿Cuáles son los principales desafíos del cargo?

  • Generación, validación y conciliación en cierre, asegurando la correcta ejecución de estos procesos, dentro del marco de cierre de la compañía.
  • Control del flujo operacional; gestionando áreas como seguros, siniestros, manteniendo comunicación con clientes internos y contrapartes.
  • Canalizar requerimientos y procesar solicitudes de las áreas Técnica y Contable.
  • Implementar controles preventivos y reactivos para las operaciones diarias y la corrección de incidentes.
  • Asegurar la calidad de la información transaccional durante el proceso.
  • Establecer mecanismos de control y documentación para proyectos, basados en los flujos internos.
  • Recolectar datos y generar reportes para la CMF relacionados al cierre de la compañía.
  • Reportes post-cierre; elaborar reportes de producción cumpliendo con los calendarios de entrega.
  • Cumplir con controles para el manejo seguro de la información sensible y reportar incidentes de seguridad.

Requerimientos del cargo

  • Estudios de Ingenieria Civil Industrial, Ejecución Industrial o Carrera afin.
  • Recién titulado o experiencia de entre 1 a 2 años en análisis de información y bases de datos, creación y seguimiento de indicadores, propuesta de mejoras para procesos

Conocimientos:

  • MS Excel y VBA – Macros - Nivel intermedio.
  • SQL Server – Nivel básico,
  • Visual Studio – Deseable (no excluyente).
  • PL/SQL ORACLE – Nivel básico.
  • Alta capacidad de analisis, metodologia y rigurosidad.

¿Te sumas a la revolución de la industrial del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Conditions

Partially remote You can work from your home some days a week.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Analista Funcional Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis SQL Agile Methodologies Technical Documentation
En BC Tecnología somos una consultora de servicios IT con más de 6 años diseñando soluciones a medida para nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nos especializamos en consultoría, desarrollo de proyectos, outsourcing y soporte IT, formando equipos ágiles para áreas de infraestructura tecnológica, desarrollo de software y unidades de negocio. Actualmente buscamos integrar un Analista Funcional Semi Senior para trabajar en un proyecto clave enfocado en el desarrollo de un Sistema de Cobranzas ICS, con énfasis en procesos batch y análisis de datos críticos que garantizan la eficiencia y continuidad operativa en ambientes con alta demanda y complejidad.

Apply to this posting directly on Get on Board.

¿Qué harás?

  • Participar activamente en el análisis funcional y desarrollo de sistemas relacionados con el proyecto de Sistema de Cobranzas ICS.
  • Diseñar, implementar y optimizar procesos batch esenciales para el procesamiento eficiente de grandes volúmenes de datos.
  • Colaborar estrechamente con equipos técnicos multidisciplinarios para asegurar la correcta integración y funcionamiento de los sistemas.
  • Proponer mejoras innovadoras y optimizaciones sobre los procesos existentes, enfocándose en la robustez y desempeño.
  • Documentar detalladamente los procesos y validar su correcto desempeño dentro del entorno de producción.

¿Qué buscamos?

Buscamos un perfil semi senior, comprometido, analítico y con fuerte experiencia técnica para desempeñarse en un entorno desafiante y exigente. El candidato ideal debe demostrar manejo avanzado de SQL para la gestión y consulta de bases de datos, además de conocimientos sólidos en Shell scripting para automatización de tareas y procesos de sistemas.
La experiencia con herramientas de orquestación de procesos batch, especialmente Control-M, será fundamental para administrar y monitorear las ejecuciones programadas en ambientes críticos. Se requiere además capacidad para realizar análisis funcional profundo y análisis de datos, entendiendo los flujos y requerimientos del negocio para entregar soluciones alineadas con las necesidades operativas.
El rol demanda habilidades para trabajar bajo presión en procesos batch; se valoran cualidades como atención al detalle, pensamiento crítico, proactividad en la identificación de oportunidades de mejora y comunicación efectiva con equipos técnicos y de negocio.

Requisitos adicionales valorados

Se valorará experiencia previa en proyectos similares en sectores financieros o de cobranzas, donde la gestión de procesos batch es crítica. Conocimientos de metodologías ágiles y experiencia en documentación técnica formal. Habilidades interpersonales para colaborar con equipos multidisciplinarios y adaptación flexible a cambios en el alcance del proyecto.

¿Qué ofrecemos?

Ofrecemos un contrato inicial por un proyecto de 2 meses, con posibilidad de continuidad dependiendo del desempeño y necesidades del proyecto. La jornada laboral es híbrida, aprendizaje constante, apoyados por metodologías ágiles y un equipo diverso orientado a resultados y calidad en la entrega. Si te entusiasma enfrentar retos tecnológicos en ambientes críticos, este proyecto es para ti.

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Product Consultant
  • Apply Digital Latam
Analytics Data Analysis E-commerce Agile Methodologies

ABOUT APPLY DIGITAL

Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.

If you'd like to learn more about Apply Digital's culture click HERE.

LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Find this vacancy on Get on Board.

Responsibilities

  • Build and champion product strategies and vision throughout client engagements, as well as brief and inspire internal team members to deliver on that vision.
  • Retrieve and analyze feedback from customers, stakeholders, other teams, and various research methods, workshop facilitation methodologies to shape requirements, features and end products.
  • Take ownership over creating product plans and roadmaps with the buy-in of executive stakeholders.
  • Prepare and review product requirements documents (PRD) - be meticulous in ensuring requirements of all types (client, business, user experience, design, technical, non-functional) are understood, documented, kept up-to-date, conflicts resolved, and finally communicated in a timely fashion to team members and client stakeholders.
  • Organize product releases and priorities properly, ensuring compliance with business value expectations.
  • Prepare recommendations to track product use and impact end users - define measurement plans for the digital products that we design and build. Build your skills using a repertoire of analytics tools.
  • Ensure requirements have been delivered to specifications, defects have been managed through to resolution, and assess readiness for launch.
  • Continuously prepare recommendations to expand product base and vision - based on data and research-driven insight.
  • Add value to the team - you are not just an order-taker. You understand what it means to drive ROI through business and customer value, you understand the constraints from all directions, and you use your consultative skills to make recommendations to move vision forward.

Qualifications and requirements

  • You are capable of detecting the main projects, initiatives, and epics that must be executed to achieve the expected business results.
  • You are an effective communicator and facilitator, and are able to successfully manage expectations.
  • You are experienced with backlog management, sprint planning, and roadmapping exercises, and you are able to generate spaces and workshops to define approaches and align solutions.
  • You are a creative leader, a team player, and a problem solver.
  • You are professional, confident, and able to understand which ideas will and which won’t work.
  • You have proven yourself in a consulting role, through Agency, Consultancy, or other Professional Services Firm. You have strong proficiency in stakeholder management.
  • You bring experience with eCommerce and mobile products, including contributing to product strategy, roadmap development, and feature execution.
  • Demonstrated experience using Contentful as a headless CMS for building and managing websites is a bonus.
  • You’re good at techie speak and non-techie speak. You’ve collaborated in multidisciplinary teams, are able to convey technical concepts to non-technical people as well as turn business, UX, design requirements into technical specifications.
  • It’s easy for you to break down complex problems into logical, digestible steps
  • Ambiguity doesn’t scare you, and you thrive on turning ambiguity and conflicting information into clarity in a fast-changing environment.
  • You have a portfolio of digital products that you have shipped, managed and operated, and are proud to share how it delivered value to end users.
  • You have done it before, with a minimum of 6 years of experience in a Product Management or similar position.

Life at Apply Digital

Great projects: Broaden your skills on a range of engaging projects with international brands that have a global impact.

An inclusive and safe environment: We’re truly committed to building a culture where you are celebrated and everyone feels welcome and safe.

Learning opportunities: We offer generous training budgets, including partner tech certifications, custom learning plans, workshops, mentorship, and peer support.

Generous vacation policy: Work-life balance is key to our team’s success, so we offer ample time away from work to promote overall well-being.

Customizable benefits: Tailor your extended health and dental plan to your needs, priorities, and preferences.

Flexible work arrangements: We work in a variety of ways, from remote, to in-office, to a blend of both.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Product Consultant
  • Apply Digital Latam
Agile Data Analysis User Research Communication

ABOUT APPLY DIGITAL

Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.

If you'd like to learn more about Apply Digital's culture click HERE.

LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply to this job at getonbrd.com.

Responsibilities

  • Assemble detailed requirements for product, platform, and commerce initiatives, navigating stakeholder and technology ecosystems.
  • Build and champion product strategies and vision throughout client engagements, as well as brief and inspire internal team members to deliver on that vision.
  • Retrieve and analyze feedback from end users, customers, stakeholders, other teams, and various research methods to shape requirements, features, and end products.
  • You are able to build trust and inspire confidence with clients by understanding their needs and using product management frameworks to align them on your thinking, rationale, and proposed decisions/recommendations.
  • Contribute to creating product plans and roadmaps with the goal of getting the buy-in of executive stakeholders.
  • Prepare, review, and achieve alignment on product requirements documents (PRD), product alignment documents (PAD), and product briefs.
  • Build products in an Agile fashion and collaborate with cross-functional teams to enable an entire Agile environment towards your product.
  • Organize product releases and prioritize properly, ensuring compliance with business value expectations.
  • Prepare recommendations to track product use and impact on end users.
  • Ensure requirements have been delivered to specifications, defects have been managed through to resolution, and assess readiness for launch.
  • Prepare recommendations to expand product base and vision based on data and research-driven insight.
  • Add value to the team - you are not just an order-taker. You understand what it means to drive ROI through business and customer value, you understand the constraints from all directions, and you use your consultative skills to make recommendations to move vision forward.

Requirements

  • You are perceptive, a creative leader, and a problem solver.
  • You are professional, confident, and able to discern which ideas will work.
  • You have a minimum of 3 years of experience in a Product Management role where you developed digital products that you have shipped, managed, and operated.
  • Past experience in a consultation role or similar roles, through an Agency, Consultancy, or other Professional Services Firm is a strong asset.
  • You have performed product ownership and product discovery and are able to leverage relevant product management frameworks and mental models to validate problem spaces and potential solutions.
  • You aim to develop exceptional client service skills and excel in communication when working with your team, client stakeholders, and leadership.
  • You are comfortable navigating client situations and recommending paths to resolving uncertainty and can work effectively across disciplines in a client-facing capacity.
  • You have the ability to deconstruct epics into individual users stories and can lead a product squad to navigate uncertainty.
  • You thrive on turning ambiguity and conflicting information into clarity in a fast-changing environment.
  • You understand both technical and non-technical languages and can convey technical concepts to non-technical people as well as turn business, UX, design requirements into technical specifications.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Product Owner
  • ICONSTRUYE
  • Bogotá (Hybrid)
Agile Excel SQL DevOps

En iConstruye, nos posicionamos como la empresa líder en soluciones y servicios tecnológicos innovadores, trabajando con un enfoque en el suministro y la gestión de la construcción, así como en industrias con alta complejidad logística. Nuestro equipo está comprometido a diseñar e implementar soluciones efectivas y escalables, ayudando a nuestros clientes a alcanzar sus objetivos de manera eficiente y con éxito.

Tu misión: Responsable de la construcción del producto, generando valor al desarrollo y velando por la satisfacción de los clientes. Diseña, modela, construye, le da valor, entrega y mejora permanentemente los productos, basándose en las necesidades de nuestros clientes, conectándose con los objetivos de nuestra compañía y siendo partner de las demás áreas de la empresa.

© Get on Board. All rights reserved.

Tus funciones:

  • Participar en el proceso creativo del producto, colaborando con el PM y el CX para diseñar la experiencia de usuario y definir los requisitos comerciales, generando el backlog.
  • Diseñar épicas y redactar historias de usuario.
  • Liderar la célula de trabajo, supervisando el cumplimiento de los puntos de historia asignados.
  • Definir y asegurar el cumplimiento de las fechas de entrega de los productos.
  • Priorizar características a implementar que generen valor al desarrollo.
  • Resolver dudas del equipo con respecto al desarrollo, buscando información de los Stakeholders.
  • Ajustar características y prioridades en cada iteración del producto.
  • Garantizar la calidad del producto entregado.
  • Conocer y comprender los indicadores de éxito del cliente, como NPS y CSAT.

Requerimientos:

  • Experiencia comprobada en metodología Agile; se valora tener certificación de PO (no excluyente).
  • Conocimientos en Excel, tablas dinámicas e idealmente SQL.
  • Dominio de MS Office y Google Docs.
  • Experiencia en herramientas como Whimsical, Notion y plataformas similares a Azure DevOps.
  • Dominio del idioma inglés.
  • Experiencia demostrable en equipos Scrum, así como en la entrega de resultados a través de gráficos de Burn Down y productividad.
  • Experiencia en la industria de la construcción será considerada un plus.
  • Conocimientos sobre sistemas de medición de NPS y CSAT.

Deseable:

Si cuentas con experiencia en la industria de la construcción, sería un gran aporte para nuestro equipo. Además, el conocimiento en sistemas de medición de la satisfacción, como NPS y CSAT, enriquecería tu perfil y contribuiría significativamente al éxito en el rol.

APPLY VIA WEB
$$$ Full time
Mambu Champion
  • TCIT
Agile REST API SQL Scrum

Una de nuestras misiones en TCIT es descubrir y potenciar a los mejores talentos, por lo que te invitamos a ser parte de nuestro team!

Nuestro propósito es transformar digitalmente a distintas organizaciones a través de soluciones de calidad, sostenibles e innovadoras. Trabajamos con metodologías ágiles, utilizamos tecnologías de última generación y somos expertos en desarrollo de software en tecnologías Cloud.

Algunos de nuestros desarrollos son un sistema de gestión agrícola, un sistema de remates en línea, un sistema de gestión de las causas para los tribunales judiciales, un sistema para monitoreo de certificaciones para trabajadores mineros, un sistema de liquidaciones de sueldo y otras soluciones de gestión de empresas en ámbitos como transporte de carga y bodegaje, entre muchos otros.

Además, trabajamos en países como Canadá en ambiciosos proyectos con nuestros partners tecnológicos.

¡Súmate a la revolución digital TCIT!

This posting is original from the Get on Board platform.

¿Qué harás?

  • Liderar la implementación y configuración de Mambu según los requerimientos del negocio.
  • Diseñar soluciones específicas utilizando las capacidades de Mambu, asegurando la escalabilidad y sostenibilidad.
  • Colaborar con las áreas de negocio y tecnología para identificar necesidades y traducirlas en soluciones técnicas.
  • Participar en el levantamiento de requerimientos y diseñar flujos de trabajo adaptados a Mambu.
  • Planificar y coordinar proyectos relacionados con Mambu, asegurando el cumplimiento de plazos, alcance y presupuesto.
  • Monitorear avances y generar reportes para stakeholders.
  • Capacitar a los equipos internos y usuarios clave en el uso de Mambu.
  • Actuar como punto de contacto para consultas y resolución de problemas relacionados con la plataforma.
  • Supervisar la integración de Mambu con otros sistemas y plataformas utilizadas por la organización.
  • Coordinar con equipos de TI para asegurar una conectividad fluida y segura.

¿Cómo nos gustaría que fueras?

  • Título profesional en Ingeniería en Informática, Sistemas, Computación o carrera afín.
  • Experiencia mínima de 3-5 años en la implementación y gestión de Mambu
  • Experiencia en metodologías ágiles de gestión de proyectos (Scrum, Kanban).
  • Conocimientos demostrables en integraciones mediante APIs RESTful.
  • Sólida comprensión de la arquitectura de Mambu y su configuración.
  • Experiencia en herramientas de integración y middleware.
  • Conocimientos de bases de datos SQL y herramientas de monitoreo.
  • Excelentes habilidades de comunicación y liderazgo.
  • Capacidad para gestionar múltiples proyectos simultáneamente.
  • Orientación a resultados y resolución de problemas.
  • Adaptabilidad y capacidad para trabajar en entornos dinámicos.

Te amaríamos más si tuvieras/fueras:

  • Certificaciones relacionadas con Mambu u otras plataformas de core bancario.

Beneficios TCIT

🚇 Trabajarás 100% remoto: puedes trabajar 100% online, pero si quieres conocer a tu team, eres bienvenido en nuestras oficinas ubicadas a pasos del metro
🕒 Flexibilidad que se adapta a ti: Contamos con permisos flexibles para que tengas el equilibrio que necesitas.
🌴 ¡Más días de descanso! Disfruta de más días de vacaciones y recarga energías.
🎁 Beneficios increíbles: Accede a cientos de convenios y oportunidades con Caja de Compensación Los Andes y ACHS.
🎓 ¡Certifícate gratis! Somos Google Partners, y te damos acceso gratuito a certificaciones para que sigas creciendo.
🔧 Equipos y soporte técnico: ¡No te preocupes por las herramientas! Te entregamos un computador y cubrimos cualquier falla técnica.
Recarga energías: Contamos con una estación de cafetería para que siempre estés a gusto.
🎉 ¡Ven a compartir! Los asados y reuniones son parte de nuestra cultura; cualquier excusa es buena para celebrar.

Outdoors The premises have outdoor spaces such as parks or terraces.
Fully remote You can work from anywhere in the world.
Internal talks TCIT offers space for internal talks or presentations during working hours.
Meals provided TCIT provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Computer repairs TCIT covers some computer repair expenses.
Commuting stipend TCIT offers a stipend to cover some commuting costs.
Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal TCIT gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Ingeniero/a de Proyectos TI
  • CMPC
  • Santiago (Hybrid)
Agile Excel SQL SAP

MISIÓN DEL CARGO

La misión del cargo es liderar estratégicamente los proyectos de infraestructura TI, tanto en entornos OnPremise como en la nube, abarcando además aspectos clave de ciberseguridad y networking. Su responsabilidad incluye la planificación, ejecución y supervisión de iniciativas dentro de la unidad de Hosting & Cloud, asegurando el cumplimiento de los plazos, la calidad del servicio y la optimización de costos.

Find this job on getonbrd.com.

Funciones del cargo

  • Definir, revisar, estructurar, presentar, colaborar y planificar proyectos Onpremise y cloud en la unidad de Hosting & Cloud.
  • Asegurar la ejecución del plan de proyectos de la unidad Hosting & Cloud.
  • Actuar de interfaz entre las áreas internas de CMPC, proveedores y clientes internos durante la ejecución de proyectos.
  • Preparar y liderar las pruebas de aceptación de los proyectos y entrega a operaciones.
  • Mantenerse actualizado respecto a las tecnologías de su ámbito de acción.

Requerimientos del cargo

Formación:

  • Ingeniería en informática, industrial, en computación o carreras afines
  • Deseable diplomado en Infraestructura Cloud y/o Gerencia de Proyectos.

Experiencia:

  • 3 años o más el roles similares.

Conocimiento específico:

  • Metodologías ágiles (Scrum, Kanban, otras) y Cascada (PMI) para la gestión de proyectos; requerida: Experiencia, cursos y/o certificaciones. EXCLUYENTE
  • Conocimientos de servicios Cloud: GCP y Azure; experiencia, deseables cursos y/o certificaciones. EXCLUYENTE
  • Conocimientos de Sistemas Operativos: Windows, Unix (Linux,AiX, otros); experiencia, deseable cursos y/o certificaciones. EXCLUYENTE
  • Conocimiento de plataforma SAP; experiencia, deseables cursos y/o certificaciones. DESEABLE
  • Conocimiento de soluciones de virtualización (VMware, Hyper-V, GCE, GCVE, otros) tanto OnPremise como en nube; experiencia, deseable cursos y/o certificaciones. DESEABLE
  • Conocimientos en Motores de Base de Datos tradicionales y Cloud (SQL Server, Oracle, HANA, Cloud SQL, BigQuery, otros); experiencia, deseables cursos y/o certificaciones. DESEABLE
  • Conocimientos en comunicaciones: Switching, routers, Wifi, Firewall, etc. DESEABLE
  • Deseable manejo de productos para automatizar tareas: Ansible, app script, entre otros. DESEABLE

Experiencia:

  • Experiencia en la gestión de proyectos usando metodologías ágiles (Scrum, Kanban, otras) y Cascada (PMI). EXCLUYENTE
  • Experiencia en la gestión de costos, alcance, riesgos y tiempo en proyectos tecnológicos. EXCLUYENTE
  • Experiencia en la gestión de proyectos para la implantación de servicios de operación de infraestructura tecnológica On-Premise y Nube. EXCLUYENTE
  • Experiencia en la gestión de proyectos de infraestructura tecnológica SAP y No SAP, renovación y migración de plataformas On-Premise y Nube; Requerida: Experiencia, cursos y/o certificaciones. DESEABLE
  • Experiencia en la gestión de proyectos de Ciberseguridad, conocimiento de Servicios de Ciberseguridad de Infraestructura y networking, normativas y herramientas; Experiencia, cursos y/o certificaciones.Experiencia en la gestión de proyectos de Networking, conocimiento de Servicios de Networking OnPremise y Cloud; Experiencia, cursos y/o certificaciones. DESEABLE
  • Experiencia gestionando proyectos de implementación de soluciones de respaldos y recuperación, monitoreo, gestión de parches, entre otros. Requerida experiencia. EXCLUYENTE
  • Requerido manejo superior de herramientas ofimáticas y de proyectos: Project, Monday, Google docs, sheets, presentaciones, etc. EXCLUYENTE
  • Conocimiento generales servicios OT. DESEABLE

Conducir: Deseable licencia de conducir clase B al día.

Computación:

  • Manejo superior de herramientas ofimáticas y de proyectos: Project, Monday, Google docs, sheets, presentaciones, office: Word, Excel, PowerPoint, etc.

Condiciones

  • Contrato: Indefinido
  • Ubicación: Edificio Corporativo CMPC Santiago Centro.
  • Modalidad: 4 x1 (4 días presencial en oficina, 1 día online) / Disponibilidad de trabajo en terreno a plantas dentro de Chile y en el extranjero.

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Jefe de Proyecto
  • Genesys Tecnologías de Inform. SpA
Project Manager SQL Server Project Management Trello

En Genesys Tecnologías de Información SpA, una empresa con más de 30 años de experiencia en el mercado Latinoamericano, ofrecemos soluciones innovadoras en desarrollo de software y servicios TI. Apoyamos la transformación digital de las empresas utilizando tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos.
Buscamos un profesional con sólida experiencia en la gestión de proyectos de implementación de software, deseable con conocimientos en el ámbito financiero. Este líder debe contar con conocimientos técnicos en herramientas de desarrollo y bases de datos, así como habilidades para manejar equipos diversos y coordinar proyectos complejos en entornos de alta exigencia.

Apply to this job at getonbrd.com.

Principales Responsabilidades

  • Gestión de Proyectos: Planificar, ejecutar y supervisar todas las fases del proyecto desde la concepción hasta la implementación, asegurando el cumplimiento de objetivos, calidad y tiempos establecidos.
  • Gestión de Equipos: Coordinar y supervisar a los equipos de desarrollo, pruebas y soporte. Garantizar un flujo de comunicación efectivo entre las partes interesadas internas y externas.
  • Supervisión Técnica: Proporcionar soporte y orientación técnica a los equipos de desarrollo, participando en la revisión y validación de arquitecturas y soluciones propuestas.
  • Gestión de Riesgos y Calidad: Identificar riesgos técnicos y operativos, implementando planes de mitigación y asegurando que el software cumpla con los estándares de calidad requeridos.

Descripción del Puesto

Buscamos un profesional con al menos 5 años de experiencia como Jefe de Proyecto en implementación de software, con antecedentes sólidos en proyectos de sistemas financieros o de gestión empresarial. El candidato ideal debe tener un historial de éxito en la entrega de proyectos, cumpliendo plazos y ajustándose a presupuestos. Además, se espera que posea conocimientos técnicos en herramientas de desarrollo y bases de datos, así como habilidades de liderazgo para manejar equipos diversos y coordinar proyectos complejos en entornos de alta exigencia.

Habilidades Deseables

Se valorarán conocimientos en Genexus, incluyendo desarrollo y mantenimiento de aplicaciones; así como experiencia en Visual Studio .NET para supervisar proyectos bajo esta plataforma. También, es deseable una sólida competencia en SQL Server, incluyendo diseño, gestión y optimización de bases de datos relacionales. La familiaridad con metodologías tradicionales de gestión de proyectos y enfoques ágiles es un plus. Por último, la experiencia con herramientas de gestión de proyectos como Microsoft Project, Trello, y conocimientos en plataformas de colaboración como SharePoint y Teams serán considerados.

Se Ofrece

Ofrecemos un tipo de contrato indefinido y la modalidad de trabajo es 100% remoto. Nuestro horario de oficina es de lunes a viernes, de 08:30 a 18:30 horas. Formar parte de Genesys significa ser parte de una organización en crecimiento que valora la innovación y el desarrollo profesional.

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Dental insurance Genesys Tecnologías de Inform. SpA pays or copays dental insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Especialista en Optimización y Conversión Digital
  • LeytonMedia
  • Santiago (Hybrid)
JavaScript CSS Data Analysis SQL
En LeytonMedia, con más de 30 años de experiencia, nos destacamos por impulsar la transformación digital en diversas industrias, creando experiencias significativas para conectar a las marcas con sus usuarios. Colaboramos con clientes líderes como Banco Bci, Skechers, Mach, Carozzi y Casillero del Diablo, consolidando nuestra posición como referentes en innovación digital y optimización continua. Nuestro equipo trabaja en un ecosistema ágil que favorece la creatividad y el desarrollo profesional, garantizando la entrega de soluciones tecnológicas que generan impactos medibles y duraderos en el sector financiero y otros ámbitos.

This job is original from Get on Board.

Responsabilidades

Como Especialista en Optimización y Conversión de Canales Digitales, tu objetivo principal será maximizar la tasa de conversión y mejorar la experiencia digital para nuestros clientes del sector financiero, mediante el análisis de datos y la implementación de soluciones efectivas.
  • Recopilar y analizar datos de comportamiento digital utilizando herramientas como Google Analytics para realizar análisis de embudos y pruebas A/B, comparando versiones y elementos de sitios web o aplicaciones.
  • Identificar áreas de mejora y oportunidades de optimización dentro de los canales digitales para incrementar la efectividad y usabilidad.
  • Diseñar y ejecutar estrategias, pruebas y soluciones orientadas a la mejora continua de la tasa de conversión en plataformas digitales.
  • Monitorear y evaluar constantemente el rendimiento del sitio web o aplicación móvil, efectuando ajustes necesarios para optimizar resultados.
  • Colaborar estrechamente con equipos de desarrollo y negocio utilizando metodologías ágiles para implementar soluciones de alto impacto y bajo costo.
  • Elaborar paneles informativos diarios con data relevante para la gestión, facilitando la toma de decisiones basada en análisis claros y precisos.

Requisitos

Buscamos profesionales titulados en Ingeniería Comercial, Industrial, Informática o carreras afines con al menos 2 años de experiencia comprobable en roles similares de análisis y optimización digital. Es fundamental contar con un manejo eficiente de herramientas para reportes y panelería como Looker Studio, así como experiencia práctica en el manejo de tags y reportes de analítica web.
El candidato ideal debe tener experiencia en proyectos de metodologías ágiles, demostrando comodidad para trabajar en procesos iterativos y orientados a la innovación continua. Debe poseer una mentalidad analítica guiada por datos y experiencia en la implementación de experimentación tipo A/B y multivariables para la mejora continua de plataformas digitales.
Se valorará altamente la capacidad de trabajo colaborativo, con un fuerte enfoque hacia el negocio y la experiencia de usuario, manteniendo una mentalidad experimental para fomentar la innovación y la mejora constante.

Deseables

Es deseable que el candidato posea conocimientos en lenguajes SQL para realizar consultas y análisis de bases de datos relacionadas con el comportamiento digital. Además, se valorarán habilidades básicas en desarrollo web, incluyendo manejo de HTML, JavaScript y CSS, que permitan colaborar de forma más eficiente con equipos técnicos y optimizar la implementación de cambios y pruebas en las plataformas.

Beneficios

  • Jornada laboral reducida que favorece un balance saludable entre la vida personal y profesional.
  • Programas integrales de bienestar dirigidos al cuidado físico y mental del equipo.
  • Acceso a una plataforma de formación con más de 2,000 cursos para potenciar el desarrollo profesional continuo.
  • Bonificación destinada a estudios y capacitaciones adicionales para incentivar el crecimiento académico.
  • Beneficios sociales como la afiliación a Caja de Compensación Los Andes, que aportan estabilidad y protección social.
En LeytonMedia promovemos un entorno cercano, colaborativo y transparente, donde se potencia el talento mediante capacitación, coaching y mentorías, alineando el crecimiento profesional con los objetivos personales de cada colaborador.

Library Access to a library of physical books.
Wellness program LeytonMedia offers or subsidies mental and/or physical health activities.
Internal talks LeytonMedia offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided LeytonMedia provides a computer for your work.
Education stipend LeytonMedia covers some educational expenses related to the position.
Fitness subsidies LeytonMedia offers stipends for sports or fitness programs.
Conference stipend LeytonMedia covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1,000 Full time
Technical Marketing Writer (Part Time)
  • TECLA
Git Copywriting Content creation Usability

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Find this vacancy on Get on Board.

Job Details:

We are seeking a Technical Marketing Writer (Part-Time) to play a critical role in shaping how our products and solutions are understood and adopted. The Technical Marketing Writer will be responsible for creating compelling, accurate, and accessible B2B communication and content that spans both documentation and marketing materials. This includes owning and improving our public-facing online documentation, and ensuring it is best-in-class. The writer will also develop technical content to support our sales and marketing efforts. This role offers the opportunity to directly impact customer experience and drive business growth by ensuring our technical information is clear, concise, and the best in the market.

Responsibilities:

  • Own and improve public-facing documentation, including developer guides, API references, and implementation walkthroughs.
  • Support sales efforts by drafting and refining technical responses for RFPs, RFIs, and partner materials.
  • Benchmark and exceed competitor documentation quality in usability and clarity.
  • Collaborate cross-functionally with engineering, product, sales, and marketing teams to ensure content accuracy and alignment.
  • Write clear, concise technical marketing content, including case studies, one-pagers, and solution briefs.
  • Develop and maintain a content strategy for all B2B technical communication.
  • Create technical marketing materials, ensuring accuracy and effectiveness.
  • Own the process of improving the online documentation, making it a valuable resource.
  • Analyze competitor documentation to identify areas for improvement and implement best practices.

Requirements:

  • 3+ years of experience in technical writing, developer marketing, or B2B content creation.
  • Experience writing for both technical and business audiences.
  • Strong understanding of API documentation tools and developer experience best practices.
  • Proven ability to support sales teams with accurate and persuasive content.
  • A portfolio that includes both documentation and marketing-oriented writing samples.

Preferred Qualifications:

  • Background in gaming, developer platforms, or SaaS.
  • Familiarity with Markdown, static site generators, and Git-based content workflows.

Work Schedule:

Must have reliable overlap from 9am–2pm Pacific Time, Monday through Thursday.

What We Offer:

  • The opportunity to work on a cutting-edge platform in the exciting gaming industry.
  • A fully remote position with a structured schedule that supports work-life balance.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Acquisition Lead
  • Lemontech
  • Santiago (Hybrid)

En Lemontech nos dedicamos a desarrollar nuestros propios SaaS con un fuerte foco en la industria Legal y de Servicios profesionales. Hoy tenemos presencia en más de 1.000 firmas y gerencias legales en toda Latinoamérica, e impactando a miles de usuarios en el mundo. Somos disruptivos, innovadores y creativos y estamos súper comprometidos con impulsar un mundo legal moderno y justo. Tenemos grandes desafíos de crecimiento y cada día tenemos más usuarios en Latinoamérica, en todos los países y a toda hora!

Buscamos un Acquisition Lead para diseñar y ejecutar estrategias que nos permitan generar un pipeline de clientes cualificados. Este rol es clave para potenciar la adquisición de nuevas cuentas, especialmente en el mercado B2B de legaltech, utilizando metodologías Inbound y ABM. Si te apasiona la prospección y el análisis de datos, ¡este es tu lugar! 📈

Apply to this job opportunity at getonbrd.com.

¿Qué harás en el día a día?

Responsabilidades clave:

  • 🌟 Diseñar y ejecutar estrategias de captación de cuentas estratégicas para atraer nuevos clientes.
  • 🌟 Crear y gestionar campañas Inbound y ABM 1:1, 1:few, 1:many para fortalecer la presencia de LemonFlow en el mercado.
  • 🌟 Generar oportunidades de ventas calificadas (SQLs) y trabajar para mejorar la conversión.
  • 🌟 Optimizar canales digitales B2B como LinkedIn Ads, Emailing inteligente, Webinars, etc.
  • 🌟 Monitorear y analizar el rendimiento de las campañas para garantizar la efectividad y maximizar el impacto.

Funciones;

  • Crear y coordinar campañas multicanal para las cuentas objetivo con foco en awareness, consideración y conversión.
  • Monitorear la implementación de la estrategia de contenidos segmentada por industria , perfil de comprador y etapa del funnel: blogs, casos de éxito, whitepapers, briefs ejecutivos, videos, etc.
  • Coordinar el calendario editorial y colaborar con expertos internos para el desarrollo de contenido técnico y de liderazgo de pensamiento.
  • Medir el rendimiento de los canales y campañas con foco en MQLs, SQLs, Velocity y Revenue Influenciado.
  • Colaborar con Producto y Marketing para adaptar mensajes y propuestas de valor al perfil enterprise.
  • Coordinar la automatización de flujos de nurturing y la implementación de contenido personalizado.
  • Gestionar herramientas de CRM y ABM (HubSpot, LinkedIn Campaign Manager, RollWorks o similares).

Requerimientos del cargo

  • 📈 5+ años de experiencia en marketing B2B, Inbound Marketing, ABM o generación de demanda.
  • 🔧 Experiencia en la generación de pipeline en ventas consultivas y segmentos enterprise.
  • 📊 Dominio de herramientas de automatización, CRM y paid media.
  • 💬 Orientación a resultados y capacidad para trabajar de forma estratégica.

Conocimientos técnicos

Conocimientos técnicos

  • Estrategias de Account-Based Marketing (ABM) y Inbound Marketing.
  • Gestión de Funnels B2B complejos y buyer journeys consultivos.
  • Lead scoring, segmentación y enriquecimiento de datos.
  • Herramientas: HubSpot, Salesforce, ZoomInfo, LinkedIn Ads, Google Analytics.

¡Conoce algunos de nuestros beneficios!

🌍 Work From Anywhere (WFA): Flexibilidad para trabajar desde cualquier lugar.
🌅 Semana extra de vacaciones.
🏡 Horarios flexibles.
🍏 Espacios de descanso: Lounge con snacks y frutas.
🚀 Cultura de equipo: Colaboramos para alcanzar objetivos.
💼 Co-financiamiento de estudios.
🏥 Seguro complementario (solo en Chile).
🍼 Postnatal parental de 1 mes.

Si eres un/a estratégico/a, analítico/a, y tienes pasión por crear y ejecutar estrategias de captación de cuentas, ¡queremos conocerte! Postúlate ahora y acompáñanos a transformar el futuro del LegalTech. 🌟

Te compartimos nuestro aviso de Privacidad de Postulantes

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Informal dress code No dress code is enforced.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
APPLY VIA WEB