Skills relacionados:
Python SQL Spark Airflow
$$$ Full time
Data Analyst II
  • ComputerCare
  • Remote
analyst system python technical

ComputerCare has spent more than 20 years building something rare in the IT world: a company where technical excellence and genuine human connection are valued equally. We're the trusted partner that IT leaders turn to when technology can't afford to fail. As a woman-owned business serving innovative companies worldwide, we combine certified technical expertise with a human approach. Whether it's managing complex device lifecycles for global teams or performing authorized repairs for Apple, Lenovo, HP and Dell devices, our work directly impacts how thousands of people stay productive every day. We never outsource our work because we believe in accountability, quality, and building lasting relationships—with our clients and as a team.


If you're passionate about technology, take pride in solving real problems, and want to be part of a company that values both technical excellence and the people behind it, ComputerCare is where you belong.


Come join us in our mission of being the Human Side of Hardware! 


We’re looking for a Data Analyst II to serve as a key point of contact and subject matter expert for data-related requests and system updates. You’ll analyze, extract, and interpret data from multiple systems, including SQL databases and reporting tools, and implement data solutions that support business workflows and decision-making.


If you enjoy solving complex problems with data and making an impact, we want you on our team!

\n


What You'll Do:
  • Assist in designing and structuring database architecture to support scalable data storage, efficient querying, and optimized performance.
  • Demonstrate understanding of relational databases, including tables, schemas, indexing, normalization, and relationships.
  • Help build and maintain data pipelines to move and transform data between systems while ensuring accuracy and reliability.
  • Create dashboards, reports, and visualizations using SQL, Excel, Tableau, Power BI, or Looker Studio to communicate findings clearly to stakeholders.
  • Analyze large datasets to identify trends, patterns, correlations, and actionable insights that support business decisions.
  • Collect, organize, and maintain data from multiple sources while ensuring data integrity and accuracy.
  • Write, maintain, and optimize SQL queries for reporting, analysis, and data extraction.
  • Clean, preprocess, and transform raw data using SQL and Python to prepare it for analysis and reporting.
  • Work with cross-functional teams to understand business requirements, define KPIs, and translate them into analytical solutions.
  • Identify inefficiencies in data processes and implement automation using SQL, Python, or ETL tools to improve workflow and data quality.


What You'll Bring:
  • Bachelor’s degree in Computer Science, Information Systems, Statistics, Mathematics, or a related field.
  • 2–5 years of experience in data analysis, reporting, or database management.
  • Experience working with SQL databases and writing complex queries.
  • Experience with Python (pandas, NumPy) and other scripting languages for data manipulation.
  • Experience with data visualization tools (HEX, Tableau, Power BI, Excel dashboards).


Perks and Benefits:
  • Comprehensive Medical, Dental, and Vision plans to keep you feeling your best
  • 401(k) with employer match—because your future matters
  • Company-paid Life Insurance, plus HSA & FSA options
  • Employee Assistance Program (EAP) for real support when you need it
  • Adoption Assistance to help grow your family
  • Commuter Benefits for an easier ride
  • Free Coursera Professional Certifications to level up your skills
  • Generous vacation & sick time, plus paid time off to give back to your community


\n
$80,000 - $115,000 a year
\n

If you get to this point, we hope you're feeling excited about the job you just read. Even if you don't feel that you meet every single requirement, we still encourage you to apply. We're eager to meet people that believe in ComputerCare’s mission, core values and can contribute to our team in a variety of ways – not just candidates who check all the boxes. 


At ComputerCare, we welcome passionate individuals who have the unrestricted right to work in the United States, including natural citizens and Green Card holders.


ComputerCare is proud to be an Equal Opportunity and Affirmative Action employer. We do not discriminate based upon race, religion, color, national origin, sex (including pregnancy, childbirth, or related medical conditions), sexual orientation, gender, gender identity, gender expression, transgender status, sexual stereotypes, age, status as a protected veteran, status as an individual with a disability, or other applicable legally protected characteristics. We also consider qualified applicants with criminal histories, consistent with applicable federal, state and local law.



Please mention the word **GORGEOUS** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$75000 - $125000 Full time
Data Analyst
  • World Golf Tour (WGT)
  • San Francisco
analyst security python game

Role

World Golf Tour is seeking a Data Analyst to join our Product team. In this critical role, you will be the custodian of our data, organizing insights, and analyzing telemetry to support strategic business decisions. You will focus on developing and maintaining dashboards and analysis reports, collaborating across the studio and closely with the Product team to provide actionable insights that help drive the business. This role emphasizes strong data stewardship, visualization and statistical analysis.

Responsibilities

· Clean, validate, and prepare datasets for analysis, including resolving issues regarding missing, inconsistent, or novel data

· Perform exploratory data analysis to identify trends, patterns, and anomalies that inform business decisions

· Develop and maintain dashboards, reports, and visualizations using tools such as Amplitude, Power BI, or Excel

· Translate analytical findings into clear, actionable insights for both technical and non-technical stakeholders

· Partner with business teams (e.g., marketing, product, finance) to understand data needs and deliver relevant analyses

· Support ad hoc analysis and deep dives to answer specific business questions or identify opportunities

· Ensure compliance with data governance, privacy, and security standards

Experience and Skills

· Bachelor’s degree in Data Analytics, Statistics, Mathematics, Computer Science, Economics, or a related quantitative field

· 2–4 years of experience in a data analyst or similar role, preferably in game or software development

· Strong proficiency in SQL for data querying and manipulation

· Experience with data analysis tools/languages such as Python or R

· Advanced proficiency in Excel (e.g., pivot tables, formulas, data modeling)

· Experience with data visualization tools (e.g., Tableau, Power BI)

· Strong proficiency in statistical methodologies and data analysis

· Strong problem-solving and critical thinking skills

· Excellent communication skills, with the ability to present complex data in a clear and concise manner

Preferred Qualifications

· Experience with data warehousing concepts and tools (e.g., Snowflake, Redshift, BigQuery)

· Familiarity with ETL processes and data pipeline development

· Knowledge of basic machine learning or predictive analytics techniques

· Experience working in game development

· Understanding of data governance and privacy regulations

· Experience in a fast-paced, cross-functional environment

About Us

World Golf Tour is a leader in online golf, delivering the most realistic and immersive virtual golf experience to players around the globe. We are best known for our core product WGT Golf, a free-to-play golf game that has set the standard for virtual golf since its launch in 2008. Renowned for its photorealistic recreations of iconic courses such as Pebble Beach, The Old Course at St Andrews, and Quail Hollow Club, the game combines authentic course imagery with precise swing mechanics and multiplayer competition to offer an experience trusted by millions.



Please mention the word **ENRAPTURE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Infrastructure Manager
  • Andromeda Cluster
  • San Francisco
manager training technical cloud

Infrastructure Manager

Location: North America Remote / San Francisco · Full-Time

About Andromeda

Andromeda Cluster was founded by Nat Friedman and Daniel Gross to give early-stage startups access to the kind of scaled AI infrastructure once reserved only for hyperscalers.

We began with a single managed cluster — but it filled almost instantly. Since then, we’ve been quietly building the systems, network, and orchestration layer that makes the world’s AI infrastructure more accessible.

Today, Andromeda works with leading AI labs, data centers, and cloud providers to deliver compute when and where it’s needed most. Our platform routes training and inference jobs across global supply, unlocking flexibility and efficiency in one of the fastest-growing markets on earth.

Our long-term vision is to build the liquidity layer for global AI compute. We are expanding to new frontiers to find the brightest that work in AI infrastructure, research and engineering.

The Opportunity
We're hiring a Infrastructure Manager to accelerate supply and demand matching on our platform. This is an Individual Contributor role reporting to the Head of Infrastructure.
The Infrastructure team sits at the core of our infrastructure. We're responsible for acquiring and facilitating compute resources across the company, working closely with compute providers, sales, and technical teams to match compute supply with demand.


Today we have already established the fundamental layer of capacity with providers. As we
scale, we are building the next layer—widening our network and liquidity, deepening the scope
of our services, and accelerating our growth.


What You'll Do
• Match incoming leads from our sales team with internal capacity and external capacity in
the market
• Maximize utilization of our compute resources
• Source and onboard new compute suppliers across the globe
• Source capacity based on customer needs and market trends
• Solve customer and supplier problems in a fast-moving, dynamic market
• Understand technical and commercial differences between suppliers to optimize our
capacity funnel
• Develop a proactive compute strategy informed by market intelligence
• Negotiate cost with suppliers and other vendors
• Create and implement processes around capacity planning


What We're Looking For
• 2+ years in cloud sales, GPUs, data centers, or a related field
• Existing network of contacts in the compute market (providers, brokers, or buyers)
• Deep understanding of the GPU compute market—what drives supply and demand
• Strong written and verbal communication across technical and commercial stakeholders
• Sound judgment in decisions that directly impact revenue and cost
• Comfortable operating in ambiguity
• Self-directed and energetic, able to operate autonomously while collaborating
cross-functionally
• Bias toward action in a fast-paced environment


Why You'll Love It Here

  • Impact: Be in a critical team unlocking revenue for the wider company

  • Real business: Meaningful revenue, complex transactions, and tangible impact

  • High-growth environment: Get in early at a company in a massive market

  • Ownership: Direct line to leadership and influence over how we scale

  • Competitive compensation + meaningful equity

  • Comprehensive benefits for you and your dependents, including healthcare, dental, and
    vision coverage, 401(k), and unlimited PTO


Andromeda Cluster is an equal opportunity employer. We celebrate diversity and are committed to creating an inclusive environment for all employees. We do not discriminate on the basis of race, religion, color, national origin, gender, sexual orientation, age, marital status, veteran status, or disability status.



Please mention the word **STRONGER** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
ML Solutions Architect
  • Provectus
  • Remote
architect design system security

As an ML Solutions Architect, you'll be the technical bridge between clients and delivery teams. You'll lead pre-sales technical discussions, design ML architectures that solve business problems, and ensure solutions are feasible, scalable, and aligned with client needs. This is a highly client-facing role requiring both deep technical expertise and strong communication skills.

\n


Core Responsibilities:
  • 1. Pre-Sales and Solution Design (50%)
- Lead technical discovery sessions with prospective clients
- Understand client business problems and translate them into ML solutions
- Design end-to-end ML architectures and technical proposals
- Create compelling technical presentations and demonstrations
- Estimate project scope, timelines, cost, and resource requirements
- Support General Managers in winning new business

  • 2. Client-Facing Technical Leadership (30%)
- Serve as the primary technical point of contact for clients
- Manage technical stakeholder expectations
- Present technical solutions to both technical and non-technical audiences
- Navigate complex organizational dynamics and conflicting priorities
- Ensure client satisfaction throughout the project lifecycle
- Build long-term trusted advisor relationships

  • 3. Internal Collaboration and Handoff (20%)
- Collaborate with delivery teams to ensure smooth handoff
- Provide technical guidance during project execution
- Contribute to the development of reusable solution patterns
- Share learnings and best practices with ML practice
- Mentor engineers on client communication and solution design


Requirements:
  • 1. ML Architecture and Design
- Solution Design: Ability to architect end-to-end ML systems for diverse business problems
- ML Lifecycle: Deep understanding of the full ML lifecycle from data to deployment
- System Design: Experience designing scalable, production-grade ML architectures
- Trade-off Analysis: Ability to evaluate technical approaches (cost, performance, complexity)
- Feasibility Assessment: Quickly assess if ML is an appropriate solution for a problem
  • 2. ML Breadth
- Multiple ML Domains: Experience across various ML applications (RAG, Computer Vision, Time Series, Recommendation, etc.)
- LLM Solutions: Strong experience in architecting LLM-based applications
- Classical ML: Foundation in traditional ML algorithms and when to use them
- Deep Learning: Understanding of neural network architectures and applications
- MLOps: Knowledge of production ML infrastructure and DevOps practices
  • 3. Cloud and Infrastructure
- AWS Expertise: Advanced knowledge of AWS ML and data services
- Multi-Cloud Awareness: Understanding of Azure, GCP alternatives
- Serverless Architectures: Experience with Lambda, API Gateway, etc.
- Cost Optimization: Ability to design cost-effective solutions
- Security and Compliance: Understanding of data security, privacy, and compliance
  • 4. Data Architecture
- Data Pipelines: Understanding of ETL/ELT patterns and tools
- Data Storage: Knowledge of databases, data lakes, and warehouses
- Data Quality: Understanding of data validation and monitoring
- Real-time vs Batch: Ability to design for different data processing needs


\n

Please mention the word **TRUTHFULLY** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Full Stack Engineer
  • Darkroom
  • New York
react technical software code

What we’re building

We’re empowering small teams with technology that makes it easier to market and grow businesses. Our current focus it to help consumer brands shift from "workflow automation" to "agent management” within their marketing operations. Matter is the AI coordination layer — providing shared AI memory, centralized agent control, and model differentiation. We founded the company based on a decade of experience providing marketing services to 300+ consumer brands, leveraging that expertise to develop interfaces that streamline user experience in the era of AI.


Why join Matter?

  • Founding Engineer Equity You'll get a meaningful equity stake; early-stage and undiluted.

  • Product Ownership You'll ship production code daily and help steer key product and technical decisions.

  • Shape the Engineering Culture You'll influence how we work—tools, processes, standards, and hiring.

  • Work with Challenger Consumer Brands Talk directly to customers (CEOs, CMOs, VP's) of fast-growing consumer brands—some doing $80M–$500M in revenue.

Don't join Matter if...

  • Work-life balance is a high priority for you

  • You're uncomfortable changing your priorities every 24-48 hours

  • You're not confident in your abilities to manage end-to-end solutions

  • You require a many devops resources to be successful

About the Role

You'll sit squarely at the intersection of back‑end and front‑end, ensuring seamless integration between APIs, databases, UIs, and ML services. You'll design, build, and scale features end‑to‑end, especially our AI/ML‑powered experiences, while mentoring peers and driving architecture decisions.


Core Tech & Tools

  • Languages & Frameworks: Python, Node.js, React (TypeScript)

  • Datastore: PostgreSQL

  • Cloud & Infra: Google Cloud Platform, Airflow, Terraform, Docker, Kubernetes

  • ML/AI: LLMs, RAG, prompt engineering

  • Other: MCP

Key Responsibilities

  • Architect and implement full‑stack features, from database schema to React components, optimized for scale and reliability.

  • Build and maintain RESTful/GraphQL APIs, data pipelines, and distributed services in GCP.

  • Integrate, prompt, and debug LLMs and generative AI tools; own RAG or fine‑tuning pipelines.

  • Ensure front‑end and back‑end systems interoperate flawlessly, minimize friction, optimize data flow, and enforce contracts.

  • Collaborate with product, research, design, and infra teams to define requirements, iterate rapidly, and ship production‑grade code.

  • Monitor performance, reliability, and security.

  • Mentor junior engineers through code reviews, architecture reviews, and shared best practices.

Requirements

  • 5+ years of professional software engineering experience with end‑to‑end ownership in a full‑stack role.

  • Deep expertise in Python, Node.js, React/TypeScript, and PostgreSQL.

  • Able to be hands‑on with GCP, containerization (Docker/K8s), and building/supporting high‑traffic systems.

  • Proven experience integrating AI/ML models (LLMs, NLP, RAG) into production apps.

  • Familiarity or strong interest in working with MCP servers.

  • Exceptional problem‑solving skills and a product mindset: you think deeply about UX, performance, and business impact.

  • You sweat both technical details and end-user experience.

Nice to Haves

  • Experience with multi‑step or agentic AI workflows.

  • Background in AI infrastructure or tooling companies.

  • Contributions to open‑source AI/ML projects.

What we offer

  • Competitive salary and equity package (roles, responsibilities, and comp grow as we do)

  • Top-tier health, vision, dental insurance (US)

  • Regular team off-sites

  • Regular hack weeks



Please mention the word **EBULLIENCE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
react architect design saas

Distinguished Tech Innovator:

3Pillar warmly extends an invitation for you to join an elite team of visionaries. Beyond software development, we are dedicated to engineering solutions that challenge conventional norms. Envision you: steering projects that redefine urban living, establish new media channels for enterprise companies, or drive innovation in healthcare. 

Your invaluable expertise will serve as the cornerstone in shaping the future direction of our endeavors.


This role is the primary expert within a technology stack. The Architect owns the decision making around high-level design choices and dictates technical standards, including software coding standards, tools, and platforms.  The ideal candidate will thrive in a collaborative environment and be engaged in the development process. 

\n


Key Responsibilities:
  • Act as the emissary of the architecture.  Diagram milestones and call out red flags before they become problematic.
  • Technical owner from design to resolution of tailored solutions to sophisticated problems on cloud platforms based on client requirements and other constraints.
  • Partners with appropriate stakeholders to determine functional and nonfunctional requirements, as well as business goals, for a set of scenarios.
  • Assess and plan for new technology insertion.
  • Manage risk identification and risk mitigation strategies associated with the architecture.
  • Influence and communicate long-term product vision, technical vision, development strategy and roadmap.
  • Contribute to code reviews, documentation and architectural artifacts.
  • Active leader in the Architecture Practice community, mentoring Engineers and others through Communities of Practice (CoPs) or on project teams, supporting the growth of technical capabilities.


Minimum Qualifications:
  • A Bachelor’s degree or higher in Computer Science or a related field.
  • A minimum of 5+ years of experience/expertise working as a Software Architect, with proficiency in the specified technologies:
  • Azure Cloud Services in a React/Node application environment
  • Microsoft Azure AZ-305 certification (must have)
  • Node.js backend framework
  • Must have TypeScript experience
  • Good to have exposure in NestJs/ExpressJs.
  • Zod schema validation (nice to have)
  • GitHub, GitHub Actions
  • Orchestration: Kubernetes, Azure Service Bus
  • Database: Postgres, Sequelize ORM (MongoDB nice to have)
  • Python for ETL process (nice to have)
  • WorkOS authentication via SSO (nice to have)

  • High level of English proficiency required to interact with a globally-based development team.
  • Communicate in a clear and understandable manner with clients, and be able to articulate the details of the designed architecture using the appropriate level of technical language.
  • Natural leader with critical reasoning and good decision making skills.
  • Ability to raise red flags on the client or team side due to technical blockers
  • Excellent diagramming and planning skills
  • Have extremely good knowledge on SDLC processes and familiarity with actionable metrics and KPIs.
  • Operational excellence in design methodologies and architectural patterns across multiple platforms.
  • Ability to work on multiple parallel projects and utilize time management skills and multitasking capabilities.
  • Experience leading Agile software development methodologies.
  • Experience designing production pipelines: DevOps and CI/CD practices and tools.
  • Demonstrate mentorship and thought leadership to engineers and decision-makers throughout the organization.


Additional Experience Desired:
  • Foundational knowledge in Data Analysis/Modelling/Architecture, ETL Dataflows and  good understanding of highly scalable distributed and cloud-native data stores. Specifically Serverless architecture.
  • Understand and able to write infrastructure as code
  • Policy-based access control systems (e.g., Cerbos, OPA)
  • Multi-tenant SaaS application design
  • Experience in designing applications involving more than one technology platform (web, desktop, mobile). 
  • Experience in designing SaaS or highly scalable distributed applications on the cloud.
  • Financial management experience and ROI calculation.
  • Solutions Architect certification on major cloud platforms (Azure)
  • TOGAF Certified.


What is it like working for 3Pillar Global?
  • At 3Pillar, we offer a world of opportunity:
  • Imagine a flexible work environment - whether it's the office, your home, or a blend of both. From interviews to onboarding, we embody a remote-first approach.
  • You will be part of a global team, learning from top talent around the world and across cultures, speaking English everyday. Our global workforce enables our team to leverage global resources to accomplish our work in efficient and effective teams.
  • We're big on your well-being - as a company, we spend a whole trimester in our annual cycle focused on wellbeing. Whether it is taking advantage of fitness offerings, mental health plans (country-dependent), or simply leveraging generous time off, we want all of our team members operating at their best.
  • Our professional services model enables us to accelerate career growth and development opportunities - across projects, offerings, and industries.
  • We are an equal opportunity employer. It goes without saying that we live by values like Intrinsic Dignity and Open Collaboration to create cutting-edge technology AND reinforce our commitment to diversity - globally and locally.

Join us and be a part of a global tech community!
Check out our Linkedin site and Careers page to learn more about what it's like to be part of our #oneteam!
#LI-Remote


\n

Please mention the word **PEACEFULLY** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Senior Account Executive
  • Caylent
  • Texas
amazon security training technical
Caylent is a cloud native services company that helps organizations bring the best out of their people and technology using Amazon Web Services (AWS). We provide a full-range of AWS services including workload migrations and modernization, cloud native application development, DevOps, data engineering, security and compliance, and everything in between. At Caylent, our people always come first. We are a global company and operate fully remote with employees in Canada, the United States, and Latin America. We celebrate the culture of each of our team members and foster a community of technological curiosity. Come talk to us to learn more about what it means to be a Caylien! Your Assignment • Communicate via cold calls/emails/social media/in-person meetings with SME prospects. • Manage and nurture relationships with AWS and Clients • Drive net new customer acquisition and scale existing client base • Design, build, and test new outreach and nurture campaigns. • Coordinate closely with content, marketing, and lead generation providers. • Drive revenue by winning new services business and/or expand existing engagements. • Attend cloud workshops and training to boost specific skills and possible certifications around cloud, Kubernetes, and DevOps. • Engage with AWS, and other partners at the tactical and strategic level. Your Qualifications • 5+ years of B2B sales experience selling managed cloud services and/or DevOps consulting. • Experience selling AWS, and related services is highly desired. • Great verbal communication and presentation skills. • Assist with creating proposals & SOWs • Negotiate contracts, deliverables and price. • Enthusiasm to work in a startup environment and ability to be cross-functional. • Possess natural curiosity and excitement to learn new technology, sell and succeed as an individual and as a team. • Proven track record of sourcing and closing $250K+ ARR deals successfully. • Ability to travel 10-25% of the time. • Technical Background in DevOps or Cloud is preferred.

Please mention the word **AWARDS** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Staff DevOps Engineer
  • Life360
  • Remote
security devops mobile engineer

About Life360

Life360's mission is to keep people close to the ones they love. Our category-leading mobile app,Tile tracking devices, and Pet GPS tracker empower members to protect the people, pets, and things they care about most with a range of services, including location sharing, safe driver reports, and crash detection with emergency dispatch. Life360 serves approximately 91.6 million monthly active users (MAU), as of September 30, 2025, across more than 180 countries.

Life360 delivers peace of mind and enhances everyday family life with seamless coordination for all the moments that matter, big and small. By continuing to innovate and deliver for our customers, we have become a household name and the must-have mobile-based membership for families (and those friends who are basically family).

Life360 has more than 500 (and growing!) remote-first employees. For more information, please visit life360.com.

Life360 is a Remote-First company, which means a remote work environment will be the primary experience for all employees. All positions, unless otherwise specified, can be performed remotely (within the US) regardless of any specified location above. 

About The Team

The Horizons DevOps and Infrastructure team supports large-scale, data-intensive platforms that power real-time adtech and data science workloads across the organization. The team owns and operates critical infrastructure and data platforms, including Databricks, Snowflake, Apache Airflow, and Kubernetes-based services, processing fifty billions of requests and tens of terabytes of data daily. Working closely with data engineering, data science, and security teams, the group focuses on building reliable, scalable, and automated systems that enable high-throughput data processing, analytics, and ML workflows. Team members take end-to-end ownership of production systems, influence architectural direction, and play a key role in evolving the platform as the organization integrates new technologies and scales further.

About the Job

We are seeking a

Please mention the word **PORTABLE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.

$$$ Full time
EU GO Senior Software Engineer
  • Connectly
  • Remote/Greece
software system frontend python

At Connectly we are building the future of conversational commerce in Latin America with the focus on Whatsapp. Instead of shoppers installing yet another app, we are offering a 360 engagement platform for retailers inside of an app that everyone already have on their phone - Whatsapp. 


We are a VC-backed Series B startup with a world-class team hailing from Meta, Google, Uber, and other top Silicon Valley companies. We operate as a hybrid company, with offices in Bogotá and San Francisco, and a remote-first culture everywhere else.

\n


Job summary
  • We’re looking for an exceptional Senior Backend Engineer with strong Go (Golang) expertise and experience designing large-scale distributed systems.
  • You’ll work across backend and frontend domains, collaborating closely with product, sales, and AI platform teams to design, prototype, and launch powerful conversational experiences for some of Latin America’s largest retailers. This is a role for an independent problem solver who enjoys both deep technical challenges and high-impact product thinking.


Responsibilities include:
  • Design, build, and maintain distributed backend systems using Go, AWS, Kafka, Postgres, and DynamoDB.
  • Collaborate cross-functionally with product managers, designers, and enterprise partners to define user journeys, performance goals, and success metrics.
  • Own critical parts of Connectly’s platform infrastructure — from messaging orchestration to data pipelines and API integrations.
  • Collaborate closely with product, AI, and frontend teams to deliver scalable, customer-facing features.
  • Ensure reliability, observability, and operational excellence across all services.
  • Establish, track, and iterate on performance metrics, leveraging data to optimize outcomes and drive measurable business results.
  • Work asynchronously with global teams, maintaining strong communication and documentation.
  • Plan and manage your workstream, making thoughtful tradeoffs between deadlines, quality, and innovation.
  • Mentor teammates, contribute to code reviews, and uphold engineering best practices in a fast-moving, distributed environment.


What will make you excel at this job:
  • Exceptional communication skills with both technical and non-technical stakeholders.
  • Deep attention to detail paired with strong system-level thinking; you can zoom out to strategy and dive deep into code.
  • A bias for action and results, with comfort navigating ambiguity and evolving product needs.
  • Genuine curiosity and a drive to stay ahead of the rapidly changing AI landscape.
  • Balance of product sense and technical rigor; you care as much about user experience as you do about system performance.
  • Experience with cloud infrastructure (AWS) and event-driven architectures.
  • Solid understanding of system design, concurrency, and data consistency.
  • Pragmatic approach to engineering; you balance simplicity, reliability, and speed.


Requirements
  • BS or MS in Computer Science or related technical field.
  • 5+ years of experience in hands-on software engineering roles.
  • Proven track record building and scaling enterprise systems using Go, AWS, Kafka, Postgres, and/or DynamoDB.
  • Experience with Python is a plus.
  • Experience with frontend engineering (React, TypeScript, etc.) is a plus.
  • Prior experience developing or deploying WhatsApp conversational applications is a strong plus.
  • Experience working in fast-paced, customer-centric environments, ideally in a startup or high-growth tech company.
  • Based in Europe; remote-first with occasional team offsites.


Benefits
  • Work alongside an exceptional, mission-driven team in a culture that values curiosity, impact, and continuous learning.
  • Competitive compensation with equity participation.
  • Unlimited time off and flexible working hours.
  • Flexible working hours and remote-first culture across the EU.


\n

We are a strong believer in passion, curiosity and willingness to learn on the job. If you are in doubt, we encourage you to apply! 


Connectly is an equal opportunity employer. We’re committed to building a diverse, inclusive, and supportive workplace that is distributed around the world.



Please mention the word **EMINENCE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Frontend Tech Lead
  • AirDNA
  • Remote
frontend design react training

About AirDNA

We built AirDNA to solve a problem: how do you make smart short-term rental decisions when there’s too much guesswork and not enough good data?


What started in a garage in California in 2015 is now a global team helping thousands of people — from aspiring hosts to major real estate firms — make confident choices about where to invest, what to charge, and how to grow.


Our mission is simple: give people the tools they need to build freedom through short-term rentals. Whether that means buying their first Airbnb or scaling a portfolio, we’re here to help unlock financial independence and growth.


We track 10M+ listings in 120,000 markets, and our platform is trusted by users in over 100 countries. It’s big data, made useful.


In 2023, AirDNA acquired Uplisting, a powerful property management software that helps hosts and operators manage listings across Airbnb, Vrbo, and other platforms. With features like channel management, automated messaging, dynamic pricing, task coordination, and financial reporting, Uplisting expands our mission to support every stage of the short-term rental journey — from investment to operations.


The AirDNA team

We’re a curious, driven, and kind group of humans who genuinely love what we do. Our values — Happy, Hungry, Honest — guide how we show up for our customers and for each other.


Want to see what that looks like in action? You’ll get a feel once you meet us.

We welcome applicants from all backgrounds and encourage you to apply even if you don’t check every box. Passion, potential, and perspective matter here.


The Role

AirDNA is looking for a Frontend Tech Lead to help shape the future of our product experience and technical direction. While this role is full-stack, you will be the technical driver for our frontend guild, pushing forward our React/TypeScript architecture, design systems, and developer experience. You’ll partner with Product, Design, and Engineering leaders to deliver beautiful, performant, and scalable customer-facing applications. As a Tech Lead, you’ll guide technical decisions across squads, mentor engineers, and help set the long-term direction of our frontend practice.

\n


Here's what you'll get to do:
  • Lead frontend technical strategy: Define best practices, champion modern frontend architecture, and drive adoption of component libraries, state management patterns, and performance optimizations.
  • Build customer-facing features: Work as a hands-on engineer in your squad, implementing features with React, TypeScript, Next.js, and associated libraries.
  • Shape the frontend guild: Facilitate guild discussions, align engineers across squads, and promote knowledge-sharing and consistency in our frontend stack.
  • Mentor and grow engineers: Coach junior and mid-level developers, review code, and help engineers build strong frontend skills.
  • Collaborate cross-functionally: Partner with Product Managers, Designers, Data Scientists, and Backend Engineers to deliver features that delight customers.
  • Contribute full-stack when needed: While you’re frontend-leaning, you’ll occasionally dive into backend services (Python, AWS, APIs, Kubernetes) to deliver end-to-end solutions.
  • Drive engineering excellence: Influence tooling, CI/CD, testing, and monitoring strategies that improve developer velocity and reliability.
  • Represent engineering: Serve as a technical leader in planning sessions, roadmap discussions, and cross-team initiatives.


Here's what you'll need to be successful:
  • Experienced: 8+ years of professional software engineering, with at least 5 years of recent experience in React and TypeScript.
  • Frontend expert: You’ve scaled and optimized large-scale SPAs, understand rendering/performance tradeoffs, and care deeply about accessibility and design fidelity.
  • Full-stack capable: You’re comfortable contributing to backend systems (Python/Django/FastAPI, AWS, data pipelines) when the team needs it.
  • Technical leader: You’ve led technical discussions, influenced architecture decisions, and aligned teams toward common engineering standards.
  • Mentor: You enjoy leveling up others, giving thoughtful feedback, and guiding careers.
  • Collaborator: You thrive in cross-functional environments and can translate business goals into technical strategy.
  • Forward-thinking: You stay current on frontend trends, evaluate emerging tools, and bring pragmatic innovation to the team


Here's what would be nice to have:
  • Experience with design systems and component libraries (e.g., Storybook, Radix, Styled Components).
  • Experience with React Query, Recoil, Redux, or other state/data management approaches.
  • Experience with Google Maps API or other data visualization libraries (D3, Leaflet, Mapbox).
  • Strong background in CI/CD pipelines (GitLab preferred) and containerization (Docker/Kubernetes).
  • Familiarity with headless CMS platforms (Prismic, Contentful).
  • Experience with data-intensive apps, large-scale visualizations, or personalization at scale.


Here's what you can expect from us:
  • Competitive cash compensation and benefits, the salary for this position is $130,000 - $175,000 per year. 
  • Colorado Salary Statement: The salary range displayed in specifically for those potential hired who will work or reside in the state of Colorado if selected for this role. Any offered salary is determined based on internal equity, internal salary ranges, market data/ranges, applicant’s skills and prior relevant experience, certain degrees and certifications. 
Benefits include: 
  • Medical, dental, and vision packages to meet your needs
  • Unlimited vacation policy; take time when you need it 
  • Quarterly team outings 
  • 401K with employer match up to 4%
  • Continuing education stipend
  • Lunch is provided Tuesday to Thursday for those in the Denver office
  • Commuter/RTD benefit for Denver based employees
  • 16 weeks of paid parental leave
  • New MacBooks for employees
  • Pet-friendly!


\n

AirDNA seeks to attract the best-qualified candidates who support the mission, vision and values of the company and those who respect and promote excellence through diversity. We are committed to providing equal employment opportunities (EEO) to all employees and applicants without regard to race, color, creed, religion, sex, age, national origin, citizenship, sexual orientation, gender identity and expression, physical or mental disability, marital, familial or parental status, genetic information, military status, veteran status or any other legally protected classification. The company complies with all applicable state and local laws governing nondiscrimination in employment and prohibits unlawful harassment based on any of the aforementioned protected classes at every location in which the company operates. This applies to all terms, conditions and privileges of employment including but not limited to: hiring, assessments, probation, placement, benefits, promotion, demotion, termination, layoff, recall, transfer, leave of absence, compensation, training and development, social and recreational programs, education assistance and retirement. 


We are committed to making our application process and workplace accessible for individuals with disabilities. Upon request, AirDNA will reasonably accommodate applicants so they can participate in the application process unless doing so would create an undue hardship to AirDNA or a threat to these individuals, others in the workplace or the company as a whole. To request accommodation, please email compliance@airdna.co. Please allow for 24 hours to process your request. 


By applying for the above position, you will confirm that you have reviewed and agreed to our Data Privacy Notice for Applicants.



Please mention the word **PRICELESS** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$175000 - $250000 Full time
Security Engineer
  • PermitFlow
  • New York City
security frontend architect software

PermitFlow is redefining how America builds. We’re an applied AI company serving the nation’s builders, tackling one of the largest information challenges in the economy: understanding what can be built, where, and how. Our AI agent workforce helps the fastest-growing construction companies navigate everything from permitting and licensing to inspections and project closeouts – accelerating housing, clean-energy, and infrastructure development across the country.

Despite being a $1.6T industry, construction still suffers from massive delays, wasted capital, and lost opportunity. PermitFlow has already delivered unprecedented speed, accuracy, and visibility to over $20B in development, helping contractors reduce compliance time, de-risk projects, and scale with confidence.

America is entering a CAPEX super-cycle, from data centers and factories to housing and renewables, and joining PermitFlow is building the AI at the heart of every construction project powering the next wave of re-industrialization.

We’ve raised over $90M, most recently completing our Series B, from top-tier investors including Accel, Kleiner Perkins, Initialized, Y Combinator, Felicis, and Altos Ventures, with backing from leaders at OpenAI, Google, Procore, ServiceTitan, Zillow, PlanGrid, and Uber.

Role Overview

As a Security Engineer, you’ll join our growing platform team in building, scaling, and fine-tuning the systems that keep our platform secure and compliant. You’ll help architect the security backbone of our platform, focusing on compliance, risk reduction, security automation, and continuous improvement. While your primary responsibility will be security and governance, coding and problem-solving across the stack are core parts of the role. As a fast-growing startup, we all roll up our sleeves where needed, so flexibility and a collaborative, security-first mindset are key.

What You'll Do

  • Architect, design, and implement secure, compliant, scalable, and cost-efficient infrastructure solutions to protect a rapidly growing product.

  • Lead the execution and maintenance of our SOC2 compliance program and other security-related certifications.

  • Design, implement, and audit Role-Based Access Controls (RBAC), Identity and Access Management (IAM), and secrets management systems.

  • Design and implement security best practices for backend, frontend services, APIs, and data pipelines.

  • Own security features end-to-end, from architecture and implementation to testing and production deployment.

  • Develop and maintain security automation, Infrastructure as Code, and secure CI/CD pipelines.

  • Implement and manage security monitoring, threat detection, and vulnerability management across our cloud infrastructure.

  • Establish and enforce security best practices for authentication, authorization, logging, and alerting.

  • Lead and participate in incident response, troubleshooting complex security issues and driving postmortem learning and improvements.

  • Collaborate across engineering teams to embed security into the software development lifecycle and balance compliance, velocity, and cost.

What We're Looking For

  • 5+ years of experience in Security Engineering, AppSec, GRC, or similar roles.

  • Proven experience designing and implementing security controls for SOC2, ISO 27001, or similar compliance frameworks.

  • Deep expertise in Role-Based Access Controls (RBAC), Identity and Access Management (IAM), and secrets management.

  • Strong experience with container security and orchestration (Docker, ECS, Kubernetes a plus).

  • Expertise with secure CI/CD pipelines and modern security automation tools.

  • Coding and scripting proficiency (TypeScript, Python, Go, Bash, etc.).

  • Hands-on experience with cloud security (GCP preferred) and securing distributed systems.

  • Familiarity with monitoring, observability, and incident management best practices.

  • Comfortable working in a fast-paced, compliance-focused startup environment, where adaptability and security ownership are essential.

What We Offer

  • Competitive salary and meaningful equity in a high-growth company

  • Comprehensive medical, dental, and vision coverage

  • Flexible PTO and paid family leave

  • Home office & equipment stipend

  • Hybrid NYC office culture (3 days in-office/week) with direct access to leadership

  • In-Office Lunch & Dinner Provided

PermitFlow provides equal employment opportunities (EEO) to all employees and applicants for employment without regard to race, color, religion, sex, national origin, age, disability, genetics, sexual orientation, gender identity, gender expression, or family status, as protected by applicable law.


We are committed to a diverse and inclusive workforce and welcome people from all backgrounds, experiences, perspectives, and abilities. All employment decisions are based on merit, qualifications, and business needs.



Please mention the word **REFORM** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$100000 - $150000 Full time
Principal Software Engineer
  • Recorded Future
  • Boston, MA
software design architect technical
With 1,000+ intelligence professionals serving over 1,900 clients worldwide, Recorded Future is the world’s most advanced, and largest, intelligence company! We’re looking for a Principal Software Engineer to help design, build, and scale the systems that power our Attack Surface Intelligence module. You’ll be taking ownership of critical data pipelines responsible for the ingestion and distribution of critical intelligence signals, both internally and directly to customers via the product. The Attack Surface Intelligence Data Engineering team is responsible for two key datasets: our holistic global internet inventory and the technical artifacts of our customers’ attack surface. This role reports directly to the Engineering Owner for Attack Surface Intelligence Data and is ideal for someone who enjoys writing clean, maintainable code and thrives in distributed systems environments. You'll work closely with product management and other engineering teams to drive technical strategy and ensure our systems are reliable, performant, and insightful. What You’ll Do: Lead the design and implementation of backend services and APIs in Python. Architect and evolve microservice-based systems for scalability and resilience.

Please mention the word **FORTUNATE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
c# front-end software backend
NEORIS ahora parte de EPAM, es un acelerador Digital que ayuda a las compañías a entrar en el futuro, teniendo 20 años de experiencia como Socios Digitales de algunas de las mayores compañías del mundo. Somos más de 4,000 profesionales en 11 países, con nuestra cultura multicultural de startup en donde cultivamos innovación, aprendizaje continuo para crear soluciones de alto valor para nuestros clientes. Estamos en búsqueda del talento que ocupe la posición como Desarrollador .NET/SQL. Profesional en Ingeniería de Sistemas, Informática o afines, con al menos 3 años de experiencia en desarrollo de software usando C#, .NET Framework y .NET Core, capaz de participar en el ciclo completo del desarrollo, proponer mejoras técnicas y trabajar en equipo para implementar soluciones, resolver errores y aportar innovación en las herramientas tecnológicas del área. Principales responsabilidades: - Diseñar y desarrollar la lógica de negocio y los sistemas backend del producto. - Trabajar en estrecha colaboración con los desarrolladores de front-end para diseñar y desarrollar APIs funcionales, eficaces y completas. - Descifrar los sistemas de software de las aplicaciones legacy existentes y ser capaz de integrar la aplicación a las fuentes de datos aplicables. Requerimientos: - .NET / C# – Desarrollo de aplicaciones backend, construcción de APIs, servicios y lógica de negocio. - ETLs – Diseño, construcción y mantenimiento de procesos de extracción, transformación y carga de datos. - SQL Server – Manejo avanzado de consultas, stored procedures, modelado de bases de datos y opti

Please mention the word **DELIGHTFUL** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
content senior engineer backend

ABOUT onX

As a pioneer in digital outdoor navigation with a suite of apps, onX was founded in Montana, which in turn has inspired our mission to awaken the adventurer inside everyone. With more than 400 employees located around the country working in largely remote / hybrid roles, we have created regional “Basecamps” to help remote employees find connection and inspiration with other onXers. We bring our outdoor passion to work every day, coupling it with industry-leading technology to craft dynamic outdoor experiences.

Through multiple years of growth, we haven't lost our entrepreneurial ethos at onX. We offer a fast-paced, growing, tech-forward environment where ownership, accountability, and passion for winning as a team are essential. We value diversity and believe it leads to different perspectives and inspires both new adventures and new growth. As a team, we're hungry to improve, value innovation, and believe great ideas come from any direction.

Important Alert: Please note, onXmaps will never ask for credit card or SSN details during the initial application process. For your digital safety, apply only through our legitimate website at onXmaps.com or directly via our LinkedIn page.

WHAT YOU WILL DO

onX is seeking a talented Senior Backend Engineer to join our Content Delivery team. In this role, you will build the backend infrastructure that powers offline map experiences for millions of outdoor enthusiasts. You will work on high-performance data pipelines, map tile generation and delivery systems, and large-scale geospatial

Please mention the word **STUNNING** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.

$$$ Full time
Principal Data Engineer
  • Waymark
  • Remote
technical health healthcare engineer
About Waymark Waymark is a mission-driven team of healthcare providers, technologists, and builders working to transform care for people with Medicaid benefits. Our community-based care teams—powered by proprietary data science and ML technologies—support care for tens of thousands of Medicaid members across multiple states, driving measurable reductions in avoidable emergency department visits and hospitalizations. We're designing tools and systems that bring care directly to those who need it most—removing barriers and reimagining what's possible in Medicaid healthcare delivery and we are seeking a highly experienced Data Engineer to join this mission. This is a principal-level individual contributor role who combines deep backend engineering fundamentals with specialized expertise in Electronic Health Record (EHR) data integration. You will report to data engineering leadership and setting the technical direction for our clinical data platform by leading the design, development, and optimization of data pipelines that ingest, normalize, and transform clinical data from diverse EHR and payer systems. If this resonates with you, we invite you to bring your creativity, energy, and curiosity to Waymark. Key Responsibilities EHR & Partner Integrations Architect production-grade data pipelines that integrate clinical data through multiple channels—direct EHR connections (e.g., Epic, Cerner, Athenahealth), health information exchanges (HIEs), health alliance networks, and third-party integration vendors—via

Please mention the word **RIGHTEOUSLY** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Senior Backend Engineer Integrations
  • Arbiter AI
  • New York City
design system python technical

Arbiter is the AI-powered care orchestration system that unites healthcare. We are launching our best-in-class, patient-facing Agentic platform to optimize patient outcomes through a unique multimodal approach. We optimize complex healthcare workflows that interface with patients using the latest Agentic AI approaches, and we combine it with a sophisticated platform to serve this Agentic layer at scale. We are looking for expert engineers and leads to join our team and help us push the frontier of what's possible with Agentic workflows + Healthcare.

Backed by one of the largest seed rounds in health tech history and operators who bring the expertise and distribution to scale nationally, we're building the connected infrastructure healthcare should have had all along.

Our Engineering Culture & Values

We are a high-performing group of engineers dedicated to delivering innovative, high-quality solutions to our clients and business partners. We believe in:

  • Engineering Excellence: Taking immense pride in our technical craft and the products we build, treating both with utmost respect and care.

  • Impact-Driven Development: Firmly committed to engineering high-quality, fault-tolerant, and highly scalable systems that evolve seamlessly with business needs, minimizing disruption.

  • Collaboration Over Ego: Valuing exceptional work and groundbreaking ideas above all else. We seek talented individuals who are accustomed to working in a fast-paced environment and are driven to ship often to achieve significant impact.

  • Continuous Growth: Fostering an environment of continuous learning, mentorship, and professional development, where you can deepen your expertise and grow your career.

Responsibilities

As a Senior Backend Engineer, you will design, build, and operate the platform systems that power Arbiter's connections to the outside world and ensure reliable, performant data exchange across a complex ecosystem. You will own critical parts of our backend infrastructure, from API design and service orchestration to data pipelines and third-party system connectivity, working closely with product, engineering, and customer teams to ship production-grade systems with real customer dependency.

  • Platform Architecture & Backend Systems: Design, develop, and operate backend services that power Arbiter's core platform, with an emphasis on reliability, modularity, and clean system boundaries.

  • External System Connectivity: Build and maintain robust connections to third-party systems (e.g. cloud APIs, AI services, data exchange services, EHRs, telephony platforms). Own the abstractions that make these integrations reusable and adaptable across customers with minimal rework.

  • API Design & Data Exchange: Design and operate high-scale APIs (REST, gRPC, webhooks) and manage complex data flows including real-time streaming, batch processing, file-based exchange (e.g. SFTP, HL7, EDI), and event-driven pipelines.

  • Performance & Reliability: Ensure high throughput, low latency, and fault tolerance across backend services through strong system design, monitoring, alerting, and operational best practices. Handle vendor failures, retries, idempotency, and graceful degradation.

  • Data Engineering & Pipeline Ownership: Build and maintain ETL/ELT pipelines, manage schema evolution, and ensure data quality and integrity across systems with varying formats, standards, and reliability.

  • Infrastructure & Deployment Excellence: Implement and uphold best practices for CI/CD, testing, observability, and deployment of backend systems in production cloud environments.

  • Cross-Functional Execution: Partner closely with AI engineers, product managers, implementation teams, and customer stakeholders to translate ambiguous, high-impact problems into scalable technical solutions.

  • Technical Leadership & Mentorship: Mentor engineers, contribute to internal documentation and standards, influence technical direction, and raise the overall engineering bar.

  • Ownership & On-Call: Take end-to-end ownership of critical systems, including participating in on-call rotations and leading incident resolution when production issues arise.

Minimum Qualifications

  • 5+ years of hands-on experience building and operating production backend systems in high-availability environments.

  • Computer Science or Engineering degree, or equivalent practical experience.

  • Experience building and maintaining large-scale Python codebases with strong opinions on structure, quality, and tradeoffs.

  • Deep understanding of API design patterns, versioning, backward compatibility, and managing breaking changes across consumers.

  • Experience building reusable abstraction layers or connector frameworks that allow a single integration pattern to serve multiple customers or vendors.

  • Proven experience designing systems that connect to third-party services, including handling authentication, rate limiting, retry logic, and failure modes gracefully.

  • Strong understanding of concurrency, scalability, reliability, and distributed systems patterns.

  • Hands-on experience with data pipeline architectures: batch and streaming, schema management, and data quality enforcement.

  • Experience with cloud infrastructure (AWS, GCP, or Azure) and production deployments.

  • Strong communication skills and ability to work effectively across functions.

  • Proficiency with AI-assisted development tools (e.g., Cursor, Claude Code, GitHub Copilot).

  • Track record of delivering complex systems end-to-end with minimal oversight.

Preferred Qualifications

  • Experience with healthcare data exchange standards (HL7, FHIR, EDI) or similarly complex domain-specific protocols in other industries (fintech, telecom, logistics) is a plus.

  • Familiarity with database performance tuning, query optimization, and managing large-scale relational databases (PostgreSQL, CloudSQL).

  • Startup or early-stage experience operating in fast-moving, high-ambiguity environments.

This role can be remote or on-site, based in our New York City or Boca Raton offices, in a fast-paced, collaborative environment where great ideas move quickly from whiteboard to production.

Job Benefits

We offer a comprehensive and competitive benefits package designed to support your well-being and professional growth:

  • Highly Competitive Salary & Equity Package: Designed to rival top FAANG compensation, including meaningful equity.

  • Generous Paid Time Off (PTO): To ensure a healthy work-life balance.

  • Comprehensive Health, Vision, and Dental Insurance: Robust coverage for you and your family.

  • Life and Disability Insurance: Providing financial security.

  • Simple IRA Matching: To support your long-term financial goals.

  • Professional Development Budget: Support for conferences, courses, and certifications to fuel your continuous learning.

  • Wellness Programs: Initiatives to support your physical and mental health.

Pay Transparency

The annual base salary range for this position is $148,500-$190,000. Actual compensation offered to the successful candidate may vary from the posted hiring range based on work experience, skill level, and other factors.



Please mention the word **LAUDABLE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Software Engineer
  • Clover Health
  • USA
software design financial cloud
At Counterpart Health, we are transforming healthcare and improving patient care with our innovative primary care tool, Counterpart Assistant. By supporting Primary Care Physicians (PCPs), we are able to deliver improved outcomes to our patients at a lower cost through early diagnosis and longitudinal care management of chronic conditions. We are looking for Software Engineers who are eager to tackle a variety of challenges. In this role, you will collaborate with developers, data scientists, and healthcare professionals to build tools that improve real-world health outcomes. As a Software Engineer, you will: - Simplify the complexities of healthcare by building scalable systems that enhance human efforts. - Stay up-to-date with new tools and technologies to solve challenges and advance our goals. - Help define and maintain development best practices to enable rapid iteration while ensuring quality, including writing tests and documenting key implementations. - Work with Product Managers and operational teams to design and develop new features. You should get in touch if: - You have 3+ years of experience as a Software Engineer with proficiency in Python, JavaScript, or Go. - You have experience writing SQL queries in databases such as Postgres, MySQL, BigQuery, Snowflake, or similar systems. - You are comfortable working with data pipelines, including cleaning, normalizing, and improving data quality. - You can create and call RESTful APIs (experience with gRPC is a plus). - You have experience working with cloud services such as GCP or AWS. Benefits Overview: - Financial Well-Being: Our commitment to attracting and r

Please mention the word **HAPPIER** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Customer Program Manager
  • Nexxa.AI
  • Sunnyvale
manager jira training consulting

Customer Program Manager

Cross-Site Project Coordination | Schedule & Risk Management | High-Visibility Communication | SF Bay Area, CA

ABOUT NEXXA

Nexxa.ai is building artificial super intelligence for heavy industries — enabling machines, systems and operations to think, decide and act autonomously across manufacturing, large-scale infrastructure, logistics and legacy environments. Our mission is to translate deep technical breakthroughs into operational reality, solving some of the hardest systems-level problems in industry.

THE ROLE

Reporting to CPO

We're hiring a Customer Program Manager to be the operational backbone of our customer delivery engine. You'll manage project schedules, status visibility, and cross-site coordination across Applied AI and core engineering teams operating across global sites — ensuring every engagement ships on time with full visibility. You'll work alongside a Delivery Manager who owns the customer relationship and outcome quality, core-engineering remote project manager. Your job is to make sure the delivery machine runs — schedules are tracked, risks are flagged early, handoffs are clean, and every stakeholder knows exactly where things stand at any given moment.

WHAT YOU'LL DO

  • Manage end-to-end project schedules for customer engagements across Applied AI (FDE team) and core engineering teams spanning multiple geographies and time zones

  • Maintain real-time project status visibility — Confluence boards, Jira tracking, weekly status reports — so leadership, engineering, and the Delivery Manager always have a single source of truth

  • Run internal project review cadences: bi-weekly planning reviews, customer submissions reviews, and dev question sessions across all active engagements

  • Proactively identify risks, dependencies, and blockers before they become surprises — escalate to the Delivery Manager with proposed mitigations, not after deadlines slip

  • Own cross-site coordination across multiple sites — bridging time zones, aligning handoffs, and ensuring nothing falls between teams

  • Drive daily and weekly status updates across all active projects — post EOD updates in team channels with key changes, blockers, and next actions tagged to DRIs

  • Prepare and deliver weekly internal status reports to the CPO every Friday — consolidating project health, risk register, and upcoming milestones across all accounts

  • Track and maintain delivery governance artifacts: project plans, feedback/release trackers, QA checklists, go-live readiness assessments

  • Coordinate resource allocation and capacity planning across FDEs and engineering — flag overload risks and propose reallocation before quality suffers

  • Ensure Jira hygiene: correct assignees, updated due dates, closed tickets, and clean backlogs — so automated reporting and AI tools produce accurate outputs

  • Support the Delivery Manager in preparing customer-facing materials: milestone review decks, progress summaries, and QBR data

HOW THIS ROLE WORKS WITH THE DELIVERY MANAGER

The CPM and Delivery Manager share the delivery mission but own different dimensions:

  • You own: project schedules, daily/weekly status tracking, Jira hygiene, cross-site coordination, Confluence boards, internal reporting, resource capacity flagging, and governance artifact maintenance

  • Delivery Manager owns: customer relationship, outcome definition, delivery quality sign-off, CSAT/NPS, escalation resolution, post-delivery retrospectives, and account expansion insights

  • Together: the DM ensures we deliver the right thing at the right quality; you ensure we deliver it on schedule with full visibility and zero surprises

WHAT WE'RE LOOKING FOR

  • 5+ years in technical program management, project management, or delivery management — with at least 2 years managing cross-functional, cross-site engineering teams

  • Proven experience managing 3–5 concurrent external facing projects simultaneously without dropping balls — you have a system, not just hustle

  • Strong command of project management tooling: Jira, Confluence, Rocketlane (or similar), and spreadsheet-based reporting. You're the person who keeps these tools clean and current.

  • Experience coordinating across time zones and distributed teams — you've worked with India/APAC engineering teams and know how to structure async handoffs

  • Excellent written communication — your status updates are crisp, your escalations are clear, and your meeting notes are actionable. You don't write paragraphs; you write bullet points with owners and dates.

  • Technical fluency — you can read architecture docs, understand data pipeline concepts, and have productive conversations with engineers about scope, effort, and trade-offs. You don't need to code, but you need to understand the work.

  • Anticipatory mindset — you see risks coming before they materialize. You flag a Milestone 1 delivery risk on Monday, not on Thursday when it's due.

  • Experience in enterprise SaaS, consulting delivery, or systems integration. Heavy industry experience (manufacturing, supply chain, energy) is a strong plus.

KEY SUCCESS INDICATORS

  • 100% of active projects have up-to-date Confluence boards with milestones, DRIs, and dates — refreshed daily, not weekly

  • Zero surprise delays — risks are flagged at least 1 week before they impact a deadline, with proposed mitigations

  • Weekly status reports delivered to Shashank (CPO) every Friday for Monday leadership calls — no exceptions, no late submissions

  • Customer communication cadence running on schedule: weekly updates sent, bi-weekly check-ins held, milestone reviews documented

  • Cross-site engineering alignment verified at every handoff — India team has clear specs, context, and deadlines before they start work

  • Jira data quality at 100% — accurate assignees, no stale tickets, closed items marked done. Automated reports pull clean data.

  • Resource conflicts identified and escalated before they impact delivery — capacity planning is proactive, not reactive

NICE TO HAVE

  • Experience with Rocketlane, Asana, or Monday.com for customer-facing delivery management

  • Prior experience at a fast-growing startup (seed to Series B) where you built the PM process from scratch

  • Experience working with AI/ML engineering teams — understanding model training timelines, data pipeline dependencies, and iterative delivery cycles

  • Familiarity with enterprise procurement and vendor management processes (purchasing control towers, SOW reviews, NDA workflows)

WHY NEXXA

  • Architect the intelligence layer for the world's largest industrial companies — your designs will run with top Fortune 100 companies

  • Work directly with the CPO and CTO on every engagement — ZERO layers of bureaucracy

  • Backed by silicon valley top VCs, with access to their portfolio network and enterprise resources

  • Early-stage equity with significant upside



Please mention the word **PEP** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
manager training technical supervisor

HHAeXchange is the leading technology platform for home and community-based care. Founded in 2008, HHAeXchange was born out of an idea to create a fully comprehensive end-to-end homecare solution to help people who are aging or have disabilities thrive in their homes and communities. Our employees are passionate about transforming the healthcare space by building the only homecare ecosystem that fully connects patients, personal care providers, managed care organizations, and states.  

HHAeXchange is seeking a Product Manager, Data Management & Platform to help define, govern, and scale how data is used across our healthcare platform. This role sits at the intersection of Product, Engineering, and Clinical/Financial operations, ensuring that the data powering RCM, EHR, Payroll, Payments, and the Universal Patient Record is accurate, connected, and trusted — and that it serves as a reliable foundation for AI-driven innovation.

This is an individual contributor role for a healthcare product professional who understands real-world clinical and financial workflows, is energized by the potential of AI to transform healthcare data, and can translate complex requirements into clear, actionable product decisions. The ideal candidate brings 5–7 years of product management experience in healthcare IT, a solid grasp of data platform concepts, and a genuine enthusiasm for applying AI and machine learning to solve meaningful problems in the home care space.

To perform this job successfully, an individual must be able to perform each essential job duty satisfactorily with or without reasonable accommodation.  Reasonable accommodations may be made to enable individuals with disabilities to perform the essential functions.

This is a fully remote opportunity for candidates located in the EST or CST time zones within the US only.

\n


Essential Job Duties

Product-Led Data Strategy

  • Contribute to and help execute the product vision and roadmap for HHAeXchange's enterprise data platform.
  • Define how core clinical, operational, and financial data is modeled, linked, and surfaced across the product ecosystem.
  • Partner with domain PMs (RCM, EHR, Payroll, Payments) to align data structures to real-world workflows and end-user needs.
  • Identify opportunities to reduce data fragmentation and improve consistency across product domains.

AI Enablement & Innovation

  • Serve as a product champion for AI and machine learning use cases built on the HHAeXchange data platform.
  • Define and prioritize data requirements that enable AI-driven features including predictive analytics, anomaly detection, automation, and intelligent recommendations.
  • Work with data science and engineering teams to ensure training data quality, feature pipelines, and model outputs are properly governed and trustworthy.
  • Evaluate and recommend AI tools, platforms, and frameworks that can accelerate product delivery and enhance the platform's intelligence capabilities.
  • Stay current on emerging AI/ML trends in healthcare — including generative AI, LLM applications, and agentic workflows — and translate relevant developments into product opportunities.
  • Champion responsible AI practices, including fairness, explainability, and compliance considerations relevant to healthcare data.

Healthcare Data Enablement

  • Ensure data models support claims, visits, authorizations, care plans, payroll, and payer rules.
  • Translate regulatory, audit, and reimbursement requirements into data standards and traceability.
  • Improve data lineage and reconciliation across payer-provider workflows.
  • Support the development of a Universal Patient Record that is complete, current, and usable across the platform.

Cross-Team Execution

  • Collaborate closely with Engineering, Architecture, and Platform teams to shape data services, APIs, and pipelines.
  • Write clear product requirements, user stories, and acceptance criteria for data platform features.
  • Prioritize data initiatives based on customer impact, revenue risk, compliance needs, and scalability.
  • Drive alignment across product teams on shared data definitions, metrics, and reporting standards.

Governance & Data Quality

  • Support the definition of data ownership, stewardship, and quality standards across product domains.
  • Help establish validation, monitoring, and escalation processes for data defects.
  • Create visibility into data health for product leaders, operations teams, and stakeholders.
  • Contribute to documentation of data standards and governance policies.


Other Job Duties
  • Other duties as assigned by supervisor or HHAeXchange leader.


Travel Requirements
  • Travel 10-25%, including overnight travel


Required Education, Experience, Certifications and Skills

Required 

  • 5–7 years of experience in product management within healthcare IT, preferably in RCM, EHR, or payer-provider platforms.
  • Solid understanding of claims workflows, clinical documentation, authorizations, eligibility, and reimbursement processes.
  • Demonstrated interest in and experience with AI, machine learning, or advanced analytics applied to healthcare data.
  • Familiarity with data platforms, data warehouses or lakehouses, and analytics and reporting tools.
  • Ability to partner effectively with Engineering and Architecture on platform-level systems and data infrastructure.
  • Working knowledge of healthcare data regulations and compliance requirements (e.g., HIPAA, Medicaid program integrity, EVV).
  • Strong written and verbal communication skills, including the ability to translate technical data concepts for non-technical stakeholders.
  • Experience writing product requirements, managing a backlog, and driving delivery in an agile environment.
  • Curiosity, adaptability, and a proactive mindset in a fast-evolving product environment.

Preferred

  • Experience with AI/ML product development, including defining data pipelines, feature requirements, or model evaluation criteria.
  • Familiarity with generative AI tools and their application in healthcare workflows (e.g., clinical documentation, billing, analytics).
  • Experience with Medicaid home care, personal care services (PCS), or HCBS programs.
  • Knowledge of data governance frameworks, master data management (MDM), or data quality tooling.
  • Exposure to modern data stack technologies (e.g., dbt, Snowflake, Databricks, or similar).
  • Experience working with EVV data or similar real-time visit verification systems.
  • Familiarity with interoperability standards such as HL7, FHIR, or X12 EDI.

 

Success Measures (First 12–18 Months)

  • Clear, well-adopted data models across key clinical and financial workflows.
  • Measurable reduction in data-related defects impacting claims, payroll, and reporting.
  • At least one AI-driven product capability successfully launched on a trusted data foundation.
  • Improved reconciliation across payer, provider, and caregiver data.
  • Faster time-to-market for data-dependent product features.
  • Strong cross-team adoption of shared data standards and definitions.


\n

The base salary range for this US-based, full-time, and exempt position is $105,000-115/yr, not including variable compensation. An employee’s exact starting salary will be based on various factors including but not limited to experience, education, training, merit, location, and the ability to exemplify the HHAeXchange core values.

 

This is a benefits-eligible position. HHAeXchange offers competitive health plans, paid time-off, company paid holidays, 401K retirement program with a Company elected match, including other company sponsored programs.

 

HHAeXchange is an equal-opportunity employer. The Company offers employment opportunities to all applicants and employees without regard to race, color, religion, national origin, sex, sexual orientation, gender identity or expression, age, disability, medical condition, marital status, veteran status, citizenship, genetic information, hairstyles, or any other status protected by local or federal law.



Please mention the word **SUAVE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
serverless node.js api senior

Sobre Coderio

 

Coderio diseña y entrega soluciones digitales escalables para empresas globales. Con una base técnica sólida y una mentalidad orientada al producto, nuestros equipos lideran proyectos complejos desde la arquitectura hasta la ejecución. Valoramos la autonomía, la comunicación clara y la excelencia técnica, colaborando estrechamente con equipos y socios internacionales para construir tecnología que genera impacto.

🌍 Más información: http://coderio.com

Buscamos un/a backend engineer con criterio técnico propio, capaz de diseñar microservicios event-driven que soporten millones de requests sin parpadear. Responsable de la capa de servicios y pipelines de datos, disponibilizando telemetría crítica para analítica. Debes ser capaz de interactuar con criterio técnico frente a equipos de Data Engineering y diseñar soluciones escalables bajo presión.

Lo que puedes esperar de este rol (Responsabilidades)

 

Es un rol de ownership técnico total: diseñas, decides, construyes, operas y te haces responsable de dominios críticos de la plataforma.

 

Requisitos

+5 años en desarrollo Backend (Seniority basado en autonomía y proactividad).

+3 años de experiencia sólida con Node.js y TypeScript.

+3 años operando en entornos AWS Serverless (Lambda, API Gateway, SQS, SNS).

+2 años de experiencia en Data Engineering básica y modelado de bases de datos relacionales (PostgreSQL).

Deseable

+1 año de experiencia con TimescaleDB o bases de datos Time-series.

Experiencia previa en proyectos de IoT o telemetría industrial.

Conocimiento de infraestructura como código (Terraform/CDK).

 

Soft Skills

Ownership Extremo: Capacidad de tomar un dominio y llevar la resolución de punta a punta.

Comunicación de Criterio: Capacidad para desafiar y colaborar con stakeholders técnicos (Data Teams).

Proactividad: No espera instrucciones; identifica cuellos de botella y propone soluciones.

 

Beneficios

 

Modalidad remota

Participación en un proyecto estratégico regional de alto impacto.

Colaboración con un equipo internacional y liderazgo técnico sólido.

Oportunidad de crecimiento profesional dentro de proyectos de transformación digital.

 

¿Por qué unirte a Coderio?

 

Somos remote-first, apasionados por la tecnología, el trabajo colaborativo y la compensación justa. Ofrecemos un entorno inclusivo, desafiante y con oportunidades reales de crecimiento. Si te motiva construir soluciones con impacto en proyectos globales de finanzas y RRHH. Te estamos esperando. Postula ahora.

\n


\n

Please mention the word **MESMERIZINGLY** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Senior Data Engineer
  • Thoughtworks
  • Chicago
design security technical support
Senior data engineers at Thoughtworks are engineers who build, maintain and test the software architecture and infrastructure for managing data applications. They are involved in developing core capabilities which include technical and functional data platforms. They are the anchor for functional streams of work and are accountable for timely delivery. They work on the latest big data tools, frameworks and offerings (data mesh, etc.), while also being involved in enabling credible and collaborative problem solving to execute on a strategy. Job responsibilities You will develop and operate modern data architecture approaches to meet key business objectives and provide end-to-end data solutions. You will develop intricate data processing pipelines, addressing clients' most challenging problems. You will collaborate with data scientists to design scalable implementations of their models. You will write clean, iterative code using TDD and leverage various continuous delivery practices to deploy, support and operate data pipelines. You will use different distributed storage and computing technologies from the plethora of options available. You will develop data models by selecting from a variety of modeling techniques and implementing the chosen data model using the appropriate technology stack. You will collaborate with the team on the areas of data governance, data security and data privacy. You will incorporate data quality into your day-to-day work. Job qualifications Technical Skills Working with data excites you: you can build and operate data pipelines, and maintain data storage, all within distributed systems. You have hands-on experience of data modeling and modern data engineering tools and platforms. You have experience in writing clean, high-quality code using the preferred programming language. You have built and deployed large-scale data pipelines and data-centric applications using any of the distributed storage platforms and distributed processing platforms in a production setting. You have experience wit

Please mention the word **UNBIASED** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Engineering Manager
  • Hinge Health
  • Bengaluru
manager architect technical support

The Opportunity

Hinge Health is hiring an Engineering Manager for our Growth Data Platform (GDP) pod in Bangalore. This is a pivot-point role for a leader who is ready to move beyond traditional software management and lead a team into the era of AI-Native Engineering and ML-Driven Growth. The GDP pod is the engine room of Hinge Health's growth strategy. You own the data pipelines, event streams, and the emerging "Intelligence Layer" that powers every member interaction—from the first ad they see to the "Daily Streak" notification that keeps them pain-free. In 2026, your mission is to transform GDP from a data mover to a decision engine. You will partner with Data Science to operationalize high-value ML models (like our Direct Mail Propensity Model and Contextual Bandits) that autonomously decide the channel, content, and timing of our marketing. Simultaneously, you will pioneer our "Harness Engineering" initiative, transforming your pod's workflow from manual coding to managing autonomous AI agents that build, test, and verify our data infrastructure. You will lead a high-performing team in Bangalore, serving as the strategic bridge between SF Product Strategy and technical execution


What You’ll Accomplish

  • Build the "Intelligence Layer": Move beyond simple data piping. Architect the real-time decisioning layer that ingests ML signals (e.g., Churn Risk, Propensity to Convert) and routes them instantly to execution platforms like Iterable.

  • Operationalize Growth ML Models: Partner with Data Science to take predictive models out of the lab and into production. You will own "Phase 3" of the model lifecycle: hardening, serving, and monitoring models that control millions of dollars in marketing spend.

  • Lead the Transition to Harness Engineering: Drive the adoption of AI-native workflows (using tools like Cursor and Claude Code). Shift the team’s focus from "typing code" to building the test harnesses, specs, and safety rails that allow agents to autonomously maintain our pipelines.

  • Guarantee Data Trust ("Glass Box" Observability): Champion a culture of radical observability. Implement automated "data sentinels" and contract tests that catch schema violations and freshness issues before they impact our marketing campaigns.

Basic Qualifications

  • 2+ years of experience managing engineering teams. You are a "player-coach" who can build a "One Team" culture, bridging the gap between SF and Bangalore with high-agency leadership.

  • 3+ years of experience with data engineering technologies including experience with distributed data processing frameworks (e.g., PySpark, Databricks) and SQL.

  • Experience with production data pipelines and understanding of data lifecycle management, including pipeline orchestration, monitoring, and operational excellence practices.

Preferred Qualifications

  • ML Ops & Model Serving Experience: You understand the lifecycle of data and models. You have experience with Kafka and event-driven architectures, and you know what it takes to serve an ML model in production (latency, feature stores, drift monitoring).

  • AI-Forward Leadership: You are excited, not intimidated, by the shift to AI-assisted engineering. You are eager to experiment with new workflows where engineers act as architects and auditors of AI-generated code.

  • Architectural Rigor: You can simplify complex systems. You have a track record of converging "sprawling" pipeline patterns into robust standards (e.g., moving ad-hoc scripts into a unified Event-Driven Architecture).

  • Operational Excellence: You value SLOs, runbooks, and incident management. You believe that "production reliability" is a feature, especially when dealing with data that drives real-time member health decisions.

  • Experience with Marketing Tech (Iterable, Braze) or Customer Data Platforms (Segment, Hightouch).

  • Experience implementing Contextual Bandits or similar experimentation frameworks.

  • Background in Healthcare/HIPAA compliant environments.

About Hinge Health

At Hinge Health, we’re using technology to scale and automate the delivery of healthcare – starting with musculoskeletal (MSK) conditions, which affect over 1.7 billion people worldwide. With an AI-powered human-centered care model, Hinge Health leverages cutting-edge technology to improve outcomes, experiences and costs to help people move beyond their pain. The platform addresses a broad spectrum of MSK care – from acute injury, to chronic pain, to post-surgical rehabilitation – through personalized, evidence-based care.

As the preferred partner to 50+ health plans, PBMs and other ecosystem partners, Hinge Health is available to over 20 million people across more than 2,550 employers. The company is headquartered in San Francisco with additional offices in Montreal and Bangalore. Learn more at http://www.hingehealth.com.

Hinge Health Hybrid Model

We believe that remote work and in-person work have their own advantages and disadvantages, and we want to be able to leverage the best of both worlds. Employees in hybrid roles are required to be in the office 3 days/week.

This is a Bengaluru-based role that involves regular interaction and collaboration with Hinge Health colleagues in San Francisco, CA. Time zones: San Francisco is the Pacific Time Zone, which is 12 hours and 30 minutes behind India Standard Time – for example, 8am in San Francisco is 8:30pm in Bengaluru. Standard working hours in San Francisco are between 8am - 6pm. For this role, applicants should be open to meetings in the late evening following India Standard Time.

What You'll Love About Us

  • Inclusive healthcare and benefits: In addition to comprehensive medical, dental, and vision coverage, we provide employees and their family members with Group Medical Coverage (GMC), Group Term Life Insurance (GTL), and Group Personal Accident Insurance (GPA).

  • We also offer a lifestyle stipend to support your overall well-being, along with learning and development opportunities to help you grow both personally and professionally.

  • Grow with us through discounted company stock through our ESPP with easy payroll deductions.

Culture & Engagement

Hinge Health is an equal opportunity employer and prohibits discrimination and harassment of any kind. We make employment decisions without regards to race, color, religion, sex, sexual orientation, gender identity, national origin, age, veteran status, disability status, pregnancy, or any other basis protected by federal, state or local law.

By submitting your application you are acknowledging we are using your personal data as outlined in the personnel and candidate privacy policy.

.


Beware of Phishing Attempts: We've noticed an increase in phishing where fraudsters impersonate employees and send fake job offers to steal sensitive information. We'll never ask for financial details during the hiring process and only use "@hingehealth.com" emails. If you receive a suspicious offer, stop communication and report it to the US FBI Internet Crime Complaint Center. To verify an email from our recruiting team, forward it to security@hingehealth.com.



Please mention the word **BELIEVABLE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Machine Learning Engineer
  • Radformation
  • Remote
design support software code

About Radformation

Radformation is transforming the way cancer clinics deliver care. Our innovative software automates and standardizes radiation oncology workflows, enabling clinicians to plan and deliver treatments faster, safer, and more consistently, so patients everywhere can receive the same high-quality care.

Our software focuses on three key areas:

  • Time savings through automation.
  • Error reduction through automated systems.
  • Increased quality care through advanced algorithms and workflows.

We are a fully remote, mission-driven team united by a shared goal: to reduce cancer’s global impact and help save more of the 10 million lives it claims each year. Every line of code, every product release, and every conversation with our customers brings us closer to ensuring no patient’s treatment quality depends on where they live.

Why This Role Matters

In this role you will help advance Radformation’s AI-driven radiotherapy products by building and improving machine learning models that directly impact clinical workflows and patient outcomes.

You will work closely with AI, cloud, research, and product teams to develop scalable data pipelines, improve model performance, and support regulatory submissions for medical device software.

Responsibilities Include:

  • Design, build, and maintain robust ETL pipelines to support AI model development and deployment.
  • Develop, train, and optimize machine learning models used in radiotherapy software.
  • Collaborate with product and research teams to bring new AI-driven features and algorithms into production.
  • Support FDA submissions by contributing to documentation, validation, and regulatory processes.
  • Participate in design reviews, risk analyses, and cross-functional discussions to ensure safe and effective products.
  • Mentor junior engineers and data scientists and contribute to a collaborative team environment.

Required Experience:

  • MS in Computer Science, Mathematics, Statistics, or a related field with 3+ years of experience.
  • Expert-level proficiency in Python.
  • Hands-on experience building, training, and tuning machine learning models.
  • Strong experience with PyTorch and/or TensorFlow.
  • Experience developing convolutional neural networks, including U-Net architectures.
  • Experience using Git and modern code repositories (GitHub, Bitbucket, Azure DevOps, etc.).

Preferred Experience:

  • Experience with medical imaging and image processing techniques (segmentation, resampling, smoothing).
  • Familiarity with clinical data standards such as DICOM or HL7.
  • Experience working in regulated environments (HIPAA, FDA, or medical device software).
  • Experience with modern AI-assisted development tools (e.g., Cursor, Claude Code, Codex).

AI & Hiring Integrity

At Radformation we believe AI can be an incredible tool for innovation, but our hiring process is all about getting to know you, your skills, experience, and unique approach to problem solving. We ask that all interviews and assessments be completed without tools that generate answers in real time. This helps ensure a fair process for everyone and allows us to see your authentic work. Using such tools during the process may affect your candidacy.

Benefits & Perks — What Makes Us RAD

We care about our people as much as we care about our mission. We offer competitive compensation, benefits, and the opportunity to make an impact in the fight against cancer. The salary range for this role is $160,000 - $200,000 USD base, plus bonus eligibility.

For US teammates (via TriNet):

Health & Wellness

  • Multiple high-quality medical plan options with substantial employer contributions toward premiums, often covering the full cost depending on the plan selected.
  • Health coverage starting on day one
  • Short-term and long-term disability and supplementary life insurance

Financial & Professional Growth

  • 401(k) with employer match vested immediately
  • Annual reimbursement for professional memberships
  • Conference attendance and continued learning opportunities

Work-Life Balance & Perks

  • Self-managed PTO and 10 paid holidays
  • Monthly internet stipend
  • Company-issued laptop and one-time home office setup stipend
  • Fully remote work environment with virtual events and yearly retreats, because we like to have fun while doing work that matters

For global teammates (via Deel):
At Radformation, we want every team member to feel supported, no matter where they live. For teammates outside the US, we provide benefits that align with local laws and standards, working with our Employer of Record (EOR) partners to ensure fairness and equity. This means your benefits package will be locally compliant, competitive, and designed to support your health, financial security, and work-life balance.

Our Commitment to Diversity

Cancer affects people from every walk of life, and we believe our team should reflect that diversity. Radformation is proud to be an equal opportunity workplace and an affirmative action employer. We welcome candidates from all backgrounds and are committed to fostering an inclusive environment for all employees.

Agency & Candidate Safety Notice

Radformation does not accept unsolicited resumes from agencies without a signed agreement in place. We do not partner with third-party recruiters unless explicitly stated. All legitimate communication from Radformation will come from an @radformation.com email address. If you receive outreach from another domain or via unofficial channels, please contact careers@radformation.com.

\n


\n

Please mention the word **EBULLIENTLY** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Engineering Manager Data Platform
  • TrueML
  • Remote in USA
manager design system python

Why TrueML?

 

TrueML is a mission-driven financial software company that aims to create better customer experiences for distressed borrowers. Consumers today want personal, digital-first experiences that align with their lifestyles, especially when it comes to managing finances. TrueML’s approach uses machine learning to engage each customer digitally and adjust strategies in real time in response to their interactions.

 

The TrueML team includes inspired data scientists, financial services industry experts and customer experience fanatics building technology to serve people in a way that recognizes their unique needs and preferences as human beings and endeavoring toward ensuring nobody gets locked out of the financial system.


About This Role:

As the Engineering Manager for our Data Platform, you will be the primary architect of the ecosystem that powers TrueML’s intelligence. We are currently in a phase of purposeful scaling, and we need your leadership to build a rock-solid, high-performing data foundation that bridges the gap between raw infrastructure and actionable insights. Your goal is to champion data integrity and technical excellence while leading a world-class team during this period of deliberate expansion.

\n


What You'll Do:
  • Empower a Talented Team: Lead, manage, and mentor a group of data engineers, fostering their career development and championing a culture of technical excellence.
  • Architect Resilient Infrastructure: Own the design and development of data pipelines and systems to ensure they are prepared for company-wide expansion.
  • Champion Data Trust: Act as a relentless advocate for data quality by implementing the system controls and SLAs necessary for flawless production processes.
  • Collaborate Strategically: Partner cross-functionally with Data Science and Product managers to translate complex business needs into efficient, well-documented data models.
  • Maintain Technical Excellence: Perform high-impact code reviews and provide critical guidance to optimize ETL pipelines and schema performance.
  • Balance Leadership with Craft: Contribute directly to development work and troubleshooting alongside your team when the mission requires it.
  • Drive Data Accessibility: Ensure data is a true business enabler by making it reliable and easily accessible for stakeholders across the company.


Who You Are:

An Experienced Leader: You have 2+ years of hands-on management experience and 5+ years of relevant data engineering expertise, with a track record of growing teams through coaching.

- A Big Data Expert: You have deep familiarity with modern technologies like Snowflake, Airflow, BigQuery, or Redshift, and mastery of both RDBMS and NoSQL databases.

- A Master of the Stack: You possess advanced proficiency in Python or Java and expert-level SQL skills, specifically in scaling schemas and tuning ETL performance.

- A Systems Thinker: You have extensive experience designing data warehouses and workflow systems, including owning SLAs for critical production processes.

- An Elite Communicator: You are a natural bridge-builder who can translate deep technical hurdles into clear, actionable updates for business partners.

- Purpose-Driven: You thrive in environments that value intentional progress and are excited to mature a data ecosystem from the ground up.

- Bonus Skills: You bring experience with Spark, Scala, or Protocol Buffers, or you have navigated the unique regulatory challenges of the FinTech industry.


\n
$111,700 - $148,900 a year
Compensation Disclosure: This information reflects the anticipated base salary range for this position based on current national/regional data. Minimums and maximums may vary based on location. Individual pay is based on skills, experience, and other relevant factors.
\n

We are a dynamic group of people who are subject matter experts with a passion for change. Our teams are crafting solutions to big problems every day. If you’re looking for an opportunity to do impactful work, join TrueML and make a difference.

 

Our Dedication to Diversity & Inclusion

 

TrueML and TrueAccord are equal opportunity employers. We promote, value, and thrive with a diverse & inclusive team. Different perspectives contribute to better solutions and this makes us stronger every day. We do not discriminate on the basis of race, religion, color, national origin, gender, sexual orientation, age, marital status, veteran status, or disability status.


For California Applicants: we collect personal information for employment purposes. We do not sell personal information. Most of the information we have is provided to us by you and/or collected as part of the employment process. For more details on how we use, share, and delete personal information see our Privacy Policy.



Please mention the word **EXULTINGLY** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Sr Software Engineer B E
  • Rebuy, Inc.
  • Remote
software design jira saas

The Company You’ll Join

At Rebuy, we’re on a mission to revolutionize shopping with intelligent, personalized experiences that wow customers around the globe. As a fully remote team, we power some of the fastest-growing DTC brands like Aviator Nation, Liquid Death, Magic Spoon, Blenders, Laird Superfoods, Primal Kitchen, and many more.

We believe in ownership, drive, and empathy, and strongly uphold that every team member plays a vital role in shaping the future of intelligent commerce. Our culture thrives on collaboration, creativity, and genuine passion. We don’t just build great tech - we build lasting partnerships, a strong community, and a place where people love to work.

The Problems You’ll Solve

Rebuy and its team members continually strive to create a high-spirited, intentional work environment that stresses performance, productivity, collaboration, and merit.

As a Sr. Software Engineer, Back-End, you’ll own some of the most consequential systems at Rebuy. Your primary anchor is our billing and payments infrastructure — the engine that determines how merchants are charged, how partners get paid, and how financial balances flow across our entire product suite. This is genuinely complex financial engineering. It requires deep PHP and Go expertise, careful architecture, and judgment that no automated tool can replicate. Merchant billing runs daily, touches real revenue, and demands someone who understands both the technical and business dimensions of every decision.

Alongside billing, you’ll grow into a broader platform portfolio — the partner portal, data ETL pipelines, customer-facing APIs, and reporting infrastructure that power the business. And in the near term, you’ll play a critical role in a significant technical migration: moving our legacy Code Igniter 2 codebase to Code Igniter 4, including work tied to increasing our enterprise market share. This migration requires hands-on PHP expertise and cannot be deferred.

You won’t be handed a sprawling list of things you must do on day one. You’ll be trusted to grow into this role — and rewarded when you do.

  • Billing & Payments Architecture: Design and build Rebuy’s centralized billing system that handles merchant billing, partner payments, and customer-facing charges. Architect the integration layer that allows payment balances to be applied across Rebuy’s full suite of services. Tackle genuinely complex financial engineering challenges with PHP and Go at scale.

  • Build Robust APIs: Design and implement secure, well-structured APIs in PHP and Go to power billing events, payment processing, and financial data flows across our platform and Shopify integrations.

  • Legacy Modernization: Lead and contribute to the migration of our Code Igniter 2 codebase to Code Igniter 4. This is high-priority, near-term work with real business dependencies — including enterprise partnership commitments — and requires a PHP engineer with the experience and judgment to do it right.

  • Agentify the Platform: Partner with product and engineering to identify where AI agents can automate workflows, surface insights, and guide merchants through our product. Build the backend systems — APIs, data pipelines, and event hooks — that enable intelligent automation. This is genuinely new territory and one of the most exciting growth vectors for Rebuy’s product.

  • Platform Breadth: Our team owns more than billing and payments — we also support a partner portal, data ETL pipelines, customer-facing reporting APIs, and the infrastructure that makes data flow reliably across the business. You won’t be responsible for all of it on day one, but you’ll have genuine opportunities to grow into the areas that most interest you. Engineers here don’t get siloed; they get context.

  • Engineering Best Practices: Contribute significantly to the engineering culture at Rebuy by establishing, documenting, and promoting best practices. Lead initiatives to introduce and standardize frameworks and tools that increase development efficiency and maintainability.

  • Security & Compliance: Stay current with the latest security trends, vulnerabilities, and best practices as they apply to billing and payment systems. Champion security-first engineering across authentication, authorization, data encryption, and compliance considerations in everything you build.

  • PHP Technical Leadership: Serve as a key technical anchor for PHP across the engineering organization. Rebuy’s codebase has significant PHP depth and relatively few engineers with that expertise. You’ll lead code reviews, share knowledge actively, and help raise the PHP competency of the broader team.

  • Quality Assurance: Conduct quality checks on deliverables to ensure code, setup, and configurations meet expected results. Ensure that all features meet high standards of quality and performance before deployment.

  • Team Collaboration: Engage actively in building a strong team culture. Work closely with the Product Owner, Engineering Manager, and peers across billing, payments, partner tools, and data infrastructure to define requirements, estimate effort, and drive solutions forward. This is a team where your voice matters — you won’t just be handed tickets. Assist the Support team in triaging and resolving high-priority production issues.

Technologies We Use:

  • AI: Anthropic Enterprise Claude Code / Co-work, Cursor, Adhoc AI tools budget.

  • Frontend Technologies: React, TypeScript, GraphQL, VueJS, Angular

  • Backend technologies: PHP, GO, MySQL, BigTable, Elasticsearch

  • Other Tools: Jira, Bitbucket, Confluence, Google Suite, Slack, One Password, Notion


Who You Are

We’re stoked to meet you and get to learn more about you, your experience and your interest in joining our team.

The Hard Skills:

  • Experience building or maintaining billing, payments, or financial systems — including working with payment processors, subscription engines, invoicing pipelines, or similar financial infrastructure in a production SaaS environment.

  • Educational background in CS // Engineering or a similar area.

  • 5+ years of hands-on experience building backend applications with PHP and Go, with a proven track record of delivering complex, high-traffic systems.

  • Experience designing and implementing secure, scalable, and maintainable RESTful APIs in PHP and Go, with a deep understanding of API design patterns, versioning, and performance optimization.

  • Experience with cloud-based technologies, preferably GCP.

  • Strong understanding of a performant SaaS environment.

  • Experience in a Scrum/Agile environment.

  • Experience with the Atlassian suite, including Jira and Bitbucket.

  • Solid understanding of security fundamentals as they apply to backend and financial systems — including secure coding practices, authentication/authorization patterns, data encryption, and awareness of current vulnerability trends (e.g. OWASP Top 10)

The Soft Skills:

  • A collaborative mindset and work approach with the ability to lead projects and mentor others.

  • The ability to thrive in a fast-paced environment with a high level of autonomy and responsibilities.

  • Excellent communication skills, especially being able to explain technical concepts to both technical and non-technical audiences.

  • Genuinely curious about the intersection of engineering and business. You care about the downstream impact of what you build — not just that the code works, but that it moves the company forward.

Who You’ll Meet With

Now let’s get into who you’ll meet during our interview process! After you submit your application and it’s been reviewed by our team, we will reach out to you inviting you to meet with us. From there, you can expect an interview process similar to this:

  • An introductory call with someone from the Talent Acquisition team for about 30 min.

  • Interview with the Hiring Manager to learn more about you and answer your questions about Rebuy and this role

  • A coding challenge and white boarding exercise to show us your skillset during a live panel interview with a few team members.

  • Short final interview with our CEO and COO where you’ll get to learn more about Rebuy.

The Perks You’ll Enjoy

Rebuy is a fully remote company across the U.S. and Canada that aims to provide all of our team with the resources, support and flexibility they need to thrive in their roles.

  • Team: We’ve got the best, brightest, most brilliant team members who are excited to meet you! We also like to think we have a good sense of humor.

  • Remote Work: With a strong internet connection, you’re able to work from anywhere within the U.S. and Canada.

  • PTO: We offer a flexible vacation policy, generous holiday schedule, parental leave and sick policy. There’s other policies too like a birthday holiday!

  • Amazing Benefits: 100% free health, dental, and insurance for you and your family. Don’t worry, there’s even more!

  • Retirement Plans: For our U.S. employees we offer 401(k) retirement plans and for our Canadian employees we offer a TFSA and RRSP retirement plans. You’ll also enjoy a 3% contribution of your gross salary, no matter where you’re located!

Our compensation reflects the cost of labor across several U.S. geographic markets, and we pay differently based on those defined markets. The U.S. pay range for this position is $130,000 - $180,000 USD annually. Pay within this range varies by work location and may also depend on job-related knowledge, skills, and experience. Your recruiter and hiring manager can share more about the specific salary range for the job location during the hiring process.

Disclosures:

Equal Opportunity Statement

Rebuy, Inc. is proud to be an Equal Employment Opportunity employer. We do not discriminate based on gender, race or color, ethnicity or national origin, age, disability, religion, sexual orientation, gender identity or expression, veteran status, or any other applicable characteristics protected by law.

Rebuy, Inc. aims to make rebuyengine.com accessible to any and all users. If you have a disability or special need that requires accommodation to navigate our website or complete the application process, email hr@rebuyengine.com.



Please mention the word **SUPPORTER** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$91455 - $137273 Full time
redis sysadmin technical support

Who we are

We're Redis. We built the product that runs the fast apps our world runs on. (If you checked the weather, used your credit card, or looked at your flight status online today, you’re welcome.) At Redis, you’ll work with the fastest, simplest technology in the business—whether you’re building it, telling its story, or selling it to our 10,000+ worldwide customers. We’re creating a faster world with simpler experiences. You in?

Why would you love this job?

As a Technical Support Engineer, you will be responsible for helping customers by diagnosing and resolving complex technical issues in a high-contribution role with exciting technical challenges, ongoing learning, and the excitement of helping name-brand customers as part of our fun, tight-knit team.

In this role, you will use and extend your existing technical depth and increase your technical breadth by addressing complex problems for the top companies in the world. You will level up to be an expert complex problem solver on Redis Enterprise Software, being used as a high-performance database by thousands of worldwide customers. You will dive deep into different exciting forefront technologies by supporting Redis Enterprise running on the top Cloud Platforms and in the top container orchestration platforms.

Join the best of the best and continuously learn new things. We are looking for brilliant experts who are curious, persistent, and happy digging through the full stack, from code to Sysadmin to networking to performance. If this sounds like you, please check out the technical foundation we’d like you to bring.

What you’ll do:

  • Work with customers to troubleshoot and resolve complex software issues:

    • Reproduce issues, replicating customer environments as needed.

    • Document issues and contribute to our internal team documentation.

    • Provide Root Cause Analysis

  • Collaborate with Engineering as needed to provide solutions.

  • Analyze performance questions that may arise along the data path (including networks) for deployments that may be in the Cloud or On-premises.

  • Provide technical expertise during testing, deployment, and upgrading of Redis software.

  • Manage critical customer issues, facilitating communication between customers, CloudOps, Engineering, Product, TAMs, and Sales.

  • Serve as the customer advocate for timely resolution of issues and handling escalations while helping customers realize and maximize the value of their Redis subscription.

  • Participate in new product development, customer training, and other support-related activities.

This role requires a 5-day work week that includes Saturday and Sunday.

What will you need to have?

  • At least five years of technical experience as a Support Engineer, Systems Engineer, Software Engineer, or Site Reliability Engineer in an enterprise software company

  • At least four years of experience troubleshooting real-time production systems

  • At least two years of hands-on experience with cloud infrastructure.

  • Strong background in scripting or programming languages (Python, Java, C#, JavaScript, Bash, Powershell, etc.)

  • Expert working knowledge in Linux/Unix and networking (TCP/IP)

  • Professional experience working with networking tools like wireshark, tcpdump, etc.

  • Experience in analyzing and debugging production issues at scale.

  • Experience with alerting and monitoring systems (Prometheus, Grafana, ELK, Splunk, etc.).

  • Working knowledge of Cloud-based and On-premises environments

  • Proficiency in communication and presentation, both written and verbal (in English)

  • Strong technical background with excellent problem-solving and multi-tasking skills

  • High availability and commitment to customers at any time

Extra great if you have:

  • Bachelor of Science in Computer Science or Information Systems

  • Experience with NoSQL databases (especially Redis)

  • Experience working with container orchestration environments, such as Kubernetes

The estimated gross base annual salary range for this role is $91,455 – $137,273 per year in New York, California, Washington, Colorado, and Rhode Island. Actual compensation may vary and is dependent on various factors, including a candidate’s work location, qualifications, experience, and competencies. Base annual salary is one component of Redis’ total compensation and competitive benefits package, which may include 401(k), unlimited time off, learning and development opportunities, and comprehensive health and wellness benefits. This role may include discretionary bonuses, stock options, commuter benefits based on location, or a commission plan. Salary history is not used in compensation package decisions. Redis utilizes market pay data to determine compensation, so posted compensation ranges are subject to change as new market data becomes available.

As a global company, we value a culture of curiosity, diversity of thought, and innovation from our employees, customers, and partners. Redis is committed to a diverse and inclusive work environment where all employees’ differences are celebrated and supported, and everyone feels safe to bring their authentic selves to work. Redis is dedicated to equal employment opportunities regardless of race, color, ancestry, religion, sex, national orientation, sexual orientation, age, marital status, disability, gender identity, gender expression, Veteran status, or any other classification protected by federal, state, or local law. We strive to create a workplace where every voice is heard, and every idea is respected.

Redis is committed to working with and providing access and reasonable accommodation to applicants with mental and/or physical disabilities. If you think you may require accommodations for any part of the recruitment process, please send a request to recruiting@redis.com. All requests for accommodations are treated discreetly and confidentially, as practical and permitted by law.

Any offer of employment at Redis is contingent upon the successful completion of a background check, consistent with applicable laws.

Redis reserves the right to retain data longer than stated in the privacy policy in order to evaluate candidates.



Please mention the word **EASED** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
software growth code payroll

Who We Are

Wingspan is the first payroll platform designed specifically for independent contractors and their businesses. We simplify onboarding, payments, and compliance for flexible workforces of all sizes, from solo operators to large enterprises. 

We're a Series B startup based in NYC with distributed teams in the USA, Poland, and the UK, and backed by Andreessen Horowitz (a16z), Touring Capital, and a strong network of operators, including the CEOs and founders of Warby Parker, Harry's, Allbirds, Invision, and Flatiron Health.

About the Role

As a Software Engineer on the Payment Operations team, you will be responsible for the execution layer that ensures every dollar on Wingspan's platform is accounted for, reconciled, and moved accurately on time. You will have direct access to production systems, a mandate to identify what's broken or inefficient, and the authority to engineer the fix. 

This role reports to the Head of Payments & Compliance Operations and is based in Warsaw, Poland, with a remote work model.

What You'll Do

  • Design, develop, and ship internal systems and automation that eliminate entire categories of operational toil, owning every problem end-to-end from initial diagnosis to permanent fix
  • Build and maintain reconciliation infrastructure that keeps Wingspan's ledger, bank records, and platform transaction data in continuous alignment, automatically and at scale
  • Develop monitoring and alerting systems that surface funding health issues and payment anomalies in real time, ensuring problems are caught and resolved before they ever reach a customer
  • Collaborate with Engineering, Product, and Finance to identify recurring operational patterns and translate them into platform-level improvements that raise the reliability ceiling for the entire system
  • Contribute to the growth of our engineering culture by sharing knowledge, participating in code reviews, and proactively identifying opportunities to improve how the team builds, observes, and automates

Qualifications & Requirements

  • 3+ years of experience in a software engineering or engineering-adjacent role with exposure to payment systems, backend services, or data pipelines
  • Strong SQL skills, comfortable writing standalone scripts and using AI tools such as Claude Code, Open AI, etc 
  • Familiarity with RESTful APIs and backend services, with Node.js an

    Please mention the word **FREE** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$127000 - $159000 Full time
software react system security

About Equip 

Equip is the leading virtual, evidence-based eating disorder treatment program on a mission to ensure that everyone with an eating disorder can access treatment that works. Created by clinical experts in the field and people with lived experience, Equip builds upon evidence-based treatments to empower individuals to reach lasting recovery. All Equip patients receive a dedicated care team, including a therapist, dietitian, physician, and peer and family mentor. The company operates in all 50 states and is partnered with most major health insurance plans. Learn more about our strong outcomes and treatment approach at www.equip.health.

Founded in 2019, Equip has been a fully virtual company since its inception and is proud of the highly-engaged, passionate, and diverse Equisters that have created Equip’s culture.  Recognized by Time as one of the most influential companies of 2023, along with awards from Linkedin and Lattice, we are grateful to Equipsters for building a sustainable treatment program that has served thousands of patients and families.

About the role:

Equip's engineering culture emphasizes agility, collaboration, and ownership, fostering a team of problem-solvers who build a robust, scalable healthcare platform. As a Senior DevOps Engineer, you'll be crucial in developing and maintaining infrastructure, platforms, and developer tools, including CI/CD pipelines, cloud infrastructure, and observability tools, to enable efficient development and scaling. You'll also support web (Java, React, PostgreSQL) and mobile (React Native) applications, standardizing AWS deployments and CI/CD practices. The role will involve building security, metrics, logging, and deployment tooling to ensure system reliability and scalability. Our goal is to create intuitive, reliable systems that allow engineers to iterate quickly and deliver value to patients, with direct user feedback driving our highest-impact work.

Responsibilities:

  • Design and build a robust, scalable cloud platform to empower web and data engineering teams to deliver high-quality applications.

  • Partner with engineering and data teams to improve developer velocity, ensure system reliability, and embed operational excellence.

  • Lead best practices in cloud infrastructure architecture, CI/CD automation, monitoring, and backend systems reliability.

  • Develop tools and automation of a variety of frameworks and languages to enhance the performance, availability, and scalability of services.

  • Contribute to a culture of continuous improvement through proactive monitoring, root cause analysis, and knowledge sharing.

  • Perform other duties as assigned.

Qualifications:

  • Bachelor's degree or equivalent training and work experience in Computer Science, Software Engineering, or a related field

  • 5–10 years of experience in DevOps, SRE, Platform Engineering, or Software Engineering roles.

  • Deep expertise in AWS and its ecosystem of services.

  • Proven track record building cloud infrastructure using Infrastructure as Code (Terraform, CloudFormation)

  • Strong experience with container orchestration and serverless architectures, including ECS/Fargate and Docker

  • Solid understanding of AWS networking concepts, including VPCs, subnets, security groups, route tables, and load balancers.

  • Hands-on experience creating and maintaining CI/CD pipelines (e.g., CircleCI, GitLab CI, etc.).

  • Strong experience with scalable backend systems, including microservices, APIs, caching layers, and various databases.

  • Experience deploying and managing React and other JavaScript applications using AWS services like CloudFront and S3.

  • Experience setting up comprehensive monitoring and alerting for infrastructure, services, and data pipelines.

  • Skilled at identifying, diagnosing, and preventing production issues through effective observability and troubleshooting (NewRelic, DataDog)

  • Commitment to building secure systems with best practices in access control, encryption, and secure deployment pipelines.

  • Experience communicating and collaborating with engineering and product team stakeholders.

  • Proven ability to manage multiple projects with competing priorities.

  • Be able to work Eastern or Central time zones. Either 9 - 5 Eastern or 8 - 4 Central.

Benefits

Time Off:

  • Flex PTO policy (3-5 wks/year recommended) + 11 paid company holidays.

Medical Benefits:

  • Competitive Medical, Dental, Vision, Life, and AD&D insurance.

  • Equip pays for a significant percentage of benefits premiums for individuals and families.

  • Maven, a company paid reproductive and family care benefit for all employees.

  • Employee Assistance Program (EAP), a company paid resource for mental health, legal services, financial support, and more!

Other Benefits

Work From Home Additional Perks:

  • $50/month stipend added directly to an employee’s paycheck to cover home internet expenses.

  • One-time work from home stipend of up to $500.

Physical Demands

Work is performed 100% from home with requirement to travel once or twice a year for in-person meetings. This is a stationary position that requires the ability to operate standard office equipment and keyboards as well as to talk or hear by telephone. Sit or stand as needed.

#LI-Remote

At Equip, Diversity, Equity, Inclusion and Belonging (DEIB) are woven into everything we do. At the heart of Equip’s mission is a relentless dedication to making sure that everyone with an eating disorder has access to care that works regardless of race, gender, sexuality, ability, weight, socio-economic status, and any marginalized identity. We also strive toward our providers and corporate team reflecting that same dedication both in bringing in and retaining talented employees from all backgrounds and identities. We have an Equip DEIB council, Equip For All; also referred to as EFA. EFA at Equip aims to be a space driven by mutual respect, and thoughtful, effective communication strategy - enabling full participation of  members who identify as marginalized or under-represented and allies, amplifying diverse voices, creating opportunities for advocacy and contributing to the advancement of diversity, equity, inclusion, and belonging at Equip.

As an equal opportunity employer, we provide equal opportunity in all aspects of employment, including recruiting, hiring, compensation, training and promotion, termination, and any other terms and conditions of employment without regard to race, ethnicity, color, religion, sex, sexual orientation, gender identity, gender expression, familial status, age, disability, weight, and/or any other legally protected classification protected by federal, state, or local law. 

Our dedication to equitable access, which is core to our mission, extends to how we build our "village." In line with our commitment to Diversity, Equity, Inclusion, and Belonging (DEIB), we are dedicated to an accessible hiring process where all candidates feel a true sense of belonging. If you require a reasonable accommodation to complete your application, interview, or perform the essential functions of a role, we invite you to reach out to our People team at accommodations@equip.health.

#LI-Remote



Please mention the word **COMPLEMENTS** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
system frontend full-stack architect

Join Hostinger, and we’ll grow fast! 🚀


We’re shaping the future of online success - powered by AI and driven by people. With 900+ talented professionals and over 4 million clients in 150 countries, we help creators and entrepreneurs bring their ideas to life faster and easier than ever before.


Our mission: To provide tools that help individuals and small businesses succeed online faster and easier.

Our culture: Guided by 10 company principles.

Our formula for success: Customer obsession, innovative products, and talented teams.


Your role at Hostinger


Join Hostinger’s Delivery Automation team as a Senior Full Stack Automation Engineer, where you’ll focus on building scalable internal platforms and tools that supercharge developer productivity, streamline software delivery, and automate complex manual flows across the company.


In this role, you’ll take ownership of designing and automating workflows that reduce friction for engineers and teams across Hostinger. From CI/CD pipelines and deployment automation to system integrations and cross-team process improvements - your work will enable faster delivery, greater efficiency, and a stronger automation-first culture.

Your impact will span Product, Engineering, and beyond: empowering developers with reliable self-service solutions, helping teams eliminate repetitive tasks, and ensuring Hostinger operates at scale with speed and confidence.


You’ll collaborate closely with stakeholders across engineering and other departments to understand their challenges, architect resilient solutions, and ship intuitive tools backed by robust backend systems. You’ll also explore and adopt emerging technologies - including AI - to continuously elevate developer experience and automation capabilities.


Curious to learn more? Connect with your team:

Mantas Gurskis - Automation Team Lead, Asta Dagienė - Head of Delivery

\n


Your day-to-day
  • Analyze stakeholders workflows, identify automation opportunities, design, build, and maintain full-stack automation tools that connect and enhance internal marketing, sales, and business systems.
  • Develop user-friendly internal UIs and dashboards for campaign setup, monitoring, and reporting.
  • Work closely with cross-functional teams to understand workflows and identify automation opportunities.
  • Leverage AI where applicable to optimize decision-making and workflow efficiency.
  • Ensure reliability, scalability, and maintainability of automation systems and infrastructure.


Your skills and experience
  • 3+ years of experience as a Full Stack Developer (Node.js, TypeScript preferred) with backend-heavy contributions.
  • Strong understanding of API design, data pipelines, databases, and frontend development (Vue or similar).
  • Business automation platforms (e.g., Zapier, n8n) is a plus.
  • Comfortable working closely with non-engineering teams to build usable, effective tools.
  • Bonus: experience integrating AI/ML tools into automation workflows.
  • You’re proactive, thrive in ambiguity, and enjoy solving problems that unlock leverage for others.


Benefits for you
  • 🚀 360 Growth: We provide limitless learning opportunities: access to platforms like Reforge and Scribd, global conferences, physical and digital libraries, feedback culture, and mentoring through TesoXchange. Advance your career with internal mobility and grow with a team eager to share knowledge and support your success.
  • 🎯 Freedom & responsibility: Work on your terms: from modern offices in Kaunas and Vilnius, the comfort of home, or anywhere in the world. Enjoy flexibility in managing your schedule and bring your ideas to life in a fast-paced, dynamic environment.
  • 💪Wellness simplified: Your health comes first with insurance from Day 1, gym memberships, recharge leave, and regular health checks. Join sports, arts, and hobby clubs or simply enjoy the balance of a lifestyle that prioritizes wellness.
  • 🎉 Work hard - play hard: Recognize hard work with company events like Summerfest & Winterfest, Town Hall, Meet the Client initiatives, team-buildings, and workations. Enjoy access to the Žalgiris Arena VIP Lounge and celebrate life’s big moments with milestone gifts for weddings, new parenthood, and graduations.


Compensation
  • Gross salary 5600 - 7600 EUR.


\n

Get ready to take your personal and professional growth to new heights! Join Hostinger today and be part of our journey 🚀

Three. Two. Onboard



Please mention the word **PLENTIFUL** and tag RMTU3LjI0NS4yNDcuMTE4 when applying to show you read the job post completely (#RMTU3LjI0NS4yNDcuMTE4). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
software architect technical testing
Come build at the intersection of AI and fintech. At Ocrolus, we're on a mission to help lenders automate workflows with confidence—streamlining how financial institutions evaluate borrowers and enabling faster, more accurate lending decisions. Our AI workflow and analytics platform for lenders is trusted at scale, processing nearly one million credit applications every month across small business, mortgage, and consumer lending. By integrating state-of-the-art open- and closed-source AI models with our human-in-the-loop verification engine, Ocrolus captures data from financial documents with over 99% accuracy. Thanks to our advanced fraud detection and comprehensive cash flow and income analytics, our customers achieve greater efficiency in risk management, and provide expanded access to credit—ultimately creating a more inclusive financial system. Trusted by more than 400 customers—including industry leaders like Better Mortgage, Brex, Enova, Nova Credit, PayPal, Plaid, SoFi, and Square—Ocrolus stands at the forefront of AI innovation in fintech. Join us, and help redefine how the world's most innovative lenders do business. We are looking for an exceptionally skilled Senior Software Engineer - Backend with a solid technical background and leadership skills, able to work in a fast-paced environment, and help architect and build the next generation of our backend applications. What you'll do: - Designing, implementing, and maintaining Microservices using Python. - Designing and developing cloud based software products conforming to industry best practices. - Build systems, services, and tools to handle new Ocrolus products and business requirements that securely scale over millions of transactions. - Build and scale our fast-growing online services and data pipelines. - Collaborate with other teams on security, reliability, and automation. - Supporting the testing process, troubleshooting issues and resolving them.

Please mention the word **REFORMS** and tag RMTkyLjE1OS45OS41NA== when applying to show you read the job post completely (#RMTkyLjE1OS45OS41NA==). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$70000 - $80000 Full time
Data Analyst
  • Criptoro
  • Remote
other analyst crypto defi

We are a Web3-driven company building decentralized products and working with blockchain data to create transparent and data-informed solutions. We are looking for a Junior Data Analyst who is curious about blockchain, crypto, and decentralized ecosystems


Responsibilities

  • Collect, clean, and analyze on-chain and off-chain data
  • Work with blockchain datasets (transactions, wallets, smart contracts)
  • Build dashboards to track key metrics (users, transactions, TVL, etc.)
  • Identify trends in user behavior and protocol performance
  • Support product, marketing, and token strategy teams with insights


  • Write SQL queries and work with data pipelines

  • Requirements

  • Education : Bachelor’s degree in Mathematics, Statistics, Economics, Computer Science, or a related field


    Technical Skills:


  • Basic knowledge of SQL
  • Proficiency in Excel / Google Sheets
  • Basic Python (pandas, numpy)
  • Understanding of data analysis and statistics


  • Familiarity with BI tools (Tableau, Power BI, or similar)
  • Web3 / Crypto (Preferred):

  • Basic understanding of blockchain concepts (wallets, transactions, smart contracts)
  • Interest in DeFi, NFTs, or crypto markets
  • Experience with blockchain analytics tools (e.g., Dune, Nansen, Glassnode) is a plus





Please mention the word **YAY** and tag RMTkyLjE1OS45OS41NA== when applying to show you read the job post completely (#RMTkyLjE1OS45OS41NA==). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
manager growth
Mission Statement The Platform team creates the technology that enables Spotify to learn quickly and scale easily, enabling rapid growth in our users and our business around the globe. Spanning many disciplines, we work to make the business work; creating the infrastructure, tooling, frameworks, and capabilities needed to welcome a billion customers. About the Team We are looking for a passionate Product Manager to join Spotify's Data Platform Studio. Data Platform's mission is to enable the application of data in an intuitive and efficient way—helping Spotify extract value from data at scale. Data Platform is responsible for how data is collected, processed, stored, governed, and made available to the thousands of engineers, data scientists, and analysts who build Spotify's products. With AI agents increasingly writing data pipelines and powering personalization, this is one of the most consequential infrastructure domains at Spotify.

Please mention the word **REVOLUTIONIZE** and tag RMTkyLjE1OS45OS41NA== when applying to show you read the job post completely (#RMTkyLjE1OS45OS41NA==). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$180000 - $220000 Full time
Data Scientist
  • Junction
  • Remote
python technical cloud management

Healthcare is in crisis and the people behind the results deserve better. With more and more data coming from wearables, lab tests, and patient–doctor interactions, we’re entering an era where data is abundant.

Junction is building the infrastructure layer for diagnostic healthcare, making patient data accessible, actionable, and automated across labs and devices. Our mission is simple but ambitious: use health data to unlock unprecedented insight into human health and disease.

If you're passionate about how technology can supercharge healthcare, you’ll fit right in.

Backed by Creandum, Point Nine, 20VC, YC, and leading angels, we’re working to solve one of the biggest challenges of our time: making healthcare personalized, proactive, and affordable. We’re already connecting millions and scaling fast.

Short on time? TL;DR

  • You: Can define what should be measured, how it should be modeled, and how those insights should shape product and company decisions.

  • Ownership: You’ll own Junction’s highest-leverage statistical, modeling, and evaluation work across diagnostics, clinical workflows, and AI-enabled product development.

  • Scope: This is not a pure IC modeling role and not a reporting role. You’ll set the methodology, research roadmap, and decision framework for how Junction uses data to drive product, clinical, and business outcomes.

  • Salary: $180,000 – $220,000 + equity

  • Location: Fully remote (EST timezone only)

Why we need you

Junction sits in the flow of high-value diagnostics and clinical data. As the company grows, our advantage moves beyond just having data to having the ability to turn it into reliable intelligence improving product decisions, customer outcomes, and the performance of the business.

Some of that work exists today, but it is not yet owned as a coherent function. Models get built. Analyses get done. Experiments answer local questions. But we need someone who can define the broader scientific and analytical system: what we should measure, what methods we trust, where modeling creates real leverage, and how that work translates into products and decisions that hold up outside a demo.

We’re hiring our first Data Scientist to take ownership of, and establish that standard.

This role will lead Junction’s most important modeling, experimentation, and evaluation work. You’ll partner closely with data, product engineering and leadership teams to drive the analytical roadmap by which Junction can leverage differentiated value from data.

What you’ll be doing day to day

  • Own the research and modeling work underlying Junction’s highest-priority data science opportunities across diagnostics, clinical workflows, and AI-enabled product features

  • Define rigorous frameworks for measurement, experimentation, and causal evaluation so we can distinguish signal from noise and make decisions we can defend

  • Lead development of predictive models, segmentation approaches, risk or routing logic, and other statistical systems that directly inform product and business strategy

  • Build the analytical foundation behind customer-facing features — from model development through to validation and performance tracking

  • Partner with engineering and data engineering to ensure models and analytical systems can be put in production, are reliable, and useful in real workflows

  • Establish how Junction evaluates data-driven and AI-enabled features, including methodology, quality thresholds, monitoring, and performance review

  • Communicate complex technical findings clearly to technical and non-technical stakeholders, including tradeoffs, limitations, and implications for action

Requirements

  • Strong track record of leading high-stakes analytical work that influenced product, operational, or business decisions

  • Deep foundation in statistical inference, experimental design, observational analysis, and model evaluation

  • Strong Python and/or R skills, with experience working on large, messy real-world datasets

  • Experience building predictive or decision-support models in production or near-production environments

  • Experience partnering closely with engineering to move work from analysis or prototype into deployed systems

  • Ability to operate at both strategic and hands-on levels: defining the roadmap while also getting into the details when needed

  • Strong communication and stakeholder management skills; able to explain methods, findings, and tradeoffs to executives as well as technical peers

  • Comfort operating in a startup environment with ambiguity, limited structure, and high ownership

Nice to have

  • Experience designing, executing, and publishing research studies

  • Experience with HIPAA, PHI, or other regulatory clinical frameworks

  • Deep familiarity with modern data tooling and production workflows across warehouses, orchestration, and transformation layers

  • Experience developing, deploying, and designing evaluation frameworks for LLM or AI-powered features in customer-facing products

  • Expertise directly working with healthcare, diagnostics, lab data, wearable data, and other clinical data

  • Experience applying causal inference methods, such as diff-in-diff, propensity scoring, or instrumental variables in practice

What this role isn’t

  • Not an analytics role focused on dashboards, reporting, or one-off analysis

  • Not an ML platform role — you won’t own infrastructure or tooling

  • Not a good fit if you mainly want to experiment with models or AI ideas without being accountable for how they perform in production

  • Not a good fit if you struggle with ambiguity. Knowing what to work on is part of the job

How you'll be compensated

  • Salary: $180,000 – $220,000 + equity

  • Your salary is dependent on your location and experience level

  • Generous early stage options (extended exercise post 2 years employment)

  • Regular in-person offsites, last were in Tenerife and Miami

  • Monthly learning budget of $300 for personal development and productivity

  • Flexible, remote-first working - including $1K for home office equipment

  • Monthly budget of $150 to use towards a coworking space

  • 25 days off a year + national holidays

  • Healthcare coverage depending on location

Oh and before we forget:

  • Backend Stack: Python (FastAPI), Go, PostgreSQL, Google Cloud Platform (Cloud Run, GKE, Cloud BigTable, etc), Temporal Cloud

  • Frontend Stack: TypeScript, Next.js

  • API docs are here: https://docs.junction.com/

  • Company handbook is here with engineering values + principles

Important details before applying:

  • We only hire folks physically based in GMT and EST timezones - more information here

  • We do not sponsor visas right now given our stage



Please mention the word **EQUITABLE** and tag RMTkyLjE1OS45OS41NA== when applying to show you read the job post completely (#RMTkyLjE1OS45OS41NA==). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Senior App & Frontend Developer AS233
  • Smart Working Solutions
  • Remote
frontend developer embedded architect

About Smart Working
At Smart Working, we believe your job should not only look right on paper but also feel right every day. This isn’t just another remote opportunity - it’s about finding where you truly belong, no matter where you are. From day one, you’re welcomed into a genuine community that values your growth and well-being.

Our mission is simple: to break down geographic barriers and connect skilled professionals with outstanding global teams and products for full-time, long-term roles. We help you discover meaningful work with teams that invest in your success, where you’re empowered to grow personally and professionally.

Join one of the highest-rated workplaces on Glassdoor and experience what it means to thrive in a truly remote-first world.

About the Role
This is a long-term, strategic role, not a short sprint. You'll be embedded in a collaborative engineering and analytics team, working across the full data lifecycle: ingestion, transformation, modelling, and surfacing insights through Looker. You'll work closely with stakeholders across commercial, product, and marketing to ensure data is reliable, scalable, and meaningful.

You'll be given real ownership. This is a role for someone who wants to shape standards, improve the architecture, and grow with a brand that takes its data seriously.

\n


Responsibilities
  • Design, build, and maintain robust ETL/ELT pipelines that move data from source systems into Google BigQuery, ensuring reliability, scalability, and observability at every stage.
  • Develop and enforce data models and schema standards using best-practice SQL and dimensional modelling principles, with a focus on clarity, reuse, and performance.
  • Own the Google BigQuery environment, optimising queries, managing costs, enforcing data governance, and ensuring the platform scales alongside the business.
  • Build and maintain Looker explores, LookML models, and dashboards that translate complex datasets into clear, actionable business intelligence for non-technical stakeholders.
  • Work across the full Google Cloud Platform stack, including Cloud Storage, Dataflow, Pub/Sub, Cloud Functions, and Composer, to architect end-to-end data solutions.
  • Partner with analytics, engineering, and commercial teams to understand data requirements and translate business problems into scalable technical solutions.
  • Champion data quality and testing frameworks, implementing monitoring and alerting so that issues are caught early and resolved quickly.
  • Contribute to documentation, coding standards, and architectural decision records so the team can move fast with confidence.
  • Mentor junior data team members and set the bar for engineering rigour across the data function.
  • Stay current with developments in the modern data stack and proactively recommend tooling or process improvements where appropriate.


Requirements
  • 5+ years of experience in SQL and data modelling, with strong command of dimensional modelling, star schemas, and performance optimisation.
  • 3+ years working with Google BigQuery in a production environment.
  • 3+ years hands-on experience with Google Cloud Platform (Cloud Storage, Dataflow, Pub/Sub, Cloud Functions, Composer).
  • 3+ years building and maintaining ETL/ELT pipelines at scale.
  • 1+ year working with Looker and LookML to deliver business-facing dashboards and data products.
  • Demonstrable experience leading at least one data project end-to-end, from scoping through to delivery.
  • Able to communicate clearly with non-technical stakeholders about data limitations, timelines, and trade-offs.
  • Comfortable making pragmatic architecture decisions in a cloud-native, modern data stack environment.


Nice to Have
  • Experience with dbt (Data Build Tool) for transformation layer management and testing.
  • Familiarity with orchestration tools such as Apache Airflow or Cloud Composer.
  • Python skills for pipeline scripting, data validation, or automation.
  • Background in retail, ecommerce, or fashion, understanding how data flows across commercial and digital channels.
  • Exposure to real-time or streaming data pipelines using Pub/Sub or Dataflow.
  • Experience with Terraform or Infrastructure-as-Code practices in a GCP context.
  • Familiarity with data governance frameworks, cataloguing, and lineage tracking.


Benefits
  • Fixed Shifts: 12:00 PM - 9:30 PM IST (Summer) | 1:00 PM - 10:30 PM IST (Winter)
  • No Weekend Work: Real work-life balance, not just words
  • Day 1 Benefits: Laptop and full medical insurance provided
  • Support That Matters:Mentorship, community, and forums where ideas are shared
  • True Belonging: A long-term career where your contributions are valued


\n

At Smart Working, you’ll never be just another remote hire.

Be a Smart Worker - valued, empowered, and part of a culture that celebrates integrity, excellence, and ambition.

If that sounds like your kind of place, we’d love to hear your story. 



Please mention the word **ENGAGING** and tag RMTkyLjE1OS45OS41NA== when applying to show you read the job post completely (#RMTkyLjE1OS45OS41NA==). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
$$$ Full time
Senior Data Engineer
  • Capnexus
  • Remote
amazon system software cloud
Capnexus is a comprehensive services provider. Our team consists of outstanding professionals, highly experienced in designing, building, and supporting retail software. We see ourselves as a build-as-a-service provider who follows a repeatable business pattern that can be applied to a variety of platforms and verticals. Having a culture built on outcomes and delivery at the core of the business, Capnexus is providing its customers with a complete suite of services for software development, system analysis, integration, implementation, and support, as well as the option to engage a single team to perform all the services they require. Who You Are and What You'll Do: Capnexus is looking for a highly skilled Senior AWS Data Engineer to lead data architecture, pipeline development, and ERP integration for a 12-week AI-powered modernization engagement in the construction industry. This role is focused on designing and implementing the data engineering backbone of an intelligent subcontractor pre-qualification platform, including CMIC ERP API integration, Amazon Textract data extraction pipelines, ETL development using AWS Glue, and data quality validation. This is an exciting opportunity to apply advanced cloud data engineering skills on a platform that leverages generative AI to automate and modernize enterprise workflows. Responsibilities:

Please mention the word **PICTURESQUE** and tag RMTkyLjE1OS45OS41NA== when applying to show you read the job post completely (#RMTkyLjE1OS45OS41NA==). This is a beta feature to avoid spam applicants. Companies can search these words to find applicants that read this and see they're human.
Gross salary $4500 - 7500 Full time
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. The Head of AI will join Niuro’s remote-first environment to define and drive the AI strategy across the organization, partnering with the CEO to align technology with business goals. You will lead the design and deployment of scalable, secure AI platforms, modernizing legacy systems while delivering transformative AI capabilities for our clients. This role sits at the intersection of strategic leadership and hands-on technical execution, guiding cross-functional teams and ensuring that AI initiatives translate into measurable business outcomes. You will also help nurture a global, high-performance workforce through mentorship, training, and strong governance around AI programs.

Apply directly on the original site at Get on Board.

Key Responsibilities

  • Vision & Strategy: Partner with the CEO to define and execute Niuro's AI roadmap, ensuring alignment with business objectives and market opportunities. Translate strategy into actionable programs with clear milestones and metrics.
  • Architecture Leadership: Serve as the chief AI architect, designing scalable, secure AI-driven systems. Lead the transition from legacy platforms to modern infrastructure while ensuring reliability and compliance.
  • Innovation & Delivery: Drive rapid development of new AI-powered features and services, balancing speed with maintainability and long-term support.
  • Technology Oversight: Guide the use of cloud-based technologies (AWS, Terraform, Kubernetes, Python, Windows Server/IIS, FastAPI). Implement monitoring (CloudWatch, Grafana) and data pipelines (AWS Glue/Lambda) to ensure scalability and observability.
  • People & Stakeholders: Communicate complex technical concepts clearly to executives, clients, and internal teams. Mentor senior engineers and foster a culture of scientific rigor and responsible AI.

Required Skills & Experience

8+ years in software engineering, data science, or AI with at least 3+ years in leadership. Proven track record deploying AI/ML solutions at scale in production environments. Strong systems design background and experience with cloud platforms (AWS preferred). Advanced Python programming skills; experience with modern AI frameworks and LLMs. Demonstrated success modernizing legacy platforms and delivering scalable, maintainable AI solutions. Exceptional executive-level communication abilities and a talent for translating technical concepts into business value. Fluent in English; Spanish or Portuguese is a plus.

Desirable Skills & Experience

Experience in regulated industries (fintech, govtech) and products with active users and customer support operations. Familiarity with AWS AI services, container orchestration (Kubernetes/ECS), and MLOps. Exposure to LLM-based automation and data engineering workflows. A proactive, entrepreneurial mindset with a bias for action and strong collaboration skills.

Benefits & Perks

We offer the chance to participate in impactful, technically rigorous industrial data projects that drive innovation and professional growth. Niuro supports a 100% remote work model, enabling global flexibility. We invest in career development through ongoing training and leadership opportunities, ensuring continuous growth. Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment. Joining Niuro means being part of a global community with strong administrative support that enables you to focus on impactful work.

Fully remote You can work from anywhere in the world.
Gross salary $3700 - 5800 Full time
AI / Machine Learning Lead
  • Krunchbox
  • Santiago (Hybrid)
Python Analytics Artificial Intelligence Machine Learning
Krunchbox is a retail analytics SaaS platform helping brands increase sell-through, prevent stockouts, and uncover lost revenue across major retailers. We are launching Krunchbox Reimagined — a modern, AI-enabled platform that moves beyond dashboards into predictive, prescriptive, and agent-driven decision support. Our AI/ML function is central to this transformation. As AI/ML Lead, you will shape and scale the applied AI strategy, guiding production-grade ML systems that directly drive customer value, including predictive analytics, agentic AI workflows, and customer-facing AI experiences (agents, chatbots, insights engines). You will collaborate with Product, Data Engineering, and the executive team to deliver measurable business impact.

Apply directly from Get on Board.

AI & ML Strategy

  • Define and execute Krunchbox’s applied AI roadmap aligned to commercial outcomes (sell-through lift, lost-sales recovery, forecast accuracy).
  • Identify where traditional ML, time-series forecasting, and LLM-based agents create value, and translate customer problems into scalable ML solutions embedded in the product.
  • Lead the design and deployment of predictive analytics, agentic AI workflows, and customer-facing AI experiences (agents, chatbots, insights engines).
  • Collaborate with Product, Data Engineering, and leadership to ensure AI initiatives drive measurable business results.

What you’ll own

  • Own end-to-end ML lifecycle: feature engineering, model training, evaluation, deployment, monitoring, and governance to ensure reliability and explainability.
  • Build production-grade models for demand forecasting, lost-sales estimation, stockout risk, inventory optimization, and anomaly detection, incorporating external signals (weather, promotions, calendar effects).
  • Design and implement agentic AI workflows that monitor data conditions, generate proactive insights, and recommend actions (e.g., reorder, rebalancing, investigation).
  • Develop internal and customer-facing AI agents that reason over Krunchbox data, metadata, and business rules; build conversational AI experiences for insights and self-service analytics, plus internal support tooling.
  • Ensure safe integration of LLMs with structured retail data (POS, inventory, product/store master) and collaborate with Data Engineering on scalable pipelines (ClickHouse, Spark, cloud data stacks).
  • Provide technical leadership and mentorship to engineers and analysts as the AI function scales; shape AI-driven features and roadmap decisions in partnership with Product.

What we value

6+ years in applied machine learning / data science with a strong background in time-series forecasting, statistical modeling, feature engineering at scale, and deploying ML models to production. Proficiency in Python for ML and data pipelines, plus experience with large, messy real-world datasets. Ability to explain complex models to non-technical stakeholders. Desirable: experience with retail, supply chain, or POS data; building LLM-powered systems or chatbots; familiarity with modern data stacks (ClickHouse, Spark, cloud data warehouses); exposure to MLOps, monitoring, model governance, and cloud orchestration. Startup or SaaS scale-up experience is a plus.

Benefits

  • Competitive compensation package and comprehensive health benefits.
  • Opportunity to lead and scale AI for a global SaaS platform.
  • Hybrid work model with a Chilean engineering hub; collaborative, in-person teamwork emphasis.
  • Direct, impactful role shaping the future of AI-powered retail analytics and supplier-retailer collaboration.
  • Supportive environment to own AI at the core of a revenue-driving product; potential for leadership growth within Krunchbox.

Relocation offered If you are moving in from another country, Krunchbox helps you with your relocation.
Partially remote You can work from your home some days a week.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Find this vacancy on Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
$$$ Full time
Python Analytics Data Analysis NoSQL

Grupo Mariposa es una corporación multinacional de bebidas y alimentos fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y partnerships con líderes globales como PepsiCo y AB InBev. En los últimos años nos hemos expandido globalmente y reorganizado en cuatro unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos para potenciar nuestra estrategia de crecimiento y llevar alegría y desarrollo a lo largo de la organización. En este rol, tendrás la oportunidad de liderar la arquitectura de datos e IA, diseñando soluciones escalables que habiliten análisis a gran escala y la operacionalización de modelos de ML/IA en entornos de producción.

Apply to this job through Get on Board.

Funciones y responsabilidades

  • Diseñar e implementar arquitecturas de Datos e IA híbridas y escalables (Lakehouse) para soportar ingestión masiva y cargas de trabajo de ML/IA.
  • Definir y estandarizar flujos de trabajo para Data Science, asegurando un ciclo de vida de modelos (MLOps) ágil y robusto.
  • Actuar como referente técnico en Databricks (Unity Catalog, Delta Lake, MLflow), garantizando buenas prácticas de código y rendimiento.
  • Modelar y optimizar esquemas NoSQL para aplicaciones de alto rendimiento y baja latencia.
  • Establecer políticas de gobierno de datos que cubran datasets tradicionales, feature stores y registros de modelos.
  • Colaborar estrechamente con Data Engineers y Data Scientists para cerrar la brecha entre prototipado y despliegue en producción.
  • Liderar iniciativas de arquitectura orientadas a IA, incluyendo patrones de inferencia batch vs. real-time y escalabilidad de modelos.

Descripción y requisitos

Buscamos un Arquitecto de Datos Senior con visión estratégica para liderar el diseño de nuestra plataforma de Datos.
Tu misión será construir cimientos que permitan no solo el análisis de datos a escala, sino también la operacionalización eficiente de modelos de Datos, Machine Learning y soluciones de IA. Debes dominar Databricks y demostrar experiencia llevando modelos a producción, gestionando arquitecturas que soporten analítica avanzada, Se valorará capacidad para definir estrategias de gobierno de datos, MLOps y colaboración transversal entre equipos.

Requerimientos:

  • Más de 5 años de experiencia en Ingeniería de Datos, Arquitectura de Datos o ML Engineering.
  • Dominio experto de Databricks (Unity Catalog, Delta Lake, MLflow).
  • Programación avanzada en PySpark y Python para ingeniería de datos.
  • Experiencia sólida en o integraciones con bases de datos (diseño de esquemas, optimización de queries y escalabilidad).
  • Conocimientos en entornos Cloud (Azure, AWS o GCP).

Deseables:

  • Experiencia con Feature Stores.
  • Conocimiento de herramientas de orquestación (Airflow, Prefect, etc.).
  • Experiencia en architecturas de IA y ML, con prácticas de MLOps (entrenamiento, versionado, despliegue y monitoreo).
  • Familiaridad con despliegue de LLMs o IA Generativa.
  • Certificaciones en Databricks (Data Engineer o ML Practitioner).

Perfil deseable

Se valoran certificaciones en Databricks y experiencia demostrable liderando proyectos de IA en entornos de producción. Capacidad para comunicar resultados técnicos a stakeholders no técnicos y para liderar equipos multidisciplinarios. Enfocado en resultados, con pensamiento analítico y enfoque práctico para resolver problemas complejos de datos a escala.

Beneficios

  • Trabajo remoto
  • Excelente ambiente para proponer e innovar tecnológicamente
  • Ambiente de trabajo colaborativo y dinámico
  • Desarrollo profesional y oportunidades de crecimiento
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Grupo Mariposa provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
AI Engineer Senior
  • Grupo Mariposa
Python Unity Continuous Deployment Azure

Sobre la empresa

Somos una corporación multinacional de bebidas y alimentos con operaciones regionales, un portafolio amplio de marcas y una estrategia acelerada de transformación digital. Dentro de Apex Digital / M5, el área de Data & Analytics habilita productos analíticos, datos gobernados y capacidades avanzadas para las unidades de negocio, incluyendo CBC, Beliv, BIA y las iniciativas transversales de transformación digital.

Como parte de esta evolución, la organización está avanzando hacia una arquitectura empresarial de AI Agents basada en Databricks, ADLS Gen2, Unity Catalog, Azure AI / Microsoft Foundry, Copilot Studio y Power Automate, buscando habilitar asistentes y agentes empresariales seguros, trazables, escalables y conectados con los datos core del negocio.

This company only accepts applications on Get on Board.

Job functions

Diseñar, construir, desplegar y evolucionar soluciones de IA generativa y agentes empresariales sobre Azure AI / Microsoft Foundry, integradas con la plataforma de datos corporativa, para habilitar casos de uso de negocio con trazabilidad, seguridad, escalabilidad y alto impacto operativo y comercial.

Responsabilidades clave del puesto

  • Diseñar soluciones de IA generativa, asistentes y agentes empresariales usando Azure AI, Microsoft Foundry y servicios relacionados.
  • Definir arquitectura de referencia para RAG, agentes, tools, evaluación, seguridad y observabilidad.
  • Construir APIs, microservicios y componentes backend en Python para integrar modelos, herramientas y sistemas corporativos.
  • Conectar soluciones de IA con Databricks, Unity Catalog, ADLS Gen2, Azure AI Search, Power Automate, Copilot Studio, Teams, canales web y otros sistemas internos.
  • Establecer mecanismos de grounding, control de acceso, versionado, pruebas, evaluación y monitoreo de respuestas.
  • Colaborar con Data Engineering, BI, Arquitectura, Seguridad, Producto y áreas de negocio para llevar los casos de uso a producción.

Alineación con la Arquitectura Agents AI:

  • Desarrollar el blueprint técnico de la arquitectura propuesta, definiendo componentes, patrones, flujos, ambientes y criterios de despliegue.
  • Implementar el patrón base de conocimiento empresarial conectando Databricks, ADLS Gen2 y Foundry IQ / capacidades de búsqueda y grounding.
  • Configurar y desarrollar agentes o copilots sobre Copilot Studio / Foundry, con invocación de acciones a través de Power Automate o servicios backend.
  • Definir estándares de observabilidad, evaluación, seguridad y gobierno para la operación de soluciones de IA.

Impacto esperado para la organización

  • Crear una capacidad interna escalable para asistentes, agentes y automatizaciones inteligentes.
  • Incrementar productividad, velocidad de atención y capacidad de decisión en procesos clave.

Qualifications and requirements

  • Licenciatura en Ingeniería en Sistemas, Ciencias de la Computación, Electrónica, Software o carrera afín. Maestría es un plus.
  • 5+ años en desarrollo de software, cloud o data products, y al menos 2-3 años en IA generativa, LLMs, RAG o agentes.
  • Experiencia práctica en Azure AI, Azure OpenAI y preferentemente Microsoft Foundry / Foundry Agent Service / Copilot Studio.
  • Conocimiento sólido de Python, APIs, FastAPI, SDKs, contenedores, CI/CD y buenas prácticas de ingeniería.
  • Experiencia con servicios Azure como Storage, Key Vault, Entra ID, App Service, Functions, monitoreo y seguridad.
  • Conocimiento de Databricks, Unity Catalog, ADLS Gen2, gobierno de datos y patrones de integración con plataformas analíticas.
  • Capacidad para traducir un draft arquitectónico en una solución productiva, documentada y operable.
  • Inglés técnico suficiente para documentación, lectura de arquitectura y trabajo con proveedores o documentación oficial.

Conditions

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

Gross salary $3800 - 4000 Full time
Automation AI Prompt Engineering APIs

Nine-67 is building a fast-moving AI capability for enterprise clients. This role sits at the intersection of product, data, and execution, directly partnering with the CEO to design, build, and deploy AI-driven applications in real client environments. You will contribute to shaping a scalable, high-quality AI platform by delivering end-to-end solutions that combine frontend, backend, and data workflows in rapid iterations.

As a key player in a fast-build environment, you’ll help transform ambiguous business problems into working systems, create internal tools and automation, and integrate with client systems and data sources to drive real business value.

This job is exclusive to getonbrd.com.

What You’ll Do

• Build and deploy AI-driven applications end-to-end (frontend, backend, data workflows) with speed and quality.
• Translate business problems into functioning AI systems with minimal direction.
• Collaborate directly with leadership and clients to iterate on real use cases.
• Develop internal tools, agents, and automation to boost efficiency.
• Integrate with APIs, data sources, CRM systems, data warehouses, and client environments.
• Continuously improve speed, reliability, and reusability of what we build.

What We’re Looking For

• Strong builder mindset—ship fast and learn by doing.
• Experience with AI tools and frameworks (LLMs, APIs, prompt systems, agents).
• Comfort across the stack; you don’t need to be perfect, but you can figure it out.
• Ability to work in ambiguity without waiting for detailed specs.
• Strong problem-solving and product intuition.
• High ownership and accountability.

Nice to Have

• Experience with Cursor, Vercel, Supabase, or similar modern stacks.
• Experience building internal tools or client-facing applications.
• Exposure to data pipelines, analytics, or CRM systems.
• Prior startup or consulting experience.

Why This Role

• Direct collaboration with leadership on high-impact projects.
• Build real systems used by enterprise clients.
• Opportunity to shape and scale AI capability from the ground up.

Fully remote You can work from anywhere in the world.
Gross salary $2500 - 3000 Full time
Automation SOC Cloud Engineer Infrastructure Engineer
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

This job offer is on Get on Board.

What You’ll Do

  • Design, implement, and operate security and trust controls across identity and access management, endpoints, cloud infrastructure, applications, and AI-enabled systems.
  • Own trust workflows end-to-end, including control design, enforcement, monitoring, and evidence generation.
  • Translate external assurance and governance requirements (SOC 2, ISO 27001, ISO 42001, etc.) into automated, system-enforced mechanisms.
  • Build and maintain automation that eliminates repetitive security and compliance work.
  • Use AI-assisted tools to improve detection quality, reduce manual analysis, and identify control gaps and risks.
  • Partner with Infrastructure, Platform, Engineering, and Product teams to embed security and trust by default.
  • Support audits using system-generated evidence, not manual spreadsheets or checklists.
  • Evolve trust systems continuously as technology and risk landscapes change.

Required Qualifications

Bachelor’s degree in Computer Science, Engineering, or a related field — or equivalent practical experience. At least 3+ years of experience in one or more of the following areas: Security Engineering, Platform Engineering, Infrastructure Engineering, or Cloud Engineering with strong automation ownership. Hands-on experience supporting or owning external assurance frameworks such as SOC 2, ISO 27001, ISO 42001 (or similar). Strong experience using automation and system design to reduce manual operational work. Solid understanding of identity and access management, cloud platforms, logging and monitoring, and access control concepts. Ability to reason about risk, governance, and control effectiveness and translate them into technical solutions. Clear written and verbal communication skills, able to explain trust posture to both technical and non-technical audiences.

Nice to Have / Preferred Experience

Experience working with AI-enabled systems, agents, or data pipelines. Understanding of AI security, trust, or governance concerns. Scripting or automation experience with Python, shell/bash, PowerShell, or low-code automation platforms. Experience in environments requiring continuous assurance, auditability, and high reliability. Security or cloud certifications are a plus but not required.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
$$$ Full time
C English Back-end Customer Success

OMNIX desarrolla una plataforma PaaS de automatización y orquestación de disrupciones en operaciones complejas, integrándose con sistemas core como ERP, WMS, CRM e IoT. Trabajamos con empresas enterprise en industrias como telecomunicaciones, retail, logística y manufactura, donde la continuidad operacional es crítica.
El Customer Success Manager se incorpora al equipo de Delivery & Customer Success, trabajando en estrecha colaboración con Forward Deployed Engineers (FDE), Ventas y Producto. Su rol es asegurar que las implementaciones generen impacto real y sostenido en el negocio del cliente. Es responsable de transformar proyectos en adopción profunda, expansión de uso y valor operativo tangible, contribuyendo directamente a la retención y crecimiento de cuentas estratégicas.

Find this job on getonbrd.com.

Funciones del cargo

El Customer Success Manager es responsable de la gestión integral de cuentas enterprise post-implementación, asegurando que OMNIX se convierta en un sistema crítico dentro de la operación del cliente. Lidera la relación estratégica con stakeholders, define junto al cliente los casos de uso prioritarios y construye un roadmap de expansión basado en impacto operativo.
Trabaja coordinadamente con el FDE, quien ejecuta técnicamente las soluciones, mientras el CSM asegura su adopción, continuidad y valor en producción. Tiene autonomía para priorizar iniciativas, detectar oportunidades de expansión y escalar decisiones. Lidera instancias ejecutivas como QBRs y es responsable de sostener una narrativa clara de valor. El éxito del rol se mide por la profundidad de uso de la plataforma, la expansión de la cuenta y la capacidad de convertir soluciones en resultados concretos dentro de la operación.

Requerimientos del cargo

Experiencia mínima de 5 años en roles de Customer Success, consultoría o gestión de cuentas en contextos B2B enterprise.

Experiencia demostrable trabajando con clientes complejos en industrias como logística, telecomunicaciones, retail o manufactura.

Capacidad de interactuar con stakeholders técnicos y ejecutivos (C-level), sosteniendo conversaciones de negocio y tecnología.

Experiencia gestionando implementaciones o proyectos con múltiples integraciones (ERP, APIs, sistemas core).

Fuerte orientación a resultados, con capacidad de estructurar problemas, priorizar iniciativas y ejecutar con autonomía.

Inglés avanzado (oral y escrito) para interacción con equipos y clientes internacionales.

Alta disciplina operativa, capacidad de seguimiento y accountability bajo entornos exigentes.

Opcionales

Experiencia previa en empresas tipo SaaS/PaaS o plataformas de datos y automatización operacional.

Conocimiento en herramientas de integración, data workflows o automatización (ej: n8n, Zapier, APIs, ETL).

Experiencia en consultoría estratégica o implementación de transformación digital en grandes empresas.

Familiaridad con metodologías de gestión como EOS o frameworks de ejecución disciplinada.

Conocimiento en analítica de datos, detección de anomalías o modelos de inteligencia artificial aplicados a operaciones.

Experiencia en entornos de alto crecimiento o compañías tecnológicas con foco enterprise.

Condiciones

enefits of working at OMNIX
  • Be part of an agile, high-impact team where everyone contributes and makes a difference.
  • Mostly remote work, with flexibility and objective-based management.
  • Performance and company results bonuses.
  • Fast professional growth, with the possibility to expand roles and responsibilities.
  • We operate using the EOS (Entrepreneurial Operating System), which provides:
    • clarity of goals,
    • strong prioritization,
    • clear metrics,
    • a culture of accountability.
  • Opportunity to work with teams in Chile, Peru, Colombia, and the United States.
  • Participation in cutting-edge AI and automation projects with real impact on enterprises and governments.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage OMNIX AI Corp pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal OMNIX AI Corp gives you paid vacations over the legal minimum.
$$$ Full time
Jefe de Proyectos
  • Dynamic Devs
  • Santiago (In-office)
Analytics Agile Git SQL

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

Find this job on getonbrd.com.

Funciones del cargo

Gestionar proyectos tecnológicos asegurando el cumplimiento de alcance, plazos, presupuesto y calidad.

Coordinar equipos técnicos y stakeholders para asegurar la correcta ejecución de iniciativas tecnológicas.

Definir y supervisar planes de trabajo, hitos y entregables del proyecto.

Facilitar la comunicación entre áreas técnicas y de negocio para asegurar la alineación con los objetivos del proyecto.

Monitorear riesgos, dependencias y avances, proponiendo acciones correctivas cuando sea necesario.

Supervisar la integración de sistemas y soluciones tecnológicas dentro del ecosistema de la organización.

Asegurar la correcta aplicación de metodologías de gestión de proyectos y buenas prácticas de desarrollo.

Apoyar la toma de decisiones mediante análisis de información técnica y de negocio.

Gestionar documentación del proyecto y mantener actualizadas las herramientas de seguimiento.

Requerimientos del cargo

Experiencia en administración de proyectos y gestión de presupuestos.

Experiencia trabajando con metodologías ágiles y tradicionales, con capacidad para adaptarse a modelos híbridos de gestión.

Dominio de herramientas de gestión de proyectos como Microsoft Project, Jira, Confluence u otras similares.

Alta capacidad analítica y de comprensión de procesos tecnológicos.

Comprensión de arquitecturas de soluciones tecnológicas: entornos on-premise, cloud e híbridos.

Conocimiento de conceptos técnicos como APIs, bases de datos, versiones de software y control de código fuente (Git).

Familiaridad con servicios en la nube como AWS, Google Cloud Platform o Microsoft Azure.

Comprensión de prácticas de desarrollo modernas como CI/CD, DevOps y uso de contenedores (Docker, Kubernetes).

Conocimiento de principios de seguridad de la información, incluyendo autenticación, cifrado, gestión de roles y respaldos.

Conocimiento de bases de datos relacionales (SQL) y no relacionales (NoSQL).

Capacidad para leer modelos entidad-relación y comprender la lógica de negocio detrás de los sistemas.

Comprensión de integración entre sistemas, incluyendo web services REST/SOAP, ETL y colas de mensajes.

Opcionales

Conocimiento de integraciones sincrónicas y asincrónicas y cuándo aplicar cada modelo.

Experiencia previa en la industria de AFP (Administradoras de Fondos de Pensiones).

Conocimiento o experiencia trabajando con plataformas CRM.

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Life insurance Dynamic Devs pays or copays life insurance for employees.
Digital library Access to digital books or subscriptions.
Computer provided Dynamic Devs provides a computer for your work.
Education stipend Dynamic Devs covers some educational expenses related to the position.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $2200 - 2600 Full time
Coordinador de Service Manager
  • 3IT
  • Santiago (Hybrid)
Service Manager Continual improvement process Microsoft Office SLA

Somos 3IT ¡Innovación y talento que marcan la diferencia!

Para nosotros, la innovación es un proceso colaborativo y el crecimiento una meta compartida. Nos guiamos por valores como el trabajo en equipo, la confiabilidad, la empatía, el compromiso, la honestidad y la calidad, porque sabemos que los buenos resultados parten de buenas relaciones.

Además, valoramos la diversidad y promovemos espacios de trabajo inclusivos. Por eso nos sumamos activamente al cumplimiento de la Ley 21.015, asegurando procesos accesibles y con igualdad de oportunidades.

Si estás buscando un lugar donde seguir aprendiendo, aportar con lo que sabes y crecer en un ambiente cercano y colaborativo, esta puede ser tu próxima oportunidad.

Apply directly on Get on Board.

📝 ¿Cuál sería tu trabajo?

Liderar, coordinar y gestionar al equipo de Service Managers, asegurando excelencia operativa, rentabilidad de las cuentas, satisfacción de clientes y correcta aplicación del modelo de servicio, actuando como instancia de escalamiento, destrabe estratégico y mejora continua.

🎯 ¿Qué necesitamos para sumarte a nuestro equipo?

  • Uso avanzado de herramientas Microsoft Office para análisis y reportabilidad
  • Dominio en gestión de SLA, compromisos contractuales y estándares de servicio
  • Liderazgo en equipos de Service Manager y gestión de evaluaciones de desempeño
  • Experiencia con clientes corporativos y resolución de conflictos críticos de servicio
  • Capacidad para analizar métricas operativas y consolidar informes de gestión ejecutivos
  • Trayectoria en gestión de servicios TI en entornos corporativos y operaciones de servicio
  • Implementación de estrategias de onboarding y desarrollo continuo para especialistas técnicos
  • Aplicación de procesos financieros del servicio incluyendo control de facturación, costos y márgenes
  • Gestión de mejora continua de servicios, optimización de procesos operativos y seguimiento de indicadores
  • Experiencia mínima de 5 años gestionando expectativas entre clientes y equipos técnicos para asegurar la continuidad del servicio

📍 ¿Dónde y cómo trabajarás?

  • Ubicación oficina: Providencia, Santiago
  • Modalidad: Híbrida

✋ Algunas consideraciones antes de postular:

  • Debes tener disponibilidad para trabajar en modalidad híbrida y asistir de forma presencial a nuestras oficinas.
  • Si estás en situación de discapacidad, cuéntanos si necesitas algún requerimiento especial para tu entrevista.

Beneficios que tendrás si te unes a nuestro team:

💰 Bono anual
🦷 Seguro dental
📚 Capacitaciones
📅 Días administrativos
🍽️ Tarjeta Sodexo + $80.000
👕 Código de vestimenta informal
🚀 Programas de upskilling y reskilling
🏥 Seguro complementario de salud MetLife
💊 Descuentos en farmacias y centros de salud
🐾 Descuento en seguros y tiendas de mascotas
🎄 Aguinaldo en Fiestas Patrias y Navidad
👶 Días adicionales al postnatal masculino
🎂 Medio día libre por tu cumpleaños
🏦 Caja de Compensación Los Andes
🌍 Descuento Mundo ACHS
🎁 Regalo por nacimiento
🛍️ Descuentos Buk

Gross salary $8000 - 10000 Full time
UX UI Design C Analytics

About EVEN

EVEN is the leading direct-to-fan platform for artists and labels. We help artists sell music, merchandise, and exclusive content directly to their superfans, with every sale counting toward official chart reporting through Luminate.

Our platform powers pre-orders, digital storefronts, and direct-to-consumer commerce for artists including J. Cole, French Montana, Brent Faiyaz, LaRussell, and Mick Jenkins. We are partnered with Universal Music Group, UnitedMasters, Too Lost, Stem, Symphonic, Secretly Distribution, Virgin Music Group, and others across 3,000+ labels and distributors in over 110 countries.

We are a remote-first team of 35 people across the US and Latin America. Our engineering team of 16 is primarily based in LATAM and operates in three squads (Artist, Fan, Core), shipping across web, mobile, and API. You will be working alongside engineers you can communicate with natively.

Job opportunity published on getonbrd.com.

Why This Role Exists

Product direction at EVEN is currently shared between our CEO (vision, strategy, partner commitments) and our CTO (day-to-day product and engineering decisions). Our Lead Product Designer shapes UX and design. There is no dedicated product manager.

We are now 35 people with three engineering squads, partnerships with the leading music companies, and a product surface that spans artist dashboards, fan storefronts, mobile apps, e-commerce, streaming, chart reporting, and API integrations.

We need someone whose full-time job is to own the product roadmap, run shaping sessions, write clear briefs, coordinate cross-team priorities, and connect what our partners and artists need with what our engineering team builds.

What you will do:

  • Own the product roadmap end to end. Translate company strategy into quarterly priorities, and quarterly priorities into engineering-ready specs.
  • Run shaping sessions with the CTO and engineering leads. Turn raw ideas into scoped briefs with clear acceptance criteria before they hit a sprint.
  • Manage the product process: Ideas Pool to PRD Library to Roadmap (we use Notion, Linear, and Figma).
  • Work directly with our 3 product designers to define user flows, review designs, and ship features that match the brief.
  • Coordinate across squads (Artist, Fan, Core) to manage dependencies, unblock engineers, and keep the roadmap on track.
  • Partner with BD and Artist Relations to understand what artists, labels, and distributors need and translate that into product requirements.
  • Define product metrics, track them in PostHog, and use data to prioritize what ships next.
  • Report to the CEO. Work side by side with the CTO.

Success at 30/60/90 days:

  • 30 days: You have audited the current roadmap, met every team lead, and identified the top 3 product gaps.
  • 60 days: You own the shaping process. Every feature entering a sprint has a brief you wrote or approved.
  • 90 days: The CEO is no longer involved in day-to-day product decisions. The roadmap is yours.

Qualifications and requirements

  • 5+ years in product management at a B2C or marketplace company, with at least 2 years as a lead or senior PM.
  • You have shipped and scaled digital commerce, content, or creator-economy products. Experience with platforms that have both a supply side (artists, creators) and a demand side (fans, consumers) is strongly preferred.
  • You write clear PRDs and briefs. You can take a vague idea and turn it into a scoped spec with acceptance criteria that engineers can build from.
  • You have run or closely participated in product shaping sessions with engineering and design teams.
  • You have managed or closely collaborated with product designers. You can give useful design feedback and know the difference between UX and UI polish.
  • You are fluent in English and Spanish, written and verbal. Our engineering and design teams work primarily in Spanish. Our commercial team works in English. You need both.
  • You are comfortable working across US and LATAM time zones with a fully distributed team.
  • You have used tools like Linear, Notion, Figma, and PostHog (or equivalents like Jira, Confluence, Amplitude, Mixpanel).
  • You understand analytics-driven product development. You can define metrics, set up tracking, and use data to make prioritization calls.
  • You have worked at a startup (Series A to Series C) where process was still being built and you had to build it yourself.

Desirable skills

  • Experience with direct-to-consumer e-commerce platforms or digital storefronts.
  • Background in the music industry, artist services, or label partnerships.
  • Familiarity with Luminate/SoundScan chart reporting or music distribution workflows.
  • Experience working with React, Next.js, or modern web/mobile stacks. You will not code, but technical fluency helps you scope better and earn engineering trust faster.
  • Prior experience at a Series A or Series B startup where you built the product function from scratch (first PM hire).
  • Experience managing a product team of 3+ people (designers and/or PMs).
  • Experience with mobile product development (iOS/Android).

Conditions

  • Fully remote. Work from anywhere in the Americas.
  • Equity Package
  • Core overlap hours: 10am to 3pm EST (New York time). The rest of your day is flexible.
  • Paid in USD via Deel.
  • Health stipend included in monthly compensation.
  • Flexible vacation and PTO policy.
  • Paid sick days.
  • Equipment provided.
  • Direct access to the CEO and CTO. No layers between you and the people making decisions.
  • You will be the first dedicated product hire. You are building the function, not joining one.

Relocation offered If you are moving in from another country, EVEN helps you with your relocation.
Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage EVEN pays or copays health insurance for employees.
Computer provided EVEN provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal EVEN gives you paid vacations over the legal minimum.
Gross salary $2500 - 3000 Full time
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python Analytics SQL

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

This company only accepts applications on Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL Big Data Data Warehouse

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

© Get on Board.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Gross salary $4850 - 7000 Full time
Java Python Analytics SQL

Krunchbox is transforming retail analytics with our next-generation platform (Krunchbox 2.0). We are migrating from 800 hardcoded ETLs to a modern, real-time analytics architecture powered by ClickHouse. This greenfield initiative aims to architect the analytical backbone for 100+ enterprise clients while maintaining and optimizing our existing SQL Server infrastructure during the transition. The Senior Database Engineer/Architect will lead the database transformation and operations across both legacy and modern systems, owning the analytical data layer, and delivering a scalable, multi-tenant ClickHouse architecture alongside ongoing SQL Server maintenance.

Find this job on getonbrd.com.

Key Responsibilities

  • ClickHouse Implementation (New Architecture): take over from initial consulting work to build production ClickHouse system; design and implement multi-tenant architecture with partition isolation; migrate from SQL Server to ClickHouse optimizing for columnar storage; create materialized views for KPI calculations and dashboards; implement data retention policies and TTL strategies; optimize query performance for complex analytical workloads; design backup, recovery, and high-availability strategies.
  • SQL Server Management (Legacy Systems): maintain and optimize existing SQL Server infrastructure during transition; lead ETL modernization from 800 hardcoded processes to automated pipelines; perform database performance tuning and troubleshooting; manage legacy architecture decisions and technical debt; ensure data integrity and availability during migration; optimize existing queries and stored procedures.
  • Leadership & Architecture: provide database leadership across legacy and modern platforms; mentor on SQL and ClickHouse best practices; design migration strategies minimizing downtime and risk; collaborate with development teams on data architecture decisions; create documentation and best practices for a hybrid database environment; lead knowledge transfer and retention efforts during transition.
  • Collaboration & Delivery: work closely with existing team members to ensure continuity and minimize disruption; partner with Event Hubs team for real-time data ingestion; contribute to roadmap and architecture decisions that support scalable analytics for 100M+ rows daily across tenants.

What you’ll bring

Required Qualifications

  • ClickHouse Expertise: 3+ years of production ClickHouse experience; strong background with large-scale migrations from relational to columnar databases; deep understanding of ClickHouse internals (MergeTree engines, partitioning, sharding); expertise in materialized views, projections, and aggregation optimizations; experience with ClickHouse Cloud or managing ClickHouse clusters.
  • SQL Server & Traditional DB Skills: 5+ years of SQL Server production experience in enterprise environments; expert-level SQL programming and query optimization; experience with ETL pipeline design and optimization; database administration including backup, recovery, and performance tuning; experience leading migrations and modernization projects.
  • General Qualifications: proficiency in SQL and ClickHouse-specific extensions; experience with multi-tenant data architectures; strong problem-solving capabilities for complex data challenges; excellent cross-team communication.

Preferred Qualifications

  • Experience with Azure Event Hubs or Kafka integration; knowledge of CDC patterns and real-time data synchronization; retail or e-commerce analytics domain experience; experience with time-series data and IoT workloads; contributions to ClickHouse community or open source; experience with Azure SQL Database and cloud migrations; familiarity with Python/FastAPI for database integration; knowledge of data warehousing and OLAP concepts.

Desirable but not required

Desirable but not required skills:

  • Hands-on experience in modern data platforms and cloud-native architectures; prior leadership role in data platform transformations; experience with multi-region deployments and governance; ability to translate business requirements into scalable data models; passion for scalable performance optimization and data quality.

Benefits

  • Competitive compensation package.
  • Local health coverage (if required)
  • Opportunity to scale and lead a global SaaS platform that solves real-world customer challenges.
  • A direct, impactful role in shaping the future of AI-powered supplier-retailer collaboration.

Fully remote You can work from anywhere in the world.
Health coverage Krunchbox pays or copays health insurance for employees.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Krunchbox gives you paid vacations over the legal minimum.
Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Analytics Git Data Analysis

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this job without intermediaries on Get on Board.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $1500 - 2000 Full time
Analytics Engineer
  • Artefact LatAm
Analytics MySQL SQL Business Intelligence

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply at the original job on getonbrd.com.

Tus responsabilidades serán:

  • Recolectar y analizar datos de diversas fuentes para identificar patrones y tendencias. Extraer insights significativos para comprender el rendimiento presente y futuro del negocio.
  • Crear modelos de datos adaptados a distintos proyectos y sectores.
  • Crear y optimizar informes, paneles y cuadros de mando para una presentación efectiva de la información, utilizando herramientas de BI como Tableau, Power BI o QlikView.
  • Identificar oportunidades de mejora de procesos mediante análisis de datos.
  • Mantener y actualizar bases de datos para garantizar su integridad y calidad.
  • Brindar formación y soporte al equipo en el uso de herramientas de Business Intelligence. Colaborar con equipos diversos para crear soluciones integrales. Entender las necesidades del cliente y proponer mejoras y soluciones proactivas.
  • Monitorear modelos de data science y machine learning. Mantener la calidad de datos en flujos de información. Gestionar la seguridad y la escalabilidad de entornos cloud de BI.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, o carrera afín
  • 1 a 2 años de experiencia laboral en:
    • Proyectos BI
    • Herramientas de visualización como PowerBI, Tableau, QikView u otros
    • Soluciones de BI en entornos cloud (ejemplo, Azure y Power BI Service)
    • Fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
    • Desarrollo de queries en SQL
    • Desarrollo de modelos de datos para usos analíticos y programación de ETLs
  • Inglés profesional

Algunos deseables no excluyentes:

  • Conocimiento de Python o R
  • Manejo de Big Data en miras de establecer reportería

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Gross salary $2400 - 3000 Full time
Big Data ETL Cloud Computing Automation

En Coderslab.io trabajamos en un entorno de alta demanda tecnológica, con equipos globales que combinan talento de primer nivel. Nuestro cliente FIFTECH lidera iniciativas de datos avanzadas y está desarrollando el proyecto Datalake 2.0 en Colombia. Este rol se integra en el área de Data Factory dentro de la gerencia de Plataforma, Arquitectura y Data. El objetivo es fortalecer el procesamiento de datos en un entorno Big Data en Google Cloud Platform (GCP), contribuyendo a la evolución continua de nuestro Data Lake y a la entrega de información analítica confiable para decisiones estratégicas.

Apply from getonbrd.com.

Funciones y responsabilidades

  • Analizar, diseñar, desarrollar y probar procesos de ingesta de datos (ELT) en entornos GCP Big Data.
  • Mantener y evolucionar procesos ETL/ELT, asegurando rendimiento, escalabilidad y fiabilidad.
  • Desarrollar pipelines de datos serverless y automatizar flujos de datos para operaciones analíticas.
  • Integrar, consolidar y limpiar datos para su uso en analítica y reporting.
  • Apoyar en arquitectura y diseño de plataformas de datos dentro de la unidad de Data Factory, colaborando con equipos multidisciplinarios.
  • Participar en la definición de estándares de modelado de datos y buenas prácticas de ingeniería de datos.

Perfil requerido y experiencia

Buscamos un Data Engineer Senior con sólido background en procesos ELT/ETL en entornos Big Data sobre GCP y Data Lake. Debe demostrar capacidad para diseñar e implementar pipelines data-driven, experiencia en desarrollo de pipelines serverless y automatización de procesos. Se valorará la habilidad para modelar y estructurar datos orientados a análisis, así como la capacidad de integrarse de forma proactiva en proyectos complejos, con enfoque técnico y colaborativo. Se espera autonomía, buena comunicación y capacidad de trabajar en un entorno de ritmo alto.

Requisitos deseables

Experiencia previa en Data Lake en GCP, con enfoque en ingesta y transformación de grandes volúmenes de datos. Conocimiento de herramientas de orquestación y automatización, como Airflow o Workflows de GCP. Habilidades para trabajar con equipos de Arquitectura y Producto, capacidades de análisis y resolución de problemas, y orientación a resultados. Se valorará experiencia en entornos multinacionales y trabajo remoto colaborativo.

Beneficios y condiciones

Contrato de plazo fijo con duración estimada de 6 meses. Salario entre 2.500.000 y 2.700.000 CLP, según experiencia. Equipo propio no provisto; se requiere PC/notebook personal. Ventajas de trabajar con un cliente líder en soluciones de datos y un equipo global de alto rendimiento, con oportunidades de aprendizaje y crecimiento en tecnologías de vanguardia. Modalidad remota con posibles coordinación en Colombia y región. Si te apasiona la ingeniería de datos y quieres contribuir a un Data Lake avanzado, te invitamos a aplicar y formar parte de nuestro equipo.

Fully remote You can work from anywhere in the world.
Gross salary $1000 - 1400 Full time
Data Analyst
  • Coderslab.io
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Analyst

Buscamos un/a Data Analyst para unirse a nuestro equipo y participar en el desarrollo de aplicaciones móviles escalables, modernas y de alto impacto. Trabajarás en un entorno colaborativo, con proyectos desafiantes y oportunidades reales de crecimiento.

© getonbrd.com. All rights reserved.

Funciones del cargo

  • Desarrollo de funcionalidad de gestión del canal con python y html5.
  • Documentación funcional de los desarrollos.
  • Carrera sistemas o relacionados.
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.
  • Recopilar y limpiar datos: Obtener datos de diversas fuentes (bases de datos, redes sociales, hojas de cálculo, etc.) y luego limpiarlos, procesando valores faltantes, corrigiendo errores y eliminando inconsistencias para asegurar su calidad.
  • Analizar datos: Utilizar técnicas estadísticas y otras herramientas para identificar correlaciones, tendencias y patrones dentro de los conjuntos de datos.
  • Interpretar resultados: Analizar los resultados del análisis para entender qué significan y cómo pueden ayudar a la empresa a tomar mejores decisiones.
  • Comunicar hallazgos: Presentar los resultados del análisis de forma clara y comprensible a través de informes, paneles (dashboards) y visualizaciones (gráficos, tablas) para stakeholders y otros equipos.
  • Identificar riesgos y oportunidades: Detectar tendencias, problemas potenciales y oportunidades de crecimiento para la empresa.
  • Apoyar la toma de decisiones: Facilitar la toma de decisiones estratégicas en diferentes áreas de la organización, como ventas, inventario y gestión de servicios.
  • Crear informes y dashboards: Generar informes periódicos y dashboards interactivos que se actualizan automáticamente para mantener a todos informados.

Requerimientos del cargo

Experiencia entre 2 y 3 años

  • Experiencia en SQL Server
  • Experiencia en Python
  • Experiencia en BigQuery
  • Experiencia en Gitlab
  • Experiencia en ETLs
  • Experiencia en HTML5
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Condiciones

Modalidad de contratación: Recibo por honorarios
Duración del proyecto: 6 meses
Modalidad: Hibrida (3 veces a oficina)

$$$ Full time
HTML5 Python Data Analysis SQL
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

This posting is original from the Get on Board platform.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Applications at getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

This job is original from Get on Board.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
Gross salary $1400 - 2000 Full time
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Job opportunity published on getonbrd.com.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Analytics SQL Business Intelligence Virtualization
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

Apply directly through getonbrd.com.

Funciones del cargo

Buscamos un Data Engineer con experiencia sólida construyendo y optimizando capas de consumo analíticas en entornos cloud, idealmente sobre Amazon Redshift Serverless.
Tu misión será diseñar, modelar y mantener una capa de consumo en Redshift a partir de datos replicados vía Zero‑ETL desde Aurora, habilitando datasets confiables y performantes para reporting, métricas multi‑dominio y casos de uso de analítica/IA.

Responsabilidades principales:

  • Diseñar modelos analíticos (facts, dims y marts) orientados a autoservicio de datos y consumo por herramientas BI/IA.
  • Implementar y optimizar consultas SQL avanzadas sobre Redshift (joins grandes, agregaciones, window functions) garantizando buen performance y costo.
  • Analizar y tunear el rendimiento de Redshift (EXPLAIN, DS_BCAST/DS_DIST, scans, spill, skew) proponiendo mejoras continuas en diseño físico.
  • Definir y ajustar DISTSTYLE/DISTKEY, SORTKEY, CTAS/materializaciones y estadísticas para maximizar la performance de la capa de consumo.
  • Construir pipelines livianos en AWS (Redshift Data API, Lambda, EventBridge u otros servicios equivalentes) para refrescar la capa de consumo con mínima latencia y alta confiabilidad.
  • Colaborar con analistas, producto y stakeholders de negocio para entender métricas clave y reflejarlas correctamente en los datasets.

Requerimientos del cargo

  • Experiencia comprobable como Data Engineer (ideal 3+ años) trabajando con warehouses en cloud.
  • Experiencia práctica con Amazon Redshift (idealmente Redshift Serverless) y SQL avanzado.
  • Conocimientos fuertes de performance tuning en Redshift: lectura de EXPLAIN, comprensión de broadcast vs redistribution (DS_BCAST/DS_DIST), manejo de scans, spill y skew.
  • Diseño físico y optimización de tablas en Redshift: DISTSTYLE/DISTKEY, SORTKEY, uso de CTAS/materializaciones y manejo de estadísticas.
  • Experiencia en modelado analítico (esquemas de hechos y dimensiones, data marts, agregados) orientado a consumo.
  • Experiencia construyendo pipelines livianos en AWS para refrescar datos (por ejemplo Redshift Data API, Lambda, EventBridge o servicios equivalentes).

Nice‑to‑have (deseables):

  • Experiencia usando dbt para modelado y orquestación ligera sobre el warehouse.
  • Prácticas de data quality (tests, checks, monitoreo de calidad de datos).
  • Experiencia exponiendo la capa de consumo a través de herramientas BI como QuickSight u otras.
  • Haber habilitado semantic layers o datasets pensados para IA/LLM o analítica avanzada.

Soft Skills

Resolución de problemas: Capacidad analítica para identificar cuellos de botella de performance y proponer soluciones técnicas simples y efectivas.

  • Comunicación: Habilidad para explicar decisiones de diseño de datos y métricas a perfiles técnicos y de negocio.
  • Colaboración: Experiencia trabajando con equipos ágiles y en coordinación con analistas, científicos de datos y desarrolladores.
  • Orden y detalle: Prolijidad en documentación, definición de contratos de datos y buenas prácticas en modelado.

Condiciones

En WiTI, nuestro centro son las personas y la agilidad, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.

  • Plan de carrera
  • Certificaciones
  • Cursos de idiomas
  • Aguinaldos

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Apply without intermediaries from Get on Board.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

This job is original from Get on Board.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $3500 - 5200 Full time
Python SQL JSON Machine Learning

Vequity is building the world’s most robust, contextualized buyer intelligence network for investment banks, private equity firms, and strategic acquirers. Our platform currently houses over 1.5 million buyer profiles with approximately 100 structured and inferred data fields per profile. We leverage proprietary AI agents to continuously enrich, infer, and structure buyer intelligence at scale. As a Senior Data Engineer, you will own the architecture, quality, and scalability of our data ecosystem—from ingestion and cleaning to inference and output generation. You will partner with AI, product, and engineering teams to deliver data APIs and feeds that power our platform's decision-support capabilities. Your work will directly impact data reliability, operational efficiency, and the precision of buyer attributes used across our customers.

Job source: getonbrd.com.

Key Responsibilities

Multi-Source Data Architecture

  • Work with systems handling multiple write paths: external providers, LLM hygiene agents, and customer-claimed edits
  • Define standards for data versioning, lineage, and observability across pipelines


Entity Lifecycle & Master Data Management

  • Handle entity lifecycle complexity: mergers, acquisitions, spin-offs, rebranding, and temporal relationship changes
  • Design entity resolution systems using deterministic blocking (fuzzy matching, location) combined with LLM-based evaluation for match decisions
  • Build confidence scoring models and surface low-confidence cases for human review

Machine Learning & Matching Systems

  • Work with embeddings infrastructure: vector generation, retrieval optimization, and quality measurement
  • Optimize semantic search pipelines including embedding strategies, namespace design, and reranking
  • Establish evaluation frameworks to measure model performance against human judgment

Collaboration & Team Development

  • Educate and mentor the engineering team on data best practices, patterns, and common pitfalls
  • Lead continuous improvement of the data infrastructure roadmap

Relationship & Graph Modeling

  • Design data models for complex relationships: parent/subsidiary hierarchies, PE firm → portfolio company chains
  • Evaluate and implement graph query capabilities (Apache AGE, Neo4j, or optimized Postgres patterns) for relationship traversal that semantic search cannot address

Data Quality, Testing & Operations

  • Build quality-control layers including confidence scoring, human-in-the-loop validation, and automated anomaly detection
  • Implement testing strategies including data contracts, pipeline unit tests, and integration testing
  • Build proactive monitoring, alerting, and runbooks for data health issues
  • Ensure compliance with data governance, privacy, and security standards

Description

  • 5+ years in data engineering with strong Python (Pydantic a bonus), SQL, and cloud data stacks (including GCP)
  • Experience with orchestration frameworks (Airflow, Dagster, Prefect) and/or data platforms (Databricks)
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of embedding-based retrieval
  • Excellent communication and cross-team collaboration skills

Desirable

  • Prior experience with Machine Learning algorithms / semantic search
  • Prior experience with entity resolution or master data management — you understand why matching company records is fundamentally hard
  • Familiarity with graph databases or graph query patterns (Neo4j, Apache AGE, recursive CTEs) for complex entity relationships
  • Experience with event sourcing or append-only architectures for audit trails and data replay
  • Background in investment data, market intelligence, or deal sourcing platforms
  • Familiarity with agent orchestration tools (LangChain, LlamaIndex) and data quality frameworks (dbt, Great Expectations)
  • Experience as an early/first data hire at a startup
  • Experience designing or integrating AI/LLM agents for data enrichment with structured AI → JSON → database pipelines including error recovery and monitoring
  • Understanding of prompt engineering, MCP Servers, function calling, and embedding-based retrieval

Benefits

Competitive compensation and Paid Time Off (PTO).

Fully remote You can work from anywhere in the world.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

Apply from getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Engineer
  • Talana
  • Santiago (Hybrid)
Java Python SQL Erlang

En Talana, buscamos un Data Engineer que diseñe, implemente y optimice una arquitectura de datos escalable, segura y de alta disponibilidad para transformar datos crudos en insights confiables. El objetivo fundamental es transformar datos crudos provenientes de diversas fuentes en activos de datos listos para el análisis, asegurando la excelencia operativa y la automatización total del ciclo de vida del dato mediante prácticas de DataOps.

This posting is original from the Get on Board platform.

Funciones y responsabilidades

  • Diseñar y desplegar pipelines ETL/ELT robustos en GCP para centralizar datos de toda la organización.
  • Gestionar Infraestructura como Código (IaC) con Terraform para reproducibilidad, trazabilidad y control de costos.
  • Optimizar BigQuery mediante particionamiento, modelos de datos y técnicas de costo-efectividad para maximizar ROI por consulta.
  • Configurar orquestación de flujos con Dataflow y garantizar la frescura de los datos para tableros de control listos para las reuniones matutinas.
  • Implementar políticas de IAM, cifrado y gobernanza para mantener un Data Lake seguro y conforme a estándares internacionales.
  • Configurar monitoreo proactivo y alertas para detección de anomalías y mejora de la confiabilidad en tiempo real.
  • Colaborar con SRE y equipos de negocio para entregar soluciones que añadan valor inmediato.

Requisitos y perfil buscado

  • Formación: Ingeniería Civil/Informática o carreras afines.
  • Experiencia: mayor a 3 años en roles de ingeniería de datos, con al menos 1 año en nivel semi senior.
  • Conocimientos técnicos: SQL y Python a nivel avanzado; experiencia con Terraform; conocimiento de GCP (preferible) o AWS. Deseables: Apache Kafka, Apache Beam, Apache Iceberg. Inglés técnico suficiente para lectura de textos técnicos.
  • Competencias: pensamiento analítico, enfoque en calidad de datos, capacidad para trabajar en entornos colaborativos y orientados a resultados.

Deseables

Experiencia en migraciones de datos a Data Lakehouse, experiencia con orquestación avanzada, y habilidades para diseñar arquitecturas de datos que soporten dashboards y métricas en tiempo real. Conocimiento práctico de seguridad de datos, gobernanza y cumplimiento de normativas.

Beneficios

  • 💸 Ajuste de renta por UF cada 3 meses, sin tope
  • 🏝️ 5 Talana Days: te regalamos 5 días libres al año
  • 🏡 Trabajo híbrido
  • 🏥 Seguro complementario de salud y dental
  • 💰 Aguinaldos fiestas patrias y Navidad
  • 💻 Te pasamos todos los implementos de trabajo
  • 😎 Dress Code 100% flexible
  • 👨🏻‍🍼 Postnatal paternal extendido

¡¡Muchas sorpresas más!!

"Todas las contrataciones están sujetas a la ley 21015. En Talana creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas"

Health coverage Talana pays or copays health insurance for employees.
Computer provided Talana provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Talana gives you paid vacations over the legal minimum.
Beverages and snacks Talana offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Business Intelligence Virtualization
BC Tecnología, una consultora de TI especializada en servicios IT y soluciones de negocio, busca un Data Engineer para un proyecto híbrido ubicado en Las Condes, Santiago. El/la profesional se integrará a un equipo de BI/Analytics para desarrollar, optimizar y mantener soluciones de datos en entornos analíticos, trabajando con clientes de alto nivel en sectores como finanzas, seguros, retail y gobierno. El proyecto implica colaborar con equipos de BI, Analytics y TI, contribuuyendo a la implementación de pipelines de datos, modelado y generación de reports y dashboards de valor estratégico.

Opportunity published on Get on Board.

Funciones del rol

  • Desarrollar y optimizar consultas y modelos en SQL Server para soportar reporting analítico.
  • Diseñar, implementar y mantener pipelines de datos, integrando fuentes en plataformas en la nube (AWS, Azure o GCP).
  • Desarrollar y mantener reportes y dashboards en MicroStrategy para usuarios de negocio.
  • Colaborar con equipos de BI, Analytics y TI para entender requerimientos y entregar soluciones eficientes.
  • Identificar mejoras de rendimiento, escalabilidad y calidad de datos; aplicar buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Al menos 3 años de experiencia como Data Engineer o BI Engineer.
  • Experiencia comprobable en SQL Server y MicroStrategy.
  • Experiencia trabajando con alguna nube (AWS, Azure o GCP).
  • Capacidad para trabajar en entornos colaborativos, orientado a resultados y con buena comunicación con stakeholders.
  • Conocimiento en conceptos de modelado de datos, extracción, transformación y carga (ETL/ELT) y buenas prácticas de calidad de datos.

Skills and assets

  • Certificaciones en SQL Server, Data Platform o tecnologías de nube asociadas.
  • Con experiencia en herramientas de visualización y dashboards además de MicroStrategy.
  • Conocimientos de Python o lenguajes de scripting para transformaciones de datos.
  • Actitud proactiva, pensamiento analítico y capacidad para trabajar de forma autónoma en entornos dinámicos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes
Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This posting is original from the Get on Board platform.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer AWS
  • BC Tecnología
Agile SQL Virtualization Big Data
En BC Tecnología buscamos Data Engineer AWS para colaborar en proyectos de alto impacto para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo, parte de una consultora de TI con enfoque en soluciones innovadoras, trabaja en entornos de Big Data y nube, diseñando y operando infraestructuras escalables para procesamiento de datos y analítica avanzada. Participarás en proyectos de migración, diseño de pipelines de datos, implementación de soluciones en AWS y operaciones de datos, con un enfoque en calidad, seguridad y cumplimiento. Formarás parte de un equipo ágil que impulsa soluciones orientadas al negocio y la eficiencia operativa.

Find this vacancy on Get on Board.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos en entornos AWS (Glue, Lambda, Step Functions, Redshift, Athena, Lake Formation).
  • Gestionar arquitectura de datos y clústeres, asegurando rendimiento, escalabilidad y seguridad de la información.
  • Implementar políticas IAM y controles de acceso, garantizando cumplimiento y buenas prácticas de seguridad.
  • Colaborar con científicos de datos y equipos de negocio para transformar requerimientos en soluciones técnicas eficientes.
  • Participar en la mejora continua de procesos, automatización y monitoreo de flujos de datos.

Perfil y habilidades

  • Experiencia mínima de 2 años como Data Engineer, preferentemente en entornos Big Data y nube AWS.
  • Conocimientos en AWS: Glue, Lambda, Step Functions, Redshift, Lake Formation, SQL, Athena y gestión de políticas IAM.
  • Experiencia con bases de datos y arquitecturas de clústeres; capacidad para optimizar rendimiento y costos.
  • Fuerte capacidad de resolución de problemas, pensamiento analítico y orientación a resultados.
  • Buen comunicador, capaz de trabajar en equipos ágiles y adaptar soluciones a requerimientos de negocio.
  • Idiomas: español; se valoran habilidades en inglés técnico.

Requisitos Deseables

  • Certificaciones AWS (por ejemplo, AWS Data Analytics, AWS Solutions Architect).
  • Experiencia en orquestación de datos y herramientas de orquestación adicional (por ejemplo, Step Functions, Airflow).
  • Conocimientos en seguridad de datos, cumplimiento normativo y buenas prácticas de DevOps/DataOps.
  • Experiencia en proyectos de migración de datos, tratamiento de datos sensibles y observabilidad de pipelines.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Gross salary $2500 - 3700 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

Apply from getonbrd.com.

Responsabilidades del Cargo

    • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
    • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
    • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
    • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
    • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Requisitos del Cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Consideración

Favor considerar adjuntar cv en Ingles actualizado al momento de postular

Beneficios

    • Un entorno de colaboración y rápido movimiento
    • Formar parte de una empresa internacional con sede en Estados Unidos
    • Asignación de reembolso por aprendizaje y desarrollo
    • Remuneración competitiva y oportunidades de promoción profesional y personal
    • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
    • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
Gross salary $2800 - 3100 Full time
Lider Técnico AWS – Datos
  • BC Tecnología
  • Santiago (Hybrid)
Agile SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con enfoque en servicios, outsourcing y selección de profesionales, que acompaña a clientes de sectores como finanzas, seguros, retail y gobierno. En este rol, liderarás proyectos de datos en entornos cloud para clientes de alto perfil, asegurando soluciones escalables y alineadas a estándares de arquitectura. Trabajarás en un entorno ágil para diseñar e implementar soluciones de datos (ETL/ELT), gobernanza de datos y migraciones a la nube, colaborando estrechamente con equipos de Infraestructura, Desarrollo y Unidades de Negocio. Participarás en iniciativas de mejora continua, calidad de entrega y gobierno de datos, impulsando buenas prácticas de CI/CD y cumplimiento normativo. En un entorno híbrido, combinarás trabajo remoto con presencia en nuestras oficinas para colaborar de forma eficiente con stakeholders y equipos multidisciplinarios.

Apply directly through getonbrd.com.

Funciones principales

  • Liderar tecnicamente equipos de datos y proyectos AWS orientados a soluciones de ingesta, procesamiento y almacenamiento de datos.
  • Gestionar stakeholders y asegurar alineación de expectativas, alcance y plazos.
  • Diseñar y revisar arquitecturas de datos escalables (ETL/ELT, data lakes, data warehouses) utilizando servicios AWS (Glue, S3, Redshift, Lambda, Step Functions).
  • Garantizar gobernanza de datos, calidad, seguridad y cumplimiento de buenas prácticas de CI/CD y control de versiones.
  • Promover prácticas ágiles (Scrum/Kanban), liderazgo técnico, mentoring y desarrollo de capacidades del equipo.
  • Identificar y gestionar riesgos técnicos, definir indicadores de rendimiento y ejecutar planes de mitigación.
  • Colaborar con áreas de Infraestructura, Desarrollo y negocio para entregar soluciones alineadas a objetivos estratégicos.
  • Participar en revisiones de arquitectura, diseño de soluciones y documentación técnica.

Requisitos y perfil

Buscamos un Líder Técnico AWS con al menos 5 años de experiencia liderando proyectos y equipos de datos en entornos cloud. Se valorará experiencia sólida en proyectos de datos (ETL/ELT, arquitecturas escalables) y conocimiento profundo de servicios AWS como AWS Glue, S3, Redshift, Lambda y Step Functions. Se requiere experiencia en entornos ágiles (Scrum/Kanban), así como gobernanza de datos, CI/CD y buenas prácticas de calidad. El candidato ideal combinará habilidades técnicas sólidas con capacidad de liderazgo, comunicación efectiva y orientación a resultados.
Habilidades técnicas: diseño de arquitecturas de datos, orquestación de pipelines, proficient en SQL, modelado de datos, seguridad y cumplimiento, gestión de stakeholders, migraciones a la nube.
Competencias blandas: liderazgo colaborativo, comunicación clara, pensamiento estratégico, orientación a soluciones, capacidad de influencia y trabajo en equipo multifuncional.

Desirable

Certificaciones en AWS (por ejemplo, AWS Certified Solutions Architect – Professional o AWS Certified Data Analytics) son una ventaja. Experiencia con herramientas de orquestación adicionales, ciencia de datos, o herramientas de observabilidad y monitoreo de datos. Conocimientos en gobernanza de datos, calidad y metadatos, y experiencia en proyectos en sectores regulados también son deseables.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $3200 - 4100 Full time
Python Git Data Analysis SQL

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Scientist es un profesional altamente experimentado en el análisis de datos, con profundos conocimientos en técnicas estadísticas, de programación y de aprendizaje automático. Su rol principal es utilizar estas habilidades para extraer conocimientos significativos y tomar decisiones estratégicas basadas en datos dentro de la organización.

Además de desarrollar modelos analíticos avanzados, el Data Scientist Senior ejerce un rol importante dentro del equipo asignado al cliente, aportando con su conocimiento técnico para poder tomar decisiones concretas que ayuden al desarrollo del proyecto. Su experiencia ayuda en la conceptualización hasta la implementación, y asegura la entrega de soluciones prácticas y detallistas que cumplan con las necesitas del cliente.

Apply exclusively at getonbrd.com.

Tus responsabilidades serán:

  • Análisis de Datos: Aplicar técnicas avanzadas de análisis exploratorio para comprender la estructura y características de grandes volúmenes datos, provenientes de diversas fuentes.
  • Desarrollo de Modelos Predictivos Avanzados: utilizar técnicas avanzadas de aprendizaje automático y estadística para desarrollar modelos predictivos robustos que permitan predecir tendencias, identificar patrones y realizar pronósticos precisos.
  • Optimización de Algoritmos y Modelos: dirigir la optimización de algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad.
  • Visualización y Comunicación de Datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados de manera efectiva al cliente y a otros stakeholders clave.
  • Desarrollo de Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguajes de programación como Python, R o SQL.
  • Gestión de Proyectos: liderar frentes de un proyecto relacionados al análisis de datos complejos, desde la conceptualización hasta la implementación, planificando estratégicamente los hitos y entregables acordados con los clientes.
  • Investigación y Desarrollo Continuo: mantenerse actualizado en las últimas tendencias y avances en análisis de datos, inteligencia artificial y metodologías relacionadas. Compartir conocimientos y experiencias con el equipo para fomentar un ambiente de aprendizaje continuo.
  • Contribución a Propuestas y Desarrollo de Negocios: colaborar en el desarrollo de propuestas internas para potenciales clientes, utilizando su experiencia y conocimientos para identificar oportunidades y diseñar soluciones innovadoras.
  • Apoyar al equipo desde un rol de mentor, traspasando conocimientos y buenas prácticas, proporcionándole capacitación personalizada según las necesidades individuales de los miembros.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o experiencia equivalente en análisis avanzado de datos.
  • Experiencia laboral de al menos 4 años en roles de análisis de datos, preferiblemente en industrias relevantes.
  • Experto en Python, SQL y Git, con habilidades demostradas en el desarrollo de modelos analíticos y aplicaciones.
  • Amplio conocimiento de bases de datos relacionales y no relacionales, así como experiencia en procesamiento de datos (ETL).
  • Profundo conocimiento en machine learning, feature engineering, reducción de dimensiones, estadística avanzada y optimización.
  • Inglés avanzado.

Condiciones

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal y medio día libre de cumpleaños. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por desempeño de la empresa, además de bonos por trabajador referido y por cliente.
  • Almuerzos quincenales pagados con el equipo (Chile) o Tarjeta de Alimentación (México).
  • Cobertura de salud adicional (Mexico).
  • Computadora de altos specs para trabajar cómodamente.
  • Flexibilidad horaria y trabajo por objetivos.
  • Posibilidad de participar en proyectos a nivel global, con intercambios con otros países con presencia del grupo.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Ciudad de México).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Artefact LatAm pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $1100 - 1700 Full time
Data Engineer
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python SQL Artificial Intelligence Machine Learning
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Apply directly on Get on Board.

Funciones del cargo

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Cloud Platforms for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, and SQL
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects. Helping translating business realities into data bases solution.
  • Performance Optimization: Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness. Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.
  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across cloud platforms environment.

Requerimientos del cargo

  • Bachelor’s degree in computer science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred.
  • Advanced English is mandatory
  • 1+ years of experience as Data Engineer
  • Cloud data storage is mandatory
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language, relational data modelling and sound knowledge of Database administration is mandatory
  • Proficiency in Python related to Data Engineering for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • Proficiency in Microsoft Excel
  • Experience within integrating data management into business and data analytics is mandatory
  • Experience working with cloud platform for deploying and managing scalable data infrastructure
  • Experience working with technologies such as DBT, airflow, snowflake, Databricks among others is a plus
  • Excellent Stakeholder Communication
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development
  • Experience in leading or collaborating with a team of data scientists and engineers in developing and delivering machine learning models that work in a production setting..

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
Gross salary $3000 - 3500 Full time
Data Engineer
  • Coderslab.io
Python SQL NoSQL Azure
Coderslab.io es una empresa global líder en soluciones tecnológicas con más de 3,000 colaboradores en todo el mundo, incluyendo oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos compuestos por talento de alto desempeño para proyectos desafiantes de automatización y transformación digital. Colaborarás con profesionales experimentados y trabajarás con tecnologías de vanguardia para impulsar la toma de decisiones y la eficiencia operativa a nivel corporativo.

© Get on Board.

Funciones del cargo

-Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.
-Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.
-Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.
-Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.
-Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).
-Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.
-Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.
-Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.
-Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

-Microsoft Certified: Azure Data Engineer Associate
-Databricks Certified: Data Engineer Associate
-Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.
-Conocimiento avanzado en bases de datos NoSql.
-Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.
-Conocimiento en procesamiento de datos batch, streaming, API.
-Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.
-Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.
-Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.
-Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

Condiciones

Modalidad de contratación: Prestación de servicio, Contractor.
Duración del proyecto: Indefinido.

Fully remote You can work from anywhere in the world.
$$$ Full time
Python SQL Virtualization Big Data
En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS.
El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SAS y SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.
Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Analizar programas existentes en SAS, incluyendo SAS SQL no estándar y estructuras propias del entorno (macros, data steps, librerías, jobs).
  • Convertir y reescribir lógica desde SAS a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre SAS y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Perfil y requisitos

Buscamos un Data Engineer con experiencia sólida en migraciones de SAS hacia entornos cloud, especialmente Amazon Redshift, y con fuerte capacidad para optimizar consultas, diseñar estrategias de conversión y liderar iniciativas de calidad de datos. Deberás combinar habilidades técnicas avanzadas con capacidad de trabajo colaborativo en un entorno enterprise.
  • SQL avanzado (queries complejas, optimización de performance, joins pesados, window functions/CTEs), lectura e interpretación de planes de ejecución.
  • Experiencia demostrada trabajando con SAS (lectura y mantención de programas, entendimiento de SAS SQL y su lógica de procesamiento).
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
migraciones desde SAS u otras tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery), automatización de migraciones, Python u otros lenguajes de scripting para tooling, gobernanza de datos (naming conventions, documentación funcional/técnica, data quality checks) y monitoreo.

Requisitos deseables

Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses (SAS, otros) y participación en automatización de migraciones. Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:
  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.
Modalidad híbrida en Las Condes, Santiago, con flexibilidad para coordinar con equipos y stakeholders. Participación en un proyecto estratégico de transformación de datos con alta visibilidad interna y contacto directo con equipos de data, BI y tecnología. Política de trabajo remoto Híbrido; se combine trabajo remoto y días en oficina.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Data Engineer – Proyecto (Híbrida)
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL SQL Web server
En BC Tecnología diseñamos y ejecutamos soluciones de TI para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de Data & Analytics se centra en impulsar la continuidad operativa de flujos de datos corporativos mediante pipelines robustos, integraciones escalables y monitoreo proactivo. Participarás en un proyecto con enfoque en datos de alto volumen, trabajando con tecnologías modernas y un entorno ágil para entrega continua y mejoras de producto.

Find this job and more on Get on Board.

Funciones

  • Diseñar y mantener pipelines ETL/ELT para datos críticos de la organización.
  • Orquestar y monitorear flujos de datos con Apache Airflow en entornos productivos.
  • Optimizar consultas SQL en PostgreSQL y/o Amazon Redshift para rendimiento y costos.
  • Gestionar repositorios y pipelines CI/CD en Azure DevOps.
  • Resolver incidencias y asegurar la calidad, disponibilidad y trazabilidad de los datos.
  • Colaborar con equipos de ciencia de datos, ingeniería y negocio para entender requerimientos y entregar soluciones escalables.
  • Participar en la definición de estándares de gobierno de datos y mejores prácticas de ingeniería de datos.

Descripción

  • Buscamos Ingeniero/a de Datos con experiencia en desarrollo de pipelines y entornos productivos para asegurar fluidez y confiabilidad de los datos corporativos.
  • Requisitos técnicos: Python y SQL avanzados; experiencia con PostgreSQL y/o Amazon Redshift; Apache Airflow; Azure DevOps; manejo de grandes volúmenes de datos.
  • Competencias: pensamiento analítico, proactividad, orientación a resultados, capacidad de trabajo en equipo y comunicación efectiva con stakeholders.
  • Se valoran proyectos previos en entornos financieros y experiencia con herramientas de monitoreo y observabilidad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
C Agile SQL C#

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.

En esta ocasión estamos buscando incorporar un/a Data Engineer On-premise.

Applications: getonbrd.com.

Funciones del cargo

-Desarrollar ETL para réplica de Extracción y tratamiento de información de base de datos SQL Server.
-Programación de flujos y transformación de datos para carga de Datawarehouse.
-Analizar requerimientos del usuario para el diseño de las especificaciones técnicas.
-Elaboración de manuales técnicos.
-Trabajar como desarrollador en el marco de trabajo Scrum.
-Desarrolla de scripts/procesos.
-Desarrollar ETL bajo herramientas de Microsoft.
-Desarrollar según las especificaciones y políticas establecidas por BAC Regional.

Requerimientos del cargo

-Microsoft SQL Server.
-Modelado de Datos en Estrella o Copo de Nieve para Data Warehouse
-Microsoft Visual Studio 2022.
-Microsoft Integration Services.
-Dominio de T-SQL.
-Dominio en C# / VB.
-Dominio de mitologías de Modelo ETL y Data Warehousing.
-Conocimiento básico con Power BI.
-Azure DevOps (básico)
-Metodologías Agiles (Scrum)
-Herramientas de versionamiento de código fuente.

Condiciones

Modalidad de contratación: Prestacion de Servicio - Contractor

Fully remote You can work from anywhere in the world.
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply at getonbrd.com without intermediaries.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
Gross salary $3500 - 3700 Full time
Java Python Analytics PostgreSQL

Coderslab.io is looking to hire a Big Data & Reporting Lead to lead the organization’s data architecture and analytics strategy.

This role will be responsible for designing, governing, and optimizing the enterprise data architecture, ensuring proper structuring, integration, automation, and consumption of data for reporting, advanced analytics, and decision-making.

The position has a strong focus on data architecture, analytical modeling for MicroStrategy, process automation using n8n, and optimization of ETL/ELT data pipelines.

About the client and the project: the company delivers innovative technology solutions and provides opportunities for continuous learning under the guidance of experienced professionals and cutting-edge technologies. The goal is to deliver value in key business processes and improve operational efficiency through SAP.

Exclusive to Get on Board.

Funciones del cargo

Data Architecture
Design and govern the data architecture for Big Data and BI platforms.
Define analytical data models for reporting and analytics.
Design data lakes, data warehouses, and data marts aligned with business needs.
Establish data governance, quality, and lineage standards.
Ensure platform scalability, availability, and reliability.

Modeling and Reporting in MicroStrategy
Design and optimize the semantic layer and metadata in MicroStrategy.
Define analytical models and Star Schema structures.
Lead the development of dossiers, operational reports, and analytical cubes.
Optimize queries, performance, and execution times.
Define caching, aggregation, and pre-calculation strategies.

Automation of Analytical Processes (n8n)
Design data and reporting automation workflows using n8n.
Integrate sources such as APIs, databases, cloud services, and BI tools.
Automate data extraction, report generation, dashboard distribution, and alerts.
Design orchestration pipelines for analytical processes.

Data Processing Optimization
Design and optimize scalable ETL/ELT processes.
Optimize queries, data pipelines, and incremental loads.
Reduce latency and resource consumption in reporting.
Implement efficient data ingestion strategies.

Technical Leadership and Management
Lead Data Engineering, BI, and Analytics teams.
Track data architecture and reporting projects.
Define the data platform evolution roadmap.
Establish KPIs for reporting performance, data quality, and analytics adoption.
Align business needs with the data architecture.

Requerimientos del cargo

Experience leading data architecture or analytics platforms.
Experience in analytical data modeling (Star Schema, Data Modeling).
Experience working with Big Data or Data Warehousing platforms.
Experience with MicroStrategy for modeling and reporting.
Experience designing ETL / ELT processes and data pipelines.
Advanced SQL knowledge.
Experience with Python for data processing or automation.
Experience designing scalable data architectures.

Technologies
Big Data & Data Platforms
Spark
Hadoop
Databricks
Snowflake / BigQuery / Redshift
Kafka
Business Intelligence
MicroStrategy
Power BI (nice to have)
Tableau (nice to have)
Automation & Orchestration
n8n
Airflow
REST APIs
Webhooks
Databases
SQL Server
PostgreSQL
Oracle
NoSQL
Data Engineering
Python
Advanced SQL
ETL / ELT pipelines

Opcionales

Experience with workflow automation using n8n.
Experience with orchestration tools such as Airflow.
Experience with Power BI or Tableau.
Knowledge of event-driven or streaming architectures (Kafka).
Experience in data governance, data quality, and data cataloging.

Condiciones

Modalidad prestacion de servicios

Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Apply without intermediaries through Get on Board.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

$$$ Full time
Python Redis PostgreSQL REST API

Continuum es un equipo de rebeldes con mentalidad de experimentación y hambre de romper paradigmas. Ayudamos a empresas líderes a sacudir el status quo y a tomarse en serio la innovación, la tecnología y la agilidad. Diseñamos y desarrollamos productos digitales y servicios innovadores centrados en las personas. Tenemos oficinas en Santiago y Lima, pero adoptamos un modelo distribuido; buena parte del equipo vive en otras ciudades o países.

ROL
Como Data Engineer [Semi-Senior] trabajarás en dupla directa con un Back-end Engineer para construir y habilitar flujos de datos que soporten sistemas de seguridad, privacidad de datos y plataformas analíticas — haciendo que la información esté disponible, limpia, segura y estructurada para reportería, análisis y cumplimiento regulatorio en data privacy y gestión de derechos de datos.

Duración: 6 meses [con posible extensión a 1 año o más]
Rango referencial mensual: 2600 a 3600 USD

Opportunity published on Get on Board.

Qué harás

  • Diseñar, construir y mantener pipelines de datos confiables y escalables sobre GCP (Dataflow, Pub/Sub, BigQuery, Cloud Storage).
  • Modelar y transformar datos asegurando calidad, nomenclatura y catalogación.
  • Construir y exponer APIs y microservicios para ingesta, orquestación y consumo de datos, coordinado con el Back-end Engineer del equipo.
  • Aplicar controles de gobernanza, compliance y seguridad: Policy Tags, Row-level Security, IAM, Cloud DLP para detección y enmascarado de PII.
  • Optimizar performance de queries y costos de infraestructura (FinOps) sobre BigQuery y Cloud SQL.
  • Monitorear la disponibilidad y resiliencia de pipelines, gestionando incidentes y asegurando SLAs.
  • Colaborar en pipelines de CI/CD con Terraform, GitLab CI / Cloud Build, garantizando desplieues automatizados y seguros.
  • Democratizar el acceso a datos habilitando flujos hacia plataformas analíticas y sistemas corporativos del cliente.

Conocimientos y experiencia clave (must-have)

Data Engineer Semi Senior con experiencia en GCP y construcción de pipelines de datos en producción. Capaz de trabajar con autonomía a partir de objetivos funcionales, diseñando la solución técnica necesaria. Con habilidad para coordinarse con un equipo de backend y con stakeholders no técnicos del cliente.


Cloud & Datos

  • GCP: BigQuery, Dataflow / Apache Beam, Pub/Sub, Cloud Storage, Cloud Run
  • SQL avanzado (BigQuery SQL, optimización de queries)
  • Python para pipelines, automatización y procesamiento de datos
  • Arquitectura Medallion (Bronze / Silver / Gold)


DevOps & Infraestructura

  • GitLab CI / Cloud Build / GitHub Actions

Gobernanza & Seguridad

  • IAM / Policy Tags / Row-level Security
  • OAuth2 / OIDC
  • Secret Manager
  • Cumplimiento GDPR / LGPD o normativas equivalentes

Integración con Backend

  • REST APIs
  • Cloud SQL (PostgreSQL)
  • Memorystore (Redis) para cache
  • Pub/Sub para arquitecturas orientadas a eventos

Complementarios

DevOps & Infraestructura

  • Terraform (IaC)
  • Docker
  • Artifact Registry

Observabilidad & Monitoreo

  • Cloud Logging / Monitoring / Trace / Error Reporting
  • OpenTelemetry

Gobernanza & Seguridad de Datos

  • Cloud DLP (detección y enmascarado de PII)
  • Dataform para transformaciones SQL sobre BigQuery

Bases de Datos

  • Neo4j u otras bases de datos de grafos

Experiencia & Contexto

  • Experiencia en sector aeronáutico, financiero o similar con alta regulación de datos
  • Experiencia en proyectos de data privacy, compliance o gestión de derechos de datos

Habilidades Blandas & Otros

  • Inglés intermedio (B1+) para lectura de documentación técnica
  • Capacidad de mentoring y guía de buenas prácticas al equipo

Beneficios

Trabajo 99% remoto (con un par de eventos de integración anuales), vacaciones adicionales, becas de estudios, deporte o apoyo a actividades que mejoren tu calidad de vida laboral y personal, día extra por tu cumpleaños, horario flexible y trabajo orientado a resultados, entre otros.

Library Access to a library of physical books.
Fully remote You can work from anywhere in the world.
Internal talks Continuum offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Continuum pays or copays health insurance for employees.
Computer repairs Continuum covers some computer repair expenses.
Computer provided Continuum provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Continuum gives you paid vacations over the legal minimum.
Beverages and snacks Continuum offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Data Engineer
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Virtualization

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 2 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Data Engineer (Pyspark, AWS)
  • Improving South America
Java Python MySQL SQL
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil. El/la BI Developer trabajará en proyectos orientados a inteligencia de negocio, visualización de datos y creación de dashboards impactantes que faciliten la toma de decisiones. Colaborará con equipos multifuncionales para entregar soluciones escalables y de alto valor para clientes internacionales, dentro de un entorno 100% remoto.
La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

Job opportunity on getonbrd.com.

Responsabilidades del puesto

En Improving South America buscamo un/a Senior Data Engineer para diseñar y operar soluciones de datos de alta disponibilidad a escala global, trabajando con pipelines batch y streaming que procesan grandes volúmenes de información. El rol requiere experiencia construyendo pipelines robustos, trabajando con Kafka, PySpark y data warehouses en AWS, además de fuerte dominio de SQL y modelado de datos.

Responsabilidades del rol:

  • Diseñar y operar pipelines de datos batch y streaming.
  • Procesar grandes volúmenes de datos (billones de eventos diarios y datasets multi-terabyte).
  • Construir integraciones entre MySQL y Redshift.
  • Diseñar modelos de datos y optimizar consultas SQL.
  • Implementar estrategias de CDC, cargas incrementales y full loads.
  • Integrar datos mediante APIs internas y de terceros.
  • Diagnosticar fallas en pipelines, problemas de latencia y calidad de datos.
  • Colaborar en decisiones de arquitectura de datos.

Requerimientos del cargo

  • 7+ años de experiencia en Data Engineering.
  • Inglés intermedio/avanzado (B2/C1) para comunicación técnica.
  • Experiencia sólida con Python.
  • Experiencia con PySpark.
  • Experiencia trabajando con Kafka.
  • Experiencia con Redshift u otro data warehouse moderno.
  • Experiencia integrando MySQL → Redshift.
  • Dominio avanzado de SQL (modelado, optimización y queries complejas).
  • Experiencia en AWS y servicios de datos en la nube.
  • Experiencia diseñando pipelines ETL/ELT batch y streaming.
  • Experiencia con Glue, Step Functions o arquitecturas serverless en AWS.
  • Experiencia trabajando con herramientas de desarrollo asistidas por IA (ej. Cursor).
  • Experiencia en entornos de alto volumen de datos.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Gross salary $1500 - 1900 Full time
Analista Digital
  • TCIT
  • Santiago (Hybrid)
Analytics Agile Marketing Power BI
En TCIT lideramos proyectos de transformación digital para organizaciones en sectores diversos. Nuestro enfoque es entregar soluciones de software en modalidad cloud con alto impacto social, trabajando con clientes locales e internacionales (incluyendo alianzas en Canadá). El equipo se nutre de un portafolio variado que va desde sistemas de gestión hasta soluciones de monitoreo y analítica, siempre apoyado en metodologías ágiles y tecnologías de última generación.

This job is published by getonbrd.com.

Funciones

El Analista Digital será responsable de que el dato digital sea útil, confiable, accionable y escalable,
conectando los activos digitales y los ecosistemas con el Data Lake corporativo y habilitando
decisiones reales de negocio.
Sus principales tareas incluyen:
  • Definir, mantener y documentar el estándar de medición digital para los activos digitales
    bajo nuestro control. Asegurar que cada activo cuente con: eventos clave definidos, embudos medibles, KPIs de uso, conversión, fricción y eficiencia. Validar tracking antes del go-live como condición de cierre.
  • Analizar: uso real, abandono, fricciones, comportamientos críticos. Identificar oportunidades de: mejora UX, simplificación de journeys, aumento de adopción, deflectación digital. Proponer mejoras priorizadas y justificadas con evidencia. La analítica empuja cambios, no solo los observa.
  • Asegurar consistencia y calidad de: eventos, nomenclaturas, métricas. Detectar y corregir: errores de tracking, brechas de medición. Velar porque el dato digital sea trazable, confiable y reutilizable.
  • Diseñar, documentar y mantener el Data Layer estándar para: App, Web, Ecosistemas. Definir semántica común de eventos y naming estándar. Coordinar con el equipo de Datos corporativo: ingesta al Data Lake, validación de estructuras y disponibilidad para analítica avanzada.

Descripción

Buscamos un profesional con capacidad de traducir complejos conjuntos de datos en insights de negocio que impulsen decisiones de negocio. El/la candidato/a ideal trabajará colaborativamente con equipos de negocio y tecnología para garantizar la calidad, disponibilidad y utilidad del dato a lo largo de toda la empresa, apoyando iniciativas de transformación digital y optimizando procesos basados en datos.
Requisitos:
  • Título profesional en Ingeniería Comercial, Civil Industrial, Tecnología de la Información, Diseño, Marketing Digital, Ingeniería Comercial o carrera afín.
  • +5 años Experiencia en diseño, implementación y explotación de ecosistemas de medición en plataformas digitales.
  • Familiaridad con estándares de diseño centrado en el cliente y metodologías ágiles.
  • Conocimientos avanzados de Google Analytics, Google Tag Manager y herramientas de visualización de datos (e.g., Power BI, Data Studio).

Deseables

Se valoran experiencia previa en seguros, finanzas, Banca. Dominio de herramientas de ETL/ELT. Habilidades de comunicación para traducir datos a insights, y capacidad de trabajar en entornos dinámicos con equipos multidisciplinarios. Se aprecia enfoque analítico, pensamiento crítico, proactividad y buena gestión del tiempo.

Gross salary $2200 - 2800 Full time
Python SQL NoSQL Big Data

Interfell conecta empresas con el talento IT de LATAM, gestionando procesos de Staffing y Recruiting para impulsar el trabajo remoto y la transformación digital. Nuestro objetivo es potenciar la inclusión y el equilibrio vida-trabajo, brindando una experiencia de contratación integral y de alta calidad. Esta posición forma parte de un equipo enfocado en generar oportunidades de ventas y vínculos con potenciales clientes, contribuyendo al crecimiento de nuestras operaciones en la región.
Buscamos Ingeniero de Datos para un proyecto a tiempo determinado en el sector bancario, te unirás al equipo IT y ayudarás a crear data pipelines

-Tiempo del proyecto: 3 meses

-Remuneración por hora: 18$ - 40 horas semanales (8 horas diarias)

-Jornada: Lunes a Viernes

-Se trabaja por objetivos

Apply to this job opportunity at getonbrd.com.

Job functions

Funciones:

- Diseño, construcción y mantenimiento de pipelines de datos confiables y escalables a demanda.

-Optimización de procesos de almacenamiento y procesamiento de grandes volúmenes de datos.

Qualifications and requirements

Habilidades requeridas:

+3 años de experiencia como Ingeniero de datos

◦ Lenguajes: Python y SQL (Avanzado).

◦ Bases de Datos: SQL y NoSQL.

◦ Data Engineering: Desarrollo de pipelines ETL/ELT e integración de fuentes (APIs, sistemas internos/externos).

◦ Ecosistema: Big Data.

Desirable skills

◦ Nube: AWS, Azure o GCP (Deseable).

Conditions

Flexibilidad y autonomía

Pago USD

$$$ Full time
Data Engineer (Híbrido) – Santiago
  • Factor IT
  • Santiago (Hybrid)
Python Data Science Back-end Data Engineer
FactorIT es una empresa líder en soluciones de Data & Analytics, Transformación Digital e IA, con presencia en 8 países de Latinoamérica. Buscamos sumar a nuestro equipo a un Data Engineer para trabajar en proyectos de alto impacto en clientes corporativos, especialmente en el sector financiero y en iniciativas regionales de transformación tecnológica. El rol participará en la definición y ejecución de soluciones modernas de datos, automatización e inteligencia artificial, con enfoque en la entrega de valor real para los negocios y la mejora de procesos a través de pipelines escalables y soluciones basadas en IA.
En FactorIT fomentamos un entorno de aprendizaje continuo, colaboración y uso de tecnologías de vanguardia. El/la candidata trabajará en un entorno híbrido desde Santiago, colaborando con equipos multidisciplinarios para impulsar la gobernanza de datos, la calidad y la innovación tecnológica en la región.

Apply to this posting directly on Get on Board.

Qué harás

  • Diseñar, desarrollar y mantener pipelines de datos escalables en entornos modernos, asegurando rendimiento, fiabilidad y trazabilidad.
  • Implementar soluciones en Databricks para procesamiento y transformación de datos, optimizando cargas y costos.
  • Desarrollar integraciones mediante APIs para consumo y exposición de servicios, facilitando el acceso a datos para aplicaciones y usuarios.
  • Automatizar flujos de trabajo y procesos de datos, idealmente utilizando herramientas como n8n, para mejorar la eficiencia operativa.
  • Participar en la implementación de soluciones basadas en IA (OpenAI, Gemini) para casos de negocio y automatización inteligente.
  • Colaborar en iniciativas de arquitectura de datos, diseño de modelos y buenas prácticas de ingeniería de datos.
  • Apoyar en la gestión, calidad y gobierno de datos; experiencia deseable con herramientas de gobierno como Purview.
  • Trabajar de forma colaborativa con equipos técnicos y de negocio para garantizar alineación con objetivos estratégicos.

Requisitos y perfil

Buscamos un perfil con experiencia en ingeniería de datos y/o arquitectura de datos, acostumbrado a trabajar en proyectos complejos y con capacidad de aprender de forma continua. Requisitos clave:
  • Dominio de Python para procesamiento y manipulación de datos.
  • Experiencia práctica con Databricks y entornos de nube, con enfoque en pipelines y transformación de datos.
  • Experiencia en integración y consumo de APIs para exposición de servicios y datos.
  • Conocimientos en automatización de flujos de trabajo (idealmente con n8n).
  • Interés o experiencia en el uso de modelos y servicios de IA (OpenAI, Gemini u otros).
  • Conocimientos en gobierno de datos (opcional: Purview u otras herramientas).
  • Habilidades analíticas, proactividad, autonomía y capacidad de aprendizaje continuo en tecnologías emergentes.
  • Buenas habilidades de comunicación y trabajo en equipo, orientación a resultados y capacidad para colaborar en contextos multidisciplinarios.

Deseables

Se valorará experiencia previa en entornos financieros, conocimiento de herramientas de orquestación y experiencia trabajando con datos estructurados y no estructurados, así como experiencia en proyectos de IA aplicados a negocio y en conformidad con marcos de gobernanza de datos.

Qué ofrecemos

Modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal. Ambiente colaborativo y dinámico con oportunidades de crecimiento y aprendizaje continuo. Equipo y proyectos innovadores de datos e IA, exposición a tecnologías modernas y clientes de alto nivel. Paquete salarial competitivo acorde a experiencia, cultura inclusiva, diversidad y trabajo en equipo. Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero.

$$$ Full time
Cloud Data Engineer
  • WiTi
  • Lima (Hybrid)
Python SQL Virtualization Amazon Web Services

WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.

Este rol forma parte de un equipo responsable de modernizar un ecosistema analítico legado hacia una arquitectura cloud en AWS, con foco en estandarización, performance y escalabilidad. El proyecto implica migrar y optimizar la lógica de bases de datos preexistentes hacia Amazon Redshift, contribuyendo a la automatización del proceso y garantizando la calidad, consistencia y rendimiento de los datos.

Exclusive to Get on Board.

Responsabilidades Clave

  • Analizar y comprender procesos analíticos existentes (en SQL u otros entornos heredados) para reestructurarlos sobre Amazon Redshift.
  • Convertir y optimizar lógica SQL hacia estándares compatibles con Redshift, aplicando buenas prácticas de modelado y rendimiento.
  • Diseñar y documentar enfoques repetibles para la migración de consultas y estructuras de datos (catálogo de reglas, patrones de transformación).
  • Colaborar en tareas de automatización de migraciones (scripts en Python, templates SQL, validaciones automáticas, pipelines CI/CD).
  • Mantener y mejorar procesos ETL/ELT en AWS, apoyándose en servicios como Glue, Lambda, Step Functions y S3.
  • Validar resultados de conversión mediante controles de reconciliación y pruebas de calidad de datos.
  • Documentar decisiones técnicas, reglas de conversión y excepciones para asegurar trazabilidad y mantenibilidad del proceso.

Requisitos Excluyentes

  • 3+ años de experiencia como Ingeniero de Datos o rol equivalente.
  • Dominio avanzado de SQL estándar (uniones complejas, funciones de ventana, CTE, tuning, lectura de planes de ejecución).
  • Experiencia práctica con Amazon Redshift (particionamiento, distribución, optimización de consultas y almacenamiento).
  • Conocimientos sólidos de procesos ETL/ELT en entornos cloud, idealmente AWS. Experiencia en proyectos orientados a migración o modernización de plataformas de datos.
  • Conocimientos en Python para scripting y automatización de validaciones.
  • Nivel intermedio o superior de inglés técnico.

Deseables

  • Experiencia con DataOps, manejo de pipelines (Airflow, Step Functions o similares).
  • Familiaridad con herramientas de Infraestructura como Código (Terraform, CloudFormation).
  • Experiencia en gobierno de datos, nomenclaturas y validaciones automáticas de calidad.
  • Capacidad de documentar y estandarizar procesos en contextos corporativos.

Beneficios

En WiTi fomentamos una cultura de aprendizaje continuo, colaboración y crecimiento profesional. Entre los beneficios se pueden incluir:

  • Plan de carrera y oportunidades de desarrollo profesional.
  • Acceso a certificaciones y formación continua.
  • Cursos de idiomas y acceso a biblioteca digital para tu desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Sr Data Engineer – CRM Customer Service
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
BC Tecnología es una consultora de TI con experiencia en servicios IT, outsourcing y selección de profesionales. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con clientes en servicios financieros, seguros, retail y gobierno. Buscamos incorporar a nuestro equipo a un/a SR Data Engineer con fuerte enfoque en CRM y migración de datos para proyectos de CRM Customer Service, entre otros clientes de alto nivel. El rol forma parte de iniciativas de modernización de datos, migración a la nube y fortalecimiento de la gobernanza de datos para un programa orientado a soluciones de experiencia del cliente.

This job is exclusive to getonbrd.com.

Funciones principales

  • Diseñar y desarrollar pipelines ETL/ELT para integración y migración de datos.
  • Ejecutar migración de datos desde sistemas legados hacia plataformas cloud y Dynamics 365.
  • Asegurar integridad, calidad y disponibilidad de los datos mediante validaciones y reconciliaciones.
  • Colaborar con el Technical Lead en la arquitectura de datos del programa.
  • Documentar modelos de datos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles y reportar avances del frente de datos.
  • Colaborar con QA en validación end-to-end de datos.
  • Transferir conocimientos de datos al equipo.

Descripción

Requerimos un/a profesional con al menos 4 años de experiencia en ingeniería de datos, con prioridad en entornos CRM y retail. El/la candidato/a será responsable de diseñar e implementar pipelines para extracción, transformación y carga de datos, así como gestionar migraciones complejas desde sistemas legados hacia entornos en la nube y Microsoft Dynamics 365 Dataverse. Se integrará a un equipo técnico colaborativo, participando en la definición de la arquitectura de datos, la aseguración de calidad y la entrega continua mediante prácticas CI/CD aplicadas a datos. Se valorará experiencia en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions), Airflow o Step Functions para orquestación, Python y Spark/PySpark, manejo de SQL avanzado, modelado dimensional y relacional, y conocimiento de Dynamics 365.
Buscamos proactividad, orientación a resultados y habilidades de comunicación para trabajar en un entorno ágil y multi-funcional, con foco en la entrega de valor al negocio y una cultura de mejora continua.

Requisitos deseables

Experiencia en migración de datos entre sistemas ERP/CRM a plataformas en la nube; familiaridad con governance de datos, reconciliaciones y validación de datos de extremo a extremo; experiencia con teams y stakeholders de negocio; certificaciones en AWS o Data & Cloud; capacidad de documentación clara y ordenada; conocimientos de Microsoft Dynamics 365 Dataverse. Se valorará experiencia en retail y servicios de CRM, y habilidad para trabajar en entornos regulados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Engineer Senior
  • Grupo Mariposa
Git SQL QA BigQuery

Somos una corporación multinacional de bebidas y alimentos con operaciones regionales, un portafolio amplio de marcas y una estrategia acelerada de transformación digital. Dentro de Apex Digital / M5, el área de Data & Analytics habilita productos analíticos, datos gobernados y capacidades avanzadas para las unidades de negocio, incluyendo CBC, Beliv, BIA y las iniciativas transversales de transformación digital.

Send CV through Get on Board.

Funciones del cargo

1. Diseñar e implementar soluciones de ingeniería de datos escalables, eficientes y mantenibles utilizando tecnologías de Google Cloud, tales como:
  • Cloud Dataflow / Apache Beam (procesamiento distribuido ETL/ELT)
  • BigQuery (almacenamiento, warehouse y motor analítico)
  • Cloud Storage (Data Lake)
  • Dataproc (Spark administrado, cuando aplique)
  • BigQuery / Data Catalog (gobernanza y catalogación)
2. Aplicar modelos de arquitectura por capas (Bronze / Silver / Gold) en un Lakehouse basado en Google Cloud

  • Implementación de un Data Lake en Cloud Storage.
  • Transformaciones intermedias y normalización en Dataflow / Dataproc para capa silver.
  • Exposición de capas refinadas en BigQuery para capa gold orientada a analítica, BI y ML.
  • Definición de estándares de naming, particionamiento, clustering y particionado por tiempo.

3. Automatizar ETL/ELT con enfoques modernos de data engineering

  • Orquestación modular y escalable con Cloud Composer (Airflow).
  • Pipelines idempotentes, reproducibles y versionados.
  • Implementación de validaciones de calidad de datos (DQ) usando:
  • BigQuery Assertions
  • Great Expectations (si aplica)
  • Cloud Composer operators
  • Manejo de Slowly Changing Dimensions (SCD1/SCD2) mediante SQL en BigQuery o Dataflow.
  • Integración CI/CD para despliegue de DAGs, jobs y transformaciones.
4. Garantizar datos confiables, gobernados y optimizados en costos y performance

  • Optimización de costos en BigQuery mediante clustering, particionado y control de consultas.
  • Optimización de Dataflow (autoscaling, tuning, fusión de etapas, ventanas y triggers).
  • Seguridad y gobernanza con Dataplex, IAM y Data Catalog.
  • Documentación robusta del linaje, arquitectura y flujos de datos.
  • Aplicación de estándares de ingeniería:
    • PEP8 para Python
    • Buenas prácticas de SQL
    • Gestión de código con Git / GitFlow
    • Testing y validación automatizada

Requerimientos del cargo

  • Coordinar y operar los entornos de datos (dev/qa/prod), asegurando estabilidad, monitoreo y correcto funcionamiento de los pipelines.
  • Extraer, transformar y cargar datos según las necesidades del negocio, aplicando arquitectura por capas (Bronze/Silver/Gold).
  • Construir integraciones eficientes entre sistemas, APIs y fuentes internas/externas, garantizando integridad y disponibilidad.
  • Implementar flujos CI/CD para despliegue seguro de pipelines y validación automatizada de datos y código.
  • Mentorizar a ingenieros junior en buenas prácticas, estándares de calidad y diseño escalable.
  • Proponer e implementar mejoras tecnológicas que optimicen performance, costos y gobernanza de datos.

Principales Retos

  • Integrar diversas fuentes de datos y asegurar su consistencia.
  • Diseñar y mantener un Lakehouse escalable (Bronze/Silver/Gold).
  • Optimizar performance y costos en BigQuery y procesos de ingesta.
  • Orquestar y monitorear flujos complejos de datos de extremo a extremo.
  • Garantizar calidad, linaje y gobernanza en todos los datasets.
  • Habilitar datos confiables para analítica, BI y productos digitales.
  • Escalar y evolucionar la arquitectura conforme crezcan los casos de uso.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Grupo Mariposa pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL Oracle
En BC Tecnología diseñamos equipos de trabajo ágiles para servicios IT, con foco en Infraestructura, Desarrollo de Software y Unidades de Negocio para clientes en Finanzas, Seguros, Retail y Gobierno. Nuestro objetivo es entregar soluciones de alto impacto mediante consultoría, desarrollo de proyectos, outsourcing y selección de personal.
Como parte de nuestro programa CRM Customer Services migramos y consolidamos datos a plataformas cloud (AWS) y Dynamics 365 Dataverse, garantizando integridad, calidad y disponibilidad de la información para operaciones y analítica. Participarás en iniciativas innovadoras con clientes de alto nivel, con enfoque en aprendizaje continuo y desarrollo técnico dentro de un entorno colaborativo y orientado al cliente. La modalidad híbrida permite combinar trabajo remoto con presencia en nuestras oficinas para fomentar colaboración y dinamismo.

Applications: getonbrd.com.

Funciones

  • Diseñar, desarrollar y ejecutar procesos de ingeniería de datos y migración requeridos por el programa CRM Customer Services, asegurando la integridad, calidad y disponibilidad de los datos en plataformas cloud.
  • Conocimientos técnicos: ingeniería de datos en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions); ETL/ELT para diseño y desarrollo de pipelines de datos; migración de datos entre sistemas legados y plataformas cloud; SQL avanzado y modelado de datos (dimensional, relacional).
  • Desarrollar pipelines en Python y Spark/PySpark, aplicar calidad de datos (validación, limpieza, reconciliación, profiling) y utilizar herramientas de orquestación (Airflow, Step Functions); control de versiones y CI/CD aplicado a datos.
  • Conocer Microsoft Dynamics 365 Dataverse y su modelo de datos; diseñar y ejecutar migraciones desde sistemas legados hacia plataformas cloud y Dynamics 365; documentar modelos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles, reportar avances y colaborar con QA para validación end-to-end; transferir conocimiento de datos al equipo y colaborar estrechamente con el Technical Lead en la arquitectura de datos del programa.

Requisitos y perfil

Buscamos un profesional con experiencia sólida en ingeniería de datos en entornos cloud, especialmente AWS, y en proyectos de migración de datos hacia soluciones modernas de nube y CRM. Debes dominar pipelines ETL/ELT, modelado de datos relacional y dimensional, y tener capacidad para trabajar en entornos dinámicos y colaborativos. Se valorará experiencia con Oracle/Siebel, Great Expectations o Deequ para calidad de datos, y conocimiento del sector Retail. Debes ser proactivo, orientado a resultados, con habilidades de comunicación para trabajar con equipos multidisciplinarios y stakeholders.
Requisitos mínimos: experiencia en AWS Data Analytics/Data Engineering; diseño y migración de datos entre sistemas; SQL avanzado; Python o Spark; experiencia con herramientas de orquestación; familiaridad con Dynamics 365 Dataverse; experiencia en entornos ágiles y capacidad para documentar procesos y modelos de datos. Deseable certificación AWS Data Analytics, experiencia en migración desde Oracle/Siebel y conocimiento de herramientas de calidad de datos. Se valora experiencia en Retail y en entornos de CRM.

Conocimientos Deseables

Certificación AWS Data Analytics o Data Engineering. Experiencia migrando datos desde Oracle/Siebel. Conocimiento en herramientas de calidad de datos como Great Expectations o Deequ. Experiencia en el sector Retail. Conocimiento adicional en DevOps de datos y metodologías ágiles. Habilidad para trabajar en equipos multiculturales y capacidad de explicar conceptos técnicos a audiencias no técnicas. Se valora experiencia en arquitectura de datos para CRM y en gestión de proyectos de migración complejos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Operational Engineer
  • TIMINING
  • Santiago (Hybrid)
Python Git SQL Web server

En TIMining, trabajamos para convertir la información operativa de las faenas mineras en valor accionable a través de nuestras plataformas de control y monitoreo. Este rol se integra al equipo de datos, aportando en el diseño, desarrollo y operación de pipelines ETL que integran fuentes diversas hacia las bases de datos y productos de TIMining. Serás parte de un proyecto orientado a la continuidad operativa, la calibración de algoritmos y la automatización de procesos internos para optimizar el flujo de trabajo del cliente y del equipo.

Apply exclusively at getonbrd.com.

Funciones

  • Desarrollar, mantener y documentar scripts en Python y SQL (conectores) para ETL hacia las bases de datos de los productos de TIMining.
  • Diseñar, implementar y mantener flujos de CI/CD para que los cambios en las pipelines lleguen a producción de forma segura y automatizada.
  • Monitorear la salud y rendimiento de procesos de datos (logging y alerting), garantizando uptime y respuestas ante incidentes operativos.
  • Administrar y orquestar pipelines con herramientas de planificación (Airflow, Dagster) y contenedores (Docker).
  • Validar resultados de pipelines (cualitativa y cuantitativamente) comparando con reportes operacionales de faenas.
  • Identificar, evaluar y mitigar riesgos en el desarrollo de pipelines, contemplando calidad de datos y planes de contingencia.
  • Desarrollar proyectos internos para automatizar labores rutinarias y simplificar el trabajo del equipo.
  • Asistir y presentar en reuniones técnicas con clientes para gestionar accesos a fuentes de información y resolver consultas.
  • Analizar y documentar fuentes de información del cliente por sistema (FMS, MGS u otras) y calibrar algoritmos de los softwares de la empresa.
  • Ejecutar turnos 24/7 para asegurar continuidad operativa.

Requisitos y experiencia

Formación en Ingeniería en Ciencia de Datos, Ingeniería Civil o carreras afines en computación. Se requieren mínimo 2 años de experiencia en cargos similares y experiencia comprobable en la implementación de pipelines ETL. Se valora conocimiento y manejo avanzado de Python y SQL, experiencia práctica en despliegue de aplicaciones y manejo de contenedores, así como experiencia en orquestación de datos con herramientas como Apache Airflow o Prefect. Dominio de control de versiones (Git) y trabajo colaborativo, consultas a APIs y bases de datos avanzadas. Conocimientos de Google Suite y Office. Habilidades analíticas, proactividad y capacidad para trabajar de forma autónoma y en equipo. Idiomas: Español nativo; Inglés deseable (upper-intermediate).

Se buscan candidatos con experiencia en proyectos tecnológicos y conocimiento de la industria minera a cielo abierto, además de experiencia con arquitecturas Cloud (AWS, Azure o GCP) e Infraestructura como Código (Terraform, CloudFormation).

Requisitos deseables

Experiencia en:
- Implementación de proyectos tecnológicos.
- Conocimiento de la industria minera y su operación.
- Familiaridad con metodologías ágiles, y experiencia con herramientas de Infraestructura como Código.
- Deseable conocimiento en soluciones de monitoreo y en entornos de producción de datos a gran escala.

Beneficios

Ofrecemos un entorno enfocado a innovación en la industria minera, con oportunidades de desarrollo profesional y trabajo en equipo multidisciplinario. Si cumples con el perfil, te invitamos a formar parte de TIMining y contribuir a la transformación digital de operaciones mineras.

Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data English Back-end

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

Job source: getonbrd.com.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
$$$ Full time
Python Analytics Virtualization Amazon Web Services
FactorIT, una empresa líder en tecnología y soluciones de datos con presencia en 8 países de Latinoamérica, busca ampliar su equipo con un Arquitecto de Datos. Serás parte de proyectos regionales de transformación digital, trabajando en entornos Cloud para una cartera diversificada, especialmente en el sector financiero. Participarás en iniciativas que combinan analítica avanzada, automatización e IA, enfocados en entregar soluciones escalables y seguras que generan valor real para nuestros clientes. Formarás parte de un equipo colaborativo, orientado a la innovación, con oportunidades de desarrollo profesional y exposición a tecnologías de última generación.

Job source: getonbrd.com.

Principales responsabilidades

  • Diseñar arquitecturas de datos en entornos cloud que sean escalables, seguras y alineadas con las necesidades del negocio.
  • Definir e implementar pipelines de datos (ETL/ELT) para ingesta, procesamiento y distribución eficiente de datos.
  • Modelar datos para analítica avanzada y consumo por herramientas de BI y ciencia de datos.
  • Asegurar la calidad, gobernanza y disponibilidad de los datos mediante prácticas de Data governance y data quality.
  • Colaborar con equipos de ingeniería, analítica y negocio para convertir requerimientos en soluciones técnicas efectivas.
  • Evaluar e incorporar tecnologías y herramientas de datos emergentes (data lake/warehouse, data catalog, data virtualization).
  • Participar en la definición de estrategias de DataOps y MLOps cuando aplique, para operaciones de datos y modelos de ML.

Descripción

Buscamos un profesional con experiencia sólida en Arquitectura de Datos para liderar la definición de soluciones de datos en un entorno cloud. El/la candidato/a ideal tendrá habilidad para traducir requerimientos de negocio en arquitecturas eficientes, con foco en gobernanza, calidad y seguridad de los datos. Deberá colaborar estrechamente con equipos de ingeniería, analítica y negocio para garantizar que las soluciones soporten analítica avanzada, reporting y modelos de ML. Se valorará experiencia en entornos financieros y capacidad para trabajar en proyectos regionales con impacto real.
Requerimos dominio de procesos ETL/ELT, experiencia en modelamiento de datos relacional y no relacional, y experiencia en diseño de data lakes y/o data warehouses. Se espera manejo de Python para procesamiento de datos, y experiencia con herramientas nativas de AWS, Azure o GCP. Será clave una mentalidad de Data Governance, calidad de datos y prácticas de seguridad para evitar riesgos de cumplimiento y expose a datos sensibles. Buscamos perfiles orientados a resultados, con capacidad de comunicar complejas soluciones técnicas a stakeholders de negocio y con ganas de aprender y adaptarse a tecnologías emergentes.

Deseables

Experiencia con herramientas como Spark, Databricks o similares. Conocimiento en DataOps y/o MLOps. Experiencia en arquitecturas modernas (Lakehouse, Data Mesh). Inglés intermedio o superior.

Beneficios

Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre la vida profesional y personal. Ambiente colaborativo, dinámico y con tecnologías de última generación que facilitan el crecimiento profesional y la innovación tecnológica. Paquete salarial competitivo acorde a experiencia y perfil, y una cultura inclusiva que valora la diversidad y el trabajo en equipo. Al unirte, participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y el sector financiero, dentro de una organización que fomenta la innovación y el desarrollo profesional continuo.

$$$ Full time
Python Git BigQuery ETL
Codeable es una escuela de programación de alta calidad que invierte en sus estudiantes y los entrena como software developers altamente empleables. Durante 6 meses, nuestros estudiantes aprenden las habilidades más demandadas por la industria tecnológica, graduándose con la capacidad de generar valor en entornos de trabajo globales y altamente competitivos. A la fecha, Codeable ha graduado a más de 120 estudiantes en sus primeras 4 promociones, y estamos listos para escalar nuestra oferta inclusiva y graduar a más de 200 estudiantes durante el 2022.

Official job site: Get on Board.

Funciones

  • Diseñar, construir y mantener pipelines ETL/ELT utilizando Airflow, Prefect o Cloud Composer.
  • Desarrollar procesos de extracción de datos mediante Python: scripting, scraping automatizado (Playwright, Puppeteer o Selenium) y consumo de APIs.
  • Implementar y optimizar transformaciones sobre CSV/JSON y estructuras heterogéneas.
  • Administrar y optimizar datasets en Google BigQuery: creación de tablas, relaciones, vistas materializadas y performance tuning.
  • Trabajar con DataFrames en pandas o PySpark para manipulación y limpieza de datos.
  • Implementar automatización de tareas (cronjobs, DAGs, Cloud Functions).
  • Crear scripts de validación, depuración y normalización de datos.
  • Colaborar con equipos de Data Science / BI para habilitar análisis avanzados (incluyendo sentiment analysis y clasificación básica de texto).
  • Documentar la trazabilidad, linaje y estructura del flujo de datos.
  • Mantener buenas prácticas de control de versiones y despliegue con Git y CI/CD.

Descripción

Buscamos un/a Data Engineer con experiencia en el diseño, construcción y mantenimiento de pipelines de datos de alta calidad. Serás responsable de la extracción, transformación, carga y orquestación de datos provenientes de diversas fuentes (APIs, scraping, archivos, plataformas). Trabajarás en la automatización, optimización y documentación de procesos, proponiendo mejoras técnicas y asegurando estándares de calidad en todo el flujo de datos.

Requisitos deseables

  • Conocimiento de OAuth2, tokens, paginación y manejo de rate limits.
  • Familiaridad con NLP básico: sentiment analysis, clasificación de texto, transformers o NLTK/spaCy.
  • Conocimientos de R o Node.js para integraciones adicionales.

Nuestros Valores

  • Ponemos a las personas primero. Nos preocupamos, estamos abiertos y alentamos a todas las personas con las que trabajamos
  • Pensamos y actuamos con responsabilidad. Somos responsables de identificar los problemas y hacemos todo lo posible para ayudar a resolverlos
  • Mejoramos todos los días. Creemos que todos tenemos la capacidad de mejorar y estamos motivados a ayudar a todos a ser la mejor versión de sí mismos
  • Estamos comprometidos con la diversidad. Contribuimos a un mundo en el que podamos ser nosotros mismos, juntos
  • Estamos todos JUNTOS en esto. Somos una comunidad de estudiantes, emprendedores y tecnólogos unidos por la misma misión: cerrar la brecha entre el talento y las oportunidades en tecnología en Latinoamérica

Fully remote You can work from anywhere in the world.
Gross salary $4000 - 6000 Full time
Data Platform Engineer
  • InTune Analytics
Python SQL ETL Data governance

InTune Analytics (ITA) is a live entertainment technology company operating as a market maker in the secondary ticket market. We are a small, high-conviction team building proprietary technology to shape the future of live entertainment, with a 10-year goal of impacting 50 million lives by 2035. We don't have a traditional customer base and we don't advertise. Our reputation is built on the quality of our people, the strength of our partnerships, and our relentless drive to execute.

We are seeking a Data Platform Engineer who brings strong foundations in data engineering, analytics engineering, and data infrastructure. The ideal candidate will be adept at designing and building the systems that power reliable, trustworthy data across the organization, from pipelines and warehouses to semantic models and governance frameworks. You will play a pivotal role in making data a durable strategic asset, enabling teams to make confident, data-driven decisions at scale.

This job is available on Get on Board.

What Success Looks Like:

  • A clear company data catalog exists and is actively used by internal teams
  • Data pipelines are reliable, monitored, and failures are caught before reaching stakeholders
  • Business metrics are standardized and consistently defined across tools and teams
  • Data quality issues are caught early through automated checks and alerting

Technically, you:

  • Own and evolve the company data architecture, including warehouse structure, schema design, and data modeling standards
  • Build and maintain a semantic data layer that translates raw data into consistent, business-ready metrics using dbt
  • Design, build, and monitor reliable data pipelines and ETL processes that deliver data to downstream consumers
  • Implement data quality checks, observability, and alerting so issues are caught before they reach business users
  • Build and maintain a company-wide data catalog, driving data governance, lineage, and ownership practices

At a minimum, you have:

  • 3+ years of experience in data engineering, analytics engineering, or data platform development
  • Strong proficiency in SQL and Python
  • Hands-on experience with dbt and a modern data warehouse (Snowflake, BigQuery, or Redshift)
  • Experience with a pipeline orchestration tool (Airflow, Dagster, or Prefect)
  • Familiarity with event pipelines or streaming data
  • Strong communication skills in English

Benefits

Core Benefits (Available Globally) Performance Bonus Bonuses are based on overall performance and contribution during the year. Unlimited Paid Time Off (PTO) ITA offers flexible, unlimited PTO. Remote Work & Workspace Support Home Office Support ITA may provide financial support for home office needs Support may be one-time or recurring, determined case-by-case basis Coworking Space Support ITA can cover the cost of a coworking space if you prefer Language Learning (Fully Covered) ITA fully covers language learning to support communication and personal growth. English or Spanish, available to all team members globally. Continuing Education Support ITA supports professional growth and skill development. Educational expenses may be covered on a case-by-case basis.

Fully remote You can work from anywhere in the world.
$$$ Full time
JavaScript Java Python Node.js
En <Devaid> nos apasionan los desafíos tecnológicos y nuestros clientes lo saben. Por lo anterior, nos plantean problemáticas que nos obligan a estar constantemente probando e implementando nuevas tecnologías.
Trabajamos fuertemente en la nube ya que somos Partner Premier de Google Cloud en Chile, por lo que tendrás la oportunidad de formarte como un profesional cloud.
Dependiendo de las necesidades del cliente, <Devaid> ofrece soluciones web, móviles, integración de sistemas, entre otros. Esto permite acceder a la herramienta sin importar el dispositivo ni el lugar dónde se encuentra. Permitimos el trabajo colaborativo entre múltiples usuarios manteniendo una base centralizada de información.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Esperamos que puedas desempeñarte en las siguientes actividades:
  • Creación de pipelines de carga y transformación de datos.
  • Modelamiento de datos y creación de Data Warehouse y Data Lakes.
  • Integración de sistemas.
  • Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.

Requerimientos del cargo

Los requisitos para un buen desempeño de las funciones son:
  • 1 año de experiencia como Data Engineer.
  • Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
  • Conocimiento de soluciones de Data Warehouse y ETL.
  • Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
  • Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.

Deseables

Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
  • Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
  • Experiencia en plataformas de deployment de infraestructura como Terraform.
  • Experiencia utilizando la herramienta de consola gcloud.

Beneficios

Prometemos un ambiente muy grato de trabajo, lleno de desafíos y donde podrás ver los proyectos en los que estas involucrada/o siendo utilizados en un corto tiempo activamente por nuestros clientes, lo que siempre es muy gratificante.
Otras actividades:
  • Actividades mensuales (Cupones de Food delivery, juegos en línea, actividades grupales).
  • Actividad paseo anual: La empresa se junta por 2 días en algún lugar turístico para realizar actividades grupales y unir al equipo.
  • Día libre flexible en tu cumpleaños.
  • Capacitaciones en lo que más te guste.
  • Certificaciones Google Cloud: Programa de certificación en distintas ramas profesionales de GCP, gracias a que somos Partner Premier de Google Cloud en Chile.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Devaid pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Education stipend Devaid covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $1200 - 1800 Full time
Data Analyst (Azure + BI)
  • Asesoría y Gestión de Procesos S.A
Analytics Data Analysis SQL Business Intelligence
En Asesoría y Gestión de Procesos S.A. nos encontramos en un proceso de búsqueda de talento para un equipo de Data & Analytics orientado a impulsar la visibilidad operativa y estratégica de nuestros clientes, principalmente en los sectores automotriz e inmobiliario. El proyecto abarca el ciclo completo del dato: desde la ingesta y el modelado hasta la visualización y el monitoreo proactivo. Nuestro objetivo es transformar datos en insights accionables que impulsen decisiones de negocio, alinear KPIs con objetivos estratégicos y entregar dashboards y alertas confiables para equipos ejecutivos y operativos.
Trabajamos con Azure Data Factory, Data Lake y herramientas de BI como Power BI y Grafana para monitoreo en tiempo real. El rol se integra en una empresa con 12 años de experiencia, un portafolio de más de 120 clientes y una misión clara de acelerar y mejorar procesos mediante tecnología e innovación.

Apply from getonbrd.com.

Funciones y responsabilidades

  • Entender el negocio y definir KPIs clave junto a stakeholders, documentando reglas de cálculo y asegurando que los indicadores sean accionables.
  • Diseñar y desarrollar pipelines ETL/ELT en Azure Data Factory, integrando diversas fuentes (bases de datos, APIs, archivos) y garantizando calidad de datos.
  • Modelar datos en esquemas adecuados y mantener Data Warehouse/Data Mart para consumo analítico eficiente.
  • Desarrollar dashboards interactivos en Power BI y Grafana, traduciendo complejidad analítica en visualizaciones claras y útiles para distintos perfiles.
  • Monitorear datos, definir alertas automáticas y notificaciones ante desviaciones, identificando anomalías y generando insights proactivos.
  • Colaborar con equipos de negocio e IT para garantizar disponibilidad, escalabilidad y seguridad de las soluciones de datos.
  • Participar en la definición de arquitectura de datos y buenas prácticas de gobierno de datos.

Requisitos y perfil

  • Experiencia sólida en integraciones y análisis de datos con Azure Data Factory y servicios de Azure (Data Lake) y manejo avanzado de SQL.
  • Experiencia creando dashboards en Power BI y Grafana; conocimiento de modelamiento de datos (Data Warehouse, OLAP) y procesos ETL/ELT.
  • Capacidad para diseñar soluciones end-to-end: desde la definición de KPIs hasta la entrega de visualizaciones y alertas operativas.
  • Conocimientos en scripting y buenas prácticas de gobierno de datos, calidad y seguridad.
  • Habilidad para comunicar insights a audiencias no técnicas, pensamiento analítico y foco en impacto de negocio.
  • Experiencia previa en roles de BI/analítica y capacidad para trabajar de forma autónoma y colaborativa.

Competencias y habilidades deseables

Certificaciones en BI/Analytics y experiencia con proyectos en sectores automotriz. Se aprecia experiencia en entornos ágiles, gestión de stakeholders y capacidad para priorizar en entornos cambiantes.

Beneficios

En Asesoría y Gestión de Procesos S.A, ofrecemos un entorno laboral flexible y beneficios atractivos, como:
  • Tres tardes libres al año.
  • Vestimenta informal.
  • Dos días libres extra al año.
  • Día libre por tu cumpleaños.
  • Seguro complementario.
  • Y muchos otros beneficios.
¡Esperamos contar contigo en nuestro equipo!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Asesoría y Gestión de Procesos S.A pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal Asesoría y Gestión de Procesos S.A gives you paid vacations over the legal minimum.
Gross salary $400 - 600 Full time
Data Pipeline Engineer
  • Tritone Analytics, Inc
Python Excel SQL Data Transformation

About Tritone Analytics: Tritone Analytics is a music-technology startup building a forensic royalty auditing platform for the music industry. We help artists, managers, and rights-holders identify unpaid or misreported royalties by combining deterministic data systems with modern AI workflows.

We work with messy, real-world data — distributor reports, royalty statements, contracts — and turn it into structured, queryable systems that power financial analysis and AI-assisted auditing.

Project scope: You will contribute to the core data infrastructure that underpins our platform, focusing on data ingestion, transformation, validation, and the preparation of data for AI workflows. This role sits at the intersection of data engineering, analytical systems, and AI pipelines, ensuring reliable, scalable data processing from messy sources to structured datasets.

Apply directly through getonbrd.com.

What You’ll Work On

  • Build and maintain pipelines that transform messy CSVs, metadata exports, and contracts into structured datasets.
  • Design and enforce canonical schemas across inconsistent data sources to enable reliable analytics.
  • Write SQL to validate outputs, reconcile datasets, and support financial analysis.
  • Debug and improve data quality across ingestion and transformation stages.
  • Support document ingestion workflows (chunking, preprocessing, metadata tagging).
  • Help prepare structured inputs for LLM-based workflows (RAG, extraction, classification).
  • Improve reliability of pipelines (error handling, logging, testing).

What You’ll Need

Core Requirements (Must Have): Strong Python for data processing and scripting with real datasets; strong SQL skills (joins, aggregations, validation queries, debugging data issues); proven experience working with messy or inconsistent data; understanding of ETL pipelines and data transformation workflows; ability to debug data issues and explain root causes.

We value curiosity, collaboration, and a bias toward shipping reliable data products. Candidates who enjoy digging into messy datasets, communicating data issues clearly, and partnering with data scientists and engineers to operationalize AI workflows will excel. Prior experience in music rights or financial data domains is a plus.

Desirable but Not Required

Nice to Have: Experience with DuckDB, Polars, Pandas, or PyArrow; familiarity with Parquet or columnar data formats; exposure to vector databases or RAG systems; experience handling large CSV datasets or financial data; basic understanding of LLM workflows.

Benefits

Benefits to be discussed at time of conversion to a full-time role.

We offer a collaborative, founder-led culture with an emphasis on curiosity, continuous learning, and shipping impactful data products. Competitive compensation, flexible work hours, and opportunities for professional growth in a rapidly evolving music-tech space. Our team is distributed; we value autonomy and ownership over your projects. We support conference attendance, training, and peer knowledge sharing. We look forward to discussing how Tritone can support your career trajectory.

$$$ Full time
Senior SAP Datasphere
  • Improving South America
SQL SAP ETL Power BI

En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.

La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

© getonbrd.com. All rights reserved.

Funciones del cargo

  • Diseñar y desarrollar modelos de datos, incluyendo vistas gráficas y vistas SQL.
  • Desarrollar y optimizar consultas SQL para el análisis y procesamiento de datos.
  • Implementar y gestionar flujos de replicación de datos desde SAP S/4HANA utilizando SAP Datasphere.
  • Orquestar pipelines de datos (ELT/ETL) y administrar procesos de ingesta de datos mediante DSP.
  • Diseñar y mantener vistas CDS para soportar las necesidades del negocio.
  • Integrar y preparar datos para su visualización en Power BI.
  • Definir e implementar estrategias de snapshot y persistencia de datos.
  • Automatizar procesos y flujos de trabajo mediante task chains.

Requerimientos del cargo

  • Inglés avanzado, con habilidades de comunicación y colaboración.
  • +8 años de experiencia como consultor SAP.
  • Experiencia sólida en modelado de datos, incluyendo vistas gráficas y vistas SQL.
  • Dominio avanzado de SQL (diseño, optimización y tuning de queries).
  • Experiencia comprobable en flujos de replicación de datos desde SAP S/4HANA utilizando SAP Datasphere.
  • Coordinación de procesos ETL/ELT y gestión de la ingesta de datos mediante Datasphere (DSP).
  • Sólida experiencia en modelado de vistas CDS.
  • Experiencia en integración y consumo de datos con Power BI.
  • Conocimiento en estrategias de snapshot y persistencia de datos.
  • Experiencia en automatización de procesos mediante task chains.

Nice to have

  • Conocimiento general de procesos en SAP S/4HANA (Finanzas, Logística y Procurement).
  • Conocimiento en modelado de datos en Power BI.
  • Experiencia previa con SAP BW/4HANA.
  • Experiencia en monitoreo y optimización de performance.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $2500 - 3000 Full time
Virtualization Amazon Web Services Continuous Deployment ETL

CoyanServices es una empresa tecnológica con foco en soluciones cloud y desarrollo de arquitecturas modernas sobre AWS, orientada a construir componentes de datos robustos, escalables y alineados con buenas prácticas de automatización, seguridad y operación. En este contexto, busca un Data Engineer Senior (AWS) para diseñar, implementar y mantener pipelines ETL/ELT serverless y soluciones de ingeniería de datos en la nube, utilizando servicios como AWS Lambda, Amazon S3, Amazon API Gateway, Amazon RDS y AWS CloudFormation. El rol también contempla despliegues automatizados, prácticas de CI/CD e infraestructura como código, colaborando con equipos técnicos y de negocio para traducir requerimientos funcionales en soluciones eficientes y mantenibles. Se trata de una posición bajo modalidad independent contractor, 100% remota, con alcance en Suramérica.

This company only accepts applications on Get on Board.

Objetivos del rol

· Diseñar e implementar pipelines ETL/ELT serverless utilizando AWS Lambda, S3 y RDS para la integración, procesamiento y exposición eficiente de datos.
· Diseñar, desarrollar y mantener soluciones de ingeniería de datos sobre AWS.
· Implementar arquitecturas serverless con altos estándares de seguridad, escalabilidad y eficiencia operativa.
· Implementar componentes de integración, procesamiento y exposición de datos en la nube.
· Colaborar con equipos de arquitectura, desarrollo y negocio para traducir requerimientos funcionales en soluciones técnicas.

Responsabilidades

· Diseñar e implementar pipelines ETL/ELT serverless utilizando AWS Lambda, S3 y RDS para la integración, procesamiento y exposición eficiente de datos.
· Diseñar, desarrollar y mantener pipelines y componentes de datos sobre AWS.
· Implementar procesos utilizando AWS Lambda, Amazon S3, Amazon API Gateway y Amazon RDS.
· Diseñar y mantener infraestructura como código mediante AWS CloudFormation.
· Gestionar despliegues automatizados y pipelines CI/CD con GitHub Actions.
· Asegurar buenas prácticas de versionamiento, testing y despliegue continuo.
· Monitorear, optimizar y resolver incidentes en componentes de datos productivos.
· Implementar controles de seguridad y permisos en AWS.
· Colaborar con equipos multidisciplinarios para garantizar calidad y mantenibilidad de las soluciones.

Requisitos Técnicos

· Experiencia sólida en AWS Lambda, Amazon S3, AWS CloudFormation, Amazon API Gateway y Amazon RDS.
· Experiencia en integración y automatización de despliegues con GitHub Actions hacia AWS.
· Conocimiento en prácticas de CI/CD e infraestructura como código (IaC).
· Conocimiento en seguridad, permisos y buenas prácticas operativas en AWS.
· Experiencia desarrollando e integrando APIs y componentes de datos en la nube.
· Experiencia comprobable trabajando en ambientes AWS productivos.

Experiencia y Formación

· Perfil Senior con al menos 3 años de experiencia en ingeniería de datos o desarrollo cloud.
· Experiencia en diseño, construcción y despliegue de soluciones de ingeniería de datos en AWS.
· Formación en Ingeniería Informática, Ingeniería Civil en Computación o carrera afín.
________________________________________
Certificaciones deseables
· AWS Certified Cloud Practitioner
· AWS Certified Developer – Associate
· AWS Certified Solutions Architect – Associate
· AWS Certified Data Engineer – Associate
________________________________________
Habilidades blandas
· Pensamiento analítico y resolución de problemas.
· Autonomía y proactividad.
· Capacidad de diseño técnico.
· Comunicación efectiva y trabajo colaborativo.
· Orientación a calidad, escalabilidad y mejora continua.

$$$ Full time
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python Big Data BigQuery ETL

En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

Applications: getonbrd.com.

Funciones principales

  • Responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Requisitos y perfil

Buscamos un Data Engineer con dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.

Requisitos técnicos:

  • 1- 4 años de experiencia en Ingeniería de Datos y GCP (Excluyente)
  • Experiencia desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Experiencia en Google Cloud Platform (GCP) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.

Habilidades blandas:

  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).

Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.

Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
$$$ Full time
Databricks Administrator
  • Improving South America
Python SQL Linux Virtualization
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.

Contribuirás a la construcción y mantenimiento de soluciones de datos que soportan analítica, reporting y la toma de decisiones operativas en toda la organización.

Trabajando de cerca con data engineers y otros perfiles tecnológicos, apoyarás las plataformas que permiten a los equipos transformar datos en insights relevantes.

En este rol, te enfocarás en la gestión de plataformas de datos y en su rendimiento general. Colaborarás con equipos multifuncionales para entender requerimientos de datos, mejorar sistemas existentes y entregar soluciones que respondan a necesidades del negocio.

Esta es una excelente oportunidad para seguir desarrollando tus habilidades en data engineering mientras contribuyes a impulsar decisiones basadas en datos a escala

This job is exclusive to getonbrd.com.

Job functions

  • Monitorear y mantener la salud, disponibilidad y rendimiento de instancias de Snowflake y Databricks, utilizando herramientas nativas y estándares internos
  • Revisar periódicamente métricas de uso, logs del sistema y consumo de recursos para detectar y abordar anomalías
  • Asegurar la ejecución de actualizaciones, parches y respaldos conforme a políticas y estándares definidos
  • Investigar incidentes y degradaciones del servicio, gestionando su resolución o escalamiento para minimizar el impacto en el negocio
  • Administrar el ciclo completo de accesos: provisión, desprovisión y asignación de roles en Snowflake y Databricks, garantizando cumplimiento de estándares de seguridad
  • Implementar y auditar controles de acceso a datos, trabajando junto a equipos de seguridad (InfoSec) y líderes de plataforma
  • Mantener actualizados grupos, permisos y accesos según cambios organizacionales o necesidades de proyectos
  • Actuar como punto principal de contacto para soporte técnico e incidentes relacionados con las plataformas
  • Asesorar a los equipos en buenas prácticas de uso eficiente y seguro de las plataformas (optimización de costos, data sharing, orden de workspaces)
  • Mantener documentación clara y actualizada de la plataforma (onboarding, FAQs, guías de troubleshooting)

Qualifications and requirements

  • Título universitario en Ciencias de la Computación, Sistemas de Información o carrera afín, o experiencia equivalente
  • +2 años de experiencia administrando plataformas Snowflake y Databricks (o al menos una con conocimiento sólido de la otra)
  • Dominio de SQL, scripting (Python o Shell) y ecosistemas de datos en la nube (AWS, Azure o GCP)
  • Conocimiento en herramientas de automatización (Terraform, AWS CloudFormation, Databricks CLI/API, entre otros)
  • Experiencia gestionando usuarios, roles y controles de seguridad en entornos regulados
  • Capacidad para diagnosticar y resolver problemas de plataforma
  • Experiencia con herramientas de monitoreo, logging y alertas
  • Inglés intermedio -avanzado o avanzado (indispensable debido a que se realizan reuniones con equipos internacionales)

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
$$$ Full time
Analista de Infraestructura y Despliegue
  • Coderslab.io
  • Bogotá (Hybrid)
JavaScript Git Node.js SQL
Coderslab.io es una empresa que ayuda a las organizaciones a transformarse y crecer mediante soluciones tecnológicas innovadoras. Formarás parte de un grupo de más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Trabajarás dentro de equipos diversos que cuentan con talento de primer nivel y participarás en proyectos innovadores y desafiantes que impulsarán tu desarrollo profesional. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno colaborativo y orientado a resultados.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

El objetivo del cargo es Administrar y Configurar los Ambientes de Pruebas del Banco al igual que el proceso de Aplicaciones y desarrollos hasta que son puestos en Ambiente Productivo.
-Recibir la Documentación como manuales, documentos de entrega y todo lo relacionado con Desarrollos de Software ya sea interno o externo
-Despliegues (Manuales/continuos) de desarrollos recibidos en Ambientes de Pruebas con las
correspondientes configuraciones de los Objetos.
-Procesos de Configuración y Homologación de Ambientes de Pruebas de acuerdo con lo requerido
-Verificación y solución de Errores que se generen en los Ambientes de prueba ya sea por
despliegues de Nuevos Desarrollos o instalaciones o configuraciones de nuevas aplicaciones
-Control de Versionamiento de Fuentes de Aplicaciones y Objetos de Desarrollo
-Alistamiento y Generación de Documentación, Objetos y Aplicaciones que deben de ser puestas en
Ambiente Productivo
-Ejecuciones para la correcta puesta en Producción de los Aplicativos Locales (Web-Windows …)
-Mantenimiento y desarrollo de pipelines en GITLAB

Requerimientos del cargo

- Conocimiento del Proceso de la Gestión de Configuración del Software
- Administración de Sistemas Operativos Windows Server (Versiones varias)
- Instalaciones sobre IIS – Servicios Web – Servicios Windows
- Conocimientos básicos de Versionamiento en Herramientas como GIT - TFS- SVN
- Conocimientos en SharePoint - Confluence
- Conocimientos básicos en Sistemas Operativos, Linux, Windows Server
- Conocimientos intermedios en Bases de Datos SQL, Oracle, DB2
- Conocimientos básicos de Visual Studio
- Instalaciones de ETL´S SQL
- Experiencia en Despliegues de Aplicaciones Web, Windows, Cliente Servidor, NodeJs …
- Manejo de Herramienta SoapUi
- Conocimientos en Herramienta Power Center
- Conocimientos en Herramienta GoAnyWhere

Sobre trabajos de Data Engineering

Remote Data Engineering jobs. Data pipelines, ETL, data architecture and big data. En RemoteJobs.lat conectamos a profesionales de Latinoamerica con empresas que ofrecen trabajo 100% remoto. Todas nuestras ofertas permiten trabajar desde cualquier ciudad, con pagos en dolares o moneda internacional.

Rango salarial

$4,000 - $11,000 USD/mes

Posiciones abiertas

327

Ubicacion

100% Remoto LATAM

Tip: Tambien puedes buscar ofertas en skills relacionados como Python, SQL,

Data Engineering salary ranges by seniority

Estimated ranges in USD/month for remote contracts with international companies. Vary by company, complementary stack and client location.

Level Years of experience Range USD/month
Junior 0-2 $4,000 - $5,750
Mid-level 2-4 $5,400 - $7,850
Senior 4-7 $7,500 - $9,950
Lead/Staff 7+ $9,250 - $11,000

Companies hiring remote Data Engineering from LATAM

Some companies that have historically hired Data Engineering profiles to work 100% remotely from Latin America:

Mercado Libre Globant Auth0 Nubank Cloudwalk Stripe GitLab Crossover Toptal

Frequently asked questions

The typical range for a remote Data Engineering working for international companies is $4,000 - $11,000 USD/mes. The exact amount depends on seniority, the company's country, and whether the contract is full-time or project-based.

The most in-demand Data Engineering profiles usually combine Python, Sql, Spark. Adding one of these opens more job offers and often increases salary range by 15% to 30%.

For US/EU companies yes: B2 minimum for technical interviews. There are alternatives at LATAM companies (Mercado Libre, Globant, Rappi) or agencies like Toptal where intermediate English is enough to start.

The 3 highest-impact things: (1) a public GitHub with 2-3 solid projects relevant to Data Engineering, (2) an English LinkedIn profile optimized for recruiters, and (3) applying to 20+ offers per week instead of 2-3.