No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araInformàtica i IT
399Transport i Logística
320Comercial i Vendes
273Desenvolupament de Programari
243Administració i Secretariat
234Veure més categories
Educació i Formació
123Màrqueting i Negoci
121Dret i Legal
118Comerç i Venda al Detall
117Enginyeria i Mecànica
107Publicitat i Comunicació
54Disseny i Usabilitat
50Comptabilitat i Finances
49Indústria Manufacturera
49Instal·lació i Manteniment
49Recursos Humans
34Sanitat i Salut
32Art, Moda i Disseny
27Construcció
25Hostaleria
25Arts i Oficis
24Atenció al client
19Banca
16Producte
15Seguretat
11Alimentació
10Immobiliària
10Farmacèutica
7Turisme i Entreteniment
7Cures i Serveis Personals
4Energia i Mineria
3Social i Voluntariat
3Esport i Entrenament
1Telecomunicacions
1Agricultura
0Assegurances
0Ciència i Investigació
0Editorial i Mitjans
0Top Zones
Madrid
1.713Lead DevOps Engineer
6 de nov.Swiss Re
Madrid, ES
Lead DevOps Engineer
Swiss Re · Madrid, ES
API Agile OOP Azure Cloud Coumputing Kubernetes PowerShell DevOps Terraform
About the Team and our Scope
At L&H Solutions, we build and commercialize cloud-native (Azure-based) SaaS/PaaS solutions for Swiss Re Life & Health insurance clients. We offer a portfolio of over six products, including established offerings like Magnum with over 60 active clients worldwide, and other innovative products. We are a SW house within Swiss Re.
Our team consists of more than 150 technical professionals with multidisciplinary skills, located in multiple countries, working on these multi-regional, highly available solutions.
About the Role
We are seeking a highly skilled Lead DevOps Engineer to join our team. In L&H Solutions we do not operate and monitor productive infrastructure, rather we design and build them, leaving other teams to handle the operations.
The ideal candidate should have extensive experience in writing IaaC and identify himself solutions to automate deployments. Most important skills are PowerShell, Kubernetes, Terraform, Azure DevOps, Helm, and constantly research and apply DevOps best practice.
Being a lead you will also help and guide other DevOps on delivering their tasks, collaborate with Engineering manager and Product Owner to ensure the product infrastructure is designed and adapted accordingly to changing requirements.
Your responsibilities will be:
- Solutionalize how to automatically deploy cloud infrastructure including networking, storage, compute, policies, monitoring, security, identity, functions, etc.
- Write PowerShell scripts for automation and management tasks.
- Implement and manage Kubernetes clusters for container orchestration.
- Create Dockerfiles to build container images.
- Utilize Terraform for infrastructure as code (IaC) deployments.
- Implement CI/CD pipelines and release management using Azure DevOps.
- Create and manage Helm charts for deploying applications to Kubernetes clusters.
- Continuously design how to increase infrastructure performance while keeping cloud costs under control.
- Lead and mentor a team of DevOps engineers, providing technical guidance and support.
- Work collaboratively with development and operations teams in Agile environments.
- Manage backlog and prioritize tasks for the DevOps team in collaboration with Engineering manager and Product owner.
About You
If you possess traits and experience that match most of the below, we´d love to hear from you:
- Overall 10+ years´ experience Azure as DevOps engineer
- Experience in agile Environments.
- Must have excellent technical proficiency in...- Proficiency in Azure administration and services.
- Strong experience with PowerShell scripting.
- In-depth knowledge of Kubernetes and containerization.
- Strong skills with Terraform for infrastructure provisioning.
- Knowledge of Azure DevOps for CI/CD pipelines and release management.
- Experience managing teams of DevOps engineers.
- Preferable knowledge also about...- Programming background in any OOP language (preferred GO).
- Knowledge on security scan, authorization protocols, CloudFlare.
- Understanding of data fundamentals.
- Experience with APIM (Azure API Management).
- Familiarity with Okta for identity and access management.
- Knowledge of Cloudflare for web performance and security.
- Relevant certifications such as AZ-104, AZ-204, AZ-400, Terraform and CKAD.
- Excellent Communication Skills in English, both written and verbal, to effectively interact with the team and collaborators.
- Proactive and Collaborative, with a strong sense of ownership and a willingness to go the extra mile to deliver quality solutions
For Spain, the base salary range for this position is between EUR 42,000 and EUR 70,000 (for a full-time role). The specific salary offered considers:
- the requirements, scope, complexity and responsibilities of the role,
- the applicant´s own profile including education/qualifications, expertise, specialisation, skills and experience.
In addition to your base salary, Swiss Re offers an attractive performance-based variable compensation component, designed to recognise your achievements. Further you will enjoy a variety of global and location specific benefits.
Eligibility may vary depending on the terms of Swiss Re policies and your employment contract.
Data Engineer (m/f/d)
6 de nov.BASF
Madrid, ES
Data Engineer (m/f/d)
BASF · Madrid, ES
Python Azure Cloud Coumputing Kafka Machine Learning
ABOUT US
At BASF Digital Hub Madrid we develop innovative digital solutions for BASF, create new exciting customer experiences and business growth, and drive efficiencies in processes, helping to strengthen BASF´s position as the digital leader in the chemical industry. We believe the right path is through creativity, trial and error and great people working and learning together. Become part of our team and develop the future with us - in a global team that embraces diversity and equal opportunities.
We believe the right path is through creativity, trial and error and great people working and learning together. Become part of our team and develop the future with us - in a global team that embraces diversity and equal opportunities. We are committed to fostering an inclusive workplace and strongly encourage applications from individuals with disabilities. We value diversity and believe that varied perspectives enhance our team´s effectiveness. Our hiring practices are designed to ensure equal opportunity for all candidates.
WHAT YOU CAN EXPECT
We are currently seeking a talented Data Engineer to join our team at BASF´s Agricultural Solutions department Digital Factory.
RESPONSIBILITIES
- Assist in the design and development of scalable and efficient cloud-based data pipelines using Databricks and Azure Data Factory.
- Support the integration of real-time streaming solutions with Event Hubs and Kafka for data ingestion and processing.
- Help optimize data storage and transformation using Azure Data Lake Storage Gen2 (ADLS Gen2).
- Write clean and efficient code in Python and PySpark to process and analyze datasets.
- Collaborate with cross-functional teams to gather data requirements and implement solutions that align with business goals.
- Monitor and troubleshoot cloud-based data platforms and pipelines, contributing to performance improvements.
- Ensure adherence to data quality, governance, and security standards across data solutions.
REQUIREMENTS OF THE POSITION
- Basic knowledge of Databricks and Azure Data Factory for building data pipelines and workflows.
- Familiarity with Event Hubs and Kafka for real-time data streaming and messaging.
- Understanding of Azure Data Lake Storage Gen2 (ADLS Gen2) for data management and storage optimization.
- Proficiency in programming with Python and PySpark for data engineering tasks.
- Awareness of data integration, transformation, and optimization best practices in cloud environments.
- Experience or coursework in large-scale data processing and real-time streaming architectures is a plus.
- Familiarity with Azure cloud services and related tools is advantageous.
- Strong analytical and problem-solving skills with a focus on performance and scalability.
NICE TO HAVE
- Relevant coursework or certifications in Azure data engineering, cloud platforms, or related technologies.
- Exposure to CI/CD pipelines for cloud data solutions is a plus.
- Basic knowledge of machine learning concepts and integration within data pipelines (optional).
WHAT WE OFFER
- A secure work environment because your health, safety and wellbeing is always our top priority.
- Flexible work schedule and Home-office options, so that you can balance your working life and private life.
- Learning and development opportunities
- 23 holiday days per year
- 5 additional days (readjustment)
- 2 cultural days
- A collaborative, trustful and innovative work environment
- Being part of an international team and work in global projects
- Relocation assistance to Madrid provided
Junior Data Engineer
3 de nov.Davidson consulting
Madrid, ES
Junior Data Engineer
Davidson consulting · Madrid, ES
. Python TSQL Docker Kubernetes
Davidson Consulting España nace en el año 2014. Formamos parte del grupo Davidson, multinacional francesa de servicios tecnológicos con +18 años de experiencia en el sector y presencia en varios países europeos además de en Canadá. Somos 3000 compañeros a nivel global.
En España nos caracterizamos por ser un equipo de más de 150 profesionales altamente cualificados y apasionados por el mundo de la tecnología y la innovación. Por ello, nuestro objetivo es seguir aumentando el equipo para continuar involucrados en proyectos nacionales e internacionales de gran envergadura.
Desde Davidson buscamos un Junior Data Engineer, para unirse a nuestro equipo en Davidson España, para apoyar en la misión del diseño y operación de soluciones de datos avanzadas que automatizan y optimizan procesos operativos en las áreas de trading, gestión de riesgos y tesorería. Te incorporarás a un entorno dinámico que impulsa la transformación digital y de datos, contribuyendo directamente a la automatización y rendimiento de las operaciones energéticas en tiempo real.
Funciones:
- Diseñar, construir y mantener canales de datos ETL sólidos que garanticen un flujo y transformación de datos eficientes.
- Implementar y gestionar marcos de automatización para la ingesta, transformación y generación de informes de datos.
- Desarrollar y mantener canales CI/CD y entornos de contenedores tipo (Docker, Kubernetes).
- Definir y aplicar estándares de gobernanza de datos que cubran linaje, documentación, seguridad y cumplimiento del RGPD.
- Supervisar y optimizar continuamente el rendimiento de los canales de datos y de las aplicaciones.
- Colaborar con otros ingenieros de datos, partes interesadas del negocio y equipos de TI multifuncionales para alinear las mejores prácticas de calidad, pruebas y entrega.
Requisitos mínimos del puesto:
- 1 ó 2 años de experiencia en procesos ETL y orquestación de canales de datos.
- 1 ó 2 años de experiencia en SQL y Python (u otros lenguajes de programación centrados en datos).
- 1 ó 2 años de experiencia con Docker, Kubernetes y automatización CI/CD.
- 1 ó 2 años de experiencia en gobernanza de datos, seguridad, privacidad (cumplimiento RGPD) y linaje de datos.
- Idiomas: nivel alto en inglés.
¿Qué ofrecemos?
- Modelo de trabajo en formato híbrido en Madrid.
- Contratación indefinida.
- Posición estable.
- Salario competitivo según valía y experiencia aportada.
- Plan de carrera y desarrollo profesional.
¿Por qué unirte a nosotros?
Nos caracterizamos por el excelente trato a los compañeros y una estructura organizativa horizontal. Te sentirás arropado y como en casa, tu opinión siempre importa. Contarás con oportunidades reales de crecimiento y proyección.
Si estás interesad@ en participar en el proceso de selección o simplemente quieres conocer más sobre estas oportunidades, ¡no dudes en postularte a la oferta!
#DavidsonConsulting #TeRetamosAFicharPorNosotros
Data Engineer - SDS
3 de nov.Santander
Madrid, ES
Data Engineer - SDS
Santander · Madrid, ES
Java Python Azure NoSQL Maven Jenkins Angular Cloud Coumputing Scala Git AWS DevOps Big Data Spark Machine Learning
Data Engineer - SDS
Country: Spain
COMIENZA AQUÍ
Santander está evolucionando de una marca global de alto impacto a una organización impulsada por la tecnología, y nuestra gente está en el centro de este viaje. Juntos, estamos impulsando una transformación centrada en el cliente que valora el pensamiento audaz, la innovación y el coraje para desafiar lo que es posible.
Esto es más que un cambio estratégico. Es una oportunidad para que los profesionales motivados crezcan, aprendan y marquen una diferencia real.
Nuestra misión es contribuir a ayudar a más personas y empresas a prosperar. Adoptamos una sólida cultura de riesgo y se espera que todos nuestros profesionales en todos los niveles adopten un enfoque proactivo y responsable hacia la gestión de riesgos.
Santander Digital Services es el equipo de tecnología y operaciones de Santander. Estamos convencidos de la importancia de una tecnología que esté alineada con los requisitos del negocio y que nuestro trabajo no solo aporte valor a los usuarios, las personas y las comunidades, sino que también fomente la creatividad individual. Nuestro equipo de más de 10.000 personas en 8 países (España, Portugal, Polonia, Reino Unido, EE. UU., México, Chile y Brasil) desarrolla y/o implementa soluciones financieras en un amplio espectro de tecnologías (incluyendo Blockchain, Big Data y Angular, entre otras) en todo tipo de plataformas locales y basadas en la nube.
LA DIFERENCIA QUE MARCAS
EL AREA DE CDAIO está buscando un DATA ENGINEER basado en nuestras oficinas de Luca de Tena (Madrid).
Como Data Engineer, tu objetivo será colaborar en la definición, evolución e implantación de los frameworks de DataOps y MLOps asociados a procesos de business intelligence, bigdata, IA y machine learning, con especial foco en plataformas de datos en cloud pública (Azure Databricks) que recojan el ciclo de vida del despliegue de software de datos, desde la creación de arquetipos hasta la integración en CI/CD pasando por la construcción de test unitarios (lenguajes de python, scala y java).
Es importante tener conocimientos avanzados de Spark para entender, diseñar y saber resolver problemas en entornos de ejecución distribuida de procesos de analítica, analítica en tiempo real y modelos de machine learning (analítica avanzada). Todo ello con el fin de acelerar nuestra transformación y convertirnos cada vez más en una organización Data DrivenEstamos dando forma a la forma en que trabajamos a través de la innovación, la tecnología de vanguardia, la colaboración y la libertad de explorar nuevas ideas. Para tener éxito en este rol, será responsable de:
- Colaborar en la definición de arquetipos de datos (analíticas, streaming, machine learning, etc..) y apoyar su evolución e implantación, desarrollando o integrando los componentes de la arquitectura, con especial foco en Azure Databricks.
- Definir los procesos de integración continua para automatizar el despliegue del software por los diferentes entornos su ciclo de vida.
LO QUE APORTARÁS
Nuestra gente es nuestra mayor fortaleza. Cada individuo aporta perspectivas únicas que nos hacen más fuertes como equipo y como organización. Estamos permitiendo que los equipos vayan más allá al valorar quiénes son y potenciar lo que aportan.
Los siguientes requisitos representan el conocimiento, las habilidades y las destrezas esenciales para el éxito en este puesto. Se pueden hacer adaptaciones razonables para permitir que las personas con discapacidades realicen las funciones esenciales.
Experiencia profesional
- Obligatorio 3+ años de experiencia en consultoría, desarrollo de aplicaciones analíticas o de modelos de machine learning y/o arquitecturas de datos.
- Obligatorio 1+ año de experiencia en construcción de arquetipos, construcción de test unitarios y despliegue de software usando integración continua.
Educación
- Obligatorio Grado en Ingeniería, Matemáticas, Física o similar.
Idiomas
- Deseable nivel medio-alto de inglés.
Habilidades técnicas
- Experiencia obligatoria en herramientas de Devops: Maven, github actions, Databricks Assets Bundles, jenkins, git.
- Lenguajes de programación: experiencia en Python y Java es obligatorio. Sería deseable Scala.
- Obligatorio. Arquitecturas de Datos: Spark, Databricks.
- BBDD (NoSQL, Grafos, realacionales...).
- Obligatorio plataformas analíticas cloud (azure, AWS, ...).
Habilidades blandas
- Capacidad analítica.
- Adaptabilidad y flexibilidad.
- Atención al detalle.
VALORAMOS TU IMPACTO
Su contribución es importante y es reconocida. Puede esperar un paquete de recompensas justo y competitivo que refleje el impacto que crea y el valor que ofrece. Pero sabemos que las recompensas van más allá de los números.
- Permitimos que nuestros equipos vayan más allá a través de oportunidades globales y amplias trayectorias profesionales.
- Flexibilidad que funciona. Disfruta de modelos de trabajo híbridos, algunos días remotos, otros días presenciales con tu equipo, junto con horarios flexibles.
- Aprendizaje para la vida. Accede a cientos de cursos en nuestras plataformas, incluido el acceso exclusivo a nuestro espacio de aprendizaje global: Santander Open Academy (www.santanderopenacademy.com)
- Recompensas competitivas. Recibe un salario altamente competitivo con bonos basados en el desempeño, motivándote a seguir creciendo con nosotros.
- Ventajas financieras. Benefíciese de condiciones bancarias preferenciales, tasas de interés especiales en préstamos, seguros de vida y más.
- Tu salud es nuestra prioridad. A través de BeHealthy, nuestro programa global de bienestar, promovemos el bienestar holístico.
- Sabemos que la familia lo es todo. Es por eso que ofrecemos apoyo para el cuidado de niños y programas familiares adaptados a cada etapa de la vida.
- Siempre a tu lado. Accede a Santander Contigo, nuestro programa para empleados y sus familias que ofrece servicios de asesoría legal, emocional y administrativa.
- Beneficios adicionales. Membresía de gimnasio/WellHub, centros médicos en algunas de nuestras instalaciones, subsidio de comidas, estacionamiento, servicio de transporte desde varios puntos de Madrid, así como descuentos y ofertas exclusivas para empleados de Santander. Y eso es solo el comienzo: ite contaremos más cuando te unas!
Senior Data Engineer - Spain
2 de nov.Prima
Senior Data Engineer - Spain
Prima · Madrid, ES
Teletreball . Python TSQL NoSQL Cloud Coumputing AWS DevOps PostgreSQL Kafka Spark Big Data Machine Learning Office
Are you looking for a new challenge?
Fancy helping us shape the future of motor insurance?
Prima could be the place for you.
Since 2015, we’ve been using our love of data and tech to rethink motor insurance and bring drivers a great experience at a great price. Our story began in Italy, where we’ve quickly become the number one online motor insurance provider. In fact, we’re trusted by over 4 million drivers. And now we’re expanding to help millions more drivers in the UK and Spain.
To help fuel that growth, we need a Senior Data Engineer to join our Engineering team.
This team is the beating heart of Prima.
You’ll be joining over 300 engineers across software development, infrastructure, operations and security. Fueled by curiosity, experimentation and collaboration, you’ll help deliver scalable, impactful solutions that shape the future of insurance.
Excited to make an impact? Here are the details
You’ll be joining our pricing and underwriting domain to bridge the gap between machine learning/data science and engineering. You will help build, publish, and maintain our complex data products and pipelines, key elements that have a significant impact on the company’s growth.
What You’ll Do
- Shaping the architecture of data products designed for data analytics and data science specifically focusing on use cases like forecasting, feature engineering, customer behaviour, and integration of new data sources.
- Leading the way in data transformation by setting up best practices in areas like Data modelling, performance optimisation, Data Governance etc, ensuring that the data used within Prima is consistent, available and reliable.
- Build reusable technology that enables teams to ingest, store, transform, and serve their own data products.
- Engaging with data scientists and machine learning engineers to explore the product landscape and refine data requirements for enhanced data infrastructure.
- Embrace continuous learning and experimentation to stay updated on emerging technologies, from testing open source tools to engaging in community-building activities like Meetups. Your passion for staying at the forefront of the field will drive your journey.
- Expert in batch, distributed data processing and near real-time streaming data pipelines with technologies like Kafka, Flink, Spark etc. Experience in Databricks is a plus.
- Experience in Data Lake / Big Data Analytics platform implementation with cloud based solution; AWS preferred.
- Proficient in Python programming and software engineering best practices.
- Expertise with RDBMS, Data Warehousing, Data Modelling with relational SQL (Redshift, PostgreSQL) and NoSQL databases.
- Proficiency in DevOps, CI/CD pipeline management, and expertise in infrastructure as Code (IaC) deployment industry-best practices.
- Hands-on experience in Data Quality and Data Governance techniques.
- Knowledge on MLOps and Feature engineering.
- Exposure to common data analysis and ML technologies such as on scikit-learn, pandas, NumPy, XGBoost, LightGBM.
- Exposure to tools like Apache Oozie, Apache Airflow.
We want to make Prima a happy and empowering place to work. So if you decide to join us, you can expect plenty of perks.
🤸 Work Your Way: Enjoy full flexibility – work from home, the office or a mix of both. Plus, work from anywhere for up to 30 days a year.
🏁 Grow with us: We may move fast at Prima, but we move together. Get access to learning resources, mentorship and a growth plan tailored to you.
🌈 Thrive and perform: Your best work begins when you feel your best. Enjoy private healthcare, gym discounts, wellbeing programs and mental health support.
Think you’re a match? Apply now.
At Prima, we celebrate uniqueness. If you don’t meet every requirement but are passionate about this role, we still want to hear from you. Innovation thrives on diverse perspectives.
Prima is proud to be an equal opportunity employer. Need accommodations during the process? Email us at [email protected]. Let’s build the future of insurance, together.
Data Engineer - Power Bi
2 de nov.CIPEx - Consejo de Ingenieros Peruanos en el EXterior
Madrid, ES
Data Engineer - Power Bi
CIPEx - Consejo de Ingenieros Peruanos en el EXterior · Madrid, ES
. Power BI
- Senior PowerBI Data Engineer - 12 meses - Madrid***En RED Global estamos buscando, en nombre de uno de nuestros principales clientes, unIngeniero de Datos Senior con experiencia en Power BI.
Duración:12 meses+
Ubicación:Madrid, España (1-2 idealmente on-site)
Idioma:Español (obligatorio), inglés (deseable)Requisitos clave:Sólida experiencia práctica enPower BI
Experiencia demostrable comoIngeniero/a de Datos Senioro rol similar
Perfil proactivo, meticuloso y con capacidad de trabajar de forma autónoma
Experiencia previa enentornos globales o empresarialesserá muy valoradaSi estás interesado/a y disponible, envía tu CV actualizado ****** confirma tu disponibilidad para una breve llamada introductoria.
¿No estás disponible actualmente?
Agradecemos referencias de profesionales cualificados.
DATA ENGINEER
2 de nov.Inetum
Madrid, ES
DATA ENGINEER
Inetum · Madrid, ES
. Python TSQL Azure Cloud Coumputing PowerShell ITIL Power BI
Mission
We are seeking a highly motivated and technically proficient Data Platform Support Specialist to provide operational support for a data solution built on Azure Data Factory, Snowflake, and Power BI. This is not a development role, but rather a hands-on support position focused on ensuring the reliability, performance, and smooth operation of the data platform.
Profile
Key Responsibilities
- Monitor and maintain data pipelines in Azure Data Factory, ensuring timely and accurate data movement.
- Provide support for Snowflake data warehouse operations, including troubleshooting queries, managing access, and optimizing performance.
- Assist business users with Power BI dashboards and reports, resolving issues related to data refreshes, connectivity, and visualization errors.
- Collaborate with data engineers and analysts to ensure platform stability and data integrity.
- Document support procedures and maintain knowledge base articles for recurring issues.
- Communicate effectively in English with internal teams and stakeholders.
- High proficiency in English (C1 or above).
- Hands-on experience with:
- Azure Data Factory (monitoring, troubleshooting, pipeline execution).
- Snowflake (SQL, performance tuning, user management).
- Power BI (report troubleshooting, data sources, refresh schedules).
- Strong analytical and problem-solving skills.
- Ability to work independently and manage multiple support tasks.
- Familiarity with ITIL or similar support frameworks is a plus.
- Experience in data governance or data quality monitoring.
- Basic understanding of cloud infrastructure (Azure).
- owledge of scripting (e.g., PowerShell or Python) for automation.
🚀 Join Inetum – We're Hiring a DATA ENGINEER! 🚀
At Inetum, a leading international digital consultancy, we empower 27,000 professionals across 27 countries to shape their careers, foster innovation, and achieve work-life balance. Proudly certified as a Top Employer Europe 2024, we’re passionate about creating positive and impactful digital solutions.
Machine Learning Engineering Lead
2 de nov.Coca-Cola Europacific Partners
Madrid, ES
Machine Learning Engineering Lead
Coca-Cola Europacific Partners · Madrid, ES
. Python Azure Docker Cloud Coumputing Kubernetes Hadoop AWS Spark Big Data Machine Learning
Lead Machine Learning Engineer
About Coca-Cola Europacific Partners (CCEP)
CCEP is the world’s largest independent Coca-Cola bottler, operating across 13 countries and serving over 300 million consumers. Our portfolio includes iconic brands like Coca-Cola®, Fanta®, Powerade®, Glaceau Vitaminwater®, Monster®, and Capri-Sun®.
We’re on a journey to unlock the full potential of data and analytics across our business. With our first-ever Chief Data & Analytics Officer leading the way, we’re building a progressive data strategy that transforms insights into action—driving growth, efficiency, and sustainability.
The Role: Lead Machine Learning Engineer
As the Lead Machine Learning Engineer, you’ll be at the forefront of designing, developing, and deploying cutting-edge machine learning solutions. You’ll work closely with data scientists, engineers, and business stakeholders to operationalize models and build scalable ML pipelines that power our data-driven products and services.
Key Responsibilities
- Lead end-to-end development of ML models using Python, scikit-learn, Keras/TensorFlow.
- Architect and maintain scalable ML pipelines integrated with our data platforms.
- Implement advanced ML techniques (e.g., bagging, boosting, ensemble methods, neural networks).
- Monitor model performance and data drift; optimize reliability and accuracy.
- Define and track ML Ops metrics (accuracy, latency, drift, resource utilization).
- Collaborate with data scientists to productionize research models.
- Establish best practices for model versioning, reproducibility, and retraining.
- Mentor junior ML engineers and foster a culture of innovation.
- Stay ahead of industry trends and introduce new tools and techniques.
Required Skills & Experience
- Proven leadership in ML engineering teams or projects.
- Expert in Python and ML libraries (scikit-learn, Keras, PyTorch, TensorFlow).
- Strong grasp of advanced ML techniques and ML Ops practices.
- Experience with cloud platforms (AWS, Azure, GCP) and containerization (Docker, Kubernetes).
- Excellent problem-solving and stakeholder engagement skills.
- Bachelor’s or Master’s in Computer Science, Data Science, Engineering, or related field.
- Experience with big data tools (Spark, Hadoop).
- Familiarity with feature stores, model registries, and experiment tracking.
- Exposure to business domains like finance, healthcare, or retail analytics.
- Lead and shape the ML engineering function in a data-driven organisation.
- Work in a collaborative and innovative environment.
- Access continuous learning and professional development.
- Are a hands-on Senior ML Engineer and team leader.
- Are passionate about high-quality delivery and coaching others.
- Value sustainable, flexible data platforms and their business impact.
- Combine software engineering discipline with data science rigor.
- Create an environment where your team thrives.
Apply now and be part of our data transformation journey.
Jr. Devops Cloud Engineer
1 de nov.Randstad ES
Madrid, ES
Jr. Devops Cloud Engineer
Randstad ES · Madrid, ES
Python Azure Docker Cloud Coumputing Kubernetes TypeScript AWS DevOps Terraform
¿Te interesa seguir desarrollando tu carrera como Jr. Devops Cloud Engineer en proyectos estables?
nuestro cliente
Randstad Digital somos la empresa de consultoría tecnológica del grupo Randstad especializada en servicios tecnológicos estables. A nivel global estamos presente en más de 20 países y contamos con más de 25.000 especialistas IT y a nivel nacional con más de 400 y tenemos oficinas en Madrid, Barcelona, Valencia, Sevilla, Zaragoza, Bilbao y Valladolid.
Llevamos a cabo servicios de IT e ingeniería apasionantes y con las últimas tecnologías.
Cuidamos de nuestr@s trabajadores mediante el trato humano que nos caracteriza y por ello te impulsamos para seguir creciendo sin límites!
Nuestro objetivo: Crecer e impulsar junt@s en equipo el liderazgo digital para innovar y marcar la diferencia basándonos en la responsabilidad social tecnológica, conectando personas y tecnología.
tus funciones
Automatización y Orquestación de Infraestructura:
- Usar Terraform para diseñar y gestionar la Infraestructura como Código (IaC) a través de AWS y Azure.
- Mantener la consistencia y fiabilidad de la infraestructura en la nube.
Conocimiento general sobre módulos, configuración y arquitectura de AWS:
- Desarrollo de Pipelines CI/CD.
- Construir y optimizar pipelines de Integración Continua/Despliegue Continuo (CI/CD) basadas en GitHub Actions.
- Asegurar la automatización de las pruebas (testing), los despliegues y el cumplimiento de las mejores prácticas.
Configuración y Estrategias de Ramificación (Branching) en GitHub:
- Implementar la configuración de repositorios de GitHub, incluyendo la protección de ramas (branch protection) y las reglas de revisión de código.
- Aplicar estrategias de ramificación como GitFlow o el desarrollo basado en trunk (trunk-based development).
Monitorización y Observabilidad:
- Configurar herramientas de monitorización y observabilidad para garantizar el rendimiento de las aplicaciones y la salud del sistema.
- Diagnosticar y resolver rápidamente problemas relacionados con la infraestructura.
Escalabilidad, Seguridad y Cumplimiento:
- Diseñar una infraestructura escalable, segura y compatible en AWS y Azure.
- Hacer cumplir las mejores prácticas en IAM, gestión de secretos (secrets management) y seguridad de red.
Colaboración y Soporte:
- Trabajar de forma interfuncional con desarrolladores y partes interesadas (stakeholders) para apoyar el ciclo de vida del desarrollo.
- Liderar los esfuerzos de respuesta a incidentes.
requisitos del puesto
- Formación: Ingeniero Técnico
- Conocimientos: devops
- Experiencia: 2 años
Requisitos Mínimos:
- Mínimo de 2 años de experiencia con tecnologías relacionadas con DevSecOps: AWS, GitHub, estrategias de ramificación (branching strategies) y configuración de repositorios.
- Dominio de Terraform y automatización de infraestructura en la nube.
- Habilidades de programación en TypeScript y Python.
- Sólida experiencia práctica con servicios de AWS y Azure.
- Dominio en pipelines de CI/CD utilizando GitHub Actions.
- Habilidades avanzadas de scripting y automatización con Python.
- Experiencia con herramientas de observabilidad como CloudWatch.
- Comprensión de conceptos de redes (networking) como VPC, DNS y balanceo de carga (load balancing).
- Experiencia utilizando herramientas de desarrollo de IA como GitHub Copilot.
- Dominio del inglés (fluency).
Deseable (Nice-to-Have):
- Experiencia dando soporte a plataformas o herramientas de IA/ML/DS (Inteligencia Artificial/Aprendizaje Automático/Ciencia de Datos).
- Familiaridad con herramientas de orquestación de contenedores (por ejemplo, Docker, Kubernetes).
- Experiencia integrando principios de DevSecOps en los flujos de trabajo de desarrollo.
- Comprensión de servicios de seguridad nativos de la nube y gestión de secretos (secrets management).
- Capacidad para facilitar la habilitación de desarrolladores (developer enablement) a través de documentación y mejores prácticas.
tus beneficios
¿A qué esperas para formar parte de nuestro gran equipo Randstad Digital?, aquí encontrarás motivos para ello:
PLAN DE FORMACIÓN CONTINUA, plan de formación anual, acceso a plataforma e-learning de formación técnica, plataforma de formación en habilidades...
ACOMPAÑAMIENTO Y PLAN DE CARRERA, Tendrás un referente de Randstad Digital cerca de ti en todo momento.
CONCILIACIÓN, Sabemos que tu vida personal es tan importante como la profesional por eso podrás disfrutar de 23 días de vacaciones y en la mayoría de nuestros proyectos tendrás un horario flexible.
COMPROMISO y ESTABILIDAD, Incorporación a empresa en continuo crecimiento que apuesta por las nuevas tecnologías.
SALARIO COMPETITIVO acorde a tu experiencia profesional.
CONDICIONES contractuales competitivas, Plan de retribución flexible (tarjeta restaurante y cheques guardería) y Randstad Care, plataforma de ofertas y descuentos exclusivos.