¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
966Comercial y Ventas
831Adminstración y Secretariado
650Transporte y Logística
524Marketing y Negocio
370Ver más categorías
Desarrollo de Software
344Educación y Formación
338Comercio y Venta al Detalle
334Derecho y Legal
311Ingeniería y Mecánica
243Arte, Moda y Diseño
196Diseño y Usabilidad
183Instalación y Mantenimiento
169Publicidad y Comunicación
156Sanidad y Salud
133Industria Manufacturera
121Construcción
119Recursos Humanos
88Contabilidad y Finanzas
65Hostelería
57Atención al cliente
51Inmobiliaria
41Turismo y Entretenimiento
41Producto
40Artes y Oficios
37Banca
29Cuidados y Servicios Personales
27Alimentación
24Farmacéutica
19Seguridad
18Social y Voluntariado
11Energía y Minería
7Deporte y Entrenamiento
4Seguros
2Telecomunicaciones
2Agricultura
1Editorial y Medios
1Ciencia e Investigación
0Junior Backend Developer
NuevaVermont Solutions
Madrid, ES
Junior Backend Developer
Vermont Solutions · Madrid, ES
. React Java Agile Azure Scrum Jenkins Angular Docker Cloud Coumputing Kubernetes Git Hibernate OpenShift jUnit MVC Spring RabbitMQ Microservices Go Kafka
¿Te apasiona el desarrollo backend y quieres formar parte de un proyecto sólido de arquitectura de microservicios en la nube?
En Vermont Solutions buscamos un/a Desarrollador/a Backend Java para incorporarse a un proyecto estratégico, moderno y ágil.
Trabajarás en una arquitectura basada en microservicios sobre infraestructura Azure, con foco en calidad, automatización y buenas prácticas de desarrollo.
🖥️ ¿Qué harás en tu día a día?
- Diseñarás soluciones técnicas a partir de diseños funcionales definidos.
- Desarrollarás software backend en Java (8/11) dentro de una arquitectura de microservicios.
- Implementarás servicios utilizando Spring, Spring Boot, Spring Batch y Spring MVC.
- Ejecutarás pruebas técnicas (unitarias) y participarás en la validación de versiones.
- Empaquetarás versiones y colaborarás en los pases a producción.
- Verificarás el correcto despliegue en entornos productivos.
- Colaborarás en la documentación técnica y en el traspaso de conocimiento al equipo de operaciones.
- Darás soporte técnico durante pruebas de usuario en PRE y PRO, resolviendo incidencias.
- Trabajarás bajo metodologías ágiles (Scrum), participando activamente en el equipo.
🔒 ¿Qué necesitas para unirte a nosotros?
- Experiencia en desarrollo backend con Java y el ecosistema Spring (Spring, Spring Boot, Spring Batch, MVC).
- Experiencia en arquitecturas de microservicios.
- Uso de Swagger / OpenAPI para la documentación de servicios.
- Desarrollo de tests unitarios con JUnit y Mockito.
- Experiencia con CI/CD, utilizando herramientas como Git, Jenkins y OpenShift.
- Conocimientos de JPA / Hibernate / Spring Data para acceso y gestión de bases de datos.
- Uso de herramientas de calidad de código como Sonar.
- Experiencia trabajando bajo metodologías ágiles (Scrum / Agile).
- Experiencia con Kafka o RabbitMQ para colas de mensajería.
- Experiencia en desarrollo con Golang.
- Conocimientos en infraestructuras cloud (Azure u otras nubes públicas/privadas).
- Experiencia con contenedores y orquestación: Docker, Kubernetes.
- Conocimientos en tecnologías frontend como Angular, React o Vue.
En Vermont Solutions, cuidamos de nuestro talento. ¡Aquí tienes algunas de las cosas que ofrecemos! 🙌
- Plan de Formación: Acceso a certificaciones técnicas y programas de formación continua para que siempre estés a la vanguardia. 📚
- Desarrollo Profesional: Un plan de carrera definido para que puedas visualizar tu futuro con nosotros y crecer en cada etapa de tu trayectoria. 🌱
- Plan de Retribución Flexible: Adaptamos nuestra oferta a tus necesidades con beneficios como seguro médico privado, cheques para estudios de idiomas, guardería y tarjeta de transporte. 💼
- Ambiente de Trabajo Innovador: Te integrarás en un equipo de profesionales motivados en un entorno que prioriza la innovación y el trabajo en equipo. 🧑🤝🧑
- Espacios Inclusivos: Creemos firmemente en un modelo de gestión sostenible y políticas de igualdad efectiva. Val
LOGISTIC OPERATOR
NuevaMG-Atlantic
València, ES
LOGISTIC OPERATOR
MG-Atlantic · València, ES
. Docker
MG-Atlantic is a Swiss-based company specialized in the sale and leasing of SOC (Shipper Owned Containers) worldwide. We work closely with freight forwarders, depots, and industrial clients, providing flexible one-way, leasing, and trading solutions.
To support our growth, we are looking for a Container Operations Operator (SOC) based in Valencia.
Your role
You will manage day-to-day container operations and act as a key link between depots, customers, and internal teams, while also handling billing and client follow-up.
Main responsibilities
• Coordinate container releases, pick-ups, and returns
• Follow gate-in / gate-out reports and update our tracker
• Monitor storage, cleaning, repair, and damage costs
• Communicate with depots, forwarders, and clients
• Track container movements and availability
• Prepare and manage invoicing (trading, damages, leasing, services)
• Ensure client follow-up on invoices and payments
• Support operational and financial reporting
Profile
• Experience in logistics, shipping, or container operations preferred
• Strong organizational skills and attention to detail
• Comfortable with Digital Tools / Google Sheets
• Able to work autonomously and take ownership
• Fluent in Spanish and English (French is a plus)
• Based in Valencia or willing to relocate
What we offer
• International exposure in the container & shipping industry
• Dynamic and fast-growing company
• Competitive salary based on experience
- Flexible work possible
📩 Apply: Send your CV to [email protected] or Linkedin
UST
Desarrollador/a Java Senior
UST · Málaga, ES
Teletrabajo API Java MongoDB Scrum Docker Cloud Coumputing Kubernetes Hibernate REST Oracle TDD PostgreSQL QA Spring Microservices Kafka
Role description
¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo!
Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías.
¿Qué buscamos?
Estamos en búsqueda de un/a Desarrollador/a Java con fuerte orientación a microservicios, Kafka, Spring Boot, y con experiencia sólida en entornos empresariales (Java EE), para dar servicio a uno de nuestros clientes líder en el sector bancario.
Funciones:
- Diseñar, desarrollar y mantener microservicios basados en Java y Spring Boot, garantizando escalabilidad, rendimiento y seguridad.
- Implementar y optimizar flujos de mensajería con Kafka, gestionando topics, producers, consumers y patrones de consumo avanzado.
- Desarrollar APIs REST siguiendo estándares OpenAPI (OAS3), asegurando consistencia, documentación y facilidad de integración.
- Modelar e interactuar con bases de datos relacionales y no relacionales, especialmente PostgreSQL, optimizando consultas y estructuras.
- Aplicar TDD o BDD para asegurar la calidad del software, creando test unitarios, de integración y comportamentales.
- Diseñar soluciones técnicas alineadas con la arquitectura global del sistema y las necesidades del proyecto.
- Participar activamente en las ceremonias Scrum: dailies, plannings, refinements y retros.
- Colaborar con el equipo de QA y arquitectura, asegurando buenas prácticas, código limpio y estándares comunes.
- Monitorizar y mejorar servicios en producción, identificando cuellos de botella, puntos de fallo y oportunidades de mejora.
- Aportar propuestas tecnológicas y participar en la modernización continua de la plataforma.
Qué esperamos de ti:
- Mínimo 5 años de experiencia.
- Experiencia con: Java 8 o superior, Spring Boot, Arquitectura de microservicios, PostgreSQL, Programación funcional, JPA / Hibernate, Testing TDD o BDD.
- Mínimo 5 años de experiencia con Kafka.
- Mínimo 7 años de experiencia con J2EE.
- Experiencia con herramientas de diseño de APIs (OAS3)
- Inglés B2
Requisitos valorables:
- Bases de datos: Oracle, MongoDB
- Mínimo 3 años de experiencia con API Designer
- Experiencia previa con CI/CD
- Conocimiento de Docker, Kubernetes u otras plataformas cloud
Localización
Híbrido Málaga. Es una posición en remoto 100%, pero puntualmente el cliente puede requerir acudir a la oficina.
Horario
Jornada de oficina
¿Qué te ofrecemos?
23 días laborables de vacaciones y el 24 y 31 de diciembre.
Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes).
Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia...).
Acceso gratuito a varias plataformas de formación.
Estabilidad y carrera profesional.
Tenemos implantado un plan de compensación de referencias internas.
Posibilidad de elección de percibir tu salario en 12 o 14 pagas.
Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto).
Plataforma UST Club descuentos y descuentos en gimnasios.
Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando!
En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.
Arquitecto Java AWS
NuevaCMV Consultores
Madrid, ES
Arquitecto Java AWS
CMV Consultores · Madrid, ES
API Java NoSQL Jenkins Docker Kubernetes REST AWS DevOps Spring Microservices Kafka
Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes.
Buscamos un Perfil de arquitectura software de microservicios JAVA con experiencia en AWS.
Conocimientos Técnicos Requeridos: 1) AWS (Amazon Web Services): Profunda experiencia con servicios de AWS: EC2, Lambda, S3, RDS, DynamoDB, API Gateway, VPC, y EKS (Elastic Kubernetes Service). Capacidad para diseñar y desplegar arquitecturas serverless, basadas en contenedores y altamente escalables. Familiaridad con las mejores prácticas de seguridad en AWS 2)Java y Microservicios: Dominio de Java y Spring Boot para el desarrollo de aplicaciones de microservicios. Experiencia en el diseño, implementación y despliegue de arquitecturas basadas en microservicios (al menos 5 años). Conocimiento de APIs REST y colas de mensajes y eventos (SNS/SQS, Kafka, etc). Experiencia en patrones de diseño aplicables a microservicios, como Saga, CQRS, Circuit Breaker, y Event Sourcing. 3) Contenedores y Orquestación: Amplia experiencia con Docker y la orquestación de contenedores mediante Kubernetes (EKS) en entornos de producción. Familiaridad con la creación y administración de clusters de contenedores, monitoreo y escalabilidad automática (auto-scaling). 4)DevOps y CI/CD: Conocimiento avanzado de herramientas de Integración Continua/Despliegue Continuo (CI/CD), como Jenkins, GitLab CI, AWS CodePipeline, 4) Bases de Datos: Experiencia en arquitecturas de solución fundamentadas en bases de datos relacionales y NoSQL, especialmente PostgreSQ y DynamoDB.
Modalidad híbrida de trabajo (al menos los 3 primeros meses debe tener disponibilidad de acudir dos días a la oficina por temas de facilitar la entrada en el servicio)
¿Qué se ofrece?
Contrato indefinido y salario competitivo según valía.
Proyecto a largo plazo
Michael Page
València, ES
DevOps - Híbrido (hasta 50.000€ BA)
Michael Page · València, ES
Node.js Docker Cloud Coumputing Kubernetes DevOps QA
- Potente empresa tecnológica valenciana
- Proyecto puntero con últimas tecnologías en Cloud
¿Dónde vas a trabajar?
Formarás parte de una compañía tecnológica con propósito, centrada en el desarrollo de soluciones que promueven la privacidad digital y el control de los datos por parte de los usuarios
Descripción
- Automatizar procesos e infraestructuras mediante scripting (Shell, Node.js).
- Diseñar, mantener y optimizar pipelines de CI/CD y procesos de despliegue.
- Optimizar el rendimiento del backend y el uso de recursos de las APIs.
- Diseñar y gestionar aplicaciones contenerizadas con Docker y Kubernetes.
- Configurar proxies, redes y balanceadores de carga para sistemas escalables.
- Implementar soluciones de monitorización, logging y observabilidad.
- Colaborar con equipos de desarrollo, QA y CTO en la entrega de software de alta calidad.
- Garantizar buenas prácticas de seguridad y cumplimiento normativo (incluido RGPD).
- Participar en decisiones de arquitectura y apoyar la evolución técnica del equipo.
- Mentorización de perfiles junior.
¿A quién buscamos (H/M/D)?
El/la candidato/a seleccionado deberá cumplir los siguientes requisitos:
- Formación en Ingeniería Informática, Telecomunicaciones o similar como FP.
- Experiencia mínima de 2 años en roles de DevOps, SRE o infraestructura backend.
- Experiencia sólida con Node.js en automatización o desarrollo de servicios.
- Conocimiento práctico de Docker y Kubernetes.
- Experiencia con herramientas de observabilidad (monitorización, logging, alertas).
- Conocimientos de redes, proxies y balanceo de carga en entornos productivos.
- Experiencia en CI/CD y automatización de despliegues.
- Capacidad de resolución de problemas, adaptabilidad y trabajo en equipo.
- Fluidez hablando en inglés (algunas personas del equipo sólo hablan este idioma)
- Buena organización y autonomía.
¿Cuáles son tus beneficios?
- Contrato permanente en una empresa del sector Technology.
- Modalidad 2 días en la oficina (Valencia Ciudad) con flexibilidad para organizar tu jornada de horario y asistencia.
- Equipo internacional donde seguro mejorarás tu nivel de inglés.
- Clases de idiomas para mejorar tu nivel.
- Seguro médico.
- Salario competitivo entre los 35-50.000€ BA
- Entorno profesional con oportunidades de aprendizaje y desarrollo.
- Participación en proyectos innovadores y de vanguardia tecnológica.
Deloitte
Cloud Native Application Developer
Deloitte · Barcelona, ES
Teletrabajo API Java Node.js Python NoSQL Docker Cloud Coumputing Kubernetes AWS DevOps Microservices Big Data
´Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales?
En Deloitte estamos comprometidos con generar un impacto en la sociedad, en nuestros clientes y en ti.
Responsabilidades principales
- Diseñar arquitecturas de aplicaciones seguras, resilientes y optimizadas en coste.
- Implementar aplicaciones en AWS, apoyando a los desarrolladores más junior en la adopción de buenas prácticas de desarrollo cloud native.
- Participar en la preventa, contribuyendo con el conocimiento y habilidades técnicas necesarias en el desarrollo de soluciones en ofertas y RFPs.
- Mantenerse a la vanguardia de las últimas tecnologías y servicios de AWS aplicables a soluciones de desarrollo, aportando innovación en los proyectos.
Requisitos
- Experiencia demostrable (mínimo 5 años en IT y 2+ en desarrollo en AWS) en la creación y desarrollo de aplicaciones cloud native.
- Experiencia sólida en diseño de software y patrones, especialmente en microservicios y arquitecturas serverless.
- Habilidades de programación en lenguajes relevantes para el desarrollo en AWS (Python, Java, Node.js, etc.).
- Dominio demostrable de servicios gestionados de AWS relacionados con desarrollo: Lambda, API Gateway, DynamoDB, S3 y Step Functions.
- Conocimiento práctico de herramientas de monitorización en AWS con enfoque en el rendimiento de aplicaciones (CloudWatch, CloudTrail y X-Ray)
- Experiencia en la optimización de aplicaciones logrando altos niveles de rendimiento y eficiencia de coste en AWS.
- Experiencia con pipelines CI/CD y buenas prácticas de seguridad en AWS.
- Conocimiento de modelos de almacenamiento de datos, tanto relacionales como NoSQL
- Certificación AWS Certified Developer - Associate o superior, o experiencia equivalente demostrable.
- Inglés fluido (B2+).
Valoraremos positivamente
- Certificaciones adicionales de AWS (DevOps, Data Engineer, Architect).
- Experiencia en entornos multi-cloud o híbridos.
- Conocimiento de Docker y Kubernetes (EKS). Muy valorable certificación Kubernetes Application Developer.
- Experiencia en el diseño y desarrollo de soluciones que integren inteligencia artificial o big data en AWS.
- Experiencia en diseño de soluciones de IA generativa en AWS.
- Data Lakes, Big Data y procesamiento distribuido (Glue, EMR, PySpark).
¿Cómo es trabajar en Deloitte?
Proyectos de alto impacto donde tendrás un largo recorrido y aprendizaje
Un día a día híbrido-flexible: tendrás horario flexible y un buen equilibrio entre el teletrabajo y el trabajo en equipo en nuestras oficinas o las de nuestros clientes
Buen ambiente dentro y fuera de la oficina: disfrutarás de varios teambuildings al año, actividades culturales y deportivas... ¡y mucho más!
Bienestar integral: cuídate con nuestro programa de salud física, mental y financiera... ¡y con equipo médico en las oficinas!
Impacto social: Podrás apuntarte a una gran cantidad de voluntariados de alcance nacional e internacional y a proyectos pro-bono con los que poner tu tiempo y talento al servicio de quienes más lo necesitan
Cultura del feedback y aprendizaje continuo: crecerás en un entorno inclusivo donde la igualdad de oportunidades y tu plan personalizado de formación impulsarán tu desarrollo. ¿Ya te visualizas en la Deloitte University de París?
Beneficios exclusivos por ser parte de Deloitte: podrás disfrutar de un gran catálogo de beneficios y de un completo plan de retribución flexible
Si te gusta lo que lees, estos son tus próximos pasos:
- Aplica a la oferta haciendo clic en ´Enviar candidatura ahora´ y completa tu perfil
- Si encajas en el puesto, nuestro equipo de talento te contactará para conocerte mejor
¡Comienza el proceso! Te iremos guiando por las diferentes fases hasta tu incorporación.
Deloitte es una Firma de servicios profesionales firmemente comprometida con la igualdad de oportunidades. En este sentido, la Firma aceptará y tramitará solicitudes de todos los sectores de la sociedad, no discriminando por motivos de sexo, expresión de género, raza, religión o creencias, origen étnico o nacional, discapacidad, enfermedad o condición de salud, predisposición genética a sufrir patologías, edad, ciudadanía, estado civil, orientación o identidad sexual, situación socioeconómica o cualquier otra condición o circunstancia personal o social.
CAS TRAINING
Madrid, ES
DevOps Hibrido Madrid Inglés B1-B2
CAS TRAINING · Madrid, ES
Java Docker Cloud Coumputing Kubernetes DevOps Kafka
En CAS Training buscamos incorporar a nuestro equipo de profesionales Devops con experiencia en JAVA para sumarse a un importante proyecto. Es importante contar con un nivel de inglés B1/B2
Modalidad: Hibrido en📍Madrid
✨Requisitos:
• Experiencia con Java 8 o superior: Conocimiento de las funcionalidades de Java para un desarrollo robusto y escalable.
• Experiencia en entornos de Cloud: Competencia en plataformas de nube para implementaciones escalables y confiables, principalmente Google Cloud.
• Experiencia como desarrollador en un equipo ágil: Capacidad para colaborar eficazmente en equipos ágiles, multifuncionales y de ritmo rápido.
• Sólidos conocimientos de los fundamentos de Docker y DevOps: Competencia en contenedorización, así como en prácticas de integración e implementación continuas.
• Capacidad para escribir pruebas unitarias y de integración/e2e efectivas: Compromiso con la calidad del código a través de estrategias de prueba integrales.
• Experiencia con Kubernetes y otros sistemas de administración de contenedores: Habilidad para orquestar contenedores para implementaciones eficientes y escalables.
• Monitoreo y observabilidad: Experiencia en la implementación de soluciones de monitoreo robustas y prácticas de observabilidad para garantizar un rendimiento y confiabilidad óptimos del sistema.
• Experiencia con Kafka
• Experiencia con programación reactiva.
✅Se ofrece:
• Formar parte de un equipo dinámico y altamente cualificado en una empresa en plena expansión.
• Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
• Proyectos de larga duración, estabilidad profesional y progresión laboral.
• Contratación indefinida.
• Acceso gratuito al catálogo de formación anual de CAS Training.
• Salario negociable en base a la experiencia y valía del candidato/a
Talan
Málaga, ES
Release Manager / DevOps Engineer
Talan · Málaga, ES
Javascript API Java MongoDB Python Agile Azure NoSQL Scrum Selenium Maven Jenkins C++ Docker Cloud Coumputing Kubernetes Ansible Git REST Oracle Jira TDD Groovy OpenShift AWS DevOps PostgreSQL QA Nginx Kanban Big Data Salesforce
Company Description
Why Talan?
Talan - Positive Innovation
Talan is an international consulting group specializing in innovation and business transformation through technology. With over 7,200 consultants in 21 countries and a turnover of €850M, we are committed to delivering impactful, future-ready solutions.
Talan at a Glance
Headquartered in Paris and operating globally, Talan combines technology, innovation, and empowerment to deliver measurable results for our clients. Over the past 22 years, we´ve built a strong presence in the IT and consulting landscape, and we´re on track to reach €1 billion in revenue this year.
Our Core Areas of Expertise
- Data & Technologies: We design and implement large-scale, end-to-end architecture and data solutions, including data integration, data science, visualization, Big Data, AI, and Generative AI.
- Cloud & Application Services: We integrate leading platforms such as SAP, Salesforce, Oracle, Microsoft, AWS, and IBM Maximo, helping clients transition to the cloud and improve operational efficiency.
- Management & Innovation Consulting: We lead business and digital transformation initiatives through project and change management best practices (PM, PMO, Agile, Scrum, Product Ownership), and support domains such as Supply Chain, Cybersecurity, and ESG/Low-Carbon strategies.
We work with major global clients across diverse sectors, including Transport & Logistics, Financial Services, Energy & Utilities, Retail, and Media & Telecommunications.
Job Description
We are looking for a Medium Release Manager to join a dynamic technology team supporting complex software delivery environments for a major international client. In this role, you will be responsible for coordinating release activities, ensuring CI/CD pipeline reliability, enforcing quality gates, and supporting Agile delivery across multiple teams. You will act as a key link between development, operations, and quality teams to ensure smooth, secure, and predictable releases.
This position requires strong technical expertise, hands-on experience with DevOps practices, and the ability to operate in fast-paced, Agile environments.
Responsibilities:
Release Management & CI/CD:
- Plan, coordinate, and manage software releases across multiple environments.
- Ensure stable and efficient CI/CD pipelines using tools such as Jenkins and GitHub Actions.
- Implement and enforce branching strategies (GitFlow, Trunk-Based Development).
- Manage Git repositories and repository scaffolding using Maven Archetype, Yeoman, or custom tools.
- Oversee Docker image creation and lifecycle using Docker, Jib, Kaniko, or Buildah.
DevOps & Infrastructure:
- Operate and support Kubernetes-based environments (Kubernetes, OpenShift).
- Manage container orchestration, deployments, and rollbacks.
- Collaborate on infrastructure automation using Ansible and Python.
- Support networking and load-balancing configurations (Nginx, F5, DNS managers, SSL certificates).
Quality Assurance & Testing:
- Define and implement quality gates using tools such as SonarQube.
- Promote and support test automation best practices (TDD/BDD).
- Coordinate automated testing strategies including API, integration, and end-to-end testing.
- Ensure compliance with release standards and quality requirements.
Monitoring & Reliability:
- Monitor applications and infrastructure using tools such as Dynatrace, Prometheus, Grafana, Kibana, Micrometer, and OpenTelemetry.
- Support incident management and operational excellence through monitoring and alerting solutions.
- Contribute to reliability and performance optimization initiatives.
Agile Collaboration:
- Work within Agile frameworks (Scrum/Kanban), actively participating in ceremonies.
- Collaborate closely with development, QA, security, and operations teams.
- Use Jira or similar tools to manage release-related tasks and dependencies.
Experience
- 3+ years of professional experience in Release Management, DevOps, or related roles.
- Proven experience managing CI/CD pipelines and release processes in complex environments.
- Hands-on experience operating Kubernetes clusters in production environments.
Education
- Bachelor´s degree in Engineering or a related technical discipline.
Skills & Knowledge
Technical Skills (Required)
- Agile frameworks: Scrum and Kanban.
- Git version control and branching strategies.
- CI/CD tools: Jenkins, GitHub Actions.
- Scripting languages: Ansible and Python.
- Containerization and orchestration: Docker, Kubernetes, OpenShift.
- Programming languages: Java, JavaScript, Groovy, Python, or C++.
- Quality assurance tools and quality gate implementation (SonarQube).
- Automated testing methodologies: TDD and BDD.
- Networking fundamentals and load balancers (Nginx, F5, DNS, SSL certificates).
- Monitoring and observability tools (Dynatrace, Prometheus, Grafana/Kibana, OpenTelemetry).
Languages
- Fluent in Spanish.
- English proficiency is desirable.
Nice to Have:
- Experience with relational databases (Oracle, PostgreSQL).
- Knowledge of NoSQL databases (MongoDB).
- Experience with public cloud providers (AWS, Azure).
- API development and testing (Swagger, API Managers, Karate, Rest Assured).
- Security assurance tools:
- SAST: CodeQL, Semgrep, Kiuwan, Veracode
- DAST: BurpSuite
- Container security: Trivy, Clair
- Front-end testing frameworks (Selenium, Cypress).
- Time-series databases (InfluxDB, Graphite).
- AIOps and operational tools (Rundeck, PagerDuty, Dynatrace).
- Experience with complex pipeline orchestration tools (Appian, QlikSense, Control-M).
What We Offer:
- Full-time position within a large, international technology environment.
- Opportunity to work with modern DevOps and cloud-native technologies.
- Collaborative, Agile, and multicultural work environment.
- Continuous learning and professional development.
- Competitive compensation package among others.
AstraZeneca
Barcelona, ES
Senior Data Engineer - Data Pipelines
AstraZeneca · Barcelona, ES
Python Docker Cloud Coumputing Kubernetes AWS Bash Terraform Office
Are you ready to build high-performance data pipelines that turn complex science into real impact for patients? In this role, you will transform raw bioinformatics and scientific data into trusted, reusable assets that drive discovery and decision-making across our research programs.
You will join a team that fuses data engineering with cutting-edge science, using HPC and AWS to deliver reproducible workflows at scale. From first ingestion to consumption by scientists and AI models, you will set the standard for reliability, speed, and governance across our data foundation.
Do you thrive where learning is continuous and bold ideas are encouraged? You will have the freedom to experiment, the support to grow, and the opportunity to see your work influence breakthroughs as they take shape.
Accountabilities:
- Pipeline Engineering: Design, implement, and operate fit-for-purpose data pipelines for bioinformatics and scientific data, from ingestion to consumption.
- Workflow Orchestration: Build reproducible pipelines using frameworks such as Nextflow (preferred) or Snakemake; integrate with schedulers and HPC/cloud resources.
- Data Platforms: Develop data models, warehousing layers, and metadata/lineage; ensure data quality, reliability, and governance.
- Scalability and Performance: Optimize pipelines for throughput and cost across Unix/Linux HPC and cloud environments (AWS preferred); implement observability and reliability practices.
- Collaboration: Translate scientific and business requirements into technical designs; partner with CPSS stakeholders, R&D IT, and DS&AI to co-create solutions.
- Engineering Excellence: Establish and maintain version control, CI/CD, automated testing, code review, and design patterns to ensure maintainability and compliance.
- Enablement: Produce documentation and reusable components; mentor peers and promote best practices in data engineering and scientific computing.
Essential Skills/Experience:
- Pipeline engineering: Design, implement, and operate fit-for-purpose data pipelines for bioinformatics and scientific data, from ingestion to consumption.
- Workflow orchestration: Build reproducible pipelines using frameworks such as Nextflow (preferred) or Snakemake; integrate with schedulers and HPC/cloud resources.
- Data platforms: Develop data models, warehousing layers, and metadata/lineage; ensure data quality, reliability, and governance.
- Scalability and performance: Optimize pipelines for throughput and cost across Unix/Linux HPC and cloud environments (AWS preferred); implement observability and reliability practices.
- Collaboration: Translate scientific and business requirements into technical designs; partner with CPSS stakeholders, R&D IT, and DS&AI to co-create solutions.
- Engineering excellence: Establish and maintain version control, CI/CD, automated testing, code review, and design patterns to ensure maintainability and compliance.
- Enablement: Produce documentation and reusable components; mentor peers and promote best practices in data engineering and scientific computing.
Desirable Skills/Experience:
- Strong programming in Python and Bash for workflow development and scientific computing.
- Experience with containerization and packaging (Docker, Singularity, Conda) for reproducible pipelines.
- Familiarity with data warehousing and analytics platforms (e.g., Redshift, Snowflake, Databricks) and data catalog/lineage tools.
- Experience with observability and reliability tooling (Prometheus/Grafana, ELK, tracing) in HPC and cloud contexts.
- Knowledge of infrastructure as code and cloud orchestration (Terraform, CloudFormation, Kubernetes).
- Understanding of FAIR data principles and domain-specific bioinformatics formats and standards.
- Track record of mentoring engineers and enabling cross-functional teams with reusable components and documentation.
- Experience optimizing performance and cost on AWS, including spot strategies, autoscaling, and storage tiers.
When we put unexpected teams in the same room, we unleash bold thinking with the power to inspire life-changing medicines. In-person working gives us the platform we need to connect, work at pace and challenge perceptions. That´s why we work, on average, a minimum of three days per week from the office. But that doesn´t mean we´re not flexible. We balance the expectation of being in the office while respecting individual flexibility. Join us in our unique and ambitious world.
Why AstraZeneca:
Your engineering craft will fuel science at the crossroads of biology, data, and technology. You will collaborate with researchers, data scientists, and technologists to tackle complex diseases, using modern platforms and inclusive ways of working to turn uncertainty into insight. We value kindness alongside ambition, nurture resilience and curiosity, and pair the resources of a global leader with the agility to move at pace-from hands-on experimentation to shared learning and tangible impact for patients.