¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
335Transporte y Logística
308Comercial y Ventas
252Adminstración y Secretariado
230Desarrollo de Software
225Ver más categorías
Marketing y Negocio
116Educación y Formación
107Comercio y Venta al Detalle
100Ingeniería y Mecánica
99Derecho y Legal
94Diseño y Usabilidad
57Industria Manufacturera
46Instalación y Mantenimiento
44Sanidad y Salud
41Contabilidad y Finanzas
40Publicidad y Comunicación
39Recursos Humanos
31Arte, Moda y Diseño
26Hostelería
24Construcción
23Artes y Oficios
17Banca
12Producto
12Alimentación
9Atención al cliente
9Inmobiliaria
8Seguridad
8Cuidados y Servicios Personales
5Farmacéutica
5Turismo y Entretenimiento
5Energía y Minería
2Social y Voluntariado
2Agricultura
0Ciencia e Investigación
0Deporte y Entrenamiento
0Editorial y Medios
0Seguros
0Telecomunicaciones
0Top Zonas
Madrid
1.467Senior DevOps Engineer
10 nov.EY
Madrid, ES
Senior DevOps Engineer
EY · Madrid, ES
API Python Azure Linux Cloud Coumputing Kubernetes AWS DevOps Terraform Docker Kafka
About Us
At EY wavespace Madrid - AI & Data Hub, we are a diverse, multicultural team at the forefront of technological innovation, working with cutting-edge technologies like Gen AI, data analytics, robotics, etc. Our center is dedicated to exploring the future of AI and Data.
Overview:
We´re looking for a Senior DevOps Engineer to build and run cloud and AI infrastructure at scale. You´ll own IaC with Terraform, CI/CD, Kubernetes, and Linux. You´ll also help run LLM workloads both in Azure and locally (Ollama/vLLM/llama.cpp). Your work will enable fast, secure, repeatable delivery.
Key responsibilities
- Build and maintain Azure infrastructure with Terraform (modules, workspaces, pipelines, policies).
- Design and operate CI/CD with GitHub Actions and/or Azure DevOps (multi-stage, approvals, environments).
- Run containers and Kubernetes/AKS (Helm, ingress, autoscaling, node pools, storage).
- Manage AI/LLM runtime: local model runners (Ollama, vLLM, llama.cpp), GPU/CPU configs.
- Support RAG: embeddings pipelines, vector DBs (Azure AI Search/Cognitive Search, pgvector, Milvus), data sync, retention.
- Automate platform tasks with Python (tooling, CLI utilities, API glue, ops scripts).
- Implement observability (Azure Monitor, Prometheus/Grafana, logs/traces/metrics, alerts, runbooks, SLOs).
- Apply Zero Trust security; Enforce least privilege and role-based access control (RBAC), Identity-based segmentation (Azure AD, Conditional Access, MFA).
- Implement policy-as-code (OPA, Azure Policy) for compliance.
- Rotate secrets and certificates via Key Vault; integrate with pipelines.
- Add continuous security scanning (SAST/DAST, container image scanning).
- Handle reliability: rollout strategies, health probes, incident response, postmortems.
- Optimize costs: right-sizing, autoscaling, budgets, tags, reporting.
Key requirements:
- 4+ years in DevOps/SRE/Platform Engineering.
- Strong Linux (shell, systemd, networking, performance troubleshooting).
- Terraform at scale (modules, state backends, CI/CD integration).
- Deep Azure experience (AKS, VNets, Key Vault, Storage, Monitor, Identity, Networking).
- CI/CD expertise (GitHub Actions and/or Azure DevOps).
- Containers and Kubernetes in production.
- Python or scripting for automation (solid scripting and tooling; not full-time app dev).
- Hands-on with LLM setups (local runners or Azure OpenAI), embeddings, vector indexes, and RAG basics.
Nice to have
- Multi-cloud exposure (AWS / GCP).
- Azure AI services (Azure OpenAI, Cognitive Search).
- GitOps (Argo CD/Flux), Helm packaging, OCI registries.
- Eventing/queues (Event Grid, Service Bus, Kafka).
- Security/compliance in cloud (CIS, NIST, Microsoft CAF).
- Certifications: AZ-104, AZ-204, AZ-400, AI-900, HashiCorp Terraform Associate, CKA/CKAD.
- Experience with GPU nodes, drivers, CUDA/ROCm, or CPU-only optimizations for LLMs.
How we work
- Everything as code. PRs, reviews, and tests.
- Small batches. Trunk-based or short-lived branches.
- Clear runbooks and on-call rotation where needed.
- Measure, alert, fix, and improve.
Our commitment to diversity & inclusion
We are genuinely passionate about inclusion and we support individuals of all groups; we do not discriminate on the basis of race, religion, gender, sexual orientation, or disability status.
DevOps Engineer
10 nov.HAYS
DevOps Engineer
HAYS · Madrid, ES
Teletrabajo Docker DevOps Terraform
Desde HAYS estamos colaborando con una conocida firma internacional en el sector tecnológico con sede en Madrid, que ofrece una gama completa de productos, soluciones y servicios tecnológicos, en la cual sus cerca de 130.000 empleados dan soporte a clientes en más de 100 países.Actualmente buscamos incorporar un/a DevOps Engineer que se encargue de diseñar y dar soporte técnico a clientes en la implementación y despliegue de una innovadora plataforma de genómica, orientada al análisis genético y genómico.
¿Qué buscamos?
- Especialista senior en redes
- Proactividad y buena comunicación.
- Castellano o inglés profesional.
¿Cuáles son las funciones?
- Configuración de bases de datos y conectividad.
- Despliegue de servicios
- Sólidos conocimientos en UNIX/BASH y administración de sistemas.
- Configuración de Kubernets (Helm, ArgoCD).
- Familiaridad con K3s, Helm, ArgoCD.
- Docker / Docker Compose.
- Experiencia con firewalls, enrutamiento y sistemas NAS.
- Conocimientos de administración de bases de datos (DBA).
- Se valora conocimientos en Terraform (IaC)
¿Qué ofrecemos?
- Tipo de contrato: Mercantil-Freelance.
- Modalidad: 100% remoto. Salario competitivo.
Estamos esperando perfiles como el tuyo, apasionados con la tecnología y que quieran enfrentarse a un nuevo reto. Si es tu caso, inscríbete en la oferta para que podamos contarte más.
Data Engineer (cloudera)
7 nov.Randstad ES
Madrid, ES
Data Engineer (cloudera)
Randstad ES · Madrid, ES
Agile Linux Git OpenShift Spark
¿Eres un apasionad@ del mundo IT y te interesa seguir desarrollando tu carrera como Data Engineer Cloudera en proyectos estables?
our client
Randstad Digital es la empresa de consultoría tecnológica del grupo Randstad especializada en servicios tecnológicos estables. Estamos presentes en más de 20 mercados y contamos con más de 25.000 especialistas a nivel global y a nivel nacional con más de 400 y tenemos oficinas en Madrid, Barcelona, Valencia, Sevilla, Zaragoza, Bilbao y Valladolid. Ofrecemos una amplia gama de servicios y soluciones tecnológicas para empresas de diferentes sectores: Banca, Seguros, Industria, Telecomunicaciones, Media, Digital, Aeronáutica, Automoción, Servicios y Administraciones públicas.
your functions
experience in cloudera ecosystem. Cloudera manager, ranger, knox, atlas, hive¿
experience with: Spark with streaming applications. Kudu and HDFS data design, impala queries,
experience with: XML, JSON,Avro, GIT,
nice to have experience: Gitlab CI. Openshift. ArgoCD, Agile framework, Linux
high team-working ability and accurate working methods
good verbal and written English and Spanish
position requisites
- Formación: Grado
- Conocimientos: impala, cloudera, Apache Spark, english language spoken and written, apache hive, kudu
- Experiencia: 4 años
-Cloudera.
your benefits
¿A qué esperas para formar parte de nuestro gran equipo Randstad Digital?, aquí encontrarás motivos para ello: PLAN DE FORMACIÓN CONTINUA, plan de formación anual, acceso a plataforma elearning de formación técnica, plataforma de formación en habilidades¿ ACOMPAÑAMIENTO Y PLAN DE CARRERA, Tendrás un referente de Randstad Digital cerca de ti en todo momento. CONCILIACIÓN, Sabemos que tu vida personal es tan importante como la profesional por eso podrás disfrutar de 23 días de vacaciones y en la mayoría de nuestros proyectos tendrás un horario flexible. COMPROMISO y ESTABILIDAD, Incorporación a empresa en continuo crecimiento que apuesta por las nuevas tecnologías. SALARIO COMPETITIVO acorde a tu experiencia profesional. CONDICIONES contractuales competitivas, Plan de retribución flexible (tarjeta restaurante y cheques guardería) y Randstad Care, plataforma de ofertas y descuentos exclusivos.
Michael Page
Senior Data Engineer con Discapacidad
Michael Page · Madrid, ES
Teletrabajo Python TSQL NoSQL AWS DevOps PostgreSQL Kafka Spark Machine Learning
Perfil buscado (Hombre/Mujer)
• Diseñar y desarrollar soluciones de datos escalables para proyectos internos del sector seguros.
• Optimizar el flujo de datos y garantizar su calidad para respaldar la toma de decisiones estratégicas.
• Implementar y mantener infraestructuras de datos en entornos de nube y locales.
• Colaborar con equipos multifuncionales para identificar necesidades de datos y desarrollar soluciones a medida.
• Asegurar el cumplimiento de las normativas aplicables en la gestión de datos en el sector de seguros.
• Desarrollar y mantener pipelines de datos confiables y eficientes.
• Proporcionar soporte técnico y formación a otros miembros del equipo de tecnología.
• Realizar análisis continuos para mejorar los procesos de gestión de datos existentes.
#lgd, #impactopostivo
• Obligatorio: poseer certificado de discapacidad igual o superior al 33%.
• Empresa internacional aseguradora en Madrid centro, CP28010.
El/la candidato/a seleccionado deberá cumplir los siguientes requisitos:
• Obligatorio: poseer certificado de discapacidad igual o superior al 33%.
• Formación universitaria en Ingeniería Informática, Matemáticas, Física o similar.
• Experiencia en procesamiento de datos por lotes, distribuido y en streaming casi en tiempo real, utilizando tecnologías como Kafka, Flink, Spark, etc. Se valora experiencia en Databricks.
• Experiencia en implementación de plataformas de análisis Big Data/Data Lake basadas en soluciones en la nube; preferiblemente AWS.
• Dominio de programación en Python y buenas prácticas de ingeniería de software.
• Experiencia con RDBMS, Data Warehousing, modelado de datos con SQL relacional (Redshift, PostgreSQL) y bases de datos NoSQL.
• Conocimientos en DevOps, gestión de pipelines CI/CD y experiencia en despliegue con Infraestructura como Código (IaC), siguiendo las mejores prácticas del sector.
Deseable:
• Experiencia práctica en técnicas de calidad y gobernanza de datos.
• Conocimientos en MLOps e ingeniería de características.
• Familiaridad con tecnologías comunes de análisis de datos y machine learning como scikit-learn, pandas, NumPy, XGBoost, LightGBM.
• Conocimiento de herramientas como Apache Oozie y Apache Airflow.
#lgd, #impactopostivo
Nuestro cliente es una empresa del sector de seguros con una estructura organizativa consolidada y un equipo orientado a la innovación tecnológica. Opera a nivel nacional y ofrece un entorno profesional estable con enfoque en el desarrollo tecnológico.
#lgd, #impactopostivo
• Contrato indefinido en una empresa consolidada del sector seguros.
• Salario competitivo entre 45.000 y 85.000 EUR anuales dependiendo del perfil.
• Posibilidad de teletrabajo y ayudas económicas para equipamiento.
• Bolsa de 1.500 EUR para retribución flexible.
• Ambiente profesional con enfoque en el desarrollo tecnológico y la innovación.
#lgd, #impactopostivo
Cloud Engineer
7 nov.Grupo NS
Cloud Engineer
Grupo NS · Madrid, ES
Teletrabajo Python Azure Jenkins Cloud Coumputing Kubernetes Ansible AWS Terraform
En Grupo NS seleccionamos diversos Cloud Engineer para colaborar con uno de nuestros clientes estratégicos. Buscamos perfiles polivalentes, con actitud proactiva, resolutiva y con muchas ganas de aprender y aportar en un entorno técnico y dinámico.
Condiciones:
* Ubicación: España
* Modalidad: Remoto o Hibrido (según proyecto)
* Disponibilidad para realizar guardias (según proyecto)
* Proyecto estable, con posibilidades de crecimiento
¿Qué ofrecemos?
* Incorporación a proyectos tecnológicos punteros
* Buen ambiente de trabajo y cultura colaborativa
* Estabilidad laboral y plan de carrera
* Retribución acorde a la experiencia
¡Inscríbete ahora y da el siguiente paso en tu carrera con Grupo NS!
Requisitos del puesto:
Experiencia previa en entornos Cloud (mínimo 2-3 años recomendados)
Conocimiento y experiencia en:
1. Azure y/o AWS
2. AKS (Azure Kubernetes Service) y/o EKS (Amazon Elastic Kubernetes Service)
3. Terraform (Infrastructure as Code)
4. Jenkins
Se valorará positivamente experiencia adicional en:
1. Ansible u otro
2. Python u otro
Soft skills valorados:
Capacidad para trabajar en equipo
* Buena comunicación con cliente
* Proactividad y autonomía
Data Engineer (m/f/d)
6 nov.BASF
Madrid, ES
Data Engineer (m/f/d)
BASF · Madrid, ES
Python Azure Cloud Coumputing Kafka Machine Learning
ABOUT US
At BASF Digital Hub Madrid we develop innovative digital solutions for BASF, create new exciting customer experiences and business growth, and drive efficiencies in processes, helping to strengthen BASF´s position as the digital leader in the chemical industry. We believe the right path is through creativity, trial and error and great people working and learning together. Become part of our team and develop the future with us - in a global team that embraces diversity and equal opportunities.
We believe the right path is through creativity, trial and error and great people working and learning together. Become part of our team and develop the future with us - in a global team that embraces diversity and equal opportunities. We are committed to fostering an inclusive workplace and strongly encourage applications from individuals with disabilities. We value diversity and believe that varied perspectives enhance our team´s effectiveness. Our hiring practices are designed to ensure equal opportunity for all candidates.
WHAT YOU CAN EXPECT
We are currently seeking a talented Data Engineer to join our team at BASF´s Agricultural Solutions department Digital Factory.
RESPONSIBILITIES
- Assist in the design and development of scalable and efficient cloud-based data pipelines using Databricks and Azure Data Factory.
- Support the integration of real-time streaming solutions with Event Hubs and Kafka for data ingestion and processing.
- Help optimize data storage and transformation using Azure Data Lake Storage Gen2 (ADLS Gen2).
- Write clean and efficient code in Python and PySpark to process and analyze datasets.
- Collaborate with cross-functional teams to gather data requirements and implement solutions that align with business goals.
- Monitor and troubleshoot cloud-based data platforms and pipelines, contributing to performance improvements.
- Ensure adherence to data quality, governance, and security standards across data solutions.
REQUIREMENTS OF THE POSITION
- Basic knowledge of Databricks and Azure Data Factory for building data pipelines and workflows.
- Familiarity with Event Hubs and Kafka for real-time data streaming and messaging.
- Understanding of Azure Data Lake Storage Gen2 (ADLS Gen2) for data management and storage optimization.
- Proficiency in programming with Python and PySpark for data engineering tasks.
- Awareness of data integration, transformation, and optimization best practices in cloud environments.
- Experience or coursework in large-scale data processing and real-time streaming architectures is a plus.
- Familiarity with Azure cloud services and related tools is advantageous.
- Strong analytical and problem-solving skills with a focus on performance and scalability.
NICE TO HAVE
- Relevant coursework or certifications in Azure data engineering, cloud platforms, or related technologies.
- Exposure to CI/CD pipelines for cloud data solutions is a plus.
- Basic knowledge of machine learning concepts and integration within data pipelines (optional).
WHAT WE OFFER
- A secure work environment because your health, safety and wellbeing is always our top priority.
- Flexible work schedule and Home-office options, so that you can balance your working life and private life.
- Learning and development opportunities
- 23 holiday days per year
- 5 additional days (readjustment)
- 2 cultural days
- A collaborative, trustful and innovative work environment
- Being part of an international team and work in global projects
- Relocation assistance to Madrid provided
Lead DevOps Engineer
6 nov.Swiss Re
Madrid, ES
Lead DevOps Engineer
Swiss Re · Madrid, ES
API Agile OOP Azure Cloud Coumputing Kubernetes PowerShell DevOps Terraform
About the Team and our Scope
At L&H Solutions, we build and commercialize cloud-native (Azure-based) SaaS/PaaS solutions for Swiss Re Life & Health insurance clients. We offer a portfolio of over six products, including established offerings like Magnum with over 60 active clients worldwide, and other innovative products. We are a SW house within Swiss Re.
Our team consists of more than 150 technical professionals with multidisciplinary skills, located in multiple countries, working on these multi-regional, highly available solutions.
About the Role
We are seeking a highly skilled Lead DevOps Engineer to join our team. In L&H Solutions we do not operate and monitor productive infrastructure, rather we design and build them, leaving other teams to handle the operations.
The ideal candidate should have extensive experience in writing IaaC and identify himself solutions to automate deployments. Most important skills are PowerShell, Kubernetes, Terraform, Azure DevOps, Helm, and constantly research and apply DevOps best practice.
Being a lead you will also help and guide other DevOps on delivering their tasks, collaborate with Engineering manager and Product Owner to ensure the product infrastructure is designed and adapted accordingly to changing requirements.
Your responsibilities will be:
- Solutionalize how to automatically deploy cloud infrastructure including networking, storage, compute, policies, monitoring, security, identity, functions, etc.
- Write PowerShell scripts for automation and management tasks.
- Implement and manage Kubernetes clusters for container orchestration.
- Create Dockerfiles to build container images.
- Utilize Terraform for infrastructure as code (IaC) deployments.
- Implement CI/CD pipelines and release management using Azure DevOps.
- Create and manage Helm charts for deploying applications to Kubernetes clusters.
- Continuously design how to increase infrastructure performance while keeping cloud costs under control.
- Lead and mentor a team of DevOps engineers, providing technical guidance and support.
- Work collaboratively with development and operations teams in Agile environments.
- Manage backlog and prioritize tasks for the DevOps team in collaboration with Engineering manager and Product owner.
About You
If you possess traits and experience that match most of the below, we´d love to hear from you:
- Overall 10+ years´ experience Azure as DevOps engineer
- Experience in agile Environments.
- Must have excellent technical proficiency in...- Proficiency in Azure administration and services.
- Strong experience with PowerShell scripting.
- In-depth knowledge of Kubernetes and containerization.
- Strong skills with Terraform for infrastructure provisioning.
- Knowledge of Azure DevOps for CI/CD pipelines and release management.
- Experience managing teams of DevOps engineers.
- Preferable knowledge also about...- Programming background in any OOP language (preferred GO).
- Knowledge on security scan, authorization protocols, CloudFlare.
- Understanding of data fundamentals.
- Experience with APIM (Azure API Management).
- Familiarity with Okta for identity and access management.
- Knowledge of Cloudflare for web performance and security.
- Relevant certifications such as AZ-104, AZ-204, AZ-400, Terraform and CKAD.
- Excellent Communication Skills in English, both written and verbal, to effectively interact with the team and collaborators.
- Proactive and Collaborative, with a strong sense of ownership and a willingness to go the extra mile to deliver quality solutions
For Spain, the base salary range for this position is between EUR 42,000 and EUR 70,000 (for a full-time role). The specific salary offered considers:
- the requirements, scope, complexity and responsibilities of the role,
- the applicant´s own profile including education/qualifications, expertise, specialisation, skills and experience.
In addition to your base salary, Swiss Re offers an attractive performance-based variable compensation component, designed to recognise your achievements. Further you will enjoy a variety of global and location specific benefits.
Eligibility may vary depending on the terms of Swiss Re policies and your employment contract.
Junior Data Engineer
3 nov.Davidson consulting
Madrid, ES
Junior Data Engineer
Davidson consulting · Madrid, ES
. Python TSQL Docker Kubernetes
Davidson Consulting España nace en el año 2014. Formamos parte del grupo Davidson, multinacional francesa de servicios tecnológicos con +18 años de experiencia en el sector y presencia en varios países europeos además de en Canadá. Somos 3000 compañeros a nivel global.
En España nos caracterizamos por ser un equipo de más de 150 profesionales altamente cualificados y apasionados por el mundo de la tecnología y la innovación. Por ello, nuestro objetivo es seguir aumentando el equipo para continuar involucrados en proyectos nacionales e internacionales de gran envergadura.
Desde Davidson buscamos un Junior Data Engineer, para unirse a nuestro equipo en Davidson España, para apoyar en la misión del diseño y operación de soluciones de datos avanzadas que automatizan y optimizan procesos operativos en las áreas de trading, gestión de riesgos y tesorería. Te incorporarás a un entorno dinámico que impulsa la transformación digital y de datos, contribuyendo directamente a la automatización y rendimiento de las operaciones energéticas en tiempo real.
Funciones:
- Diseñar, construir y mantener canales de datos ETL sólidos que garanticen un flujo y transformación de datos eficientes.
- Implementar y gestionar marcos de automatización para la ingesta, transformación y generación de informes de datos.
- Desarrollar y mantener canales CI/CD y entornos de contenedores tipo (Docker, Kubernetes).
- Definir y aplicar estándares de gobernanza de datos que cubran linaje, documentación, seguridad y cumplimiento del RGPD.
- Supervisar y optimizar continuamente el rendimiento de los canales de datos y de las aplicaciones.
- Colaborar con otros ingenieros de datos, partes interesadas del negocio y equipos de TI multifuncionales para alinear las mejores prácticas de calidad, pruebas y entrega.
Requisitos mínimos del puesto:
- 1 ó 2 años de experiencia en procesos ETL y orquestación de canales de datos.
- 1 ó 2 años de experiencia en SQL y Python (u otros lenguajes de programación centrados en datos).
- 1 ó 2 años de experiencia con Docker, Kubernetes y automatización CI/CD.
- 1 ó 2 años de experiencia en gobernanza de datos, seguridad, privacidad (cumplimiento RGPD) y linaje de datos.
- Idiomas: nivel alto en inglés.
¿Qué ofrecemos?
- Modelo de trabajo en formato híbrido en Madrid.
- Contratación indefinida.
- Posición estable.
- Salario competitivo según valía y experiencia aportada.
- Plan de carrera y desarrollo profesional.
¿Por qué unirte a nosotros?
Nos caracterizamos por el excelente trato a los compañeros y una estructura organizativa horizontal. Te sentirás arropado y como en casa, tu opinión siempre importa. Contarás con oportunidades reales de crecimiento y proyección.
Si estás interesad@ en participar en el proceso de selección o simplemente quieres conocer más sobre estas oportunidades, ¡no dudes en postularte a la oferta!
#DavidsonConsulting #TeRetamosAFicharPorNosotros
Sr Devops Cloud Engineer
3 nov.Randstad ES
Madrid, ES
Sr Devops Cloud Engineer
Randstad ES · Madrid, ES
Python Azure Cloud Coumputing TypeScript AWS DevOps Terraform
¿Eres un apasionad@ del mundo IT y te interesa seguir desarrollando tu carrera como Devops Engineer en proyectos estables?
nuestro cliente
Randstad Digital es la empresa de consultoría tecnológica del grupo Randstad especializada en servicios tecnológicos estables. Estamos presentes en más de 20 mercados y contamos con más de 25.000 especialistas a nivel global y a nivel nacional con más de 400 y tenemos oficinas en Madrid, Barcelona, Valencia, Sevilla, Zaragoza, Bilbao y Valladolid. Ofrecemos una amplia gama de servicios y soluciones tecnológicas para empresas de diferentes sectores: Banca, Seguros, Industria, Telecomunicaciones, Media, Digital, Aeronáutica, Automoción, Servicios y Administraciones públicas.
tus funciones
- Utilizar Terraform para diseñar y gestionar la Infraestructura como Código (IaC) en AWS y Azure.
- Construir y optimizar pipelines de CI/CD basados en GitHub Actions.
- Configuración y Ramificación (Branching) en GitHub: Aplicar estrategias de ramificación como GitFlow
- Configurar herramientas de monitoreo y observabilidad para garantizar el rendimiento de las aplicaciones y la salud del sistema.
- Diseñar una arquitectura de infraestructura escalable, segura y conforme a las normativas en AWS y Azure.
- Inglés: B2-C1 (Fluido tanto hablado como escrito, utilizado de manera diaria con personas anglosajonas).
requisitos del puesto
- Formación: Ingeniero Técnico
- Conocimientos: devops
- Experiencia: 4 años
- Mínimo de 4 años de experiencia con tecnologías relacionadas con DevSecOps: AWS, GitHub, estrategias de ramificación y configuración de repositorios.
- Dominio de Terraform y la automatización de infraestructura en la nube.
- Habilidades de programación en TypeScript y Python.
- Experiencia práctica sólida con servicios de AWS y Azure.
- Dominio de pipelines CI/CD utilizando GitHub Actions.
- Experiencia con herramientas de observabilidad como CloudWatch.
- Inglés: B2-C1 (Fluido tanto hablado como escrito, utilizado de manera diaria con personas anglosajonas).
tus beneficios
¿A qué esperas para formar parte de nuestro gran equipo Randstad Digital?, aquí encontrarás motivos para ello: PLAN DE FORMACIÓN CONTINUA, plan de formación anual, acceso a plataforma elearning de formación técnica, plataforma de formación en habilidades¿ ACOMPAÑAMIENTO Y PLAN DE CARRERA, Tendrás un referente de Randstad Digital cerca de ti en todo momento. CONCILIACIÓN, Sabemos que tu vida personal es tan importante como la profesional por eso podrás disfrutar de 23 días de vacaciones y en la mayoría de nuestros proyectos tendrás un horario flexible. COMPROMISO y ESTABILIDAD, Incorporación a empresa en continuo crecimiento que apuesta por las nuevas tecnologías. SALARIO COMPETITIVO acorde a tu experiencia profesional. CONDICIONES contractuales competitivas, Plan de retribución flexible (tarjeta restaurante y cheques guardería) y Randstad Care, plataforma de ofertas y descuentos exclusivos