¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
302Comercial y Ventas
218Desarrollo de Software
176Adminstración y Secretariado
172Marketing y Negocio
131Ver más categorías
Transporte y Logística
123Educación y Formación
100Derecho y Legal
95Comercio y Venta al Detalle
69Ingeniería y Mecánica
69Diseño y Usabilidad
42Publicidad y Comunicación
40Contabilidad y Finanzas
35Industria Manufacturera
35Instalación y Mantenimiento
32Recursos Humanos
32Hostelería
29Construcción
20Arte, Moda y Diseño
19Sanidad y Salud
19Producto
14Atención al cliente
13Banca
12Artes y Oficios
7Farmacéutica
6Seguridad
6Inmobiliaria
5Turismo y Entretenimiento
5Alimentación
4Cuidados y Servicios Personales
2Energía y Minería
2Social y Voluntariado
2Telecomunicaciones
1Agricultura
0Ciencia e Investigación
0Deporte y Entrenamiento
0Editorial y Medios
0Seguros
0Top Zonas
Madrid
1.595Cloud Engineer en AWS
17 dic.Serem
Cloud Engineer en AWS
Serem · Madrid, ES
Teletrabajo .Net Java Python TSQL Linux Cloud Coumputing Kubernetes Oracle Jira AWS PowerShell Bash DevOps Terraform
Buscamos un Cloud Engineer en AWS para unirse a nuestro equipo y brindar soporte a la producción, identificando y resolviendo problemas en los sistemas y entornos cloud. La misión será garantizar la estabilidad, disponibilidad y rendimiento de nuestras plataformas, facilitando la detección y resolución de incidentes en producción, automatizando procesos y promoviendo buenas prácticas en la administración de entornos cloud.
Responsabilidades:
Monitorización y Diagnóstico: Identificar y analizar problemas en entornos productivos mediante CloudWatch, Dynatrace, herramientas de sistemas, proponiendo soluciones rápidas y efectivas.
Soporte a Producción: Colaborar con los equipos de desarrollo y operaciones para la resolución de incidencias en AWS, sistemas Linux (RHEL) y Windows.
Automatización: Trabajar con scripts de automatización (Bash, PowerShell, Python, Terraform, CloudFormation) para despliegues y resolución de problemas.
Optimización de entornos: Evaluar la configuración de sistemas y bases de datos (Oracle y SQL) para mejorar el rendimiento y la estabilidad.
Gestión de Sistemas: Administración y troubleshooting en entornos basados en EC2, ECS y EKS, RDS, S3. Entender Arquitectura de Redes complejas (VPC, TGW).
CI/CD y DevOps: Trabajar con pipelines de despliegue en GitHub Actions. Código versionado en Github.
Mejoras en la Observabilidad: Implementar dashboards, alertas y herramientas de logging para mejorar la detección y análisis de problemas.
Formación y documentación: Crear guías y sesiones de formación para mejorar el conocimiento del equipo en AWS y administración de sistemas.
Requisitos:
Experiencia mínima de 3-5 años en administración de sistemas Linux (RHEL) y Windows en entornos AWS.
Conocimientos básicos en administración y optimización de bases de datos Oracle y SQL.
Experiencia en troubleshooting de producción, identificando cuellos de botella en sistemas, redes y bases de datos.
Conocimiento en herramientas de monitorización y logging (CloudWatch, Dynatrace, OS Tools).
Experiencia con Infraestructura como Código (Terraform, CloudFormation).
Administración y soporte básico de aplicaciones .NET en Windows y Java sobre JBoss/Tomcat.
Experiencia en contenedores y Kubernetes (ECS y EKS).
Conocimientos en CI/CD con GitHub Actions.
Experiencia con scripting (Bash, PowerShell, Python) para tareas de automatización.
Capacidad de comunicación y trabajo en equipo, con habilidad para transmitir conocimientos técnicos a perfiles no especializados en sistemas.
Deseable:
Certificaciones en AWS (AWS Solutions Architect, SysOps Administrator).
Experiencia con herramientas ITSM y gestión de incidencias (ServiceNow, Jira).
Data Engineer Databricks
16 dic.Deloitte
Data Engineer Databricks
Deloitte · Madrid, ES
Teletrabajo Python TSQL Git AWS
´Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales?
En Deloitte estamos comprometidos con generar un impacto en la sociedad, en nuestros clientes y en ti.
Desde nuestro equipo de Deloitte Engineering Center, estamos buscando personas que se incorporen a nuestra área de Artificial Intelligence & Data.
¿Cuál es el reto?
Buscamos un Data Engineer con amplio conocimiento de PySpark, Python, AWS y/o Databricks y control de versiones con Git, para participar en proyectos nacionales e internacionales.
¿Cómo te imaginamos?
- Eres Graduado o posees Máster en Ingeniería Informática, Data Science, o similares.
- Posees entre 2-5 años de experiencia como ingeniero de datos trabajando en procesamiento de grandes volúmenes de datos.
- Tienes experiencia con PySpark, SparkSQL y Phyton para el desarrollo de procesos ETL y pipelines de datos.
- Has desarrollado soluciones de datos utilizando servicios de AWS y/o Databricks (certificaciones valorables).
- Posees experiencia con sistemas de control de versiones, preferiblemente Git.
- Tienes experiencia en buenas prácticas de desarrollo de software, por ejemplo: pruebas unitarias, arquitectura de aplicaciones de datos, optimización...
- Posees conocimientos de los sistemas de bases de datos, modelado de datos y SQL.
- Tienes capacidad de trabajo en equipo, resolución de problemas y has trabajado en entornos colaborativos.
- Buenas habilidades de comunicación y capacidad para aprender de manera autodidacta.
- Nivel avanzado de inglés (B2 o superior), con capacidad para comprender y comunicar ideas técnicas complejas tanto de forma oral como escrita.
¿Cómo es trabajar en Deloitte?
Proyectos de alto impacto donde tendrás un largo recorrido y aprendizaje
Un día a día híbrido-flexible: tendrás horario flexible y un buen equilibrio entre el teletrabajo y el trabajo en equipo en nuestras oficinas o las de nuestros clientes
Buen ambiente dentro y fuera de la oficina: disfrutarás de varios teambuildings al año, actividades culturales y deportivas... ¡y mucho más!
Bienestar integral: cuídate con nuestro programa de salud física, mental y financiera... ¡y con equipo médico en las oficinas!
Impacto social: Podrás apuntarte a una gran cantidad de voluntariados de alcance nacional e internacional y a proyectos pro-bono con los que poner tu tiempo y talento al servicio de quienes más lo necesitan
Cultura del feedback y aprendizaje continuo: crecerás en un entorno inclusivo donde la igualdad de oportunidades y tu plan personalizado de formación impulsarán tu desarrollo. ¿Ya te visualizas en la Deloitte University de París?
Beneficios exclusivos por ser parte de Deloitte: podrás disfrutar de un gran catálogo de beneficios y de un completo plan de retribución flexible
Si te gusta lo que lees, estos son tus próximos pasos:
- Aplica a la oferta haciendo clic en ´Enviar candidatura ahora´ y completa tu perfil
- Si encajas en el puesto, nuestro equipo de talento te contactará para conocerte mejor
¡Comienza el proceso! Te iremos guiando por las diferentes fases hasta tu incorporación.
Data Engineer (Cloud Azure)
16 dic.PANEL Sistemas Informáticos
Data Engineer (Cloud Azure)
PANEL Sistemas Informáticos · Madrid, ES
Teletrabajo Azure Cloud Coumputing
🚀 ¡Estamos contratando!
👩💻 Puesto: Data Engineer (Cloud & Modern Data Stack)
📍 Ubicación: 100% remoto (candidatos en la Unión Europea)
🛠️ Experiencia: 3-5 años
🌐 Idioma: Inglés fluido (mínimo B2)
🔍 ¿Qué buscamos?
✔ Experiencia sólida en modelado de datos, migración y diseño de arquitectura (no solo pipelines).
✔ Dominio de herramientas Azure.
💻 Tech Stack:
Azure Synapse
Databricks
Lambda Architecture
Data Vault
DBT
✅ Si te apasiona la ingeniería de datos y quieres trabajar en un entorno 100% remoto, esta es tu oportunidad.
📩 Postúlate ahora y forma parte de nuestro equipo.
#DataEngineer #Azure #RemoteWork #Hiring #TechJobs #DataArchitecture #Databricks #DBT #CloudData #EUJobs
WayOps
Senior Data Engineer (Snowflake Expert)
WayOps · Madrid, ES
Teletrabajo Python TSQL Cloud Coumputing Git AWS Machine Learning
Buscamos un perfil Senior Data Engineer especializado en Snowflake que quiera desarrollar su carrera profesional integrando grandes volúmenes de datos en soluciones de IA de vanguardia.
CONTEXTO & RESPONSABILIDADES
La persona seleccionada se incorporará al equipo Funcional con la misión crítica de conectar el "Core" de datos de la compañía con los nuevos agentes de IA. El Data Engineer deberá diseñar y construir pipelines robustos de extracción, transformación y carga (ELT) que alimenten los sistemas inteligentes, garantizando la calidad y disponibilidad del dato. Será imprescindible contar con un dominio experto de Snowflake y habilidades sólidas en Python, SQL y entorno AWS.
PROYECTO & EQUIPO
El proyecto requiere desbloquear el valor de los datos almacenados en el Data Lake corporativo para su consumo por modelos de IA Generativa. Esto implica la creación de conectores seguros, optimización de queries complejas y la estructuración de datos no estructurados.
Para el éxito del proyecto, necesitamos especialistas que entiendan cómo modelar el dato para ser consumido por un LLM. Este perfil trabajará en estrecha colaboración con los AI Engineers y el equipo de Backend, bajo la supervisión del Product Manager y siguiendo las directrices del Arquitecto.
EXPERIENCIA & CONOCIMIENTOS
El perfil a incorporar deberá contar con al menos 5 años de experiencia en Ingeniería de Datos, con una especialización profunda y demostrable en Snowflake en entornos productivos. Deberá tener un fuerte background en desarrollo de pipelines ETL/ELT escalables.
Se valorará experiencia previa integrando plataformas de datos con servicios de Machine Learning o IA.
Será necesario tener experiencia previa con tecnologías:
- Core Data: Snowflake (Experto), SQL Avanzado, Python (Pandas, PySpark)
- Orquestación: Airflow, AWS Glue, dbt
- Cloud: AWS (S3, Lambda, Kinesis)
- Ingeniería de Software: Git, CI/CD para datos, Testing de datos
Además se valorará positivamente contar con experiencia o conocimientos en:
- Databricks: PySpark, Delta Lake
- Vector Databases: Preparación de datos para vectorización
- Formatos: Manejo de JSON, Parquet, Avro y datos no estructurados
CONTRATACIÓN & UBICACIÓN
La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).
Deloitte
Data Engineer especialista MS Fabric
Deloitte · Madrid, ES
Teletrabajo Azure Cloud Coumputing Git DevOps
´Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales?
En Deloitte estamos comprometidos con generar un impacto en la sociedad, en nuestros clientes y en ti.
Desde nuestro equipo de Deloitte Engineering Center, estamos buscando personas que se incorporen a nuestra área de Artificial Intelligence & Data.
¿Cuál es el reto?
Buscamos un Data Engineer especialista en Microsoft Fabric, para participar en proyectos nacionales e internacionales.
¿Cómo te imaginamos?
- Eres Graduado o posees Máster en Ingeniería Informática, Data Science, o similares.
- Posees al menos 2 años de experiencia como ingeniero de datos trabajando en procesamiento de grandes volúmenes de datos, tanto con servicios Cloud como con herramientas de integración.
- Tienes experiencia en desarrollo y optimización de queries complejas SQL/NoSQL.
- Tienes experiencia con PySpark, SparkSQL y Phyton para el desarrollo de procesos ETL y pipelines de datos.
- Posees conocimientos y experiencia sobre sistemas de bases de datos, data modeling, data quality, data profiling y data lineage.
- Tienes experiencia con la suite de Microsoft Fabric (Lakehouse, Data Warehouse, Notebooks, Pipelines).
- Tienes experiencia y/o conocimiento del framework de dbt para la transformación de datos.
- Estás habituado/a a implementar prácticas de DevOps para datos (DataOps), incluyendo control de versiones (Git) y CI/CD.
- Tienes experiencia en buenas prácticas de desarrollo de software, por ejemplo: pruebas unitarias, arquitectura de aplicaciones de datos, optimización...
- Tienes capacidad de trabajo en equipo, resolución de problemas y has trabajado en entornos colaborativos.
- Orientación a resultados, capacidad analítica y de espíritu de equipo.
- Buenas habilidades de comunicación y capacidad para aprender de manera autodidacta.
- Nivel avanzado de inglés (B2 o superior), con capacidad para comprender y comunicar ideas técnicas complejas tanto de forma oral como escrita.
- Valoraríamos especialmente certificaciones de Microsoft, como Azure Data Engineer Associate y/o Fabric Analytics Engineer Associate.
¿Cómo es trabajar en Deloitte?
Proyectos de alto impacto donde tendrás un largo recorrido y aprendizaje
Un día a día híbrido-flexible: tendrás horario flexible y un buen equilibrio entre el teletrabajo y el trabajo en equipo en nuestras oficinas o las de nuestros clientes
Buen ambiente dentro y fuera de la oficina: disfrutarás de varios teambuildings al año, actividades culturales y deportivas... ¡y mucho más!
Bienestar integral: cuídate con nuestro programa de salud física, mental y financiera... ¡y con equipo médico en las oficinas!
Impacto social: Podrás apuntarte a una gran cantidad de voluntariados de alcance nacional e internacional y a proyectos pro-bono con los que poner tu tiempo y talento al servicio de quienes más lo necesitan
Cultura del feedback y aprendizaje continuo: crecerás en un entorno inclusivo donde la igualdad de oportunidades y tu plan personalizado de formación impulsarán tu desarrollo. ¿Ya te visualizas en la Deloitte University de París?
Beneficios exclusivos por ser parte de Deloitte: podrás disfrutar de un gran catálogo de beneficios y de un completo plan de retribución flexible
Si te gusta lo que lees, estos son tus próximos pasos:
- Aplica a la oferta haciendo clic en ´Enviar candidatura ahora´ y completa tu perfil
- Si encajas en el puesto, nuestro equipo de talento te contactará para conocerte mejor
¡Comienza el proceso! Te iremos guiando por las diferentes fases hasta tu incorporación.
WayOps
Senior Data Engineer (Data Scraping)
WayOps · Madrid, ES
Teletrabajo MySQL MongoDB Python HTML Selenium AWS PostgreSQL
Buscamos un perfil Senior Data Scraping & Analysis Specialist con sólida experiencia en Python que quiera desarrollar su carrera profesional construyendo pipelines de crawling inteligente y extracción masiva de datos desplegados en ecosistemas AWS de alto rendimiento.
CONTEXTO & RESPONSABILIDADES
La persona seleccionada se incorporará al equipo Funcional con la misión crítica de conectar fuentes externas de información con los sistemas internos de análisis y los nuevos agentes de IA en la nube. El rol implica diseñar y mantener pipelines avanzados de scraping y crawling, capaces de operar a gran escala en entornos AWS, garantizando resiliencia, trazabilidad, observabilidad y cumplimiento de estándares de seguridad.
Será imprescindible dominar técnicas clásicas de scraping (Playwright, Selenium, BeautifulSoup) junto con nuevas soluciones impulsadas por IA, como Firecrawl, Crawl4AI o agentes LLM capaces de automatizar la navegación y extracción de contenido en webs dinámicas y altamente protegidas. El especialista también deberá procesar y transformar grandes volúmenes de datos dentro de arquitecturas cloud-native, integrando los resultados en los sistemas analíticos de la organización.
PROYECTO & EQUIPO
El proyecto tiene como objetivo habilitar la automatización completa de la adquisición de datos externos y su disponibilidad en AWS para alimentar plataformas analíticas y modelos de IA Generativa. Esto incluirá el desarrollo de crawlers inteligentes, estrategias anti-bot, rotación de proxies y la estructuración de datos no estructurados en formatos optimizados para su posterior consumo.
El perfil seleccionado trabajará en estrecha colaboración con los Data Scientists, AI Engineers y equipos de Backend, bajo la supervisión del Product Manager y siguiendo las directrices arquitectónicas definidas para entornos AWS. El ecosistema integra servicios como Lambda, ECS, S3, Step Functions y bases de datos distribuidas, por lo que la capacidad de diseñar pipelines cloud-native será clave para el éxito del rol.
EXPERIENCIA & CONOCIMIENTOS
Buscamos un perfil con al menos 4 años de experiencia en scraping avanzado y análisis de datos, y una profunda especialización en Python aplicada a crawling masivo y automatización web.
Se valorará especialmente la experiencia construyendo scrapers distribuidos en AWS y la exposición reciente a tecnologías de scraping impulsado por IA.
Será necesario tener experiencia con:
- Core Scraping & Crawling:- Playwright, Selenium, BeautifulSoup, Requests / aiohttp
- Firecrawl, Crawl4AI, Browserless o agentes LLM para crawling inteligente
- Estrategias anti-bot, rotación de proxies y browser fingerprinting
- Procesamiento & Data Engineering:- Python (Pandas, Polars, PySpark)
- Pipelines ETL/ELT, normalización y limpieza de datos masivos
- Parsing avanzado (HTML, JSON, XML, documentos estructurados y no estructurados)
- Infraestructura en AWS (imprescindible):- S3, Lambda, ECS/ECR, Step Functions
- CloudWatch (monitorización de crawlers), IAM (segmentación de permisos)
- SQS/SNS (orquestación y comunicación)
- AWS Glue o EMR (deseable)
- Bases de datos:- PostgreSQL, MySQL, MongoDB o DynamoDB
- Integración de datos y diseño de modelos de almacenamiento para alto volumen
Además se valorará positivamente contar con experiencia o conocimientos en:
- Orquestación: Airflow, Prefect o Dagster
- Infraestructura serverless y contenedores optimizados para crawling
- Integración de datos con LLMs, RAG pipelines o agentes inteligentes
- Visualización o análisis exploratorio de datos
- Diseño de pipelines distribuidos de alta concurrencia
CONTRATACIÓN & UBICACIÓN
La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).
Experis España
Madrid, ES
Perfiles Aws (Devops & Arquitectura) - Sector Banca
Experis España · Madrid, ES
. Docker Cloud Coumputing Kubernetes AWS DevOps
¿Quieres formar parte de proyectos tecnológicos de gran escala en el sector bancario?
Buscamos varios perfiles especializados en
AWS
, orientados tanto a ingeniería DevOps como a arquitectura y consultoría funcional.
Únete a un entorno innovador, estable y con oportunidades reales de crecimiento, certificación y desarrollo profesional.
- Buscamos 2/3 perfiles de AWS – DevOps Engineer
??
Mínimo 2 años de experiencia
como Ingeniero/a DevOps.
- Experiencia en
, automatización y
contenedores
(Docker, Kubernetes, ECS...).
- Certificación AWS
- Nivel de
- Experiencia o interés en trabajar en
- Disponibilidad para
: al menos
2 días presenciales en Madrid
Qué Ofrecemos:
Incorporación a proyectos estratégicos de uno de los mayores entornos cloud del país.
Plan de formación y
certificación oficial AWS
Equipo experto y gran oportunidad para escalar profesionalmente.
- Buscamos 2/3 perfiles AWS Architect / Consultor Funcional Banca
arquitectura AWS
y
consultoría funcional
, ideales para personas con background en banca que quieren evolucionar hacia roles tecnológicos (o viceversa).
Requisitos:
- Experiencia en
- bien
conocimientos funcionales de banca
- Capacidad de
, elaborar resúmenes ejecutivos, dashboards y presentaciones.
- Entendimiento de arquitectura cloud, preferiblemente
- Certificación AWS
- disposición a realizar la certificación de AWS Architecting
- Perfil con vocación consultiva, comunicación clara y habilidad para traducir complejidad técnica en valor de negocio.
Rol estratégico actuando de puente entre arquitectura empresarial y áreas de negocio.
Participación en iniciativas de transformación bancaria de alto impacto.
Plan de crecimiento, mentoring y certificaciones AWS incluidas.
¿Por qué unirte a nosotros?
Formarás parte de proyectos punteros en
entornos Cloud AWS en banca
Recibirás apoyo para obtener certificaciones oficiales.
Trabajarás en un modelo híbrido con flexibilidad.
Oportunidades para crecer hacia roles más senior, arquitectura o consultoría de alto nivel.
¿Te interesa?
Envíanos tu CV o tu perfil actualizado de LinkedIn a:
Ingeniero/a de Sistemas
15 dic.Indra
Alcobendas, ES
Ingeniero/a de Sistemas
Indra · Alcobendas, ES
. Jira
¡Estamos buscando un/a Ingeniero/a de Sistemas con experiencia internacional!
¿Tienes al menos 4 años de experiencia en ingeniería de sistemas y has trabajado en proyectos internacionales? ¡Desde Indra Queremos conocerte!
🔧 Requisitos:
- Mínimo 4 años de experiencia en Ingeniería de Sistemas
- Conocimiento de procesos clave:
- Gestión de requisitos
- Diseño de arquitecturas
- Gestión de interfaces
- Verificación y validación
- Al menos 2 años de experiencia en proyectos internacionales
🛠️ Herramientas que utilizamos en nuestro entorno CWE:
- Catia Magic System of Systems Architect (imprescindible)
- Jira y Confluence (imprescindibles)
- DOORS, Team4Capella, GitLab (deseables)
- KM/KMO+SES (muy valorable)
🎯 ¿Qué ofrecemos?
Participación en proyectos estratégicos de alto impacto en el ámbito de la defensa aérea.
Entorno innovador y multidisciplinar.
Desarrollo profesional continuo, con acceso a formación especializada y certificaciones en las tecnologías más avanzadas.
Condiciones laborales competitivas, con salario acorde con tu experiencia, beneficios sociales y flexibilidad laboral.
📍 Ubicación: Alcobendas
📅 Modalidad: Híbrida
🕓 ¿Cómo es nuestro proceso de selección?
Revisión de tu perfil 🔍 – Evaluamos tu experiencia y habilidades para determinar si encajas con lo que buscamos.
Primera toma de contacto (5-10 min) 📞 – Si recibes una llamada de un número desconocido, ¡es nuestro equipo! Será una conversación rápida para conocerte y resolver cualquier duda.
Entrevista técnica 🤝 – Te reunirás con el equipo, quienes te explicarán el proyecto y las tareas diarias. También exploraremos tus conocimientos técnicos. Además, te realizaremos breves pruebas de competencias psicológicas e inglés (si es necesario).
Oferta y bienvenida 🎉 – Si todo va bien, ¡te incorporas a nuestro equipo y comenzamos esta nueva etapa juntos!
Tiempo Estimado: 1-2 semanas.
Nuestro compromiso es promover ambientes de trabajo en los que se trate con respeto y dignidad a las personas, procurando el desarrollo profesional de la plantilla y garantizando la igualdad de oportunidades en su selección, formación y promoción ofreciendo un entorno de trabajo libre de cualquier discriminación por motivo de género, edad, discapacidad, orientación sexual, identidad o expresión de género, religión, etnia, estado civil o cualquier otra circunstancia personal o social.
¡INDRA es empresa Top Employer 2025! Incorpórate a una empresa certificada como una de las mejores empresas empleadoras de España, gracias a nuestra gestión integral de RRHH y a las condiciones para nuestros profesionales.
Cloud DevOps Engineer for GenAI
15 dic.Michael Page
Cloud DevOps Engineer for GenAI
Michael Page · Madrid, ES
Teletrabajo Azure Cloud Coumputing AWS DevOps
Perfil buscado (Hombre/Mujer)
• Implementar y gestionar entornos de infraestructura en la nube para soluciones de GenAI en el sector asegurador.
• Desarrollar y mantener pipelines de integración y entrega continua (CI/CD).
• Monitorizar y optimizar el rendimiento de los sistemas en la nube (AWS y Azure).
• Garantizar la seguridad y el cumplimiento normativo de las soluciones implementadas.
• Colaborar con equipos multidisciplinares para diseñar soluciones escalables y eficientes.
• Automatizar procesos y tareas repetitivas para mejorar la eficiencia operativa.
• Gestionar y solucionar incidencias técnicas relacionadas con la infraestructura en la nube.
• Proporcionar soporte técnico y formación a otros equipos de la organización.
• Incoporación directa en cliente final sector asegurador.
• Modelo híbrido de 2 días teletrabajo por semana, centro-norte Madrid.
El/la candidato/a seleccionado deberá cumplir los siguientes requisitos:
• Formación en Ingeniería Informática, Telecomunicaciones o similar.
• Experiencia demostrable de al menos 2-3 años como DevOps Engineer y gestión de infraestructura en la nube (AWS o Azure).
• Conocimientos sólidos en herramientas de CI/CD y tecnologías de contenedores.
• Familiaridad con los requisitos de seguridad y cumplimiento en el sector asegurador (valorable).
• Capacidad para trabajar en equipo y colaborar con diferentes áreas técnicas.
• Habilidades para resolver problemas de forma proactiva y eficiente.
• Inglés Fluido, hablado y escrito. Se utilizará diariamente en reporte y trabajo con equipos internacionales.
Nuestro cliente es una organización de gran tamaño dentro de la industria de seguros, reconocida por su enfoque en la transformación digital y el uso de tecnologías avanzadas para mejorar sus servicios.
• Contrato permanente en cliente final del sector asegurador en pleno momento de transformación.
• Paquete salarial compuesto de fijo + variable + beneficios
• Un entorno laboral innovador y enfocado en la tecnología.
• Oportunidades de desarrollo profesional en el sector asegurador.
• Ubicación en Madrid, con modelo híbrido remoto presencial de 2 días de teletrabajo a la semana. Flexibilidad horaria y fuerte apuesta por la conciliación.