No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araComercial i Vendes
208Informàtica i IT
157Transport i Logística
153Administració i Secretariat
112Educació i Formació
86Veure més categories
Comerç i Venda al Detall
73Dret i Legal
72Màrqueting i Negoci
58Desenvolupament de Programari
45Construcció
43Enginyeria i Mecànica
34Disseny i Usabilitat
29Indústria Manufacturera
29Sanitat i Salut
27Instal·lació i Manteniment
25Publicitat i Comunicació
20Atenció al client
19Comptabilitat i Finances
16Producte
15Art, Moda i Disseny
14Arts i Oficis
13Hostaleria
13Recursos Humans
13Turisme i Entreteniment
9Cures i Serveis Personals
8Immobiliària
7Social i Voluntariat
7Alimentació
6Banca
6Farmacèutica
5Seguretat
4Energia i Mineria
3Telecomunicacions
1Agricultura
0Assegurances
0Ciència i Investigació
0Editorial i Mitjans
0Esport i Entrenament
0Michael Page
Vigo, ES
Data Engineer / Analytics Engineer (Azure & Microsoft Fabric)
Michael Page · Vigo, ES
Python TSQL Azure Cloud Coumputing Git Power BI
- Posición con crecimiento y desarrollo profesional
- Cliente final
¿Dónde vas a trabajar?
Empresa referente de consultoría y formación para el empleo con mas de 25 años de andadura profesional.
Descripción
Funciones
- Analizar, auditar y documentar la arquitectura de datos actual (bases de datos, procesos, pipelines y orquestaciones).
- Revisar y optimizar procesos ETL/ELT existentes y cargas diarias de datos.
- Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Azure Data Factory y/o Microsoft Fabric.
- Gestionar y optimizar entornos Azure SQL, Synapse, Data Lake y Lakehouse.
- Colaborar con equipos de Data Science y BI para garantizar datos limpios, consistentes y correctamente modelados.
- Proponer mejoras de arquitectura, rendimiento, automatización y gobernanza del dato.
- Apoyar la adopción de buenas prácticas en Microsoft Fabric.
- Participar en iniciativas de control de versiones, automatización y CI/CD.
¿A quién buscamos (H/M/D)?
Requisitos
- Experiencia mínima de 3 a 5 años en análisis de datos y desarrollo de informes con Power BI.
- Formación universitaria en Informática, Ingeniería, Matemáticas, Estadística o áreas afines, así como másteres relacionados con Datos, BI o IA.
- Experiencia en Azure Data Factory, Azure SQL, Data Lake, Synapse o tecnologías equivalentes.
- Dominio de SQL avanzado: modelado, optimización, procedimientos almacenados, índices y particiones.
- Conocimientos sólidos en procesos ETL/ELT y diseño de pipelines.
- Experiencia o interés en especializarse en Microsoft Fabric (Dataflows Gen2, Lakehouse, Pipelines).
- Conocimientos de Python aplicados a procesos de datos.
- Experiencia con Git y prácticas de CI/CD.
- Capacidad de análisis, orden y atención al detalle.
- Facilidad para leer e interpretar documentación técnica en castellano e inglés.
Se valorará
- Experiencia en arquitecturas Lakehouse.
- Conocimientos de ML Ops o despliegue de modelos.
- Experiencia en entornos híbridos (on‑premise + cloud).
- Certificaciones oficiales como PL‑300 Power BI Data Analyst, DP‑600 Fabric Analytics Engineer o similares.
¿Cuáles son tus beneficios?
- Oportunidades de carrera y desarrollo profesional.
- Posibilidad de trabajar en remoto 100%.
- Flexibilidad, ambiente y valores.
- 4 meses de jornada intensiva los meses de junio a septiembre
Data Engineer (h/m)
24 d’abr.Michael Page
País Vasco, ES
Data Engineer (h/m)
Michael Page · País Vasco, ES
Python TSQL Azure Git DevOps SharePoint Excel Spark Power BI
- Posición con crecimiento y desarrollo profesional
- Cliente final
¿Dónde vas a trabajar?
Gran empresa del sector de alimentación líder en el mercado.
Descripción
Responsabilidades principales
- Diseñar y construir pipelines de extracción de datos desde Microsoft Dynamics (AX legacy) utilizando Azure Data Factory
- Implementar la arquitectura medallón:
- Bronze: ingesta de datos en crudo
- Silver: datos depurados con reglas de negocio
- Gold: modelo en estrella listo para reporting
- Construir y mantener el modelo de datos en estrella, incluyendo:
- Tablas de hechos: producción, costes, ventas, recetas, inventario, FTE
- Tablas de dimensiones: producto, cliente, partida de coste, fecha, material
- Implementar lógica de negocio compleja en Azure Synapse o Databricks, como:
- Asignación de costes por coeficiente de productividad
- Cálculo de desviaciones de receta
- Puente EBITDA
- Reexpresión ICO
- Configurar pipelines de actualización incremental diaria basados en watermarks
- Construir un pipeline de sincronización en ADF desde Excel en SharePoint (datos maestros) hacia Azure SQL
- Someter el modelo de datos y los pipelines a las revisiones formales de arquitectura D&A central de del grupo.
- Monitorizar la salud de los pipelines, resolver incidencias y garantizar la calidad de los datos
- Colaborar estrechamente con el partner de Dynamics durante el análisis del sistema fuente
(se proporcionará un Data Dictionary; el diseño e implementación son responsabilidad del Data Engineer) - Todo el código debe gestionarse desde el primer día en control de versiones (Azure DevOps o GitHub)
¿A quién buscamos (H/M/D)?
Habilidades y experiencia requeridas:
- Más de 3 años de experiencia como Data Engineer o rol similar (ETL Developer, BI Engineer, Data Platform Engineer)
- Sólidos conocimientos de SQL:
- consultas complejas
- funciones analíticas
- procedimientos almacenados
- optimización de rendimiento
- Python para transformación de datos y automatización (pandas, PySpark o similar)
- Azure Data Factory: diseño de pipelines, triggers, linked services, integration runtimes
- Azure Data Lake Storage Gen2:
- estructuras de carpetas
- formatos Parquet/Delta
- control de accesos
- Azure Synapse Analytics o Azure Databricks:
- SQL pools
- notebooks Spark
- transformación de datos
- Experiencia diseñando modelos dimensionales / esquemas en estrella (metodología Kimball)
- Conocimiento de la arquitectura medallón (Bronze / Silver / Gold)
- Uso de Git para control de versiones de pipelines y código SQL
Muy valorable:
- Experiencia con modelos de datos de Microsoft Dynamics (AX, NAV o Business Central), entendiendo:
- órdenes de producción
- asientos contables (GL)
- pedidos de venta
- movimientos de stock
- Experiencia en entornos industriales o de producción alimentaria:
- BOM / recetas
- costes de producción
- asignación de costes
- Administración básica de Azure SQL Database
- Experiencia conectando Power BI con Synapse o Databricks (entrega de capa semántica)
- Experiencia con Azure Key Vault, Azure Monitor u otras herramientas de operación
Deseable:
- Experiencia con Power BI (DAX, modelos semánticos) - no obligatoria, pero útil para el diseño de la capa Gold
- Experiencia con dbt (data build tool)
¿Cuáles son tus beneficios?
- Oportunidad de carrera y desarrollo profesional.
- Contrato permanente en una empresa sólida dentro del sector FMCG.
- Salario competitivo.
- Oportunidad de desarrollo profesional en el ámbito de la tecnología aplicada a la empresa.
- Entorno laboral colaborativo y orientado al uso de tecnologías avanzadas.
- Posibilidad de participar en proyectos estratégicos e innovadores.
- Oportunidad laboral 100% remota.
- Centro de trabajo: Zona norte.
DevOps Engineer (Tech Solutions)
19 de marçMichael Page
DevOps Engineer (Tech Solutions)
Michael Page · Madrid, ES
Teletreball Maven Jenkins Kubernetes Git Jira OpenShift DevOps Agile QA Microservices
- Proyecto estable como DevOps Engineer
- Formarás parte de un ecosistema de Talento Tecnológico
¿Dónde vas a trabajar?
Page Consulting Tech Solutions, es el área de PageGroup especializada en la realización de proyectos IT en clientes, ofreciendo una amplia variedad de soluciones tecnológicas a medida con la flexibilidad y agilidad requerida. (https://www.michaelpage.es/seleccion-personal/technology-consulting)
Descripción
- Diseñar, implementar y mantener pipelines CI/CD para sistemas y microservicios
- Automatizar procesos de build, testing, seguridad, despliegue y monitorización
- Gestionar infraestructura basada en Kubernetes y OpenShift, asegurando alta disponibilidad y escalabilidad
- Administrar entornos on-premise siguiendo estándares de seguridad (ENS)
- Integrar herramientas de desarrollo: Git, Maven, Jenkins, GitLab CI, TekTon
- Implementar prácticas GitOps y automatización de despliegues
- Definir y aplicar Infraestructura como Código (IaC)
- Monitorizar sistemas mediante ELK Stack y Grafana
- Gestionar el ciclo completo de despliegue (dev → producción), garantizando trazabilidad e integridad
- Colaborar con equipos de desarrollo, QA y arquitectura
- Participar en revisiones de código, auditorías de seguridad y resolución de incidencias
- Proponer mejoras continuas en procesos de despliegue y operación
¿A quién buscamos (H/M/D)?
- Experiencia avanzada en Kubernetes y OpenShift
- Sólidos conocimientos en CI/CD (Jenkins, TekTon, GitLab CI, Helm o similares)
- Experiencia con Git y Maven
- Implementación de IaC y despliegues con ArgoCD
- Experiencia en estrategias de despliegue:
- Canary
- Blue-Green
- Rollback
- Conocimientos en monitorización y observabilidad (ELK, Grafana)
- Experiencia en DevSecOps:
- OWASP
- ENS
- Gestión de secretos
- Seguridad entre servicios (Notary, Trivy)
- Experiencia en metodologías ágiles (Jira, Trello)
- Buenas habilidades de comunicación y trabajo en equipo
¿Cuáles son tus beneficios?
- Contrato indefinido con Page Tech Solutions
- Hibrido en Madrid
- Formación continua para desarrollar tu talento
- Beneficios sociales y plan de retribución flexible.
- Compensación de gastos de teletrabajo
- Plan de carrera en un ecosistema de talento tecnológico