Python TSQL Azure Cloud Coumputing Git Power BI

Posición con crecimiento y desarrollo profesional Cliente final ¿Dónde vas a trabajar? Empresa referente de consultoría y formación para el empleo con mas de 25 años de andadura profesional. Descripción Funciones Analizar, auditar y documentar la...

  • Posición con crecimiento y desarrollo profesional
  • Cliente final

¿Dónde vas a trabajar?

Empresa referente de consultoría y formación para el empleo con mas de 25 años de andadura profesional.

Descripción

Funciones

  • Analizar, auditar y documentar la arquitectura de datos actual (bases de datos, procesos, pipelines y orquestaciones).
  • Revisar y optimizar procesos ETL/ELT existentes y cargas diarias de datos.
  • Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Azure Data Factory y/o Microsoft Fabric.
  • Gestionar y optimizar entornos Azure SQL, Synapse, Data Lake y Lakehouse.
  • Colaborar con equipos de Data Science y BI para garantizar datos limpios, consistentes y correctamente modelados.
  • Proponer mejoras de arquitectura, rendimiento, automatización y gobernanza del dato.
  • Apoyar la adopción de buenas prácticas en Microsoft Fabric.
  • Participar en iniciativas de control de versiones, automatización y CI/CD.

¿A quién buscamos (H/M/D)?

Requisitos

  • Experiencia mínima de 3 a 5 años en análisis de datos y desarrollo de informes con Power BI.
  • Formación universitaria en Informática, Ingeniería, Matemáticas, Estadística o áreas afines, así como másteres relacionados con Datos, BI o IA.
  • Experiencia en Azure Data Factory, Azure SQL, Data Lake, Synapse o tecnologías equivalentes.
  • Dominio de SQL avanzado: modelado, optimización, procedimientos almacenados, índices y particiones.
  • Conocimientos sólidos en procesos ETL/ELT y diseño de pipelines.
  • Experiencia o interés en especializarse en Microsoft Fabric (Dataflows Gen2, Lakehouse, Pipelines).
  • Conocimientos de Python aplicados a procesos de datos.
  • Experiencia con Git y prácticas de CI/CD.
  • Capacidad de análisis, orden y atención al detalle.
  • Facilidad para leer e interpretar documentación técnica en castellano e inglés.


Se valorará
  • Experiencia en arquitecturas Lakehouse.
  • Conocimientos de ML Ops o despliegue de modelos.
  • Experiencia en entornos híbridos (on‑premise + cloud).
  • Certificaciones oficiales como PL‑300 Power BI Data Analyst, DP‑600 Fabric Analytics Engineer o similares.

¿Cuáles son tus beneficios?

  • Oportunidades de carrera y desarrollo profesional.
  • Posibilidad de trabajar en remoto 100%.
  • Flexibilidad, ambiente y valores.
  • 4 meses de jornada intensiva los meses de junio a septiembre

No et perdis res!

Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació


Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa

Subscriu-te ara

Darreres ofertes d'ocupació de Enginyer/a de Dades a Pontevedra