¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraDerecho y Legal
5Informática e IT
5Comercio y Venta al Detalle
3Educación y Formación
3Transporte y Logística
3Ver más categorías
Adminstración y Secretariado
2Comercial y Ventas
2Contabilidad y Finanzas
2Desarrollo de Software
2Ingeniería y Mecánica
2Publicidad y Comunicación
2Atención al cliente
1Farmacéutica
1Marketing y Negocio
1Sanidad y Salud
1Agricultura
0Alimentación
0Arte, Moda y Diseño
0Artes y Oficios
0Banca
0Ciencia e Investigación
0Construcción
0Cuidados y Servicios Personales
0Deporte y Entrenamiento
0Diseño y Usabilidad
0Editorial y Medios
0Energía y Minería
0Hostelería
0Industria Manufacturera
0Inmobiliaria
0Instalación y Mantenimiento
0Producto
0Recursos Humanos
0Seguridad
0Seguros
0Social y Voluntariado
0Telecomunicaciones
0Turismo y Entretenimiento
0Top Zonas
Santiago de Compostela
35Data Engineer
NuevaKanguro
Data Engineer
Kanguro · Santiago de Compostela, ES
Teletrabajo . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje.
Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.
Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
Python para procesamiento de datos y scripting de pipelines
Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
Castellano fluido.
Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es
Josep Francesc Cortés
Si te interesa la posición y cumples los requisitos, envía un email a
dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.