¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
913Comercial y Ventas
841Transporte y Logística
659Adminstración y Secretariado
618Desarrollo de Software
397Ver más categorías
Comercio y Venta al Detalle
363Educación y Formación
356Marketing y Negocio
336Derecho y Legal
328Ingeniería y Mecánica
233Instalación y Mantenimiento
187Diseño y Usabilidad
161Arte, Moda y Diseño
159Sanidad y Salud
128Industria Manufacturera
113Publicidad y Comunicación
113Construcción
108Recursos Humanos
86Hostelería
72Contabilidad y Finanzas
70Atención al cliente
67Turismo y Entretenimiento
62Inmobiliaria
55Cuidados y Servicios Personales
43Producto
42Artes y Oficios
35Alimentación
31Banca
17Farmacéutica
14Seguridad
13Energía y Minería
11Social y Voluntariado
6Editorial y Medios
3Telecomunicaciones
3Deporte y Entrenamiento
2Seguros
2Ciencia e Investigación
1Agricultura
0Grey Matter Recruitment
Barcelona, ES
Chief People Officer at High Growth AdTech Scale Up
Grey Matter Recruitment · Barcelona, ES
.
Opportunity to design and scale product led people systems with the use of AI, analytics and forward thinking talent acquisition and development strategy.
The Company
- AI driven Programmatic platform with Real-Time Analytics & BI Dashboard
- High growth ML-driven company building both market-leading products and an internal operating system for execution.
- Global presence in US, EMEA, APAC
- Top tier package and stock
- Generous relocation package on offer
The Role
This is a CEO-level partner role owning People as a product and execution engine.
- Build and scale people products across hiring, onboarding, performance, development, and retention
- Embed execution discipline across leadership (OKRs, Impact Filters, decision rights, governance)
- Lead Recruitment & Talent Acquisition, owning quality-of-hire and time-to-fill
- Design an AI-first people platform to amplify managers, reduce friction, and improve outcomes
Desired Skills and Experience
You’re a builder who blends People Ops, systems thinking, and execution.
- People Ops / HR / Product / Execution Leadership roles in fast-growth environments
- Track record of shipping scalable people systems (onboarding, manager tools, performance, learning)
- Strong operator mindset: OKRs, RACI, written-first workflows, delivery governance
- Hands-on experience applying AI, automation, and analytics to people processes
Lead Java/Scala Developer
26 ene.EPAM
Málaga, ES
Lead Java/Scala Developer
EPAM · Málaga, ES
React Java Python Agile Kubernetes Scala Terraform Office
Are you an open-minded and dedicated professional who revels in intellectually rigorous environments? Do you hold a high bar for the quality of your code and react to a mission critical problem in an excellent way? Can you anticipate complications and formulate solutions to unblock the progress of the project? If it sounds like you, this could be the perfect opportunity to join EPAM as a Lead Java-Scala Developer.
Our client is one of the world´s biggest hedge funds managing investments for a wide array of institutional clients, from charitable foundations to foreign governments and central banks. In this role, you will oversee a newly established back-end team developing an oversight platform for managing all of hedge fund´s trade generation activity. You will interact with team members who deeply understand product & business problems and investors who are also technically savvy and work in deep partnership with engineers.
We are looking for a Lead Java/Scala Developer for the team. Each person in the team will deeply understand product & business problems and will work on the stack end to end as the team builds an oversight platform for managing all of the hedge fund´s trade generation activity. Users of the technology in the Department are extremely sophisticated investors who are also technically savvy and work in a deep partnership model with the engineers. Our goal is to build highly functional, beautiful, and intuitive technologies for these processes which ultimately drive, scale, and enable our investment processes.
READ FULL DESCRIPTION
Responsibilities
- Developing extremely sophisticated tools and collaborating with some of hedge fund´s most sophisticated investors
- Operating within a dynamic team focused on back-end development but also working with engineers from several different areas of focus
- Working closely with various technology teams. Most often, we interact with UI/UX Design team, backend engineering team, and platform engineers
Requirements
- Strong computer science fundamentals with a mastery of back-end development
- 7+ years professional software development experience in technically rigorous environments
- At least 1 year of relevant leadership experience
- Excellent design skills (with the security focus, OOD, SOLID, GRASP, KISS, YAGNI, DRY, etc.)
- Experience in Scala development or back-end experience in any popular language (Java/.NET) and open to study Scala
- Strong algorithmic and debugging skills
- Wide experience with CI/CD, SDLC, Agile and Design patterns
- Excellent soft, analytical and problem-solving skills
Nice to have
- Hands-on experience in Python
- Knowledge in infrastructure as code software using Terraform
- Experience working with Automating Deployment tools, e.g. Kubernetes
- Experience working with Apache ZooKeeper
- Java developers without Scala experience but willing to switch to Scala are welcome
We offer/Benefits
- Private health insurance
- EPAM Employees Stock Purchase Plan
- 100% paid sick leave
- Referral Program
- Professional certification
- Language courses
EPAM is a leading digital transformation services and product engineering company with 61,700+ EPAMers in 55+ countries and regions. Since 1993, our multidisciplinary teams have been helping make the future real for our clients and communities around the world. In 2018, we opened an office in Spain that quickly grew to over 1,450 EPAMers distributed between the offices in Málaga, Madrid and Cáceres as well as remotely across the country. Here you will collaborate with multinational teams, contribute to numerous innovative projects, and have an opportunity to learn and grow continuously.
- Why Join EPAM
- WORK AND LIFE BALANCE. Enjoy more of your personal time with flexible work options, 24 working days of annual leave and paid time off for numerous public holidays.
- CONTINUOUS LEARNING CULTURE. Craft your personal Career Development Plan to align with your learning objectives. Take advantage of internal training, mentorship, sponsored certifications and LinkedIn courses.
- CLEAR AND DIFFERENT CAREER PATHS. Grow in engineering or managerial direction to become a People Manager, in-depth technical specialist, Solution Architect, or Project/Delivery Manager.
- STRONG PROFESSIONAL COMMUNITY. Join a global EPAM community of highly skilled experts and connect with them to solve challenges, exchange ideas, share expertise and make friends.
Senior Data Engineer
25 ene.Ultra Tendency
Senior Data Engineer
Ultra Tendency · Santiago de Compostela, ES
Teletrabajo . Python Azure Cloud Coumputing Ansible Scala Microservices AWS DevOps Terraform Kafka Spark Big Data Machine Learning
Join to apply for the
Senior Data Engineer
role at
Ultra Tendency
Our Engineering department is growing and we're looking for a
Senior Data Engineer – Databricks (m/f/*)
to join our team in Spain and support our global growth.
What We Offer
Flexible work options, including fully remote or hybrid arrangements (candidates must be located in Spain).
A chance to accelerate your career and work with outstanding colleagues in a supportive learning community split across 3 continents.
Contribute your ideas to unique projects and make an impact by turning them into reality.
Balance work and personal life through our workflow organization and choose where you work.
Annual performance review and regular feedback cycles, generating distinct value by connecting colleagues through networks rather than hierarchies.
Individual development plan and professional development opportunities.
Educational resources such as paid certifications, unlimited access to Udemy Business, etc.
Local, virtual, and global team events, in which UT colleagues become acquainted with one another.
What You'll Do
Design, implement, and maintain scalable data pipelines using Databricks Lakehouse Platform with a strong focus on Apache Spark, Delta Lake, and Unity Catalog.
Lead the development of batch and streaming data workflows that power analytics, machine learning, and business intelligence use cases.
Collaborate with data scientists, architects, and business stakeholders to translate complex data requirements into robust, production-grade solutions.
Optimize performance and cost-efficiency of Databricks clusters and jobs, leveraging tools such as Photon, Auto Loader, and Job Workflows.
Establish and enforce best practices for data quality, governance, and security within the Databricks environment.
Mentor junior engineers and contribute to the evolution of the team's Databricks expertise.
What You'll Bring
Deep hands-on experience with Databricks on Azure, AWS, or GCP, including Spark (PySpark/Scala), Delta Lake, and MLflow.
Strong programming skills in Python or Scala, and experience with CI/CD pipelines (e.g., GitHub Actions, Azure DevOps).
Solid understanding of distributed computing, data modeling, and performance tuning in cloud-native environments.
Familiarity with orchestration tools (e.g., Databricks Workflows, Airflow) and infrastructure-as-code (e.g., Terraform).
A proactive mindset, strong communication skills, and a passion for building scalable, reliable data systems.
Professional Spanish & English communication skills (C1-level, written and spoken).
Did we pique your interest, or do you have any questions?
We want to hear from you: contact us at
About Us
Ultra Tendency is an international premier Data Engineering consultancy for Big Data, Cloud, Streaming, IIoT and Microservices.
We design, build, and operate large-scale data-driven applications for major enterprises such as the European Central Bank, HUK-Coburg, Deutsche Telekom, and Europe's largest car manufacturer.
Founded in Germany in ****, UT has developed a reliable client base and now runs 8 branches in 7 countries across 3 continents.
At Ultra Tendency we contribute source code to +20 open-source projects including Ansible, Terraform, NiFi, and Kafka.
We evaluate your application based on your skills and corresponding business requirements. Ultra Tendency welcomes applications from qualified candidates regardless of race, ethnicity, national or social origin, disability, sex, sexual orientation, or age.
Data privacy statement: Data Protection for Applicants – Ultra Tendency
Job Details
Seniority level: Mid-Senior level
Employment type: Full-time
Job function: Information Technology
Industry: Tobacco Manufacturing
Referrals increase your chances of interviewing at Ultra Tendency by 2x.
#J-*****-Ljbffr
Data Engineer
24 ene.BBVA Technology en Europa
Data Engineer
BBVA Technology en Europa · Madrid, ES
Teletrabajo . Agile TSQL Jenkins Scala Spark
¡Bienvenido al lugar que te mereces!
🔍¿Qué buscamos?
Perfiles de Data Engineer con una trayectoria profesional de al menos 3 años en el mundo de data con Scala y Spark.
Te buscamos, independientemente de tu género, capacidades diferentes, orientación sexual, origen étnico o cualquier característica que te haga único/a.
✨Qué esperamos de ti ✨
- Experiencia en proyectos de ingeniería de datos con desarrollo en Scala y Spark.
- Comprensión de procesos ETL (Extracción, Transformación y Carga) y pipelines de datos.
- Conocimientos de SQL y modelado de datos.
- Valorable conocimientos en herramientas de integración continua y de evaluación de código (Jenkins, SonarQube).
😎 Qué responsabilidades tendrás:
- Participación y seguimiento en el ciclo de vida de los proyectos.
- Participar en el análisis y diseño de soluciones tecnológicas integrales.
- Desarrollar y mantener pipelines de datos eficientes.
- Colaborar en la extracción, transformación y carga (ETL) de grandes volúmenes de datos.
- Optimizar el rendimiento de los procesos de procesamiento de datos.
💙 Qué tenemos de especial
- 2000€ anuales para seguir formándote.
- Ayuda alimentaria y gastos de teletrabajo.
- ¡30 días entre vacaciones y días de libre disposición al año!
- Jornada intensiva los viernes y dos meses y medio en verano.
- Modelo de teletrabajo perfecto para la conciliación y disfrute de tu tiempo libre y horario flexible para que seas tú quien decida cómo organizar tu tiempo.
- Ayudas para familiares con discapacidad.
- Sistema de retribución flexible (transporte, seguro médico de Sanitas, Movistar...).
- Ventajas en productos financieros BBVA (hipotecas, préstamos, tarjetas, seguros, etc.).
- Modelo de talento enfocado en perfiles tecnológicos. Proporcionamos herramientas y oportunidades para crecer y destacar tus habilidades.
Además…
- Te sentirás acompañado/a desde tu primer día, tanto en el proyecto, como en la compañía. Nuestros onboarding son famosos 😏
- El compañerismo es parte de nuestro ADN. Estarás en un equipo con gente majísima.
- Entorno multidisciplinario con metodologías Agile.
- Tus proyectos tendrán impacto en el mundo financiero y en la sociedad.
- Nos gusta disfrutar y asistir a fiestas, eventos, actividades… porque trabajar es solo la excusa.
Entonces… ¿Qué nos dices? ¿Hacemos match? 💙
Programador/a Batch BBVA
23 ene.PANEL Sistemas Informáticos
Programador/a Batch BBVA
PANEL Sistemas Informáticos · Madrid, ES
Teletrabajo Java MongoDB Python Jenkins Docker Kubernetes Elasticsearch Scala Git Oracle AWS DevOps Go Spark
🚀 ¡Estamos buscando un Programador/a Batch para el área de FinOps en Holding!
Si te apasionan los entornos complejos, el rendimiento y las arquitecturas modernas, esta oportunidad es para ti. 🙌
🔧 Skills Técnicas que buscamos:
💻 Programación multilenguaje: Java (alto nivel), Python, Golang, Scala
📦 Kubernetes & Docker: nivel avanzado, service mesh, etc.
⚙️ Experiencia básica con Apache Spark (desarrollo, despliegue y operación)
🔄 DevOps tools: Jenkins, Sonar, Git, ArgoCD
🗄️ Persistencias: AWS S3, Oracle, MongoDB, ElasticSearch
🎯 Responsabilidades
🏗️ Participar en el diseño y desarrollo de la nueva arquitectura batch operacional
🔨 Evolutivos, correctivos y construcción del framework
🧪 Testing y validación de las soluciones
📝 Documentación técnica
🤝 Trabajo dentro de un equipo multidisciplinar
📞 Intervenciones, guardias y soporte 24x7
💰 Las guardias y soportes 24x7 se pagan aparte — modalidad remota
💬 ¿Te interesa o conoces a alguien que encaje?
¡Me encantará recibir candidaturas o recomendaciones! 🙏
#Hiring #FinOps #JavaDeveloper #Kubernetes #DevOps #Spark #TechJobs #Programación #EmpleoTech #OportunidadLaboral #ITJobs #LinkedInJobs #Recruiting
Controller financiero
21 ene.Scalian
Madrid, ES
Controller financiero
Scalian · Madrid, ES
. Cloud Coumputing Excel Power BI Tableau
Scalian es una empresa de más de 6.000 personas con una dimensión internacional, con oficinas en Europa y América del Norte. Estamos especializados en dar servicios a diferentes clientes enfocados en Data, Cloud e Inteligencia Artificial.
Descripción del empleo
Buscamos un Consultor de Finanzas con experiencia contrastada en controlling de proyectos industriales y análisis financiero, para colaborar en proyectos del sector aeronautico. El candidato ideal combina una sólida base técnica en control financiero con la capacidad de entender el negocio y apoyar la toma de decisiones dentro de un entorno corporativo internacional.
Responsabilidades principales
- Gestionar el control económico-financiero de proyectos: presupuestos, seguimiento de costes, márgenes y forecast.
- Preparar y analizar los informes de seguimiento económico (OPEX / CAPEX / cash-flow) para la dirección del proyecto y headquarters.
- Identificar y explicar desviaciones presupuestarias, proponiendo acciones correctivas.
- Participar activamente en los cierres mensuales y anuales, asegurando la integridad de la información.
- Coordinarse con áreas de operaciones, ingeniería, compras y controlling industrial.
- Mantener la alineación con las políticas financieras y procedimientos de Airbus.
- Contribuir a la mejora de procesos financieros y de reporting.
- Experiencia: Entre 2 y 5 años en controlling financiero, controlling de proyectos o finanzas industriales.
- Experiencia previa en entornos industriales complejos (aeroespacial, automoción, defensa o ingeniería).
- Dominio de SAP CO, PS y FI
- Excel avanzado (modelos financieros, macros, tablas dinámicas).
- Conocimiento de Power BI, Tableau o herramientas similares, valorable.
- Idiomas: Inglés fluido (mínimo B2+, ideal C1). Francés y/o Alemán, valorables.
¿Qué tendrás con Scalian?
🚀 Formar parte de un equipo de alto nivel bajo tecnologías punteras en el mercado.
⛱ 25 días laborables de vacaciones
📝 Contrato indefinido
📚 Formación continua, certificaciones, meetups y planes de desarrollo profesional personalizados para que podamos seguir creciendo juntos. Contamos con acceso a plataformas internas con contenido abierto para que lo disfrutes cuando tú quieras y a tu ritmo.
🕐 Jornada completa con horario flexible para facilitar la conciliación entre vida familiar y profesional.
🎉 After works en las oficinas
🎂 La tarde del cumpleaños libre
🏋️ ♀️ Descuentos en gimnasios
💲Programas de retribución flexible: seguro médico, tarjeta restaurante, abono de transporte, cheques para escuelas infantiles.
🌏 Como parte del grupo Scalian, abrimos nuestras fronteras y crecemos internacionalmente.
♻️ En el grupo apostamos por iniciativas sostenibles.
Scrum Master
19 ene.Scalian Spain
Madrid, ES
Scrum Master
Scalian Spain · Madrid, ES
. Scrum Jira Agile Fintech Kanban
¿Buscas un nuevo reto donde desarrollar tu carrera y aprender nuevas tecnologías? Entonces sigue leyendo porque esto te puede interesar.
Hay dos palabras que nos definen: talento y tecnología, porque en Scalian Spain no entendemos una sin la otra. Nosotros ofrecemos soluciones sencillas e innovadoras a problemas complejos, que tienen un impacto positivo y sostenible en las organizaciones y en la sociedad.
¿Cuál será tu rol?
Participarás en un equipo del sector banca como scrum master, tu objetivo será coordinar equipos de alto rendimiento mediante metodologías ágiles, tomando métricas que permitan medir la ejecución, detectar ineficiencias en la forma de trabajar del equipo, reportando al senior Management la evolución del producto y asegurando la puntualidad y calidad de los entregables.
- Mantener un backlog en Jira de acuerdo a las especificaciones del product owner, correctamente actualizado y alineado con el equipo
- Identificar y mantener la Gestión de dependencias (internas y con terceros) en función de los requerimientos de Negocio
- Identificar y gestionar el desploqueo de issues
- Generacion de métricas
- Organizar las ceremonias propias de los sprint: planificación, dailys, refinamientos, reviews y retrospectivas.
- Mantener un governance del producto donde tanto el product owner como reporte funcional como el reporte jerárquico en COO estén al corriente del estado, riesgos y dependencias del
- Coordinar globalmente la toma de requerimientos e implantación de productos
- Colaborar en el equipo de producto en busca de la mejora continua
¿Qué buscamos?
- Experiencia mínima de 5–7 años liderando proyectos de transformación digital o delivery complejo, preferiblemente en banca, fintech o sectores regulados.
- Experiencia demostrada en proyectos críticos o de alto impacto.
- Capacidad de trabajar en entornos dinámicos y de alta presión, con múltiples stakeholders.
- Orientación al cliente y mindset digital.
- Habilidad excepcional de comunicación, Nivel alto de inglés
- Se valorará conocimiento de metodologías ágiles (Scrum, Kanban, SAFe) y experiencia colaborando con equipos de desarrollo IT.
¿Qué tendrás con nosotros?
🚀 Formar parte de un equipo de alto nivel bajo tecnologías punteras en el mercado.
⛱ 25 días laborables de vacaciones
📝 Contrato indefinido
📚 Formación continua, certificaciones, meetups y planes de desarrollo profesional personalizados para que podamos seguir creciendo juntos. Contamos con acceso a plataformas internas con contenido abierto para que lo disfrutes cuando tú quieras y a tu ritmo.
🕐 Jornada completa con horario flexible para facilitar la conciliación entre vida familiar y profesional.
🎉 Afterworks en las oficinas
🎂 La tarde del cumpleaños libre
🏋️ ♀️ Descuentos en gimnasios y otros servicios
💲Programas de retribución flexible: seguro médico, tarjeta restaurante, abono de transporte, cheques para escuelas infantiles.
🌏 Como parte del grupo Scalian, abrimos nuestras fronteras y crecemos internacionalmente.
♻️ En el grupo apostamos por iniciativas sostenibles
Senior Data Engineer
16 ene.GFR Technologies SE
Senior Data Engineer
GFR Technologies SE · Madrid, ES
Teletrabajo Java MongoDB Python TSQL Azure NoSQL Cloud Coumputing Scala AWS Agile Kafka Spark
GFT es una compañía pionera en transformación digital. Diseñamos soluciones de negocio centradas en la inteligencia artificial (AI-Centric), modernizamos infraestructuras de TI y desarrollamos sistemas core de nueva generación para líderes del sector bancario, asegurador e industrial. En estrecha colaboración con nuestros clientes, desafiamos los límites para ayudarles a alcanzar todo su potencial.
¿Qué estamos buscando?
Actualmente tenemos un puesto vacante para un/a Senior Data Engineer que quiera unirse a nuestra compañía. Buscamos una persona con una sólida trayectoria en ciencia de datos, capaz de liderar equipos, diseñar estrategias analíticas y guiar la implementación de soluciones avanzadas en entornos de Inteligencia Artificial/ Data Science para nuestro CoE Data & AI.
Tus principales responsabilidades serán:
Aunque dependerán de tus conocimientos y experiencia aportada, en general las principales funciones que llevarías a cabo con nosotros serían:
- Diseñar, desarrollar y mantener pipelines de datos en entornos batch y streaming.
- Gestionar la ingesta, transformación y almacenamiento de datos en sistemas SQL y NoSQL.
- Colaborar con equipos de AI y Analytics para garantizar la disponibilidad y calidad de los datos.
- Implementar soluciones de procesamiento distribuido con Spark, Kafka y Flink.
- Desplegar y gestionar servicios de datos en entornos Cloud(AWS, Azure, GCP).
- Asegurar buenas prácticas de desarrollo, versionado y testing de pipelines de datos.
Requisitos:
- Experiencia profesional de más de 5 años en proyectos como Data Engineer.
- Experiencia profesional en lenguajes de programación: Java, Scala y/o Python.
- Conocimientos de bases de datos y estructuras de datos (SQL y/o NoSQL (MongoDB, Cassanda, etc)
- Cloud: Experiencia en al menos un proveedor (AWS, GCP o Azure).
- Buenas prácticas de desarrollo: versionado, testing, CI/CD.
- Conocimiento en orquestación de workflows (Airflow, Luigi, etc..).
- Experiencia en integración de datos con soluciones de ML/AI.
- Familiaridad con metodologías ágiles (Scrum/Kanban).
- Valorable nivel de inglés alto (B2/C1) para colaborar en proyectos internacionales.
Competencias personales:
- Trabajo en equipo y colaboracióhn multidisciplinaria.
- Habilidades de comunicación, favoreciendo dinámicas que permitan el flujo de conocimiento, con interés tanto en aprender como en enseñar.
- Buena comunicación y documentación técnica.
- Orientación a resultados y proactividad.
En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas sin tener en cuenta su raza, origen cultural, sexo, edad, orientación sexual, identidad de género, discapacidad o creencias religiosas. GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo
¡Únete a nuestro equipo global!
Als Partner für IT-Beratung und Software-Entwicklung sind wir auf die digitale Transformation unserer Kunden aus den Bereichen Finanzen, Versicherungen und Industrie spezialisiert. Unsere rund 700 Talente in Deutschland entwickeln mit modernsten Technologien nachhaltige Lösungen.
Qué ofrecemos
- Conciliación y Flexibilidad: Posibilidad de trabajar desde casa híbrido/remoto, jornadas flexibles y viernes intensivos.
- Formación y Desarrollo: Plan personalizado, programas formativos.
- Beneficios Sociales: Seguro vida, apoyo teletrabajo.
- Beneficios Flexibles "a la carta": Bolsa corporativa para comida, transporte, seguro médico, guardería y formación, ajustada a tus necesidades y combinada con retribución flexible.
- Paquete de Reubicación (si aplica): Apoyo económico, asesoramiento, patrocinio visas.
- Programa de Recomendaciones.
- Programa de Bienestar: Nutrición, Física, Mental. Descuentos con Wellhub. Servicio de apoyo psicológico gratuito.
- Vida en GFT: Oficinas inteligentes, eventos, premios de valores, charlas inspiradoras.
- Cultura corporativa internacional.
Ingeniero de datos - databricks
15 ene.Michael Page
Ingeniero de datos - databricks
Michael Page · Barcelona, ES
Teletrabajo Python TSQL Azure Cloud Coumputing Scala Git ITIL Spark Big Data Power BI Tableau
- Proyectos innovadores y multidisciplinares
- Crecimiento profesional en una empresa consolidada
¿Dónde vas a trabajar?
Se trata de una compañía tecnológica con más de dos décadas de trayectoria, especializada en soluciones avanzadas para la gestión del territorio y la explotación de datos. Combina ingeniería GIS, desarrollo de software y hardware, y proyectos innovadores en sectores estratégicos como movilidad, infraestructuras y seguridad. Su tamaño reducido favorece la cercanía y la participación activa en proyectos de alto impacto, con un enfoque en innovación y colaboración con grandes partners tecnológicos.
Descripción
- Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks.
- Implementar y operar arquitectura Lakehouse con Delta Lake.
- Definir e implantar controles de calidad de datos.
- Crear y mantener datasets listos para consumo.
- Gestionar gobernanza con Unity Catalog.
- Mejorar rendimiento y costes.
- Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos.
- Colaborar con seguridad y cumplimiento.
Otros conocimientos y experiencia valorable
- Experiencia en proyectos de Business Intelligence y definición de KPIs.
- Herramientas BI: Power BI / Superset / Tableau.
- Orquestación/ELT: dbt, Airflow, ADF (si aplica).
- Conocimientos de dominios de movilidad/transporte/servicios públicos.
- Familiaridad con ITIL y operación en entornos con criticidad alta.
Soft Skills
- Mentalidad analítica, rigor y orientación al detalle (calidad del dato).
- Comunicación clara con perfiles técnicos y negocio.
- Trabajo en equipo y colaboración transversal.
- Responsabilidad en gestión de datos críticos y mejora continua.
- Adaptabilidad a cambios de prioridades/procesos
¿A quién buscamos (H/M/D)?
Formación
- Grado o Ingeniería Técnica/Superior en Informática, Telecomunicaciones o disciplinas afines (Data Engineering / Data Science).
- Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos.
- Databricks Certified Data Engineer Associate (recomendable).
- Databricks Certified Data Engineer Professional (valorable).
- Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable).
Experiencia
- +2 años en tratamiento, explotación y análisis de datos en entornos productivos.
- Experiencia sólida en Databricks:
- Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.
- Operación de pipelines con Databricks Workflows/Jobs.
- Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD.
- Experiencia en Delta Lake y patrones Lakehouse:
- Tablas Delta, schema evolution, time travel, OPTIMIZE/Z-ORDER, VACUUM.
- Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico.
- Experiencia en calidad de datos:
- Detección, registro, seguimiento y resolución de incidencias de calidad.
- Definición de reglas de validación y monitorización.
- Experiencia en soporte a usuarios y herramientas de explotación.
Conocimientos
- Databricks / Lakehouse (imprescindible):
- Databricks Lakehouse y mejores prácticas de desarrollo/operación.
- Unity Catalog: Catálogo, permisos (RBAC), auditoría, lineagey gobernanza.
- Databricks SQL.
- Optimización y rendimiento Spark: particionado, file sizing, manejo de skew, caching, buenas prácticas de clusters.
Lenguajes:
- Python.
- SQL avanzado.
Cloud:
- Azure (preferente):
Operación: Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.
Idiomas: Catalán (leído, hablado y escrito).
¿Cuáles son tus beneficios?
- Participación en proyectos innovadores
- Entorno estable y cercano,
- Formación y desarrollo profesional
- Trabajo con tecnologías avanzadas
- Impacto real
- Flexibilidad y colaboración