No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araInformàtica i IT
930Comercial i Vendes
776Transport i Logística
497Desenvolupament de Programari
477Administració i Secretariat
455Veure més categories
Educació i Formació
383Comerç i Venda al Detall
324Màrqueting i Negoci
321Dret i Legal
303Enginyeria i Mecànica
246Disseny i Usabilitat
211Instal·lació i Manteniment
175Sanitat i Salut
141Publicitat i Comunicació
140Construcció
122Indústria Manufacturera
118Recursos Humans
83Hostaleria
72Arts i Oficis
70Immobiliària
63Producte
59Comptabilitat i Finances
54Atenció al client
53Art, Moda i Disseny
45Turisme i Entreteniment
41Banca
22Alimentació
21Cures i Serveis Personals
19Farmacèutica
15Social i Voluntariat
13Energia i Mineria
11Seguretat
10Esport i Entrenament
5Assegurances
3Telecomunicacions
3Agricultura
2Editorial i Mitjans
1Ciència i Investigació
0Apache Hadoop
WikipediaData Scientist - Área Ciberseguridad
25 de des.MAPFRE
Majadahonda, ES
Data Scientist - Área Ciberseguridad
MAPFRE · Majadahonda, ES
. Python TSQL Azure Jenkins Docker Cloud Coumputing Hadoop AWS PowerShell DevOps Power BI Big Data
¡Dale un cambio a tu vida y sigue desarrollando tu carrera profesional en MAPFRE! Formarás parte de un entorno internacional donde podrás innovar participando en proyectos globales y enfocados en las últimas tendencias tecnológicas. Todo esto en un entorno flexible y ágil rodeado de excelentes profesionales de todo el mundo… ¿estás list@?
¿Dónde estamos?
Majadahonda, Comunidad de Madrid.
¿Qué estamos buscando?
Desde la Dirección Corporativa de Seguridad (DCS), nos encontramos en búsqueda de un/a Científico/a de Datos para trabajar en proyectos de Ciberseguridad, una persona emprendedora que esté dispuesta a desafiar el statu quo de los procesos existentes en el Centro de Operaciones de Seguridad, con el objetivo de mejorar su eficiencia e introducir mejoras y soluciones basadas en datos e Inteligencia Artificial.
Trabajarás en un entorno dinámico de alto rendimiento dentro del Global SOC y tendrás la oportunidad de acceso a tecnologías punteras de grandes proveedores tecnológicos de primera línea a nivel mundial.
¿Cuáles serán tus responsabilidades?
- Definir una estrategia de Data para el Global SOC que permita a la Dirección Corporativa de Seguridad (DCS) extraer el máximo partido bajo las premisas de mejorar la eficiencia, mejorar la eficacia, y ampliar el alcance y las capacidades de control, monitorización y respuesta.
- Crear y gestionar una infraestructura de datos sólida y fiable que incluya herramientas de almacenamiento, procesamiento, transformación, visualización y reporte de datos, mediante plataformas basada en Sentinel, SPLUNK y AWS.
- Implementar y mantener prácticas de CI/CD para soluciones e infraestructura de datos, automatizando los procesos de implementación, pruebas y supervisión.
- Colaborar con el resto de los integrantes del Global SOC y otras áreas de la DCS para definir requisitos y proporcionar soporte técnico que posibiliten el acceso, la transformación y el análisis de datos para la aplicación de técnicas de Data Science.
- Optimizar el procesamiento de datos y los flujos de trabajo ETL, supervisando y mejorando continuamente su rendimiento, fiabilidad y escalabilidad.
- Garantizar que los estándares de seguridad y calidad de los datos se mantengan durante todo el ciclo de vida de los datos, implementando procesos adecuados de gobernanza de datos y mejores prácticas.
- Titulación: Grado en Ingeniería o Matemáticas con especialización en alguna disciplina de Data Science.
- Idioma: español (C1) e inglés (C1).
- Experiencia: al menos 1 año de experiencia trabajando en entornos de ciberseguridad y data.
- Manejo de tecnologías de Big Data, herramientas ETL y explotación del dato (Apache Airflow, Hadoop y PowerBI).
- Manejo avanzado de tratamiento de datos para entrenamiento de modelos IA (TensorFlow y Keras).
- Conocimientos en programación en SQL, Python, PowerShell y contenerización con tecnologías Docker.
- Conocimiento en alguna o varias de las siguientes tecnologías de seguridad:
- Conocimientos en tecnologías de detección (SIEM preferiblemente Sentinel y SPLUNK).
- Conocimientos en funcionamiento de tecnologías PROTECT (SASE, EDR, SOAR, VPN, DNS y O365).
- Conocimientos profundos en Criptografía.
- Conocimiento en tecnologías DevOps (Github, Jenkins y Bitbucket).
- Conocimiento de Cloud (AWS y Azure).
- Habilidades de comunicación.
- Trabajo en equipo.
- Orientación a resultados.
- Horario flexible, para que puedas atender a tus necesidades.
- Un programa de retribución flexible en el que tendrás: subvención de comida, cheques guardería, seguro médico, seguro de vida, descuentos para empleados, etc. Y si vives en la ciudad de Madrid, tendrás disponible una ruta de autobuses para llegar a la oficina.
- Acceso a un plan de pensiones atractivo.
- Descuentos en los productos y servicios que nuestra entidad comercializa.
- Jornada intensiva de verano.
- Serás el protagonista de tu ruta de aprendizaje, por lo que contarás con miles de recursos para seguir impulsando tu conocimiento técnico. Además, de forma extra contarás con 1100€ anuales para que puedas ampliar aún más tu expertise.
- Poder participar en proyectos de voluntariado.
- ¡Un lugar increíble para trabajar! Estamos en el ranking de las 50 mejores empresas para trabajar en España según la revista Forbes.
Todo proceso de selección que se desarrolla en MAPFRE se realiza bajo el principio de IGUALDAD DE OPORTUNIDADES y NO DISCRIMINACIÓN, siendo las APTITUDES y la VALÍA PERSONAL Y PROFESIONAL de la persona candidata, los criterios en los que se basa su elección final para el puesto de trabajo.
Creamos entornos de trabajo en los que se valora la diversidad y en los que no se producen discriminaciones por razón de sexo, raza, ideología, religión, orientación sexual, edad, nacionalidad, discapacidad o cualquier otra condición personal, física o social.
Puedes consultar nuestra política de Diversidad e Igualdad de Oportunidades: politica-de-diversidad-e-igualdad-de-oportunidades.pdf (mapfre.com)
Al inscribirte en esta oferta quedas informado y consientes el tratamiento por parte de MAPFRE, de los datos personales que has facilitado voluntariamente a través de esta plataforma. Si facilitas datos de terceras personas físicas distintas de ti, garantizas haber recabado y contar con el consentimiento previo de los mismos para la comunicación de sus datos y haberles informado.
MAPFRE como responsable, tratará tus datos, con la única finalidad de tramitar su participación en procesos de selección, para lo cual se podrán elaborar perfiles y del tratamiento de sus datos se podrá derivar la existencia de decisiones automatizadas. Con la finalidad de gestionar tu participación en diversos procesos de selección en empresas del Grupo MAPFRE, filiales y participadas, y Fundación MAPFRE, tus datos podrán comunicarse a dichas entidades, y ser objeto de transferencia internacional.
Puedes consultar información adicional de protección de datos en MAPFRE en https://www.mapfre.com/corporativo-es/clausulas/RRHHseleccion.pdf donde te indicamos donde ejercer los derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de tus datos personales.
Jefe/a de Proyecto - Remoto
25 de des.The Whiteam
Jefe/a de Proyecto - Remoto
The Whiteam · Bilbao, ES
Teletreball . Java TSQL Azure Scrum Elasticsearch Scala Git Hadoop R Agile Kanban Kafka Power BI
En THE WHITEAM buscamos un perfil de jefe/a de proyectos para que se una a un proyecto de largo plazo con nuestro equipo.
Este es un proyecto con modalidad remoto aun que existe la posibilidad de trabajo presencial en las ciudades Madrid, Bilbao, Vitoria, San Sebastián, Zaragoza para aquel candidato que lo requiera y que cuenta con un salario aproximado de 48K anual.
Requisitos
- Experiencia mínima de 1 año con el rol de jefe de proyectos.
- Experiencia mínima de 7 años en el mundo del dato.
- Experiencia mínima de 5 años en las herramientas: Phyton, Spark/Pyspark, SQL, Apache Hadoop, Azure, Git, Power BI.
- Experiencia con herramientas de programación: Scala, R, Java.
- Experiencia previa con metodologías ágiles: Scrum, Kanban, etc.
- Conocimiento con las herramientas: Apache Kafka, NIFI, ElasticSearch.
- Conocimiento con bases de datos no relacionales.
Formar parte de THEWHITEAM es colaborar con una empresa formada por profesionales con una dilatada experiencia en consultoría tecnológica.
Creemos firmemente que las empresas y clientes marcan el camino a seguir en el sector, pero éste lo construyen las personas. Consideramos de vital importancia que nuestra organización se fundamente en nuestro mejor activo y marca de valor añadido que es nuestro equipo humano.
Beneficios
Por otra parte, te dejo también un pequeño resumen de políticas de la compañía para que nos vayas conociendo un poco mejor:
- Nuestro convenio es el de Consultoras y estudios de mercado
- Tenemos 23 días de vacaciones al año
- Tenemos 14 pagas, 12 mensuales y dos extras (junio y diciembre)
- Como retribución flexible podemos pedir ticket guardería y también seguro médico + dental.
Arquitecto/a Plataformas de Datos
25 de des.GMV
Arquitecto/a Plataformas de Datos
GMV · Madrid, ES
Teletreball Azure Cloud Coumputing Hadoop Kafka Spark Big Data
Si disfrutas diseñando plataformas de datos que impulsan decisiones estratégicas y proyectos de alto impacto, este es tu lugar.Nos gusta ir al grano, te vamos a contar lo que no está en la red. Si quieres saber más sobre nosotros, accede a la web de GMV
¿A QUÉ RETO TE VAS A ENFRENTAR?
En nuestro equipo liderarás la arquitectura e implementación de plataformas de datos escalables y seguras. Para ello realizarás las siguientes funciones:
- Impulsar el despliegue e integración de plataformas corporativas como IBM Watsonx, Azure y Google Cloud
- Garantizar seguridad, escalabilidad y rendimiento en todas las soluciones
- Aplicar conocimientos de gobernanza de datos al diseño de plataformas
- Definir y cumplir estándares arquitectónicos y buenas prácticas
- Colaborar con equipos multidisciplinares, influir en los stakeholders y comunicar una visión estratégica clara
¿QUÉ NECESITAMOS EN NUESTRO EQUIPO?
Para este puesto, estamos buscando expertos en Big Data que quieran un entorno estable en el que
desarrollarse, con trayectoria y experiencia en diseño e implementación de arquitecturas escalables, seguras y de alto rendimiento.También valoraremos conocimientos en plataformas cloud, MLOps o conocimientos en herramientas como Hadoop, Spark y Kafka.
¿QUÉ TE OFRECEMOS?
💻 Modelo de trabajo híbrido y 8 semanas al
año de teletrabajo fuera de tu área geográfica habitual🕑 Horario flexible de entrada y salida, y jornada intensiva viernes y verano. 🚀 Desarrollo de plan de carrera personalizado,
formación y ayuda para el aprendizaje de idiomas.🌍 Movilidad nacional e internacional. ¿Vienes de otro país? Te ofrecemos un relocation package. 💰 Retribución competitiva con revisiones
continuas, retribución flexible y descuento en marcas. 💪Programa Wellbeing: seguro médico,
dental y de accidentes; fruta y café gratis, formación en salud física,
mental y económica, y ¡mucho más!⚠️ En nuestros procesos de selección
siempre tendrás contacto telefónico y personal, presencial u online, con
nuestro equipo de talent acquisition. Además, jamás se solicitarán
transferencias ni tarjetas bancarias. Si contactan contigo siguiendo otro
proceso, escribe a nuestro equipo a la dirección de correo [email protected]❤️Promovemos la igualdad de oportunidades en la
contratación comprometidos con la inclusión y la diversidad
¿A QUE ESPERAS? ÚNETE
Administrador/a Sr. de Infraestructura
24 de des.Michael Page
Administrador/a Sr. de Infraestructura
Michael Page · Madrid, ES
Teletreball Linux Cloud Coumputing Kubernetes Elasticsearch Hadoop PostgreSQL Big Data
Perfil buscado (Hombre/Mujer)
Experiencia mínima de 5 años en un puesto similar dentro del sector TI.
Amplia experiencia en administración de sistemas operativos Linux (familia Red Hat).
Experiencia demostrable instalando, administrando y operando dos o más de las siguientes tecnologías:
• SuSE Rancher y clústeres Kubernetes
• Elasticsearch
• Componentes de Hadoop en Cloudera Private Cloud Platform (Hadoop, Yarn, HBase, Impala, etc.)
• Plataformas de virtualización VMware vSphere
Conocimiento o experiencia en:
• Soluciones de alta disponibilidad
• Balanceadores de carga
• Bases de datos relacionales (PostgreSQL)
• Sistemas de monitorización (Nagios)
• Herramientas de automatización y despliegue
Conocimientos básicos de redes, firewalls, almacenamiento SAN y hardware con arquitectura x86.
Formación universitaria en Ingeniería, Ciencias de la Computación o similar.
• Proyecto estable
• Formarás parte de un ecosistema de Talento Tecnológico
• Proponer, argumentar y defender soluciones técnicas ante perfiles no técnicos.
• Realizar seguimiento de los sistemas desde la capa de virtualización hasta los servidores de aplicaciones, asumiendo tareas de administración y mantenimiento.
• Trabajar de forma autónoma, bajo presión y orientado/a a objetivos, cumpliendo con los plazos establecidos.
• Resolver incidencias tomando decisiones fundamentadas en la evaluación de riesgos.
• Diseñar plataformas según requisitos funcionales, necesidades de disponibilidad, volumen de datos y número de usuarios.
• Participar en proyectos de diseño, implementación y operación de plataformas de big data y analítica.
• Proporcionar soporte a equipos internos y desarrollar scripts para monitorización y automatización.
• Demostrar experiencia en tecnologías big data y capacidad para aprender nuevas herramientas rápidamente.
• Mantener un enfoque responsable, analítico y orientado a la calidad y confidencialidad de los entregables.
Page Consulting Tech Solutions, es el área de PageGroup especializada en la realización de proyectos IT en clientes, ofreciendo una amplia variedad de soluciones tecnológicas a medida con la flexibilidad y agilidad requerida.(https://www.michaelpage.es/seleccion-personal/technology-consulting)
• Contrato indefinido con Page Consulting Tech Solutions.
• Salario en función de la experiencia aportada.
• Modelo híbrido de trabajo en la sede del cliente (Canillas - Madrid)
• Formación continua para desarrollar tu talento.
• Beneficios sociales y plan de retribución flexible.
• Compensación de gastos de teletrabajo.
• Plan de carrera en un ecosistema de talento tecnológico.
Technical Expert - Data AI
23 de des.Talan
Málaga, ES
Technical Expert - Data AI
Talan · Málaga, ES
Java Python Agile TSQL Azure NoSQL Scrum Docker Cloud Coumputing Kubernetes Scala Oracle Hadoop AWS R Kafka Spark Big Data Machine Learning Salesforce Office
Company Description
Talan - Positive Innovation
Talan is an international consulting group specializing in innovation and business transformation through technology. With over 7,200 consultants in 21 countries and a turnover of €850M, we are committed to delivering impactful, future-ready solutions.
Talan at a Glance
Headquartered in Paris and operating globally, Talan combines technology, innovation, and empowerment to deliver measurable results for our clients. Over the past 22 years, we´ve built a strong presence in the IT and consulting landscape, and we´re on track to reach €1 billion in revenue this year.
Our Core Areas of Expertise
- Data & Technologies: We design and implement large-scale, end-to-end architecture and data solutions, including data integration, data science, visualization, Big Data, AI, and Generative AI.
- Cloud & Application Services: We integrate leading platforms such as SAP, Salesforce, Oracle, Microsoft, AWS, and IBM Maximo, helping clients transition to the cloud and improve operational efficiency.
- Management & Innovation Consulting: We lead business and digital transformation initiatives through project and change management best practices (PM, PMO, Agile, Scrum, Product Ownership), and support domains such as Supply Chain, Cybersecurity, and ESG/Low-Carbon strategies.
We work with major global clients across diverse sectors, including Transport & Logistics, Financial Services, Energy & Utilities, Retail, and Media & Telecommunications.
Job Description
The Technical Expert - Data & AI is responsible for providing technical leadership, advanced expertise, and deep knowledge in data and artificial intelligence to design, build, optimize, and support data and AI platforms, pipelines, and architectures. The role acts as a technical reference within the CIO organization, ensuring that data and AI initiatives are robust, scalable, secure, and aligned with business strategy and the group´s data governance framework.
Key Responsibilities
Platform leadership, build, and maintenance:
Define standards, best practices, and frameworks for the construction, deployment, and maintenance of data and AI infrastructures (on-premises, cloud, or hybrid).
ML/AI model implementation and operations:
Participate in the implementation and deployment of machine learning, deep learning, and AI models, ensuring integrity, performance, monitoring, and ongoing maintenance.
Technical validation and tool evaluation:
Evaluate new technologies, tools, and platforms (open source, commercial, cloud) to optimize the data/AI ecosystem; lead proof-of-concepts (PoCs) and benchmarking activities.
Architecture definition and solution design support:
Support the design of data and AI technical solutions - including data pipelines, data lakes/warehouses, streaming, MLOps, and analytics platforms - to meet strategic objectives.
Integration and deployment:
Coordinate the integration of data and AI solutions with other corporate systems, ensuring compatibility, security, and efficiency.
Governance, security, and compliance:
Ensure solutions comply with data governance, security, privacy, and regulatory standards (e.g., data regulations, internal policies).
Technical support and mentoring:
Act as a technical point of reference by resolving questions from architects, data engineers, and data scientists; guiding and reviewing technical designs; and promoting best practices and standards.
Cross-functional collaboration:
Work closely with business, analytics, cybersecurity, infrastructure, and compliance teams to ensure alignment between business needs, regulations, and technical capabilities.
Documentation and technical communication:
Document architectures, processes, and technical decisions; communicate risks, technical decisions, and project status to the CIO and relevant stakeholders.
Continuous innovation:
Stay current with emerging trends in AI, big data, MLOps, automation, cost optimization, and performance. Promote piloting of new technologies when appropriate.
Qualifications
- Minimum of 5-8 years of relevant experience in advanced technical roles related to data, big data, cloud, AI, ML, or data engineering.
- At least 3 years of experience designing and architecting data/AI solutions in complex environments (large-scale data, security/regulatory constraints, corporate environments).
- Hands-on experience implementing data pipelines, data lakes/warehouses, ingestion processes, transformation, and batch and/or streaming processing.
- Experience deploying ML/AI models into production using MLOps best practices, including monitoring and maintenance.
Strong Technical Knowledge
Programming languages:
Python, SQL. Preferred: Scala, Java, R.
Platforms / Big Data / Cloud:
Experience with cloud services (AWS, Azure, GCP) or hybrid/on-prem environments. Knowledge of tools such as Spark, Databricks, Hadoop, Kafka, Airflow, Trino, etc.
Databases and modeling:
Relational and dimensional modeling; NoSQL databases (document, key-value, columnar); data lakes and data warehouses.
Machine Learning / AI / MLOps:
ML/AI frameworks, training and inference pipelines, orchestration, containers (Docker, Kubernetes), deployment, monitoring, and model versioning.
Infrastructure & automation:
Infrastructure as Code (IaC), containers, orchestration, CI/CD pipelines, and automation tools.
Security and compliance:
Knowledge of data governance regulations, data protection, encryption, access control, and security best practices.
Additional Information
What do we offer you?
- Hybrid position based in Malaga, Spain
- Possibility to manage work permits.
- Permanent, full-time contract.
- Smart Office Pack so that you can work comfortably from home.
- Training and career development.
- Benefits and perks such as private medical insurance, life insurance, Language lessons, etc
- Possibility to be part of a multicultural team and work on international projects.
If you are passionate about data, development & tech, we want to meet you!
Data Analyst Intern Performance
22 de des.Criteo
Barcelona, ES
Data Analyst Intern Performance
Criteo · Barcelona, ES
Python TSQL Hadoop Tableau
What You´ll Do:
As a member of our Performance Media Analytics team, you won´t just analyse data; you´ll be the cornerstone that connects groundbreaking ideas with real-world business applications. Here, your expertise will not only shape solutions but also empower our clients and commercial teams to make impactful decisions:
- Client insights: you will analyze complex data from multiple sources to understand the performance of our advertisers campaigns and generate innovative and impactful insights
- Data-Driven Innovation: Leverage cutting-edge tech like Hadoop, Vertica, Tableau, Python, and SQL to transform complex business challenges into groundbreaking solutions.
- Reporting tools and metrics: you will develop and scale reports and metrics that will present actionable insights to teams across the business and strategic leadership teams
- Tech Playground: Immerse yourself in an environment where experimenting with advanced analytics tools isn´t just encouraged, it´s part of your daily work.
- Collaborative projects: you will work on ad hoc projects with different teams to automate analyses globally, improve our internal processes and our way of working and scale knowledge across the company.
Who You Are:
- A problem-solver with a passion for analytics and a logical approach to challenges.
- Interested in solving data problems using Python & SQL, and enthusiastic about automating and scaling solutions.
- Business-minded with a goal to turn data insights into actionable strategies.
- Team player who thrives in a collaborative, inclusive, and vibrant workspace.
- Fluent in English and skilled at simplifying complex concepts for diverse audiences.
We acknowledge that many candidates may not meet every single role requirement listed above. If your experience looks a little different from our requirements but you believe that you can still bring value to the role, we´d love to see your application!
Who We Are:
Criteo is a leader in commerce media, helping brands, agencies, and publishers create meaningful consumer connections through AI-powered advertising solutions. We´re shaping a more open and sustainable digital future for advertising.
At Criteo, our culture is as unique as it is diverse. From our offices across the globe or from the comfort of home, our 3,600 Criteos collaborate together to build an open, impactful, and forward-thinking environment.
We foster a workplace where everyone is valued, and employment decisions are based solely on skills, qualifications, and business needs-never on non-job-related factors or legally protected characteristics.
What We Offer:
Ways of working - Our hybrid model blends home with in-office experiences, making space for both.
Grow with us - Learning, mentorship & career development programs.
Your wellbeing matters - Health benefits, wellness perks & mental health support.
A team that cares - Diverse, inclusive, and globally connected.
Fair pay & perks - Attractive salary, with performance-based rewards and family-friendly policies, plus the potential for equity depending on role and level.
Data Architect
19 de des.sg tech
Madrid, ES
Data Architect
sg tech · Madrid, ES
MySQL Python Azure Scrum Hadoop AWS R Agile Cloud Coumputing Kanban Spark Big Data
En SG Tech buscamos un/a Arquitecto/a de Datos para incorporarse a un proyecto en Madrid, en modalidad híbrida.
Su misión será diseñar, desarrollar y mantener sistemas de datos eficientes y escalables, garantizando que sean accesibles, fiables y fácilmente analizables por las distintas áreas de la compañía, participando activamente en la definición de la arquitectura de datos y en la mejora continua de los procesos de ingesta, transformación y gobierno del dato.
Funciones principales
- Colaborar con los equipos internos para definir requisitos funcionales y técnicos de cada iniciativa de datos.
- Analizar, combinar y preparar datos en función de los requisitos de negocio y las especificaciones de diseño.
- Diseñar y desarrollar canalizaciones de datos y procesos ETL/ELT.
- Optimizar y reformular estructuras de datos existentes para mejorar su calidad, rendimiento y fiabilidad.
- Documentar de forma estructurada procesos, flujos de datos, modelos y reportes.
- Implementar y aplicar métodos de supervisión de la calidad del dato, garantizando su precisión y disponibilidad.
- Desarrollar y mantener un plan de arquitectura de la plataforma de datos a largo plazo.
- Asegurar buenas prácticas de gobernanza, integración, almacenamiento y modelado de datos, alineadas con la estrategia de la compañía.
Condiciones de la posición
- Ubicación: Madrid.
- Modalidad: Híbrida (presencial en cliente + remoto).
- Horario:
- Jornada habitual de oficina Getronics: 8,5 horas de lunes a jueves.
- Viernes y meses de verano: jornada intensiva.
- Flexibilidad horaria de entrada y salida.
Requisitos
Imprescindibles
- Mínimo 5 años de experiencia demostrada como Arquitecto/a de Datos o en un rol similar (Data Engineer senior, Data Platform Architect, etc.).
- Experiencia sólida en entornos de computación en la nube (Azure, AWS o GCP).
- Experiencia con herramientas ETL y plataformas de datos, tales como:
- Azure Data Factory, Microsoft Fabric, Pentaho, RStudio u otras similares.
- Experiencia con bases de datos relacionales y no relacionales (MySQL, MSSQL, etc.).
- Habilidad práctica con lenguajes de programación:
- Python, R y scripting en Shell.
- Conocimientos avanzados en:
- Infraestructura de datos, gobernanza (gestión y responsabilidad del dato), integración, almacenamiento y modelado de datos.
- Experiencia en tecnologías Big Data (Hadoop, Spark, Flink, etc.).
- Manejo de herramientas de orquestación y automatización como Airflow, ADF u otras similares, así como tecnologías tipo Delta Lake, Polars, PySpark u otras librerías de alto rendimiento para procesamiento de datos.
- Orientación al detalle, capacidad analítica y fuerte orientación a resultados en entornos ágiles y dinámicos.
- Buenas habilidades de comunicación e interlocución con distintas áreas de negocio y equipos técnicos.
- Motivación por estar al día en las últimas tendencias en ingeniería y arquitectura de datos y disposición para el aprendizaje continuo.
Valorable
- Licenciatura o Máster en Ingeniería de Datos o campo relacionado (Informática, Telecomunicaciones, Matemáticas, Ingeniería, etc.).
- Experiencia previa en entornos corporativos complejos o de alto volumen de datos.
- Experiencia trabajando con metodologías ágiles (Scrum, Kanban).
Data Engineer
15 de des.UST
Data Engineer
UST · Madrid, ES
Teletreball Java Agile TSQL Scrum Jenkins Scala Git Hadoop Kanban Kafka Spark Big Data Tableau
Role description
¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo!
Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías.
¿Qué buscamos?
Para uno de nuestros principales clientes del sector Banca. Nos encontramos en la búsqueda de un Data Engineer con experiencia trabajando con SQL y Spark.
Funciones
Diseñar y desarrollar pipelines de datos eficientes y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes.
Gestionar y optimizar la infraestructura de datos garantizando su seguridad, rendimiento y escalabilidad.
Colaborar con los equipos para facilitar el acceso a los datos, desarrollando APIs y asegurando que la calidad de los datos sea adecuada para su explotación.
Realizar análisis de rendimiento y optimización de las consultas a las bases de datos, minimizando tiempos de respuesta y costos asociados al procesamiento.
Desarrollar e implementar flujos de trabajo ETL (Extract, Transform, Load) y procesos ELT según las necesidades del negocio.
Qué esperamos de ti:
Al menos 3 años de experiencia como Data Engineer.
Experiencia en Big Data: conocimiento profundo de tecnologías como Hadoop, Spark, Hive y Kafka.
Dominio avanzado de SQL para la gestión y optimización de bases de datos.
Sólidos conocimientos de programación en lenguajes como Java o Scala para manipulación de datos y desarrollo de scripts.
Experiencia con plataformas Cloudera en la nube.
Experiencia en la creación de pipelines de datos con herramientas de automatización y orquestación con Oozie.
Familiaridad con herramientas de versionado de código y CI/CD (Git, Jenkins).
Familiaridad con herramientas de visualización y análisis de datos (como Tableau o Microstrategy), aunque no esencial. Otras Competencias
Experiencia en la aplicación de metodologías Agile (Scrum, Kanban) para el desarrollo de proyectos y entrega continua.
¿Qué te ofrecemos?
23 días laborables de vacaciones y el 24 y 31 de diciembre.
Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes).
Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia...).
Acceso gratuito a varias plataformas de formación.
Estabilidad y carrera profesional.
Tenemos implantado un plan de compensación de referencias internas.
Posibilidad de elección de percibir tu salario en 12 o 14 pagas.
Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto).
Plataforma UST Club descuentos y descuentos en gimnasios.
Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando!
En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.