¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
819Comercial y Ventas
801Adminstración y Secretariado
613Transporte y Logística
515Desarrollo de Software
359Ver más categorías
Educación y Formación
316Derecho y Legal
315Comercio y Venta al Detalle
279Ingeniería y Mecánica
261Marketing y Negocio
241Diseño y Usabilidad
165Construcción
164Instalación y Mantenimiento
159Publicidad y Comunicación
138Recursos Humanos
123Sanidad y Salud
108Contabilidad y Finanzas
99Industria Manufacturera
95Hostelería
74Inmobiliaria
56Arte, Moda y Diseño
49Producto
47Artes y Oficios
46Atención al cliente
45Turismo y Entretenimiento
33Seguridad
31Alimentación
24Banca
24Social y Voluntariado
12Cuidados y Servicios Personales
11Farmacéutica
10Deporte y Entrenamiento
6Energía y Minería
6Telecomunicaciones
3Agricultura
1Editorial y Medios
1Ciencia e Investigación
0Seguros
0Ingeniero/a de Machine Learning
12 dic.Carrefour España
Alcobendas, ES
Ingeniero/a de Machine Learning
Carrefour España · Alcobendas, ES
. Python Scrum Cloud Coumputing Agile Kanban Spark Big Data Machine Learning
En Carrefour Tech estamos en búsqueda de un ingeniero/a de machine learning con experiencia en industria, visión de negocio y capacidad técnica para desarrollar y productivizar soluciones de Machine Learning para nuestra área de Data Science, siendo responsable del proceso de extremo a extremo (E2E) en un entorno basado en Google Cloud Platform (GCP). El objetivo es resolver problemas complejos de negocio, como la optimización de procesos, la previsión de la demanda y la personalización de la oferta, transformando los datos en impacto medible y tangible para Carrefour.
Las principales responsabilidades serán:
- Desarrollo de Modelos de ML: Diseñar, entrenar y validar modelos de Machine Learning para resolver problemas de series temporales, clasificación, regresión y optimización con un alto impacto en el negocio.
- Gestión del Ciclo de Vida Completo (E2E): Asumir la responsabilidad completa de los proyectos, desde la concepción entendiendo la necesidad de negocio y el análisis de los datos necesarios al proyectos hasta la puesta en producción y el mantenimiento de los modelos. Buscamos a gente que quiera hacerse owner del desarrollo y producción de los algoritmos y sistemas inteligentes.
- Industrialización y Orquestación: Construir y gestionar pipelines de datos y modelos robustos y escalables utilizando herramientas como Apache Airflow en el entorno de Google Cloud, asegurando la calidad y el control del proyecto.
- Gestión de Proveedores: Coordinar y supervisar el trabajo de proveedores externos para el desarrollo de soluciones, asegurando la viabilidad técnica, la calidad del entregable y su correcta industrialización.
- Documentación y Escalabilidad: Asegurar la adecuada documentación y sostenibilidad de las soluciones implementadas, garantizando su escalabilidad en el tiempo.
Se requiere:
- Estudios superiores: Ingeniería Informática, Matemáticas, Estadística o similar. Se valorará positivamente Máster o PhD en áreas relacionadas con machine learning, data science, IA o big data.
- Proactividad, autonomía y foco en negocio: perfil proactivo, con alta capacidad para la resolución de problemas y para trabajar de forma autónoma en un entorno dinámico. Capacidad para entender los procesos de negocio y alinear las soluciones técnicas con los objetivos estratégicos de la compañía.
Experiencia demostrable de como mínimo 3 años en:
- Sólidos conocimientos de teoría de machine learning y data science: algoritmos de clasificación y de regresión para datos tabulares, métricas de rendimiento, workflow en un proyecto de aprendizaje supervisado y no supervisado, construcción de datasets para ML y sólida base en estadística (descriptiva e inferencial).
- Experiencia en el desarrollo de modelos de machine learning con Python y las bibliotecas de ML y data science principales (NumPy, Pandas, Matplotlib, Scikit-Learn y similares).
- Serán necesarios conocimientos de PySpark para manejo y análisis de grandes volúmenes de datos en entornos de computación distribuida (EMR, Google Cloud Dataproc, Databricks o similares), así como de spark ML.
- Experiencia en la puesta en producción de modelos (MLOps) y en el uso de herramientas de orquestación de flujos de trabajo, especialmente con Apache Airflow.
- Conocimientos prácticos del ecosistema Google Cloud Platform para data science y ML, especialmente en servicios BigQuery, Cloud Dataproc y Vertex AI.
Se valorará positivamente la experiencia en:
- Herramientas de observabilidad y monitorización de modelos de ML
- Experiencia en la industrialización de proyectos de machine learning en grandes organizaciones en preferencia en Retail
- Sistemas de recomendación y modelos de ranking (LTR)
- Teoría de deep learning y práctica con PyTorch
- Familiaridad con metodologías ágiles (Scrum, Kanban).
- Nivel alto de inglés o francés
Ofrecemos:
- Un entorno dinámico y retador.
- Oportunidades de desarrollo profesional en una empresa líder en el sector.
- La posibilidad de liderar proyectos estratégicos de alto impacto.
¡Nos encantará conocerte y contarte más detalles de nuestro proyecto profesional!
Data Engineer
12 dic.Michael Page
Data Engineer
Michael Page · Madrid, ES
Teletrabajo Python TSQL Docker Kubernetes Git AWS Fintech Terraform
Perfil buscado (Hombre/Mujer)
This role will report into the CPTO and will require working closely with Heads of various Business functions.
The Data Engineer will be responsible for developing and optimizing scalable data pipelines, ensuring data integrity and system performance, and collaborating with cross-functional teams to enable data-driven decision-making across the organization. The position requires strong skills in Python for data engineering and SQL, as well as experience with AWS.
Required skills:
• Based in Madrid;
• Proficiency in Python for scripting, automation and ETL development;
• Advanced SQL skills, experience with DBT (Data Build Tool or similar) for data transformation and modelling;
• Hands-on experience with AWS data services such as S3, Glue, Athena, and MWAA;
• Familiarity with Git and CI/CD workflows;
• Strong problem solving skills and attention to detail;
• Excellent collaboration and communication skills across diverse teams;
• Fluent in English. Fluency in Spanish is a strong plus.
• Company belongs to the Fintech environment
• Python, ETL, AWS and CI/CD expert as a Data Engineering
A successful Data Engineer should have:
• Bachelor´s or Master´s degree in Computer Science, Engineering or a related field (or equivalent practical experience);
• Experience with infrastructure-as-code tools like CloudFormation or Terraform;
• Familiarity with containerization technologies such as Docker and Kubernetes;
• Exposure to AWS Lake Formation and Lambda for serverless processing;
• Valuable knowledge of data visualization tools such as QuickSight, Looker or similar
This opportunity is with a medium-sized organization within the Financial Services industry. The company is committed to leveraging technology to enhance its services and operations, ensuring it stays at the forefront of its field.
• 100% remote. Final client.
• Opportunities to work in the Financial Services industry with advanced technologies.
• Professional growth within a medium-sized organization
Data Engineer internship (m/f/x)
11 dic.Procter & Gamble
Madrid, ES
Data Engineer internship (m/f/x)
Procter & Gamble · Madrid, ES
. Python TSQL Cloud Coumputing Machine Learning Power BI Office
Job Location
MADRID GENERAL OFFICE
Job Description
We are seeking a Data Engineering Intern with strong statistical foundations and interest in applied machine learning. You will actively code, optimize, and harden pipelines to ensure performance, reliability, and alignment with business requirements while enabling statistical and ML workloads.
Your key to success will be your ability to build on and combine soft skills and business understanding with technical skills and use integrative thinking to convey solutions to drive actions with your key business partners across levels and functions.
Key Responsibilities
- Statistical data profiling (distributions, outliers, missingness).
- Build and optimize ETL pipelines.
- Implement data quality and validation.
- Contribute to data model design.
- Document solutions, patterns, and standards
- Support statistical profiling, exploratory data analysis (EDA), and feature engineering.
- Help design basic experiments / A/B tests and interpret statistical outcomes.
- Monitor pipeline and model performance (latency, data drift, metric stability).
- Python and SQL programming skills required.
- Core statistics (probability basics, sampling, confidence intervals) required.
- Understanding of regression and classification fundamentals required.
- Cloud basics and Databricks experience valued.
- Experience with Power BI or other reporting tools valued.
- Mandatory English proficiency (B2+) required.
- Bachelor's degree (completed or in progress) required.
Full time
Job Number
R000138964
Job Segmentation
Internships
QA Data Engineer
11 dic.Serem
Barcelona, ES
QA Data Engineer
Serem · Barcelona, ES
QA
Desde Serem estamos seleccionando un/a QA Data Engineer o Data QA Tester con experiencia en la gestión operativa de la calidad del dato. Buscamos un perfil analítico con buenas habilidades en coordinación y documentación, y experiencia trabajando con bases de datos. La persona seleccionada se encargará de tareas de análisis, seguimiento, coordinación y reporting en un entorno dinámico y de alta responsabilidad, con un enfoque en el análisis de la calidad del dato.
¿Cuáles son los requisitos de este rol?
Experiencia mínima de 3 años en la gestión operativa de la calidad del dato.
Conocimientos en bases de datos para la gestión y análisis de peticiones.
Certificación ISTQB valorada (para perfiles con experiencia en pruebas de calidad de datos).
Perfil analítico, con buenas habilidades de coordinación y documentación.
Experiencia en banca o en entornos de gestión del dato es un plus.
¿Cuáles son las funciones principales?
Gestionar peticiones y realizar análisis de calidad del dato.
Validar la integridad, consistencia y disponibilidad del dato.
Identificar necesidades de planchado, generación o clasificación de datos sensibles.
Monitorizar entornos y reportar incidencias al área de Resiliencia.
Coordinar proyectos con los equipos correspondientes y elaborar métricas y reportes de actividad.
Condiciones laborales:
Formato de trabajo híbrido: La persona seleccionada podrá trabajar de forma híbrida (presencialidad cuando se requiera) desde cualquiera de nuestras oficinas del cliente ubicadas en Barcelona, Madrid, Valencia, Cantabria en remoto desde cualquier punto de España.
Sector: Banca, trabajando en un entorno innovador y de alto impacto.
Español (Requisito esencial)
Inglés (Nivel intermedio será valorado)
Desde Serem buscamos perfiles proactivos, con ganas de crecer en un entorno de trabajo flexible y retador. Si cumples con los requisitos y estás interesado/a en unirte a un equipo profesional y dinámico, ¡esperamos tu CV!
Si estas interesado, crees que te ajustas ¡inscríbete en la oferta! ¡Queremos conocerte!
Desarrollamos nuestras actividades bajo los principios del cuidado del medioambiente, la sostenibilidad y la responsabilidad social corporativa; colaborando en proyectos de reforestación y sostenibilidad.
Apoyamos los 10 principios del Pacto Mundial y los 17 Objetivos de Desarrollo Sostenible, en materia de derechos humanos, condiciones laborales, medio ambiente y anticorrupción.
Los procesos de reclutamiento se desarrollan bajo altos estándares de calidad definiendo la incorporación en base a la experiencia y habilidades del candidato.
Data Engineer Python
11 dic.Bitpanda
Data Engineer Python
Bitpanda · Barcelona, ES
Teletrabajo Python TSQL Cloud Coumputing Kubernetes REST AWS Terraform Kafka Office
Who we are
We simplify wealth creation. Founded in 2014 in Vienna, Austria by Eric Demuth, Paul Klanschek and Christian Trummer, we´re here to help people trust themselves enough to build their financial freedom - for now and the future. Our user-friendly, trade-everything platform empowers both first-time investors and seasoned experts to invest in the cryptocurrencies, crypto indices, stocks*, precious metals and commodities* they want - with any sized budget, 24/7. Our global team works across different cultures and time zones, bringing our products to more than 6 million customers, making us one of Europe´s safest and most secure platforms that powers modern investing.
Headquartered in Austria but operating across Europe, our products are built by fast-moving, talented, "roll-up-your-sleeves-and-make-it-happen" kind of people. It´s these diverse perspectives and innovative minds operating as ONE TEAM that keep Bitpanda at the cutting edge of our industry. So if you´re someone who thinks big, moves fast and wants to make an impact right from day one, then get ready to join our industry-changing team. Let´s go!
Your mission
Join our growing crew of data enthusiasts and take a pivotal role in shaping the modern data platform that powers Bitpanda end-to-end. You´ll build intuitive, reliable data products that sit at the heart of our decision-making, enabling teams across the business to move faster, innovate smarter, and scale with confidence. Your work will directly influence how Bitpanda grows, optimises, and delivers an exceptional experience to millions of users.
What you´ll do
- Participate in building and operating a data platform that empowers everyone in the company, ensures performance and reliability, and with user-friendliness always in mind.
- Shape to the ongoing design of our core data model to support advanced analytics and reporting and define data quality, governance, and lifecycle standards with clear processes and documentation.
- Design, implement, and maintain robust, observable data pipelines for ingestion and transformation and applying solid engineering practices (testing, code reviews, CI/CD, versioning)
- Partner with stakeholders across product, operations, finance, risk/compliance, and engineering to turn business goals into pragmatic, measurable data solutions.
- Contribute to team strategy and roadmapping to align the team´s technical efforts with broader organisational goals.
Who you are
- You build production-grade dataflows with Python and SQL, schedule/operate them with Airflow or Dagster, and model/test transformations in dbt.
- You´re comfortable in AWS (GCP/Azure welcome) and provision cloud resources in code with Terraform (or similar).
- You operate Snowflake thoughtfully, structure roles and permissions, optimise performance and cost
- You understand data quality and governance fundamentals (validation, documentation, lineage, privacy).
- You bring a growth mindset and willingness to learn with additional bonus points if you have experience with: Kubernetes, Kafka, event collection platform (RudderStack/Segment), data catalogs (DataHub), Apache Iceberg (or other open table formats), and A/B testing/feature flags.
What´s in it for you
- Flexibility to work where you thrive - Enjoy the freedom of our Hybrid working model, combining onsite collaboration and remote work, with an additional 25 days per year to work from a city or country of your choice.
- Reward for your impact - Receive a competitive total compensation package aligned with Bitpanda´s pay-for-impact policy, including participation in our stock option plan.
- Support for your mental wellbeing - Access confidential coaching, counselling, and mental health resources whenever you need them through OpenUP.
- Time to recharge - Take extra time off to rest, reset, and recharge, with 3 additional days off in 2026 to prioritise your wellbeing.
- Continuous learning and growth - Grow your skills and stay ahead in your career with unlimited access to Udemy´s library of online courses at your own pace.
- Exclusive perks and rewards - Enjoy discounts, rewards, and perks from partners worldwide across lifestyle, wellness, tech, and travel.
- Support during life milestones - Take advantage of our additional 8 weeks of gender-neutral new parent leave to welcome and bond with your new addition to the family.
- Create a productive workspace at home - Set up your home office exactly how you want it with a dedicated budget for comfort and productivity.
- Fuel and focus on-site - Pandas in Vienna, Bucharest, Barcelona, and Berlin can enjoy free onsite dining, with freshly prepared lunches and snacks to keep you fuelled and focused all day long.
- Recognition for your contributions - Celebrate milestones and achievements with recognition and rewards for your Tenure at Bitpanda.
- Show your Bitpanda pride - Access exclusive Bitpanda-branded merchandise and gear to represent.
- Connect and celebrate with your team - Join unforgettable company events, from our Winter Party in Vienna to summer gatherings worldwide, fostering fun, connection, and celebration
....and even more location-specific benefits designed to make life at Bitpanda even more rewarding wherever you are.
IT Systems Engineer (Azure)
9 dic.PSI CRO
IT Systems Engineer (Azure)
PSI CRO · Madrid, ES
Teletrabajo . Azure Linux Cloud Coumputing PowerShell
PSI is a leading Contract Research Organization (CRO) with 30 years of experience in the pharmaceutical industry. Originated in Switzerland, PSI is a privately owned, full-service CRO with a global reach, supporting clinical trials across multiple countries and continents. Our reputation for being highly selective about the projects we undertake highlights our commitment to delivering high-quality, timely services across a broad spectrum of therapeutic indications.
At PSI, we foster an environment where a diverse range of colleagues feel welcomed and valued. Our inclusive culture is a cornerstone of our success, enabling us to attract and retain top talent globally.
We are not just about conducting clinical trials; we are about building a community where every team member has the opportunity to thrive and contribute to groundbreaking advancements in the pharmaceutical industry.
Full-time employment based in Spain
We’re looking for a skilled IT Systems Engineer to manage and support Azure infrastructure with a focus on performance, cost optimization, and secure operations.
Key Responsibilities
- Deploy, configure, and maintain Azure resources, including virtual machines, storage, networking, and security services
- Monitor and optimize Azure cost management, performance, and compliance
- Provide technical support and troubleshooting assistance for issues related to Azure services and integrations
Must-Have Qualifications
- Full working proficiency in English (written and spoken)
- Strong hands-on experience with Microsoft Azure administration, including compute, storage, networking, and identity management
- Expert knowledge of Windows Server and Active Directory, including hybrid identity integration with Entra ID
- Familiarity with infrastructure automation tools (e.g., PowerShell, Azure CLI, Bicep templates)
- Scripting and automation skills for operational efficiency and incident remediation
- Practical experience with Microsoft 365 administration and related security features
- Experience managing backup and disaster recovery using Veeam and Azure Backup
- Solid understanding of on-prem hardware components (servers, networking, and storage)
- Strong analytical thinking and troubleshooting skills, with the ability to identify root causes and resolve complex technical issues efficiently
Nice-to-Have Qualifications
- Experience with Azure Virtual Desktop
- Microsoft Certified: Azure Administrator Associate or higher certification
- Familiarity with Azure Arc, Defender for Cloud, and Azure Monitor
- Experience integrating third-party systems or on-prem workloads into Azure environments
- Experience in Linux administration
What We Offer
- A collaborative and international work environment, «follow the sun» support model
- Opportunities to work on large scale, global infrastructure projects
- Competitive compensation and flexible work arrangement
- Meaningful mission – be part of a clinical research organization that helps brining new medicines to the patients
Data Engineer
9 dic.Michael Page
Barcelona, ES
Data Engineer
Michael Page · Barcelona, ES
Java Python Azure Cloud Coumputing Scala AWS Terraform Kafka Spark
Perfil buscado (Hombre/Mujer)
• Design and implement scalable data pipelines from scratch using cloud-native patterns on AWS.
• Build curated, self-service data products that empower analysts, scientists, and product teams.
• Shape platform architecture by contributing to decisions on tooling, patterns, and technical direction.
• Establish engineering standards for Infrastructure as Code (IaC), CI/CD, testing, monitoring, and documentation.
• Enable self-service capabilities for internal teams, ensuring reliable and accessible data.
• Own end-to-end solutions, including ingestion, transformation, and delivery for both batch and streaming systems.
• Operate and improve production systems, monitoring performance and troubleshooting issues.
• Shape a cutting-edge data platform / Work with modern cloud-native technologies
• Enjoy great benefits and flexibility
The Successful Candidate
• Has strong foundations in data engineering, including data modeling, pipeline design, and data quality.
• Demonstrates solid programming skills in Python, Java, or Scala, writing clean and testable code.
• Brings experience with cloud platforms (AWS, GCP, or Azure) and distributed systems.
• Is familiar with Spark or similar frameworks for processing data at scale.
• Possesses a collaborative mindset, able to explain technical concepts and work effectively in a team.
• Shows curiosity and pragmatism, eager to learn new technologies while delivering practical solutions.
Bonus Skills
• Knowledge of Infrastructure as Code (Terraform, CloudFormation).
• Experience with streaming/real-time data (Flink, Kafka, Kinesis).
• Background in platform engineering or building shared services.
• Understanding of data product thinking or domain-driven design.
• Contributions to open-source projects or technical writing.
• Participation in migration or greenfield platform projects.
A leading international media and entertainment group with a strong presence in streaming, TV, and radio. The organization focuses on delivering high-quality content and innovative digital experiences to millions of users worldwide. With headquarters in Northern Europe and a growing tech hub in Barcelona, the company combines creativity and technology to shape the future of entertainment. Its culture emphasizes collaboration, continuous learning, and cutting-edge solutions, offering employees the chance to work on impactful projects in a dynamic, global environment.
• Competitive benefits package including health insurance, meal vouchers, and flexible remuneration.
• 30 days of paid vacation and flexible working hours with a hybrid work model.
• Continuous learning and development opportunities, with a strong learning culture and upskilling support.
• Innovative environment featuring annual Hack Days to foster creativity and technical experimentation.
• Access to premium entertainment services, including unlimited streaming of series, movies, and live events.
• A dynamic, international tech hub in Barcelona, offering collaboration with global teams and cutting-edge projects.
Data Engineer
9 dic.Grupo NS
Data Engineer
Grupo NS · Madrid, ES
Teletrabajo Python TSQL Azure Cloud Coumputing AWS Terraform Power BI
Desde Grupo NS estamos buscando un perfil de Ingeniero de Datos Senior con amplia experiencia en proyectos de migración, integración y modelado de datos en entornos cloud (AWS, Azure, GCP y Snowflake).
Se trata de un proyecto 100% remoto.
Experiencia directa en el sector Insurance.
Competencias Técnicas:
Pipelines en Azure Databricks, Snowflake, AWS y GCP.
Ingestión y transformación de datos XML/CSV y diseño de capas Bronze/Silver.
ETL con Pentaho, Dataform, Glue, Cloud Functions y ADF. Modelado de datos y SQL avanzado. Automatización con Python y Terraform.
Exposición de datos en Power BI y Looker
NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender
Al menos 3 años de experiencia como data engineer con amplia experiencia en proyectos de migración, integración y modelado de datos en entornos cloud (AWS, Azure, GCP y Snowflake).
Experiencia directa en el sector Insurance.
DevOps Engineer
9 dic.Aubay
DevOps Engineer
Aubay · Barcelona, ES
Teletrabajo Python Azure Jenkins Docker Kubernetes OpenShift AWS Bash DevOps
En Aubay estamos buscando un ingeniero DevOps, con experiencia comprobada en la implementación y mantenimiento de soluciones de infraestructura escalables, seguras y altamente disponibles. El servicio debe contar con una sólida experiencia en la automatización de pipelines de despliegue, gestión de configuraciones e infraestructura como código (IaC) para optimizar los flujos de trabajo de desarrollo y operaciones.
Funciones: creación, despliegue y monitoreo de pipelines CI/CD, resolución de conflictos en diferentes pull requests, gestión de clústeres de Kubernetes y OpenShift, y automatización de los diversos pasos necesarios para despliegues a nivel corporativo para cada stack.
Requisitos
Dominio en plataformas en la nube como AWS, Azure y RedHat OpenShift, así como experiencia comprobada en tecnologías de contenedores como Docker y herramientas de orquestación como Kubernetes.
Sólida experiencia colaborando con equipos de desarrollo para asegurar ciclos de entrega fluidos, optimizar el rendimiento del sistema y mejorar la confiabilidad general del sistema. Se requiere un nivel de inglés conversacional para el puesto.
integración continua/despliegue continuo (CI/CD con Azure DevOps, Jenkins), monitoreo y registro de logs, mejores prácticas de seguridad y scripting con Python, Bash u otros lenguajes similares
Inglés fluido (al menos un B2)
Se ofrece
Contrato indefinido
Modelo híbrido: TELETRABAJO 3 dias/Semana
Ubicación: Barcelona (Cornellá de Llobregat)
Formación a medida (tecnologías, idiomas, certificaciones...)
Salario a negociar en función de la experiencia
Retribución flexible (seguro médico, ticket restaurante, cheque guardería)
#LI-EP1