No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araInformàtica i IT
300Transport i Logística
245Comercial i Vendes
236Desenvolupament de Programari
218Administració i Secretariat
153Veure més categories
Màrqueting i Negoci
123Dret i Legal
108Comerç i Venda al Detall
92Enginyeria i Mecànica
85Educació i Formació
83Disseny i Usabilitat
47Publicitat i Comunicació
41Hostaleria
36Instal·lació i Manteniment
35Sanitat i Salut
29Art, Moda i Disseny
28Indústria Manufacturera
28Comptabilitat i Finances
26Arts i Oficis
21Construcció
20Recursos Humans
20Producte
17Atenció al client
11Immobiliària
11Cures i Serveis Personals
9Alimentació
8Seguretat
7Banca
6Energia i Mineria
5Farmacèutica
4Turisme i Entreteniment
3Editorial i Mitjans
2Social i Voluntariat
2Telecomunicacions
2Esport i Entrenament
1Agricultura
0Assegurances
0Ciència i Investigació
0Top Zones
Madrid
1.484Astrafy
Internship - Data Engineer
Astrafy · Madrid, ES
Teletreball Cloud Coumputing Terraform Word
Your mission
You will work on different projects to help Astrafy customers get the most out of their data. You will work on the business and technical sides of the customer use case.
- Design and maintain scalable data pipelines leveraging technologies such as Airflow, dbt, BigQuery, Pubsub, and Snowflake, ensuring efficient and reliable data ingestion, transformation, and delivery.
- Develop and optimize data infrastructure in the Google Cloud environment, implementing best practices for performance, cost, and security.
- Use Terraform to automate infrastructure provisioning and manage containerized workloads, promoting agility and repeatability across environments.
- Implement robust data governance, security, and quality measures, ensuring accuracy, consistency, and compliance throughout the data lifecycle.
- Collaborate with cross-functional teams to design and deploy BI dashboards and other analytics solutions that empower stakeholders with actionable insights.
- Continuously refine data architecture to accommodate changing business needs, scaling solutions to handle increased data volume and complexity.
- Champion a culture of innovation by researching, evaluating, and recommending emerging data technologies and industry best practices.
Your profile
- Technical expertise: Knowledge and experience with the tools mentioned above or similar ones are valued.
- Continuous Learning: Curious to stay updated on emerging data technologies, practices, and frameworks, and to share knowledge across the organization.
- Team Player: Strong communication and collaboration skills, with the ability to work effectively within cross-functional teams to deliver impactful data solutions.
- You speak English fluently, and a word of French and/or Spanish is a plus
- Attractive Salary Package: No blurry or hidden clauses. Everything is transparently outlined in our Gitbook (https://astrafy.gitbook.io/handbook/its-all-about-people/compensation)
- Genuine Innovation: An exciting role where technology innovation is our daily job. We don’t get stuck with old technologies and practices. We encourage learning, testing, and taking initiative.
- Strong Values & Culture: Become part of a dynamic team that lives by solid values. Learn more in our “Culture and Values” chart (https://docs.astrafy.io/handbook/the-company/culture-and-values)
- Continuous Learning: We offer ongoing training and development for both soft and hard skills. Check out our training policy (https://docs.astrafy.io/handbook/its-all-about-people/training)
- Flexible Work Environment: Enjoy flexible hours and remote work options. We want the job to adapt to your circumstances. Discover more here. (https://docs.astrafy.io/handbook/the-company/remote-work)
- Team-Building & Retreats: We organise two team-building retreats per year in an exciting European location, along with several activities during the year. Learn more here (https://docs.astrafy.io/handbook/its-all-about-people/team-building-and-retreat).
- And Much More: Our handbook (https://docs.astrafy.io/handbook/) covers all you need to know about who we are and how we work.
Our mission is to help companies and individuals solve data analytics challenges across the full data journey—from ingestion to transformation to distribution—leveraging a Modern Data Stack. We find that many organizations lack the internal expertise to harness emerging data tools, and we aim to educate them while implementing powerful solutions.
We achieve this by creating a new kind of consulting company that:
- Fosters Creativity & Strategic Thinking: We embrace out-of-the-box solutions tailored to each client’s needs.
- Prioritizes Education: We ensure every project delivers both technical solutions and the knowledge to sustain them.
- Invests in People: We nurture our employees’ growth and well-being, recognizing they are our most important asset.
SRE (Site Reliability) Engineer
28 d’ag.EPAM
Madrid, ES
SRE (Site Reliability) Engineer
EPAM · Madrid, ES
Python Agile TSQL Docker Cloud Coumputing Kubernetes Ansible Git AWS R DevOps QA Terraform LESS Machine Learning Office
We are looking for a SRE (Site Reliability) Engineer tojoin our new Enterprise AI platform team.
This is an exciting opportunity to be part of a high-impact, highly technical group focused on solving some of the most challenging machine learning problems in the Life Sciences & Healthcare industry. You will bring proven experience in AWS cloud environments and a strong track record of designing and deploying large-scale production infrastructure and platforms.
You will play a critical role in shaping how we use technology, machine learning and data to accelerate innovation. This includes designing, building and deploying next-generation data engines and tools at scale.
This is a hybrid role, with the expectation of occasional office visits in Barcelona.
RESPONSIBILITIES- Develop and maintain the essential infrastructure and platform required to deploy, monitor and manage ML solutions in production, ensuring they are optimized for performance and scalability
- Collaborate closely with data science teams in developing cutting edge data science, AI/ML environments and workflows on AWS
- Liaise with R&D data scientists to understand their challenges and work with them to help productionize ML pipelines, models and algorithms for innovative science
- Take responsibility for all aspects of software engineering, from design to implementation, QA and maintenance
- Lead technology processes from concept development to completion of project deliverables
- Liaise with other teams to enhance our technological stack, to enable the adoption of the latest advances in Data Processing and AI
REQUIREMENTS- Significant experience with AWS cloud environments is essential. Knowledge of SageMaker, Athena, S3, EC2, RDS, Glue, Lambda, Step functions, EKS and ECS is also essential
- Modern DevOps mindset, using best DevOps tools, such as Docker and Git
- Experience with infrastructure as code technology such as Ansible, Terraform and Cloud Formation
- Strong software coding skills, with proficiency in Python, however exceptional ability in any language, will be recognized
- Experience managing an enterprise platform and service, handling new client demand and feature requests
- Experience with containers and microservice architectures e.g., Kubernetes, Docker and serverless approaches
- Experience with Continuous Integration and building continuous delivery pipelines, such as CodePipeline, CodeBuild and Code Deploy
- GxP experience
- Excellent communication, analytical and problem-solving skills
NICE TO HAVE- Experience building large scale data processing pipelines e.g., Hadoop/Spark and SQL
- Use of Data Science modelling tools e.g., R, Python and Data Science notebooks (e.g., Jupyter)
- Multi cloud experience (AWS/Azure/GCP)
- Demonstrable knowledge of building MLOPs environments to a production standard
- Experience on mentoring, coaching and supporting less experienced colleagues and clients
- Experience with SAFe agile principles and practices
WE OFFER- Private health insurance
- EPAM Employees Stock Purchase Plan
- 100% paid sick leave
- Referral Program
- Professional certification
- Language courses
Data Engineer Python
27 d’ag.CMV Consultores
Data Engineer Python
CMV Consultores · Madrid, ES
Teletreball Python TSQL Azure DevOps Spark Big Data SQL
Desde CMV Consultores te brindamos las mejores oportunidades, en importantes clientes.
Al menos 5 años de experiencia en ingeniería de datos. Al menos 2 años de experiencia con Python orientado a datos (Polars, Pandas, Pyspark). Al menos 2 años de experiencia con Microsoft Azure. Amplia experiencia en la construcción de pipelines utilizando Azure Synapse y/o otras tecnologías similares. Dominio en programación con T-SQL y Python. Experiencia con SQL y familiaridad con tecnologías de base de datos. Conocimiento de Big Data como Apache Spark. Comprensión de modelos de datos (especialmente Data Vault 2.0) y principios de almacenamiento de datos. Experiencia con el concepto de software como servicio. Capacidad para planificar y gestionar el dimensionamiento de los componentes de servicio, asegurando la gestión proactiva de los componentes en la nube. Familiaridad con procesos de DevOps. Experiencia con frameworks de gobierno de datos, como por ejemplo Informatica, es un plus.
¿Qué se ofrece?
Teletrabajo 100%
Contrato indefinido y salario competitivo según valía.
Proyecto a largo plazo
JUNIOR DATA ENGINEER
26 d’ag.IRIUM
Madrid, ES
JUNIOR DATA ENGINEER
IRIUM · Madrid, ES
Python Spark Big Data
En IRIUM nos preocupamos porque no dejes de perseguir tus sueños. Prepárate para conquistar tus metas, y ten siempre presente disfrutar del camino.
Actualmente buscamos un/a Junior Data Engineer para un proyecto internacional en Madrid, en modalidad híbrida.
¿Qué esperamos de ti?
- Experiencia de 1 a 3 años en Data Engineering
- Conocimientos básicos de Python, ETLs y herramientas de Big Data
- Conocimientos spark o psypark
- Nivel de inglés B2+ y francés B2+
- Actitud proactiva, capacidad de aprendizaje y trabajo en equipo
- Retribución flexible (seguro médico, restaurante, transporte y guardería)
- Modalidad: híbrida, 3 días en oficina del cliente en madrid, las tablas
- salario: 30/34 brutos anuales según experiencia
- 23 días de vacaciones
- Proyecto de larga duración, con estabilidad y evolución profesional
- Acceso a formación tecnológica puntera
- Buen clima laboral en equipos colaborativos y dinámicos
- Contrato indefinido con IRIUM
- Club de beneficios para empleados con descuentos y miles de ofertas en marcas, hoteles, agencias de viaje, cines, ropa…
Podemos construir juntos el futuro. ¿Hablamos?
En IRIUM defendemos un mundo sin estereotipos ni limitaciones y creemos en la igualdad para todos, principios que suscribimos en nuestro Plan de Igualdad y Código Ético, garantizando la igualdad de trato y oportunidades al margen de cualquier condición personal, física o social.
Powered by JazzHR
b4qr5IU8ao
Linux Cloud Engineer
26 d’ag.Swiss Re
Madrid, ES
Linux Cloud Engineer
Swiss Re · Madrid, ES
Java Agile Linux Cloud Coumputing Ansible Ruby DevOps
About the Role
We are looking for Linux Cloud Engineer in order to improve our ability to deliver reliable, cost-effective and modern solutions in cloud environments (e.g. Swisscom Cloud).
We need a specialist for: engineering our Linux cloud service and cloud infrastructure, drive process automation (ADO) to next level and look after our infrastructure systems, configuration and infrastructure management solutions (preferably Puppet).
You will be responsible to
- Lead and support the IaC development based on Swiss Re´s Puppet infrastructure
- Design, develop, implement and enhance the Linux DevOps domain (Puppet, CMDB, LDAP)
- Focus on standardization and infrastructure automation
- Ensure that Linux blueprints comply with the requirements of IT governance
- Provide consultancy to internal customers on application onboarding and all relevant infrastructure topics
- Support L2 operation
- Technically lead and contribute to application and (mainly) infrastructure projects
- Support lifecycle projects (Puppet 8, Ubuntu, SLES, RHEL)
About the Team
Our team provides IT services to internal customers within Swiss Re. The GTS Infrastructure team consists of software developers, systems and information engineers. We provide high quality infrastructure services and ensure smooth operation of critical platforms and business solutions. We work in multi-functional, agile teams on delivering IT solutions in close collaboration with customers and platform owners.
About You
- Strong IaC knowledge (mainly Puppet and Ansible)
- Good Linux knowledge (SLES, Ubuntu, RHEL)
- Good understanding of general technical concepts like LDAP, Kerberos, DNS, DHCP, networking
- Good scripting skills and profound knowledge of interfaces and protocols (Ruby, Java)
- Good packaging and software deployment knowledge including high grade of security awareness
- Enterprise experience, preferably insurance/banking experience
- Good knowledge of concepts, engineering, implementation, usage and operations; able to approach topics from a multidisciplinary view
- Fluent English
- Willing to take ownership
- Excellent communicator
- Open minded and good team player
For Spain, the base salary range for this position is between [EUR 42,000] and [EUR 70,000] (for a full-time role). The specific salary offered considers:
- the requirements, scope, complexity and responsibilities of the role,
- the applicant´s own profile including education/qualifications, expertise, specialisation, skills and experience.
In addition to your base salary, Swiss Re offers an attractive performance-based variable compensation component, designed to recognise your achievements. Further you will enjoy a variety of global and location specific benefits.
Eligibility may vary depending on the terms of Swiss Re policies and your employment contract.
BECA Data Engineer Academy
26 d’ag.BNP Paribas
BECA Data Engineer Academy
BNP Paribas · Madrid, ES
Teletreball Power BI Tableau Office
Data Engineer Academy
¿Hablas inglés, español?
¿Te gustaría trabajar en un ambiente internacional?
¿Quieres participar en el crecimiento de un equipo de TI que proporciona un servicio de calidad a todas las entidades de BNP Paribas Personal Finance en todo el mundo?
¡Si tu respuesta es si a esas 3 preguntas por favor sigue leyendo!
Dentro de BNP Paribas Personal Finance, vamos a crear una academia con el objetivo de incorporar un(as/os) estudiantes empezando en modalidad de becaque pueda dar soporte a un equipo de desarrollo internacional, el cual forma parte deSouth Europe Technologies (SET)- Centro Internacional de Servicios Compartidos de IT, Data, Operaciones y Ciberseguridad.
Tras un periodo de onboarding con el rol de Analista de Datos junto con el líder técnico y el resto del equipo, las principales responsabilidades del puesto serán:
- Identificar y proponer mejoras que mejoren el rendimiento y procesos de las soluciones de datos implementadas.
- Recopilar y analizar los requerimientos que las diferentes áreas de negocio propongan.
- Capacidad para interpretar grandes volúmenes de datos y extraer conclusiones relevantes.
- Implementar soluciones para la extracción y transformación de los datos almacenados.
- Desarrollar habilidades para traducir datos complejos en informes compresibles para audiencias técnicas y no técnicas. Estos informes se deberán diseñar, automatizar y publicar utilizando para ello Power BI y/o Tableau.
- Colaborar con otras áreas y equipos interdisciplinarios (analistas de negocio, científico de datos...) en el desarrollo de productos analíticos basados en datos.
- En base a la experiencia desarrollada, proponer mejoras en la calidad y gobierno del dato establecidos por el Data Office
- Mantenerse al tanto de las tendencias y mejores prácticas en el diseño e implementación de las diferentes tecnologías aplicadas al manejo y desarrollo de proyectos basados en datos.
Los requisitos que necesitarás para cubrir esta posición son:
- Una formación en Ingeniería Informática u otras Ingenierías. O en campos relacionados como matemáticas, estadística, física o equivalentes.
- Formación a través de cursos especializados y/o
Soft skills
- Ser una persona proactiva y orientada a la resolución de problemas y toma de decisiones.
Idiomas
- Inglés (mínimo B2) / Francés (opcional).
Ofrecemos
- Formación continua durante el periodo de beca en el rol de Analista de Datos con el objetivo de potenciar los conocimientos y habilidades.
- Proyectos tecnológicos en los que los candidatos puedan aportar conocimiento y valor desde el inicio. Nuestro objetivo es que tu trabajo se vea reflejado y tenga impacto desde el inicio.
- Posibilidad de recorrer diferentes ámbitos y roles en un proyecto tecnológico relacionado con los datos a lo largo del periodo de beca: analista de datos, ingeniero de datos, ... De esta forma serás tú quién decida su
- Beca de 6 meses con posibilidad real de incorporación en contrato permanente al término de la beca.
- Modelo híbrido de teletrabajo.
- Un día de vacaciones por mes de trabajo (de acuerdo con la duración del convenio con la Universidad).
Consideraciones
- Jornada completa de 9:00 a 18:00.
- Remuneración: 880€ brutos/mes.
- Incorporación inmediata.
Devops Oracle Analytics Engineer
23 d’ag.Oracle
Madrid, ES
Devops Oracle Analytics Engineer
Oracle · Madrid, ES
Cloud Coumputing Oracle DevOps
Fusion Data Intelligence Content Development aims to enable customers to fully leverage their data by offering top-tier out-of-the-box content as well as a very flexible customization framework. Within this organization, our team includes experts of Oracle Analytics and Fusion Data Intelligence committed to troubleshoot customers issues.
This role requires to participate in on-call shift outside of the normal business hours, including night, week-end and public holiday. This position requires EU citizenship to access EU Sovereign Cloud.
We analyze incidents raised to the development team, mitigate them, take a step back to see the overall picture, and propose enhancements to the product in order to
- Reduce the number of incidents
- Reduce the time to resolution
- Improve Oracle Support capabilities to find solutions by themselves
- Improve customers capabilities to avoid the issue or find solutions themselves
- Improve application performance
- Improve integration between FDI and other Oracle products
The candidate will collaborate with multiple Oracle development teams as well as Oracle Support.
Responsibilities
Responsibilities:
- Understand customer issues and propose solutions.
- Analyze incidents and propose product enhancements.
- Analyze performance issues to find short term solution and long-term product enhancements.
- Collaborate with teams in multiple time zones.
Primary Skills:
- Must possess around 4 years of experience.
- Must have experience with Oracle Analytics.
- Must have a robust knowledge of Analytics RPD design, development, and deployment.
- Understanding of BI/data warehouse analysis, design, development, and testing.
Desirable Skills:
- Ability to write and communicate clearly and effectively.
- Experience with Fusion Data Intelligence
- Experience with Fusion Applications (ERP/HCM/SCM/CX)
- Certified on FDI, OAC and ADW.
Qualifications
Career Level - IC3
About Us
As a world leader in cloud solutions, Oracle uses tomorrow´s technology to tackle today´s challenges. We´ve partnered with industry-leaders in almost every sector-and continue to thrive after 40+ years of change by operating with integrity.
We know that true innovation starts when everyone is empowered to contribute. That´s why we´re committed to growing an inclusive workforce that promotes opportunities for all.
Data Engineer/ ETL/ 100% Teletrabajo
22 d’ag.Hasten Group
Data Engineer/ ETL/ 100% Teletrabajo
Hasten Group · Madrid, ES
Teletreball TSQL Azure
Localidad
Madrid
Nº Vacantes (puestos)
1
Funciones
En Grupo Hasten estamos seleccionando uno/a Data Engineer, con al menos dos años de experiencia en ETL utilizando Informatica PowerCenter y Azure Data Factory para unirse a un importante proyecto en uno de nuestros grandes clientes/otros, en una modalidad remota.
Entre Sus Principales Funciones
– Diseñar, desarrollar y mantener pipelines ETL utilizando Informatica PowerCenter y Azure Data Factory.
– Transformar y migrar datos de sistemas origen a sistemas destino, garantizando calidad y consistencia.
– Colaborar estrechamente con analistas, diseñadores de soluciones, testers y desarrolladores para ofrecer soluciones de migración end-to-end.
- Asesorar en estrategia de migración, soluciones técnicas y retos de mapeo de datos.
Requisitos
Grado en Informática o campo relacionado.
Experiencia mínima de 2 años en Data Engineering o desarrollo ETL.
Experiencia demostrable con Informatica PowerCenter y Azure Data Factory.
Sólidos conocimientos de SQL, análisis y transformación de datos.
Familiaridad con Agile/Scrum y mentalidad T-shaped.
Actitud proactiva, capacidad de ejecución estructurada y resolución creativa de problemas.
Valorable: experiencia con SAP Data Services.
Se Ofrece
¿Por qué elegirnos?
Hasten Group es una consultora en plena expansión, especializada en Transformación Digital y Reclutamiento IT.
Consideramos el trabajo en equipo, la innovación constante y el talento humano como claves para afrontar con éxito los retos de un sector cambiante.
Ofrecemos
– Contratación indefinida
– Formación IT / Idiomas
– Integración en equipos multidisciplinares
– 23 días laborables de vacaciones
– Seguimiento continuado y personalizado
Valoramos la diversidad y promovemos un ambiente inclusivo. Por ello, invitamos a postularse en nuestras ofertas a todas las personas, sin distinción de género, edad, origen, orientación sexual, discapacidad o cualquier otra condición.
Junt@s creamos tecnología. ¡Únete al cambio, únete a Hasten Group!
Inscribirme en esta oferta
Data Engineer Databriks/Pyspark
22 d’ag.Grupo NS
Madrid, ES
Data Engineer Databriks/Pyspark
Grupo NS · Madrid, ES
Desde Grupo NS estamos seleccionando un Data Engineer con experiencia en Databriks y Pyspark para un proyecto dentro del área de salud para el análisis y despliegue de un espacio de datos
El trabajo es 100% remoto pero requiere disponibilidad para viajar a Barcelona de manera puntual cuando sea necesario
NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender
Al menos 3 años de experiencia como data engineer utilizando databriks y pyspark
Disponibilidad para viajar a Barcelona de manera puntual cuando sea necesario