No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araInformàtica i IT
353Comercial i Vendes
242Desenvolupament de Programari
210Administració i Secretariat
178Transport i Logística
154Veure més categories
Màrqueting i Negoci
127Educació i Formació
116Dret i Legal
102Comerç i Venda al Detall
75Enginyeria i Mecànica
69Instal·lació i Manteniment
47Publicitat i Comunicació
47Disseny i Usabilitat
41Comptabilitat i Finances
26Recursos Humans
24Sanitat i Salut
24Construcció
22Indústria Manufacturera
20Hostaleria
17Art, Moda i Disseny
15Producte
15Atenció al client
14Banca
14Alimentació
9Immobiliària
9Arts i Oficis
8Farmacèutica
7Turisme i Entreteniment
6Energia i Mineria
5Seguretat
2Agricultura
1Ciència i Investigació
1Cures i Serveis Personals
1Telecomunicacions
1Assegurances
0Editorial i Mitjans
0Esport i Entrenament
0Social i Voluntariat
0Top Zones
Madrid
1.703Senior Data Engineer
NovaEbury
Madrid, ES
Senior Data Engineer
Ebury · Madrid, ES
Python Agile TSQL Docker Cloud Coumputing DevOps Fintech Machine Learning Office
Ebury is a global fintech firm dedicated to empowering businesses to expand internationally through tailored and forward-thinking financial solutions. Since our founding in 2009, we´ve grown to a diverse team of over 1,700 professionals across 40+ offices and 29+ markets worldwide. Joining Ebury means becoming part of a collaborative and innovative environment where your contributions are valued. You´ll play a key role in shaping the future of cross-border finance, while advancing your own career in a dynamic, high-growth industry.
Senior Data Engineer: Drive our AI Revolution & Data Ecosystem
Location: Madrid (Hybrid: 4 days office / 1 day WFH)
Stack: Python, SQL, Airflow, dbt, DuckDB, GCP, DLT, Docker.
Why Ebury?
At Ebury, we don´t just move money; we move the boundaries of what Fintech can achieve. Our strategic growth is powered by Data, and we are looking for a Senior Data Engineer who wants to be at the heart of this transformation.
We aren´t looking for "Jira ticket closers." We want problem solvers, tech enthusiasts, and proactive engineers who want to understand the why and for what behind the data and propose high-value projects that move the needle for the business.
The Challenge: Beyond Pipelines to AI-Ready Systems
We are at an inflection point. Beyond maintaining a robust platform, we have a massive appetite for Machine Learning, LLMs, and Agents. Your mission won´t just be moving bytes; it will be building the infrastructure that enables Ebury to lead the Gen-AI revolution in the financial sector.
Your Cutting-Edge Toolkit:
- Orchestration: Airflow (Cloud Composer) is our backbone.
- Cloud Power: The full GCP suite (GKE, Cloud Run, Functions, Artifact Registry).
- Smart Ingestion: We leverage DLT (Data Load Tool) to build seamless and scalable data pipelines.
- Modeling & Quality: We use dbt at scale, integrating DuckDB to enforce bulletproof Data Contracts.
- DevOps Culture: Dockerized environments and solid CI/CD are our standard in Github Actions.
What You´ll Do
- Architect & Innovate: Design, deploy, and evolve ELT/ETL pipelines from diverse sources (APIs, transactional DBs, file-based endpoints).
- Champion AI/ML: Actively contribute to building the infrastructure for ML models and LLM-powered Agents.
- Business Partnership: Work closely with stakeholders to identify high-impact opportunities. If you see a better way to do things, you have the autonomy to lead it.
- Engineering Excellence: Apply top-tier software practices (SDLC, RFCs, unit testing) to ensure our platform is a benchmark for scalability.
- Growth & Mentorship: Benefit from a personalized 30/60/90 day plan designed to help you thrive from day one.
About You
You´ll be a great fit if:
- Python & SQL Mastery: You have a deep command of both (+5 years of experience).
- Agile Problem Solver: You thrive on unexpected daily challenges, delivering smart technical solutions at speed and iterating them into robust, production-grade systems.
- Business Partner: You are proactive and "business-curious", you want to understand the impact of your code on the bottom line.
- You are fluent in English (we are a global team!).
Bonus Points:
- Hands-on experience with LLMs, Vector Databases, or AI Agents.
- Deep knowledge of DuckDB or DLT.
- Strong foundations in Dimensional Modeling and Data Warehousing.
- Spanish language skills (a plus for office life in Madrid!).
What We Offer
- Competitive Salary + Performance-based discretionary bonus.
- Vibrant Culture: Join a collaborative environment where Data Engineers, Data Scientists, Analytics Engineers, and Analysts work as one.
- Work-Life Balance: A modern hybrid model in our Madrid office to keep the team spirit alive while respecting your focus time.
- Open Source DNA: We follow Open Source principles internally and encourage you to contribute to external projects.
- Continuous Learning: Personal development through certifications and specialized training.
Excited about the role but don´t tick every single box? Apply anyway! At Ebury, we value potential, proactivity, and a growth mindset over a perfect checklist.
#LI-JC1
Astrafy
Internship - Data Engineer
Astrafy · Madrid, ES
Teletreball . Cloud Coumputing Terraform Word
Your mission
You will work on different projects to help Astrafy customers get the most out of their data. You will work on the business and technical sides of the customer use case.
- Design and maintain scalable data pipelines leveraging technologies such as Airflow, dbt, BigQuery, Pubsub, and Snowflake, ensuring efficient and reliable data ingestion, transformation, and delivery.
- Develop and optimize data infrastructure in the Google Cloud environment, implementing best practices for performance, cost, and security.
- Use Terraform to automate infrastructure provisioning and manage containerized workloads, promoting agility and repeatability across environments.
- Implement robust data governance, security, and quality measures, ensuring accuracy, consistency, and compliance throughout the data lifecycle.
- Collaborate with cross-functional teams to design and deploy BI dashboards and other analytics solutions that empower stakeholders with actionable insights.
- Continuously refine data architecture to accommodate changing business needs, scaling solutions to handle increased data volume and complexity.
- Champion a culture of innovation by researching, evaluating, and recommending emerging data technologies and industry best practices.
Your profile
- Technical expertise: Knowledge and experience with the tools mentioned above or similar ones are valued.
- Continuous Learning: Curious to stay updated on emerging data technologies, practices, and frameworks, and to share knowledge across the organization.
- Team Player: Strong communication and collaboration skills, with the ability to work effectively within cross-functional teams to deliver impactful data solutions.
- You speak English fluently, and a word of French and/or Spanish is a plus
- Attractive Salary Package: No blurry or hidden clauses. Everything is transparently outlined in our Gitbook (https://astrafy.gitbook.io/handbook/its-all-about-people/compensation)
- Genuine Innovation: An exciting role where technology innovation is our daily job. We don’t get stuck with old technologies and practices. We encourage learning, testing, and taking initiative.
- Strong Values & Culture: Become part of a dynamic team that lives by solid values. Learn more in our “Culture and Values” chart (https://docs.astrafy.io/handbook/the-company/culture-and-values)
- Continuous Learning: We offer ongoing training and development for both soft and hard skills. Check out our training policy (https://docs.astrafy.io/handbook/its-all-about-people/training)
- Flexible Work Environment: Enjoy flexible hours and remote work options. We want the job to adapt to your circumstances. Discover more here. (https://docs.astrafy.io/handbook/the-company/remote-work)
- Team-Building & Retreats: We organise two team-building retreats per year in an exciting European location, along with several activities during the year. Learn more here (https://docs.astrafy.io/handbook/its-all-about-people/team-building-and-retreat).
- And Much More: Our handbook (https://docs.astrafy.io/handbook/) covers all you need to know about who we are and how we work.
Our mission is to help companies and individuals solve data analytics challenges across the full data journey—from ingestion to transformation to distribution—leveraging a Modern Data Stack. We find that many organizations lack the internal expertise to harness emerging data tools, and we aim to educate them while implementing powerful solutions.
We achieve this by creating a new kind of consulting company that:
- Fosters Creativity & Strategic Thinking: We embrace out-of-the-box solutions tailored to each client’s needs.
- Prioritizes Education: We ensure every project delivers both technical solutions and the knowledge to sustain them.
- Invests in People: We nurture our employees’ growth and well-being, recognizing they are our most important asset.
DevOps Engineer
9 de febr.WayOps
Madrid, ES
DevOps Engineer
WayOps · Madrid, ES
Azure Scrum Cloud Coumputing Kubernetes AWS DevOps Agile PostgreSQL Microservices
Desde WayOps buscamos un DevOps Engineer que quiera seguir creciendo profesionalmente participando en un proyecto dentro de un entorno exigente en el sector farmacéutico, con una sólida base técnica en orquestación de contenedores y observabilidad, capaz de gestionar infraestructuras híbridas que soportan plataformas de Inteligencia Artificial.
PROYECTO & EQUIPO
Formarás parte de iniciativas de desarrollo de aplicaciones corporativas estratégicas para uno de nuestros principales clientes internacionales del sector farmacéutico. El proyecto se centra en la orquestación de la plataforma que soporta los agentes de IA, donde la latencia baja y la alta disponibilidad son críticas.
Formarás parte del equipo de ingeniería de plataforma, dando soporte a iniciativas estratégicas de IA Generativa. La infraestructura es el pilar que sostiene microservicios de alto rendimiento y bases de datos vectoriales críticas para el funcionamiento de agentes inteligentes.
Te integrarás en un equipo de alto nivel técnico, colaborando con desarrolladores backend, frontend, DevOps y ingenieros de IA con distintos niveles de seniority, coordinados por un responsable técnico. La dinámica es altamente colaborativa, con uso de metodologías modernas y un fuerte enfoque en la creación de componentes reutilizables para productos de IA.
Tu papel será será clave para asegurar la estabilidad, escalabilidad y observabilidad de la plataforma, implementando las herramientas necesarias para monitorizar flujos de datos en tiempo real y gestionando el despliegue de componentes innovadores como bases de datos vectoriales.
FUNCIONES & RESPONSABILIDADES
En tu día a día serás el referente de infraestructura y operaciones, participando activamente en tareas como:
- Gestión, administración y orquestación de clústeres de Kubernetes en entornos productivos
- Implementación de estrategias de Observabilidad completa utilizando el stack Grafana, Prometheus y Loki
- Despliegue y mantenimiento de infraestructura de datos moderna: PostgreSQL, cachés distribuidas (Redis/Valkey) y bases de datos vectoriales (Qdrant)
- Gestión de infraestructura Cloud Híbrida: Servicios core en AWS (SQS, S3, Networking) y soporte a servicios de IA en Azure
- Automatización de pipelines de CI/CD y gestión de infraestructura como código (IaC)
- Asegurar la alta disponibilidad de los servicios de mensajería (Kafka/Eventos)
REQUISITOS & EXPERIENCIA
Para que tu perfil sea considerado, será necesario que cuentes con experiencia demostrable gestionando entornos de producción críticos.
Entre las habilidades y conocimientos imprescindibles se incluyen:
- Dominio profundo de Kubernetes
- Experiencia sólida en AWS y conocimientos de Azure
- Experiencia implementando stacks de monitorización con Grafana, Prometheus y Loki
- Capacidad para desplegar y mantener bases de datos (PostgreSQL) y sistemas de caché (Redis/Valkey)
- Conocimientos de Scripting (Bash/Python)
Además, se valorará positivamente:
- Experiencia previa desplegando infraestructura para IA (Bases de datos vectoriales como Qdrant)
- Conocimiento de herramientas de GitOps
- Certificaciones oficiales en AWS o Kubernetes (CKA)
- Habituado a trabajar en proyectos usando metodologías ágiles como Scrum
CONTRATACIÓN & UBICACIÓN
La colaboración será preferentemente en modalidad de profesional autónomo, con contratos anuales y renovación tácita, dentro de un proyecto a largo plazo pensado para ofrecer estabilidad y continuidad. Para perfiles de especial encaje técnico o cultural, se considerará la contratación como personal asalariado con contrato indefinido.
La posición será a tiempo completo (40 h/semana). El proyecto requiere una colaboración estrecha con el equipo, siendo necesaria la modalidad híbrida (acudir a 3 días por semana a las oficinas del cliente, situadas en Madrid/Sanchinarro) para facilitar la comunicación y el empuje del proyecto.
SOBRE WAYOPS
WayOps es una consultora tecnológica especializada en transformación digital, data-driven y cognitiva. Nos entusiasma trabajar en proyectos innovadores con las últimas tecnologías, siempre en entornos Cloud y siguiendo buenas prácticas de código limpio.
Todos nuestros profesionales, sean colaboradores autónomos o asalariados, tienen un plan de carrera personalizado, ya que apostamos por el desarrollo de cada persona, invirtiendo en formación, aprendizaje continuo y oportunidades para asumir nuevos retos dentro de proyectos reales y disruptivos.
En WayOps creemos en un modelo de accountability: responsabilidad y recompensa. Nuestro trabajo se basa en la competencia y la confianza, enfrentando los desafíos con liderazgo, buscando la excelencia, adaptándonos al ritmo del negocio y generando un impacto real.
KPMG España
Senior Data Engineer - Snowflake / SQL / BI - A Coruña
KPMG España · Madrid, ES
Teletreball . Python TSQL Cloud Coumputing
Ubicación:
Madrid, ES, 28046
Fecha de publicación: 28 nov 2025
¿Te defines por tu talento y tu visión?
Entonces, tú también puedes marcar la diferencia. Únete a un entorno profesional que contribuye a la transformación de empresas y sociedad. Alcanza tus metas, supera tus límites y únete a una firma que va más allá de los servicios profesionales.
Porque marcar la diferencia no es solo algo que decimos. Es lo que hacemos.
Desarrolla tu carrera con nosotros.
Ubicación: A Coruña
¿Te defines por tu talento y tu visión?
Si quieres alcanzar tus metas, superar tus límites y unirte a un equipo que apuesta por el talento, entonces esta oportunidad puede ser para ti.
Desde nuestro equipo de LIGHTHOUSE, nuestro centro de excelencia de Data & Analytics, Inteligencia Artificial & Tecnologías Emergentes donde ayudamos a nuestros clientes a encontrar la eficiencia y el alto rendimiento en todas sus funciones TIC, estamos buscando a un Senior Data Engineer con experiencia en Snowflake y SQL para trabajar en proyectos estratégicos, diseñando soluciones de datos escalables y de alto rendimiento.
¿Que necesitas saber?
- Formación en Ingeniería Informática, Telecomunicaciones o similares.
- Más de 3 años de experiencia en ingeniería de datos.
- Dominio de BI, Snowflake y SQL (imprescindible).
- Experiencia en optimización de pipelines de datos.
- Conocimientos de modelado de datos.
- Soft skills: buena interlocución, trabajo en equipo, iniciativa y capacidad de adaptación.
- Experiencia en Databriks, Python o similares.
- Certificaciones en cloud o ingeniería de datos.
- Experiencia de despliegue y automatización de soluciones de datos.
- Un gran ambiente de trabajo, tanto dentro como fuera de la oficina
- Oportunidades internacionales y red de contactos global
- Formacióncontinuay plan de carrera a tu medida
- Salario competitivo y plan de remuneración flexible
- 31 días laborables de vacaciones
- La tarde de tu cumpleaños libre
- Flexibilidad y posibilidad de teletrabajo
- Acceso a Kteam, nuestra plataforma de bienestar, servicios, solidaridad y promociones
- Los beneficios pueden variar para programas de becas y/o prácticas
Nuestros valores marcan la diferencia. Marca la diferencia, impulsa tu talento.
Ingeniero/a Sistemas Seguridad Ferroviarios
8 de febr.Capgemini Engineering
Madrid, ES
Ingeniero/a Sistemas Seguridad Ferroviarios
Capgemini Engineering · Madrid, ES
.
Capgemini Engineering, líder mundial en servicios de ingeniería, reúne a equipos de profesionales en ingeniería, ciencia y tecnología para ayudar a las empresas más innovadoras del mundo a liberar su potencial y contribuir a un futuro mejor. Desde coches autónomos hasta robots que salvan vidas, nuestro/as expertos/as en tecnologías digitales y software se salen de lo convencional proporcionando servicios únicos de I+D e ingeniería en todos los sectores de actividad.
¡Únete al equipo y continua tu carrera en una compañía con oportunidades de crecimiento, donde puedes marcar la diferencia y donde ningún día es igual al anterior!.
Acerca del rol
Estamos buscando un/a Systems Engineer para incorporarse a nuestro equipo y participar en todo el ciclo de vida de sistemas complejos de seguridad aplicados al sector ferroviario.
¿Qué harás en el proyecto?
- Diseño & desarrollo de los sistemas de seguridad (PIS, CCTV, controles de acceso, megafonía, etc.) a nivel de arquitectura, interfaces, entre otras características.
- Redacción, análisis y gestión de especificaciones técnicas/requisitos.
- Selección de componentes y definición de la lista de materiales (BoQ).
- Elaboración de documentación técnica.
- Soporte a campañas de testing (validación & verificación).
- Puesta en marcha e integración.
Para sentirte cómodo en esta posición se requieren los siguientes conocimientos/experiencias:
- Formación en Ingeniería (Telecomunicaciones, Industrial o afines).
- Experiencia consolidada en proyectos similares (transporte, ferroviario, naval, aeronáutico, entre otros).
- Conocimientos globales en sistemas de seguridad.
- Nivel de inglés avanzado.
- Ofrecemos un entorno flexible y con oportunidades de crecimiento:
- Un ambiente de trabajo único muy valorado por nuestros profesionales en las evaluaciones periódicas.
- Wellbeing HUB - Incluye políticas y acciones para la salud física (Wellhub) y mental.
- 24 días de vacaciones + 2 asuntos propios + 24 y 31 de diciembre + opción a comprar hasta 7 días de vacaciones al año.
- FlexAbroad: posibilidad de trabajar en remoto desde otro país durante 45 días.
- Plan de Compensación Flexible (seguro médico, transporte, formación, tarjeta restaurante o subvención de comida, guardería…)
- Formación continua, podrás disfrutar de Mylearning y de Capgemini University y de nuestros Campus Digitales y Comunidades profesionales. Tendrás acceso a plataformas como: Coursera, Udemy, Pluralsight, Harvard Manager Mentor, Education First para idiomas (inglés francés, alemán…) ¡entre otras!
- Participación en Acciones de Voluntariado y Acción Social con nuestros Grupos de Sostenibilidad, Inclusión e Igualdad.
- Acompañamiento en tus inicios con el programa de Buddies.
- Seguro de Vida y Accidentes
Capgemini es líder global en transformación digital y gestión de negocios, impulsando un futuro inclusivo y sostenible mediante la tecnología. Contamos con más de 360.000 profesionales en más de 50 países.
Nuestro compromiso con la igualdad de oportunidades se refleja en nuestro Plan de Igualdad y Código Ético, garantizando un entorno libre de discriminación por origen, etnia, nacionalidad, género, edad, orientación sexual, identidad de género, religión o cualquier otra circunstancia personal o social.
Reescribe tu futuro. ¡Únete a Capgemini Engineering!
Aplica ahora en www.capgemini.com/es-es
Senior QA Test Engineer 100 (f/m/d)
7 de febr.Julius Baer
Madrid, ES
Senior QA Test Engineer 100 (f/m/d)
Julius Baer · Madrid, ES
API Agile Git REST Jira DevOps QA
At Julius Baer, we celebrate and value the individual qualities you bring, enabling you to be impactful, to be entrepreneurial, to be empowered, and to create value beyond wealth. Let’s shape the future of wealth management together.
As a Senior QA Test Engineer, you will join one of our agile product teams. Your primary objective will be to ensure end-to-end quality across the entire software delivery lifecycle, from early requirements refinement to production release and post-release validation. You will act as a quality engineer within the team, ensuring that functional correctness, integration quality, non-functional aspects, and business requirements are consistently met in complex, distributed system landscapes.
YOUR CHALLENGE
- Work as an embedded QA Test Engineer in an Agile team, owning end-to-end quality assurance for all team owned applications (e.g. Campaign Manager, FactSet, Fund Gallery, Scalable Advice Engine etc.)
- Drive all quality aspects across the software development lifecycle, from story refinement and design to testing, release, and post-release validation
- Design, execute, and maintain test cases to ensure full coverage of business requirements and acceptance criteria
- Ensure functional correctness through well-designed positive, negative, and exploratory test scenarios
- Create, manage, and validate test data across different environments
- Execute tests and document results in an audit-proof manner (e.g. logs, screenshots, traceability, comments)
- Validate system integrations using REST API testing, with a clear understanding of request/response flows, error handling, and data consistency
- Perform end-to-end testing across multiple systems, understanding dependencies between internal applications and external providers
- Use Git for version control of test scripts and collaborate on code changes with developers
- Conduct structured root cause analysis to distinguish between UI issues, integration defects, data issues, environment problems, or requirement gaps
- Collaborate closely with business users, stakeholders, and external vendors
- Clearly communicate test progress, coverage, risks, and quality status to the agile team, Test Manager, business stakeholders, and external providers
- Take ownership of Defect Management and quality follow-up until resolution
- Support the team in bug/defect triage, ensuring timely closure and regression coverage
- Contribute to non-functional testing strategies where applicable, including participation in performance evaluation and scalability checks.
YOUR PROFILE
- Proven experience working as a QA Test Engineer in Agile/Scrum teams (DevOps setup is a strong plus)
- Strong experience leading and supporting testing activities across an agile team, from development testing to acceptance testing
- Domain knowledge in banking or financial services is a strong advantage
- Strong experience in test case design (TCD) to ensure proper coverage of requirements and acceptance criteria
- Experience with risk-based testing and prioritisation in complex system landscapes
- Comfortable performing manual and exploratory testing
- Strong understanding of end-to-end business processes, system dependencies, and integration flows
- Experience testing web-based applications and backend services and working with CI/CD pipelines and version control systems (Git).
- Hands-on experience with REST API testing
- Good knowledge of Jira; Xray knowledge is a plus
- Ability to work independently, take ownership, and proactively drive quality topics
- Strong analytical and problem-solving skills, including structured root cause analysis
- High resilience and ability to work under changing priorities
- Experience collaborating with external vendors and service providers, including coordination of testing activities and defect follow-ups
- Experience working effectively within international, cross-functional teams, navigating cultural differences and distributed ways of working
- Excellent command of English (C1/C2); Spanish is a strong plus
- Bachelor’s or Master’s degree in Computer Science, Engineering, or a related field, or equivalent practical experience
- ISTQB Foundation Level certification is a plus
Data Engineer / Data Quality Specialist
6 de febr.Grupo Digital
Data Engineer / Data Quality Specialist
Grupo Digital · Madrid, ES
Teletreball TSQL Cloud Coumputing Spark
Desde Grupo Digital, buscamos responsable de la construcción técnica de la plataforma de datos y de la implantación de mecanismos de calidad del dato para formar parte de nuestro equipo y colaborar con uno de nuestros clientes.
Condiciones:
* Contrato: Indefinido
* Modalidad: Teletrabajo. Imprescindible residir en España
* Horario: jornada completa
* Salario: En función de la experiencia laboral
Funciones:
* Desarrollo y mantenimiento de pipelines ETL/ELT
* Integración y normalización de fuentes de datos
* Implementación de reglas de calidad, validaciones y controles
* Automatización, orquestación y monitorización de procesos
* Soporte técnico a MDM, calidad y gobierno del dato
Requisitos:
* 5 años de experiencia en Databricks, Spark SQL, ADF, SQL u otras plataformas similares
* Conocimiento práctico en calidad del dato y validaciones
* Experiencia en entornos Cloud y automatización de procesos
¿Qué ofrecemos?
* Salario competitivo en función de la experiencia
* Contrato indefinido u Opción de Contrato Mercantil
* 22 días laborables de vacaciones
* Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte
* Formación en Tecnología y Soft Skills
* Programa de referidos: 500 € por candidatos recomendados que se incorporen con nosotros
Grupo Digital
Somos una consultora tecnológica con sede en Madrid. Especialistas en outsourcing de perfiles IT, selección y modelos Talent-as-a-Service, con foco en grandes integradores y empresas del sector financiero y digital. Apostamos por un servicio excelente, equipos autónomos y resultados medibles. Si te gusta trabajar con tecnologías punteras y en entornos que suman, aquí tendrás recorrido.
Junior GCP DevOps Engineer
5 de febr.Devoteam
Madrid, ES
Junior GCP DevOps Engineer
Devoteam · Madrid, ES
Python Azure Jenkins Docker Cloud Coumputing Kubernetes Git AWS PowerShell Bash DevOps Terraform
Company Description
Devoteam is a leading European consultancy focused on digital strategy, technology platforms, cybersecurity and business transformation through technology.
Technology is in our DNA and we believe in it as a lever capable of driving change for the better, maintaining a balance that allows us to offer our client portfolio first class technological tools but always with the proximity and professionalism of a team that acts as a guide along the way.
Devoteam has been committed to technology at the service of people for more than 30 years. With more than 11,000 people in the group, in 25 countries in Europe, the Middle East and Africa.
Job Description
We are seeking a Junior Cloud/DevOps Engineer to join our dynamic team in Madrid, Spain. This role offers an exciting opportunity to kickstart your career in cloud computing and DevOps practices, contributing to the design, implementation, and maintenance of our cloud infrastructure and automation processes.
- Assist in the deployment and management of cloud-based infrastructure using platforms such as AWS, Azure, or Google Cloud
- Collaborate with senior engineers to implement Infrastructure as Code (IaC) solutions using tools like Terraform or CloudFormation
- Support the development and maintenance of CI/CD pipelines to streamline software delivery processes
- Contribute to the containerization of applications using Docker and assist in Kubernetes cluster management
- Participate in monitoring and optimizing cloud resources for performance and cost-efficiency
- Assist in troubleshooting and resolving infrastructure and application issues
- Develop and maintain documentation for cloud infrastructure and DevOps processes
- Collaborate with cross-functional teams to ensure smooth integration of DevOps practices
Qualifications
- Bachelor´s degree in Computer Science, Information Technology, or a related field
- 0-2 years of experience in cloud computing or DevOps (internships or personal projects are valuable)
- Familiarity with at least one major cloud platform (AWS, Azure, or Google Cloud)
- Basic understanding of Infrastructure as Code (IaC) concepts and tools such as Terraform or CloudFormation
- Knowledge of containerization technologies, particularly Docker
- Experience with version control systems, preferably Git
- Proficiency in at least one scripting language (Python, Bash, or PowerShell)
- Basic understanding of CI/CD concepts and familiarity with tools like Jenkins or GitLab CI
- Fundamental knowledge of Linux/Unix systems administration
- Strong problem-solving skills and attention to detail
- Excellent communication and teamwork abilities
- Eagerness to learn and adapt to new technologies and methodologies
- Cloud certifications (e.g., AWS Certified Cloud Practitioner, Azure Fundamentals) are a plus
- Basic understanding of networking concepts
- Familiarity with the software development lifecycle is beneficial
Data Engineer Especialista en Data Lake
5 de febr.Digital Talent Agency
Data Engineer Especialista en Data Lake
Digital Talent Agency · Madrid, ES
Teletreball Python TSQL Azure Scala Hadoop Spark Big Data Power BI
Descripción
Data Engineer | PySpark / Big Data / Data Lake | Remoto España✨¿Tienes experiencia sólida como Data Engineer y te interesa un proyecto estable, 100% remoto y con tecnologías Big Data? 🚀
En Zemsania buscamos un/a Data Engineer con experiencia en PySpark, SQL avanzado y gestión de Data Lakes, para incorporarse de manera inmediata a un proyecto de larga duración.
🕗 Horario y condiciones
Horario: Lunes a viernes, de 09:00 a 18:00.
Jornada de verano: Julio y agosto, de 08:00 a 15:00.
Modalidad: 100% remoto desde España.
Guardias: Puntuales (pases a producción).
🎯 Requisitos mínimos
Experiencia de al menos 4 años como Data Engineer.
Experiencia sólida en:
PySpark para procesamiento de datos a gran escala.
SQL avanzado.
Diseño y gestión de Data Lakes.
Tecnologías Big Data: Hadoop, Spark, Hive u otras similares.
Capacidad para diseñar soluciones de datos escalables y eficientes.
Residencia dentro de España.
✨ Requisitos deseables
Experiencia con Databricks y/o Azure Data Factory.
Conocimientos de Python y/o Scala.
Certificaciones o formación específica en Data Engineering o Big Data.
Experiencia previa en entornos bancarios o corporativos con grandes volúmenes de datos.
🛠️ Funciones principales
Diseñar y mantener pipelines de datos utilizando PySpark y SQL.
Gestionar y optimizar la ingesta, procesamiento y almacenamiento de datos en el Data Lake.
Preparar y estructurar datos para su correcta visualización en Power BI.
Trabajar con grandes volúmenes de datos garantizando rendimiento y escalabilidad.
Identificar y resolver incidencias relacionadas con la calidad y consistencia de los datos.
Colaborar con equipos de Business Intelligence y Análisis de Datos para asegurar la disponibilidad y fiabilidad de la información.
🌟 Qué ofrecemos desde Zemsania
Contrato estable con Zemsania.
Proyecto de larga duración en entorno tecnológico avanzado.
Modalidad remota con horario estructurado.
Formación continua y acompañamiento del equipo de Talent y People Partner.
Oportunidades reales de crecimiento profesional.
🤝 Compromiso con la igualdadEn Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social.