¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
388Comercial y Ventas
229Desarrollo de Software
181Adminstración y Secretariado
140Marketing y Negocio
135Ver más categorías
Transporte y Logística
129Educación y Formación
96Derecho y Legal
95Ingeniería y Mecánica
91Comercio y Venta al Detalle
86Diseño y Usabilidad
42Publicidad y Comunicación
38Sanidad y Salud
37Instalación y Mantenimiento
28Recursos Humanos
27Contabilidad y Finanzas
25Arte, Moda y Diseño
22Construcción
22Hostelería
22Atención al cliente
18Industria Manufacturera
17Producto
15Artes y Oficios
12Inmobiliaria
12Banca
6Energía y Minería
6Alimentación
5Farmacéutica
4Turismo y Entretenimiento
4Cuidados y Servicios Personales
3Seguros
3Deporte y Entrenamiento
2Telecomunicaciones
2Agricultura
1Seguridad
1Ciencia e Investigación
0Editorial y Medios
0Social y Voluntariado
0Top Zonas
Madrid
1.603FeverUp
Madrid, ES
Lead Machine Learning Engineer
FeverUp · Madrid, ES
Python Docker Cloud Coumputing Kubernetes Elasticsearch Microservices AWS Kafka Spark Machine Learning Office
Hey there!
We´re Fever, the world´s leading tech platform for culture and live entertainment,
Our mission? To democratize access to culture and entertainment. With our proprietary cutting-edge technology and data-driven approach, we´re revolutionizing the way people engage with live entertainment.
Every month, our platform inspires over 300 million people in +40 countries (and counting) to discover unforgettable experiences while also empowering event creators with our data and technology, helping them scale, innovate, and enhance their events to reach new audiences.
Our results? We´ve teamed up with major industry leaders like Netflix, F.C. Barcelona, and Primavera Sound, presented international award-winning experiences, and are backed by several leading global investors! Impressive, right?
To achieve our mission, we are looking for bar-raisers with a hands-on mindset who are eager to help shape the future of entertainment!
Ready to be part of the experience?
Now, let´s discuss this role and what you will do to help achieve Fever´s mission.
The Role
We´re looking for a Lead ML Engineer with strong technical expertise and proven leadership skills. Beyond building robust, scalable, and maintainable systems, you´ll be responsible for growing and mentoring a high-performing ML team, leading cross-functional projects, and managing stakeholders.
You´ll set the technical direction, ensure engineering excellence, and create an environment where engineers can thrive. From recommendations and search to marketing optimization and process automation, your work will shape the future of ML at Fever.
What you´ll do
- Drive the design, implementation, and delivery of scalable ML systems, from data ingestion and model development to deployment and production performance.
- Oversee and ensure reliability of distributed, event-driven systems handling 1000+ requests per second.
- Define best practices in ML engineering, ensuring clean architecture, testability, and long-term maintainability.
- Hire, mentor, and grow a team of ML engineers, fostering a collaborative and high-performance culture.
- Collaborate closely with Data Engineering and Data Science teams to ensure strong data foundations, seamless model integration, and shared impact.
- Provide technical and strategic leadership in ML projects, aligning priorities with business goals.
- Act as a bridge between engineering, product, and business stakeholders: translating requirements, managing expectations, and delivering impact.
- Collaborate with DICE, Onebox, and other Fever group teams to strengthen the Fever ecosystem.
What we´re looking for
- Strong software engineering and ML expertise, with hands-on experience in Python, productionizing models, and building scalable systems (event-driven architectures, microservices, APIs, and databases).
- Solid experience with cloud and container orchestration (AWS, Docker, Kubernetes), modern ML/engineering tooling (e.g., Airflow, MLFlow) , CI/CD and observability.
- Proven ability to set engineering best practices, ensuring reliability, performance, and long-term maintainability of ML solutions.
- Experience leading engineering projects, setting direction, and coordinating stakeholders.
- Track record of hiring, mentoring, and growing engineering teams.
Bonus points for
- Experience with ML platforms (MLFlow, MetaFlow, DeepNote) and search/streaming technologies (ElasticSearch, Kafka, Flink, Spark Streaming).
- Building and shipping recommender systems, ranking services, or marketplace ML solutions at scale.
- Hands-on experience with marketing APIs (Meta, Google) or similar integrations.
- Side projects or open-source contributions in data-driven applications.
The environment
- Product-driven, cloud-native (AWS), fast-moving team.
- We care about code quality, performance, testability, and long-term maintainability.
- We hire builders: people who like to own systems end to end and enjoy working across the stack.
- Leadership is hands-on and collaborative, setting the pace through initiative, example, and accountability.
Benefits & Perks
- Responsibility from day one and professional and personal growth
- Opportunity to have a real impact in a high-growth global category leader
- A compensation package consisting of base salary and the potential to earn a significant bonus for top performance
- Stock options plan
- 40% discount on all Fever events and experiences
- Home office friendly, location in Madrid or Barcelona required
- Health insurance and other benefits such as Flexible remuneration with a 100% tax exemption through Cobee
- English / Spanish Lessons
- Wellhub Membership
- Possibility to receive in advance part of your salary by Payflow.
Thank you for considering joining Fever. We cannot wait to learn more about you!
Airbus Defence and Space
Systems Engineer for new programs
Airbus Defence and Space · Getafe, ES
Teletrabajo . Eclipse Big Data Office
Job Description:
The candidate will join the Health Management and Predictive Analytics team and will contribute to the development of Health Management systems in several platforms (FCAS, A400M, PATMAR, SIRTAP, ED, Hurjet, etc..) participating in the following activities:
- Lead systems engineering activities in order to specify, develop, integrate, qualify and certify health management systems in accordance with Airbus Defence and Space standards.
- Be responsible to define HUMS architecture, acting as HW/SW analyst for the development of Big Data on-board.
- Have the ability to identify the activities of the development life cycle that are necessary to develop a system/product and provide the level of confidence which is consistent with regulation and program requirements.
- Gather customer requirements for its analysis and incorporation in the product.
- Define checkpoints and reviews with associated maturity expectation aligned with program phases and gates
- Provide sufficient detailed data and information about system elements to enable the implementation consistent with architectural entities as defined in models and views of the system architecture and in accordance with the allocated requirements.
- Be responsible for the integration of the Health management system integration on aircraft.
- Specify, require, and support Laboratory, Ground and Flight tests needed for the development, certification and qualification (V&V) of Health Management systems.
- Lead data management activities for massive information, from data gathering, manipulating processing and storing.
- Experience in on-board hardware and software equipment design life-cycle and supplier management.
- Experience in SW development
- Experience in development on-boarded high performance computers.
- Experience working in A400M and C-295.
- Excellent knowledge of development & integration activities, from requirements capture to verification/validation activities to achieve a qualified/certified system. That includes engineering fields as safety, quality assurance, configuration control, etc. applied to health management systems.
- Good knowledge of procurement activities, from supplier selection to control and monitoring activities.
- Tools requirements for system engineering: DOORS, ICDMS, CASE, ABDs, Eclipse.
- Good communication skills, assertiveness and willingness to travel
- Strong Spanish and English skills, both verbal and written.
At Airbus we are focused on our employees and their welfare. Take a look at some of our social benefits:
- Vacation days and additional days-off along the year (+35 days off in total).
- Attractive salary and compensation package.
- Hybrid model of working when possible, promoting the work-life balance (40% remote work).
- Collective transport service in some sites.
- Benefits such as health insurance, employee stock options, retirement plan, or study grants.
- On-site facilities (among others): free canteen, kindergarten, medical office.
- Possibility to collaborate in different social and corporate social responsibility initiatives.
- Excellent upskilling opportunities and great development prospects in a multicultural environment.
- Special rates in products & benefits.
Company:
Airbus Defence and Space SAU
Employment Type:
Permanent
Experience Level:
Professional
Job Family:
Computing&Comm and Info& Data Processing
By submitting your CV or application you are consenting to Airbus using and storing information about you for monitoring purposes relating to your application or future employment. This information will only be used by Airbus.
Airbus is committed to achieving workforce diversity and creating an inclusive working environment. We welcome all applications irrespective of social and cultural background, age, gender, disability, sexual orientation or religious belief.
Airbus is, and always has been, committed to equal opportunities for all. As such, we will never ask for any type of monetary exchange in the frame of a recruitment process. Any impersonation of Airbus to do so should be reported to [email protected] .
At Airbus, we support you to work, connect and collaborate more easily and flexibly. Wherever possible, we foster flexible working arrangements to stimulate innovative thinking.
#YESPOST
Arelance
Data Engineer / Data Processing
Arelance · Madrid, ES
Teletrabajo Excel
En Arelance sabemos que las personas son el activo más importante dentro de una empresa y por tanto invertimos muchos esfuerzos en buscar los mejores profesionales para nuestros clientes, y en ofrecer a nuestros candidatos los mejores proyectos.
En este momento buscamos un/a Data Engineer para participar en la revisión, validación y reconciliación de datos provenientes tanto de soluciones de reporting automatizadas (UDP – Unified Data Platform) como de fuentes de reporting manuales (Excel). El objetivo principal del rol será identificar discrepancias, asegurar la calidad del dato y escalar inconsistencias, garantizando la fiabilidad y precisión de la información reportada, especialmente en datos de ingredientes y packaging.
¿Qué buscamos en ti?
- Experiencia en procesamiento y análisis de datos.
- Capacidad para trabajar con grandes volúmenes de datos y múltiples fuentes.
- Buen manejo de Excel (validaciones, comparativas, análisis).
- Conocimientos en plataformas de datos o reporting automatizado (UDP - Unified Data Platform).
- Alta atención al detalle y enfoque en calidad del dato.
¿Cuáles serán algunas de tus funciones?
- Revisar y validar datos procedentes de plataformas de reporting automatizadas (UDP).
- Analizar y contrastar información proveniente de fuentes manuales (Excel).
- Identificar discrepancias e inconsistencias en los datos.
- Escalar incidencias de calidad de datos a los equipos correspondientes.
- Asegurar la fiabilidad, precisión y coherencia de los datos reportados.
- Colaborar con equipos de datos y negocio para la resolución de problemas de reconciliación.
- Documentar hallazgos, procesos y reglas de validación de datos.
¿Qué ofrecemos en esta posición?
- Contrato indefinido en Arelance
- Modalidad de trabajo 100% remoto dentro de España
- SBA a negociar según experiencia y valía.
- Acceso a formación
- Contratación indefinida o flexibilidad para contratación freelance
- Jornada intensiva en verano y todos los viernes del año.
Si estás interesado/a en una oportunidad como ésta, ¡inscríbete! ¡Queremos conocerte!
** Solo se valorarán candidaturas con residencia y permiso de trabajo vigente en España **
Cloud and systems Engineer
4 ene.MetLife España
Madrid, ES
Cloud and systems Engineer
MetLife España · Madrid, ES
. Python Azure Jenkins Linux Docker Cloud Coumputing Kubernetes Ansible Microservices OpenShift AWS PowerShell Bash DevOps Terraform
Requirements
Description and Requirements
Cloud and systems Engineer
The Team You Will Join
You will be part of the IT Infrastructure & Helpdesk department within MetLife in Iberia (Spain and Portugal). The team is responsible for managing and maintaining the company's IT infrastructure, ensuring smooth operations and support across various regions. This includes overseeing IT service delivery, infrastructure management, and providing technical support to enhance the overall efficiency and reliability of MetLife's IT systems.
The team works closely with other departments (IT Applications department, Information Security. Operations, and Business) to implement and support IT solutions that align with the company's strategic goals.
The Opportunity
We are seeking a skilled Cloud and systems engineer with a strong background in automation to join our dynamic team.
The Cloud and systems engineer will be responsible for managing and maintaining our company's IT systems, ensuring optimal performance, security, and reliability. The ideal person will have extensive experience with Windows, Linux, Ansible, Elastic, and OpenShift, and will be responsible for designing, implementing, and maintaining automated solutions to enhance our cloud and on-premise infrastructure, with a primary focus on Azure.
This role requires a proactive individual with strong problem-solving skills and the ability to work effectively in a dynamic environment.
How You’ll Help Us Build a Confident Future (Key Responsibilities)
- Collaborate with cross-functional teams to identify automation opportunities and develop solutions that improve operational efficiency and reduce manual effort.
- Design, develop, and implement automation workflows using Ansible, Azure Devops and Terraform to streamline IT tasks such as configuration management, application and infrastructure deployment
- Develop and maintain Infrastructure as Code scripts to automate the provisioning and management of observability tools and resources.
- Operate Azure Hosted infrastructure through its lifecycle. Keep it current and aligned with business objectives
- Create, enhance, and maintain existing automation scripts and tools, ensuring they are up-to-date and aligned with industry best practices.
- Monitor and troubleshoot infrastructure, ensuring high availability, performance, and security.
- Collaborate with development and operations teams to define and implement observability and monitoring, and tracing standards and best practices.
- Troubleshoot and resolve observability-related issues, ensuring minimal impact on system availability and performance.
- Continuously evaluate and integrate new observability tools and technologies to enhance our monitoring capabilities.
- Maintain documentation of configurations, processes, and procedures.
- Stay updated with the latest industry trends and technologies.
- Experience with cloud platforms (AWS, Azure, GCP) and container orchestration tools (Kubernetes, Docker).
- Proven experience as a Cloud Engineer, Network Administrator with a focus on automation and Infrastructure as Code.
- Bachelor’s degree in computer science, Information Technology, or a related field.
- Proficiency in scripting languages such as Python, Bash, or PowerShell.
- Excellent problem-solving skills and the ability to work independently and as part of a collaborative team.
- Knowledge of monitoring, logging, and tracing tools such as Prometheus, Grafana, ELK Stack, Jaeger, etc.
- Solid understanding of networking, system administration, and security best practices.
- Experience with scripting languages such as Python, Bash, or PowerShell.
- Experience with automation tools such as Ansible, Terraform, Chef, or Puppet.
- Experience with of CI/CD pipelines and related tools such as Jenkins or GitLab CI.
- Understanding of distributed systems and microservices architecture.
Recognized on Fortune magazine's list of the "World's Most Admired Companies" and Fortune World’s 25 Best Workplaces™, MetLife, through its subsidiaries and affiliates, is one of the world’s leading financial services companies; providing insurance, annuities, employee benefits and asset management to individual and institutional customers. With operations in more than 40 markets, we hold leading positions in the United States, Latin America, Asia, Europe, and the Middle East.
Our purpose is simple - to help our colleagues, customers, communities, and the world at large create a more confident future. United by purpose and guided by our core values - Win Together, Do the Right Thing, Deliver Impact Over Activity, and Think Ahead - we’re inspired to transform the next century in financial services. At MetLife, it’s #AllTogetherPossible . Join us!
Fabric Data Engineer
4 ene.Axazure
Madrid, ES
Fabric Data Engineer
Axazure · Madrid, ES
. TSQL Azure Cloud Coumputing Git DevOps Terraform Spark
En Axazure buscamos un/a Data Engineer con alma de pionero que quiera darlo todo en proyectos de Microsoft Fabric 🤓. Si te mueves con soltura entre Data Pipelines, Dataflows Gen2, notebooks Spark y Delta Lake, y las palabras “OneLake, CI/CD y Medallion” te emocionan… sigue leyendo.
Lo que harás 🚀
- Diseñar canalizaciones con Data Pipelines + Dataflows Gen2 aplicando principios Medallion.
- Construir capas Bronze / Silver / Gold en Lakehouse usando Spark Notebooks y Delta Lake.
- Aplicar transformaciones potentes: enriquecimiento, filtrado, armonización… lo que toque 💥.
- Automatizar despliegues con Git integration y CI/CD (GitHub Actions o Azure DevOps).
- Configurar seguridad con OneLake RBAC, Key Vault, Managed Identity y VNET/Data Gateway.
- Monitorizar uso, rendimiento y costes, proponiendo mejoras sin parar.
- Documentar buenas prácticas para que Fabric se entienda y se quiera ❤️.
Lo que buscamos 🔍
- 2-3 años trabajando con Microsoft Cloud y datos.
- Experiencia real en Microsoft Fabric (Pipelines, Dataflows Gen2, Spark Notebooks).
- Conocimiento sólido de Delta Lake y arquitectura Lakehouse / Medallion.
- Dominio de SQL y PySpark para transformar a lo grande.
- Experiencia en seguridad y gobierno (Key Vault, RBAC, redes privadas).
- Te suena lo que es CI/CD y sabes lo básico de IaC con Bicep o Terraform.
- Si has trabajado con Dynamics 365 F&O, FinOps o proyectos de analítica de costes, suma puntos.
Certis:
✅ DP-600 u otra relacionada con Microsoft Fabric.
¿Qué te ofrecemos? 🎁
- Formación continua, marca personal y proyectos que molan de verdad.
- Seguro médico, clases de inglés, y flexibilidad total.
- Jornada intensiva en verano y vísperas de festivos.
- Un equipo de cracks, referentes de verdad.
- SAS (Share Axazure Success) para que celebres los logros con euros. 💰
Hemos venido a dejar huella únete a Axazure 💥🤘
Ingeniero/a de Datos Senior
4 ene.SEIDOR
Madrid, ES
Ingeniero/a de Datos Senior
SEIDOR · Madrid, ES
. Python TSQL Cloud Coumputing Scala AWS Spark Big Data
Buscamos un/a Ingeniero/a de Datos Senior con amplia experiencia en entornos cloud y ecosistemas Big Data.
Tareas
Formarás parte de un equipo clave en la evolución del Lago de Datos, asegurando la calidad, fiabilidad y rendimiento de los sistemas analíticos.
Requisitos
- Más de 5 años de experiencia como Ingeniero/a de Datos en entornos complejos (valorable sector educativo o institucional).
- Dominio del modelado de datos (conceptual, lógico y físico).
- Experiencia en arquitecturas Data Lake y Data Lakehouse en AWS:
S3, Glue, Athena, Redshift, Lambda. - Manejo avanzado de herramientas de procesamiento de datos en la nube:
AWS Glue, Apache Spark, PySpark, Databricks y herramientas de orquestación como Airflow. - SQL avanzado + Python y/o Scala aplicados a datos.
- Definición y mantenimiento de pipelines ETL/ELT robustos, escalables y monitorizables.
- Experiencia en catálogo de datos, metadatos y gobierno del dato:
AWS Glue Data Catalog, Collibra, Alation u otros.
Se necesita:
- Titulación universitaria en:
Ingeniería Informática, Telecomunicaciones, Industrial, Matemáticas, Estadística o similar.
- Máster en Ingeniería de Datos, Ciencia de Datos, Big Data o Arquitectura de Sistemas
Certificaciones tipo:
- AWS Certified Data Analytics - Specialty
- AWS Certified Solutions Architect (Associate o Professional)
- Certificaciones en plataformas de integración de datos
Beneficios
- Contrato indefinido desde el primer día.
- Proyecto inicial de 3 meses, prorrogable y con reubicación posterior en otros proyectos.
- Modalidad híbrida en Madrid:
Inicio presencial durante la fase de adaptación. Posteriormente, modelo híbrido. - Salario bruto anual de 42-45k
Si te motiva trabajar con grandes volúmenes de datos, arquitecturas cloud en AWS y participar en la toma de decisiones estratégicas a través de la analítica, ¡este es tu sitio!
Data Engineer
3 ene.Applus+ Europe
Madrid, ES
Data Engineer
Applus+ Europe · Madrid, ES
. MySQL Python TSQL Cloud Coumputing DevOps Power BI
¡Únete a Applus+ y da el siguiente paso en tu carrera!
¿Te gustaría formar parte de una multinacional líder en inspección, ensayos y certificación? En Applus+, somos más de 28.000 profesionales presentes en 65 países, comprometidos con la excelencia, la innovación tecnológica y la sostenibilidad.
Buscamos talento como el tuyo para seguir transformándonos y garantizar el cumplimiento de los más altos estándares de calidad.
Sobre nuestra división Energy & Industry
Desde nuestra división, ayudamos a nuestros clientes a optimizar sus proyectos y activos, minimizando riesgos operacionales y medioambientales. Lo hacemos apostando por la digitalización, la innovación y el conocimiento experto del mercado.
Ofrecemos una amplia gama de servicios especializados que incluyen inspección técnica y aseguramiento de calidad (QA/QC), ensayos no destructivos, consultoría e ingeniería especializada, así como soluciones en eficiencia energética y servicios ambientales. Además, contamos con experiencia en verificación de conformidad y certificación, garantizando la calidad y cumplimiento normativo en todos nuestros proyectos.
Operamos en sectores clave: energías renovables, energía convencional, infraestructuras, marítimo, telecomunicaciones, minería, aeroespacial, petróleo y gas.
En el departamento de Telecomunicaciones estamos apliando nuestro equipo. ¡Queremos contar contigo!
Buscamos un Data Engineer para unirse a nuestro equipo responsable de los sistemas de datos y reporting de la compañía. Participarás en el desarrollo de soluciones end-to-end que incluyen la integración, almacenamiento, transformación y visualización de datos provenientes de múltiples fuentes.
Trabajarás en un entorno técnico dinámico, colaborando estrechamente con equipos de Telecomunicaciones y TI donde colabora tanto en proyectos de datawarehouse clásico como otros con soluciones cloud.
¿Cuáles serán tus funciones?:
- Diseñar, desarrollar y mantener procesos ETL en Python.
- Administrar y optimizar bases de datos en SQL, MySQL y BigQuery.
- Participar proyectos de modernización de infraestructura y modernizaciones tecnologicas.
- Desarrollar modelos de datos y cálculos de KPIs e indicadores clave de negocio.
- Garantizar la calidad y consistencia de los datos en los distintos entornos.
- Colaborar con los equipos de BI en la creación de dashboards en Looker Studio, Qlik y Power BI.
¿Qué esperamos de ti?
- Experiencia previa como Data Engineer o en roles similares (mínimo 3 años).
- Preferiblemente estudios de ingeniería informática o de telecomunicaciones.
- Dominio de SQL y conocimientos sólidos de Python (pandas, SQLAlchemy, etc.).
- Experiencia en procesos ETL y manejo de grandes volúmenes de datos.
- Familiaridad con entornos cloud, preferiblemente Google BigQuery.
- Experiencia con herramientas de visualización (Looker Studio, Qlik, Power BI).
Valoramos:
- Conocimientos en administración de servidores o DevOps.
- Experiencia en entornos de telecomunicaciones o infraestructura técnica.
- Interés en aprendizaje continuo y mejora de procesos de datos.
¿Por qué unirte a Applus+?
Porque formarás parte de proyectos de alto impacto junto a los clientes más importantes del sector, con tecnologías punteras y en un entorno que valora tu talento. Apostamos por un liderazgo cercano, la igualdad de oportunidades y el desarrollo profesional continuo.
Conoce nuestro espíritu y misión: youtube.com/watch?si=JWFzMtUKuO7y8QdU&v=bjGdoU8kDA4&feature=youtu.be
En Applus+ valoramos la diferencia y garantizamos procesos de selección inclusivos. Si necesitas alguna adaptación, no dudes en decírnoslo. Todas las candidaturas serán consideradas en base a sus méritos y capacidades.
¿Te interesa el reto? ¡Inscríbete y forma parte de un equipo que transforma el mundo a través de la calidad y la innovación!
Data Engineer
1 ene.Second Window
Madrid, ES
Data Engineer
Second Window · Madrid, ES
. Python Jenkins Cloud Coumputing AWS DevOps Microservices
¿Te apasiona el mundo de la Inteligencia Artificial y quieres participar en la implantación de soluciones disruptivas? En Second Window buscamos un perfil con experiencia en ingeniería de datos e IA para unirse a un equipo de 10 expertos en pleno crecimiento. Trabajarás en proyectos punteros como asistentes virtuales para empleados y sistemas avanzados de clasificación de emails.
Detalles Del Puesto
Ubicación: Modelo Híbrido (Madrid). Requerida presencia 1 día a la semana en las oficinas del cliente en Manoteras.
Jornada: Lunes a viernes. Horario de invierno (09:00 - 18:00) y jornada intensiva de verano (08:00 - 15:00).
Proyecto: Larga duración, estabilidad profesional en entorno de IA.
Tus Funciones
Como parte fundamental del equipo, participarás en todo el ciclo de vida de la solución:
Diseño: Colaboración técnica con distintos equipos y elaboración de documentación técnica a bajo nivel.
Desarrollo del Dato: Implementación e industrialización de capas de gestión de agentes (infraestructura, RAG, etc.) bajo mejores prácticas de ingeniería de software.
Calidad y Pruebas: Generación de métricas de calidad medibles y validación de desarrollos.
Implantación: Despliegue de soluciones en entornos corporativos y seguimiento de su rendimiento.
Requisitos Del Perfil
Imprescindibles (2-3 años de experiencia):
Experiencia sólida en AWS (o entornos cloud similares).
Dominio de PySpark y lenguaje Python.
Experiencia trabajando con arquitecturas y modelos LLM.
Uso de herramientas de integración continua CI/CD (Jenkins o similar).
Manejo de entornos colaborativos en GitHub.
Deseables (Valorable)
Titulación superior en Informática, Teleco o Ingeniería.
Certificaciones en DevOps.
Conocimientos en computación distribuida, microservicios y seguridad de aplicaciones.
¿Qué te ofrecemos?
Contratación: Contrato indefinido desde el primer día.
Salario: Rango entre 35.000 y 42.000 Brutos/Año (según experiencia).
Flexibilidad: Modelo híbrido real (solo 1 día presencial).
Bienestar: Seguro médico privado y seguro de vida gratuitos.
Retribución Flexible: Tickets restaurante, guardería y tarjeta transporte.
Tiempo libre: 23 días de vacaciones + el día de tu cumpleaños.
Crecimiento: Plan de formación personalizado para que nunca dejes de aprender.
¿Sientes que este es tu siguiente paso profesional?
¡Queremos conocerte! Si tienes disponibilidad para trabajar en Madrid y cumples con los requisitos técnicos, no dudes en inscribirte.
¡Abre una nueva ventana a tu futuro con Second Window!
PySpark, AWS
Data Engineer (AWS)
31 dic.Plexus
Madrid, ES
Data Engineer (AWS)
Plexus · Madrid, ES
Python Git AWS Spark
Details
Join Plexus Tech. We are looking for a Data Engineer (AWS) with at least 3 years of experience.
Requirements:
- AWS experience.
- Experience with Python for data processing, automation, and ETL process development.
- Experience with various AWS services (Lambda, Glue, Lakeformation, S3, EMR, etc.)
- Proficiency with Git and code repositories.
- CI/CD: GitLab-CI pipelines, GitHub actions, or Jenklins jobs.
- Spark and PySpark.
With our hybrid model, Flexology, you can work from wherever your talents best suit you: from any of our 24 offices in Spain, from home, or a combination of both. The Plexus Tech work ecosystem fosters a collaborative environment within the company.
Work with leading professionals
Access to ongoing training
Career development opportunities
Flexible benefits including health insurance, meal vouchers, childcare, and transportation