No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araInformàtica i IT
299Comercial i Vendes
199Desenvolupament de Programari
182Administració i Secretariat
172Transport i Logística
110Veure més categories
Màrqueting i Negoci
103Educació i Formació
95Dret i Legal
94Enginyeria i Mecànica
70Comerç i Venda al Detall
67Disseny i Usabilitat
45Publicitat i Comunicació
38Comptabilitat i Finances
28Indústria Manufacturera
25Recursos Humans
25Construcció
21Hostaleria
21Sanitat i Salut
21Instal·lació i Manteniment
20Art, Moda i Disseny
19Atenció al client
13Producte
11Arts i Oficis
9Immobiliària
7Banca
6Farmacèutica
4Seguretat
4Cures i Serveis Personals
3Energia i Mineria
3Alimentació
2Social i Voluntariat
2Telecomunicacions
2Turisme i Entreteniment
2Esport i Entrenament
1Agricultura
0Assegurances
0Ciència i Investigació
0Editorial i Mitjans
0Top Zones
Madrid
1.490Sr Azure Data Engineer
22 de des.GFR Technologies SE
Sr Azure Data Engineer
GFR Technologies SE · Madrid, ES
Teletreball Python TSQL Azure DevOps Spark
GFT es una compañía pionera en transformación digital. Diseñamos soluciones de negocio centradas en la inteligencia artificial (AI-Centric), modernizamos infraestructuras de TI y desarrollamos sistemas core de nueva generación para líderes del sector bancario, asegurador e industrial. En estrecha colaboración con nuestros clientes, desafiamos los límites para ayudarles a alcanzar todo su potencial.
¿Qué estamos buscando?
Actualmente tenemos un puesto vacante para un/a Sr Data Engineer con experiencia en Python y Azure, que quiera unirse a GFT. Buscamos una persona entusiasta y dinámica dispuesta a empezar y crecer en un entorno multicultural, motivador y desafiante.
Tus principales responsabilidades son:
- Diseñar, desarrollar y mantener aplicaciones basadas en datos y pipelines de procesamiento a gran escala en el ecosistema Azure.
- Implementar soluciones de ingeniería de datos orientadas a rendimiento, escalabilidad y fiabilidad.
- Colaborar en la integración de servicios de datos en la nube y optimización de procesos.
- Garantizar la calidad y gobernanza de los datos en todas las etapas del ciclo de vida.
- Participar en la definición y mejora de arquitecturas de datos y procesos ETL.
Requisitos deseados:
- Experiencia en desarrollo con Python, incluyendo librerías como PySpark y Pandas Spark.
- Conocimiento sólido en procesamiento distribuido de datos.
- Dominio de SQL.
- Experiencia con Azure Synapse Analytics, Data Factory y servicios de datos en Azure.
Valorable:
- Experiencia con Azure Functions, Azure Virtual Machines y Azure DevOps.
- Familiaridad con CI/CD y Infrastructure as Code (por ejemplo, plantillas ARM).
- Conocimientos en modelado de datos, frameworks ETL y buenas prácticas de data governance.
Competencias personales:
- Proactividad y capacidad de resolución de problemas.
- Capacidad de trabajo en equipo y comunicarse con áreas técnicas y no técnicas.
- Atención al detalle y enfoque en la calidad.
- Organización y gestión eficiente del tiempo.
En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas sin tener en cuenta su raza, origen cultural, sexo, edad, orientación sexual, identidad de género, discapacidad o creencias religiosas.
GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo
¡Únete a nuestro equipo global!
Als Partner für IT-Beratung und Software-Entwicklung sind wir auf die digitale Transformation unserer Kunden aus den Bereichen Finanzen, Versicherungen und Industrie spezialisiert. Unsere rund 700 Talente in Deutschland entwickeln mit modernsten Technologien nachhaltige Lösungen.
Qué ofrecemos
- Conciliación y Flexibilidad: Posibilidad de trabajar desde casa híbrido/remoto, jornadas flexibles y viernes intensivos.
- Formación y Desarrollo: Plan personalizado, programas formativos.
- Beneficios Sociales: Seguro vida, apoyo teletrabajo.
- Beneficios Flexibles "a la carta": Bolsa corporativa para comida, transporte, seguro médico, guardería y formación, ajustada a tus necesidades y combinada con retribución flexible.
- Paquete de Reubicación (si aplica): Apoyo económico, asesoramiento, patrocinio visas.
- Programa de Recomendaciones.
- Programa de Bienestar: Nutrición, Física, Mental. Descuentos con Wellhub. Servicio de apoyo psicológico gratuito.
- Vida en GFT: Oficinas inteligentes, eventos, premios de valores, charlas inspiradoras.
- Cultura corporativa internacional.
¿Quieres estar al tanto de nuestras oportunidades profesionales?
Data Engineer
22 de des.Sopra Steria
Madrid, ES
Data Engineer
Sopra Steria · Madrid, ES
Azure
Descripción de la empresa
Porque trabajar en Sopra Steria, también es sentir Sopra Steria.
Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España.
Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente.
Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo.
Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo!
Descripción del empleo
Buscamos 3 perfiles de Data Engineer para incorporarse en un proyecto estable del sector bancario, concretamente en el área de Pagos y Medios de Pago.
Requisitos
Al menos 3 años de experiencia en:
- tareas de análisis, arquitectura, desarrollo de proyectos de Data
- Azure Databricks
- Stratio (Data Governance)
- Python/Pyspark
Información adicional
¿Qué tenemos para ti?
- Contrato indefinido y jornada completa
- 23 días de vacaciones
- Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más!
- Seguro de vida y de accidentes
- Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)
- Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas
- Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento.
- Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido!
- Compañerismo y buen ambiente, el poder de la unión lo tenemos presente.
Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas.
¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más!
The world is how we shape it
Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
DevOps Engineer
20 de des.Santander
Madrid, ES
DevOps Engineer
Santander · Madrid, ES
Python Agile Azure Jenkins Docker Cloud Coumputing Kubernetes Microservices AWS Bash DevOps Terraform Machine Learning
DevOps Engineer - Open Digital Services (ODS)
Country: Spain
Open Digital Services is the software development company of Santander Group powering the next generation of banks by creating innovative banking products and implementing them in collaboration with Santander Group Affiliates.
Santander Group is one of the world´s largest financial institutions and the Eurozone´s leader, we´re committed to being the best Digital Bank with Branches in the industry.
Our mission at ODS is to design and support an advanced digital and omnichannel platform, ensuring the best customer experience using cutting-edge technology. Openbank, our flagship partner, is where we develop our most advanced concepts first. Be part of our Best-in-Class team and help us create unique value for our customers!
Join us to tackle exciting tech challenges in an agile environment, benefiting from learning, growth, and local and international career opportunities in a modern, diverse setting.
As a DevOps Engineer in the AI Tech Team, you will play a key role in enabling the design, development, and deployment of scalable and resilient AI solutions. Your mission will be to build and maintain the infrastructure and automation pipelines that support the entire AI lifecycle-from experimentation to production-ensuring agility, security, and operational excellence.
You will work in close collaboration with AI Experts, Data Scientists, ML Engineers, and enterprise technology partners to accelerate the delivery of AI products that drive business value across Santander. This is a critical role in the AI transformation agenda, empowering the team to deliver responsible AI at scale.
Key Responsibilities:
- Design, implement, and manage robust CI/CD pipelines for AI/ML models and GenAI applications
- Build and maintain cloud-native infrastructure (AWS, Azure, or GCP) to support the full AI lifecycle: from data ingestion and model training to production deployment and monitoring
- Automate infrastructure provisioning using Infrastructure as Code (IaC) tools such as Terraform, CloudFormation, or Pulumi
- Ensure scalability, reliability, and high availability of AI services in production environments
- Implement and enforce best practices in MLOps, including model versioning, monitoring, rollback, and automated testing
- Collaborate with data engineering and ML teams to operationalize AI models and integrate them into business-critical systems
- Monitor system performance, debug issues, and lead root-cause analysis and resolution of incidents
- Champion security, compliance, and governance standards across the AI tech stack
- Contribute to the continuous improvement of DevOps capabilities and tooling within the AI Tech Team
- Act as a technical advisor in DevOps and MLOps practices, fostering a culture of automation and engineering excellence
Required Experience:
- 5+ years of experience in DevOps, Site Reliability Engineering, or Platform Engineering roles
- Proven experience supporting ML/AI workloads in production environments
- Hands-on experience with containerization (Docker, Kubernetes) and orchestration of microservices
- Strong background in managing cloud environments (AWS, Azure, or GCP), including cost optimization and security best practices
- Solid experience implementing CI/CD pipelines and using tools such as Jenkins, GitHub Actions, GitLab CI, or similar
- Familiarity with machine learning workflows, model deployment patterns, and MLOps tools (e.g., MLflow, Kubeflow, SageMaker, Vertex AI)
Education:
- BSc or MSc in Computer Science, Engineering, or a related technical field
- Relevant certifications in cloud platforms or DevOps practices (e.g., AWS DevOps Engineer, Azure DevOps, Google Cloud DevOps) are a plus
Skills & Competencies:
- Strong scripting and automation skills (e.g., Python, Bash, Go)
- Experience with monitoring and logging tools (e.g., Prometheus, Grafana, ELK Stack, Datadog)
- Deep understanding of CI/CD and infrastructure automation principles
- Knowledge of security and compliance in cloud-based and AI-driven systems
- Experience working in agile, cross-functional teams focused on rapid delivery and continuous improvement
- Ability to translate operational needs into scalable and maintainable solutions
- Strong problem-solving skills, ownership mindset, and a proactive attitude
- Excellent communication skills and ability to collaborate with both technical and non-technical stakeholders
What do we offer?
- Immediate incorporation to a dynamic and agile company with a growth and expansion project.
- Working in start-up mode with the support of Grupo Santander.
- Competitive remuneration and attractive benefits package.
- Possibility of growth within the company and the Group.
- Collaboration in international projects and possibility of contact with different countries.
- Excellent work environment, social clubs and frequent events.
Would you like to grow with us? Join our team!
Data Engineer (m/f/d)
19 de des.BASF
Madrid, ES
Data Engineer (m/f/d)
BASF · Madrid, ES
Python TSQL Azure NoSQL REST
ABOUT US
At BASF Digital Hub Madrid we develop innovative digital solutions for BASF, create new exciting customer experiences and business growth, and drive efficiencies in processes, helping to strengthen BASF´s position as the digital leader in the chemical industry. We believe the right path is through creativity, trial and error and great people working and learning together. Become part of our team and develop the future with us - in a global team that embraces diversity and equal opportunities.
We believe the right path is through creativity, trial and error and great people working and learning together. Become part of our team and develop the future with us - in a global team that embraces diversity and equal opportunities. We are committed to fostering an inclusive workplace and strongly encourage applications from individuals with disabilities. We value diversity and believe that varied perspectives enhance our team´s effectiveness. Our hiring practices are designed to ensure equal opportunity for all candidates.
WHAT YOU CAN EXPECT
At BASF Digital Hub Madrid we develop innovative digital solutions for BASF, create new exciting customer experiences and business growth, and drive efficiencies in processes, helping to strengthen BASF´s position as the digital leader in the chemical industry. We believe the right path is through creativity, trial and error and great people working and learning together. Become part of our team and develop the future with us - in a global team that embraces diversity and equal opportunities.
We are currently seeking a talented Data Engineer to join our team at BASF´s Agricultural Solutions department Digital Factory.
RESPONSIBILITIES
- Design, develop, and maintain data models that support analytical needs across various business domains.
- Create domain entities to ensure data is organized and accessible for analysis, reporting, and business intelligence with normalized data model
- Collaborate with data analysts, data scientists, and other stakeholders to understand data requirements and translate them into effective data solutions.
- Implement data integration processes using Azure Data Factory, Azure Databricks, and other ETL tools.
- Utilize your deep Python expertise for data manipulation, transformation, and analysis within Azure Databricks. Optimize data storage solutions in Azure, ensuring efficient retrieval and performance.
- Monitor and troubleshoot data ingestion and transformation pipelines and processes to ensure data quality and integrity.
- Maintain documentation of data models, architecture, and processes for reference and compliance.
- Stay updated with the latest trends and technologies in data engineering and Azure services to continuously improve data solutions.
REQUIREMENTS OF THE POSITION
- Bachelor´s degree preferably in computer science, Information Technology, or a related field.
- 3 years of (proven) experience as a Data Engineer in an enterprise context, preferably in an Azure environment.
- Create data pipelines integrating data from a variety of sources including REST APIs, static documents and relational and NOSQL databases
- Strong proficiency in Azure services, including Azure SQL Database, Azure Data Lake, Azure Data Factory, Azure Data Factory and Azure Synapse Analytics.
- Expert Experience with data modelling techniques and methodologies.
- Proficiency in Python for data processing and analysis.
- Expert level knowledge of data processing languages such as SQL and PySpark
- Knowledge of data warehousing concepts and best practices.
- Excellent problem-solving skills
- Strong communication and collaboration skills to work effectively with cross-functional teams and global teams
- Knowledge of data governance and compliance frameworks.
WHAT WE OFFER
- A secure work environment because your health, safety and wellbeing is always our top priority.
- Flexible work schedule and Home-office options, so that you can balance your working life and private life.
- Learning and development opportunities
- 23 holiday days per year
- 5 additional days (readjustment)
- 2 cultural days
- A collaborative, trustful and innovative work environment
- Being part of an international team and work in global projects
- Relocation assistance to Madrid provided
Senior DevOps Engineer
19 de des.sg tech
Madrid, ES
Senior DevOps Engineer
sg tech · Madrid, ES
API Azure Jenkins Cloud Coumputing AWS DevOps Terraform
Descripción
En SG Tech impulsamos la transformación tecnológica de nuestros clientes mediante soluciones de alto impacto en entornos cloud, datos e inteligencia artificial. Trabajamos con un enfoque práctico, colaborativo y orientado a resultados, integrándonos en proyectos estratégicos donde la ingeniería, la automatización y la innovación marcan la diferencia. Apostamos por entornos modernos, retadores y con un fuerte foco en buenas prácticas, escalabilidad y excelencia operativa.
Buscamos incorporar un perfil DevOps senior con sólida experiencia en automatización, operación y despliegue de plataformas cloud, así como en la integración y gobierno de servicios de IA generativa en entornos corporativos. La persona se integrará en proyectos de plataforma y arquitectura avanzada, participando activamente en el diseño, estandarización y operación de soluciones multicloud altamente automatizadas, seguras y observables.
El rol combina responsabilidades de infraestructura como código, CI/CD, DevSecOps, observabilidad y gestión de plataformas distribuidas, con un componente diferencial en la integración de proveedores de LLM y el diseño de flujos gobernados para su consumo empresarial. Se trata de una posición clave para perfiles con visión transversal, orientación a calidad técnica y capacidad para trabajar en entornos críticos y de alta complejidad.
Si te motiva trabajar en proyectos punteros, con impacto real y autonomía técnica, en un entorno donde se valora el criterio profesional y la mejora continua, este reto es para ti.
Requisitos
Imprescindibles
Cloud & Plataforma
- Experiencia sólida en AWS, con foco en Fargate, ALB, DynamoDB, ElastiCache/Redis, S3, CloudWatch, IAM, PrivateLink y AWS Bedrock.
- Conocimiento práctico de entornos multicloud: Azure (APIM, Azure OpenAI, Key Vault) y GCP (Vertex AI, Cloud Run, Secret Manager).
- Diseño y operación de arquitecturas serverless y basadas en contenedores.
Infrastructure as Code & Automatización
- Dominio de Terraform en entornos productivos.
- Experiencia con CloudFormation.
- Estandarización de infraestructuras y despliegues mediante IaC.
CI/CD y GitOps
- Administración y operación de Jenkins (pipelines, despliegues, automatización end-to-end).
- Diseño y optimización de pipelines en GitHub Actions.
- Experiencia con Cloud Build y Azure DevOps.
- Creación de plantillas, librerías y aceleradores reutilizables.
Integración de IA Generativa
- Integración y operación de servicios de IA generativa: Azure OpenAI, AWS Bedrock, Vertex AI (Gemini), Anthropic y OpenAI.
- Diseño de flujos seguros, auditables y gobernados para consumo de LLMs en entornos corporativos.
Seguridad y DevSecOps
- Gestión segura de identidades y secretos: IAM, KMS, Parameter Store, Secrets Manager, Vault.
- Hardening, control de accesos, auditoría y compliance.
- Escaneo de contenedores y pipelines con enfoque DevSecOps.
Observabilidad y Operaciones
- Monitorización y trazabilidad con OpenTelemetry, CloudWatch, X-Ray y CloudTrail.
- Definición de SLAs, capacity planning y políticas de autoscaling.
- Validación y auditoría de despliegues y funcionalidades en producción.
Deseables
- Experiencia en configuración y operación de API Gateways como Kong, NGINX/OpenResty o Apigee.
- Implementación de mecanismos de control de tráfico y seguridad: OAuth2, JWT, mTLS, Zero Trust.
- Experiencia en optimización de costes cloud y modelos FinOps.
- Participación en diseños de plataformas internas (Platform Engineering).
- Experiencia en entornos de alta criticidad o regulación.
DevOps Cloud Engineer
19 de des.Serem
Madrid, ES
DevOps Cloud Engineer
Serem · Madrid, ES
Agile Azure Jenkins Docker Cloud Coumputing Kubernetes Ansible AWS DevOps Terraform
Buscamos un/a Cloud & DevOps Engineer con experiencia en entornos de infraestructura como código y despliegue en la nube, que quiera formar parte de un equipo técnico de primer nivel, participando en proyectos innovadores en entornos AWS y Azure. Tendrás la oportunidad de diseñar, automatizar y operar soluciones en la nube que impactan directamente en los negocios de nuestros clientes.
Responsabilidades
Diseñar y construir infraestructuras cloud (AWS y/o Azure) con Terraform.
Implantar y configurar pipelines CI/CD con herramientas como Jenkins o GitHub Actions.
Automatizar despliegues de contenedores, dando soporte al equipo de desarrollo.
Administrar y monitorizar clústeres de Kubernetes (EKS, AKS).
Participar en el diseño de arquitecturas multi-cluster y despliegues de Landing Zones.
Aplicar medidas de seguridad cloud: gestión de identidades, redes, cifrado, claves, firewalls, etc.
Colaborar en la definición e implementación de procesos DevSecOps y buenas prácticas SDLC.
Requisitos
Experiencia mínima de 4 años como DevOps o en roles similares.
Conocimiento avanzado de Terraform, Docker, Kubernetes, AWS o Azure, GitHub/Git y Jenkins.
Capacidad para trabajar en entornos colaborativos con metodologías Agile.
Formación técnica en Ingeniería Informática, Telecomunicaciones o similar.
Nivel de inglés intermedio-alto (se valorará positivamente fluidez profesional).
Se valoran candidaturas preferiblemente de Madrid y Barcelona.
Se valorará experiencia en sectores regulados como banca o seguros.
Qué valoramos especialmente
Certificaciones en AWS o Azure.
Conocimiento en herramientas como Ansible, Helm o Vault.
Proactividad, capacidad de análisis y pasión por la automatización y las buenas prácticas DevOps.
Fomentamos un ambiente de trabajo multicultural e inclusivo, no discriminamos por edad, género o creencias; así como ofrecemos igualdad de oportunidades a todo el personal.
Desarrollamos nuestras actividades bajo los principios del cuidado del medioambiente, la sostenibilidad y la responsabilidad social corporativa; colaborando en proyectos de reforestación y sostenibilidad.
Apoyamos los 10 principios del Pacto Mundial y los 17 Objetivos de Desarrollo Sostenible, en materia de derechos humanos, condiciones laborales, medio ambiente y anticorrupción.
Los procesos de reclutamiento se desarrollan bajo altos estándares de calidad definiendo la incorporación en base a la experiencia y habilidades del candidato.
Somos una empresa española líder en servicios tecnológicos y atracción del talento presente en el mercado desde 1995. Contamos con más de 600 empleados en proyectos tanto nacionales como internacionales en sector TI.
Data Engineer
19 de des.UST
Data Engineer
UST · Madrid, ES
Teletreball C# Python TSQL Azure Git Power BI
Role description
We are still looking for the very Top Talent...and we would be delighted if you were to join our team!
More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies.
What we look for?
For one of those projects, we are seeking a dynamic and experienced Data Engineer (Snowflake) with strong SQL, Testing, ETLs, etc.
100% remote position for people located in Spain.
Key Responsibilities:
- Design and execute test plans.
- Data Validation for accuracy and completeness.
- Perform ETL process verification and ensure dependencies are functioning as expected.
- Collaborate with engineering and data teams to triage issues and resolve defects.
- Document test results, issues, and resolutions clearly and consistently.
- Ensure security and access controls are preserved.
- Test Automation into CI Pipeline.
- Ensure Error Handling and Logging behaving as expected.
- Conduct performance testing.
Mandatory requirements:
- Proven experience testing data migrations.
- Strong Data warehousing / Dimensional Modelling concepts.
- Strong SQL expertise.
- Strong Azure Data Factory (ADF), Synapse and Snowflake.
- Experience with automated testing tools.
- Ability to validate data transformations and outputs.
- Experience with Integration Testing, Exploratory Testing and Performance Testing
- Excellent communication and documentation skills.
- Experience working with 3rd party vendors
Desirable:
- Background in performance tuning and query optimization.
- Exposure to scripting languages (e.g., Python) for test automation.
- Visual Studio, C#, XUnit, ADO, GIT
- PowerBI experience to help repoint reports to Snowflake
¿What can we offer?
-23 days of Annual Leave plus the 24th and 31st of December as discretionary days!
-Numerous benefits (Heath Care Plan, Internet Connectivity, Life and Accident Insurances).
-`Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan...)
-Free access to several training platforms
-Professional stability and career plans
-UST also, compensates referrals from which you could benefit when you refer professionals.
-The option to pick between 12 or 14 payments along the year.
-Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime...)
-UST Club Platform discounts and gym Access discounts
If you would like to know more, do not hesitate to apply and we´ll get in touch to fill you in details. UST is waiting for you!
In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.
Cloud Engineer en AWS
17 de des.Serem
Cloud Engineer en AWS
Serem · Madrid, ES
Teletreball .Net Java Python TSQL Linux Cloud Coumputing Kubernetes Oracle Jira AWS PowerShell Bash DevOps Terraform
Buscamos un Cloud Engineer en AWS para unirse a nuestro equipo y brindar soporte a la producción, identificando y resolviendo problemas en los sistemas y entornos cloud. La misión será garantizar la estabilidad, disponibilidad y rendimiento de nuestras plataformas, facilitando la detección y resolución de incidentes en producción, automatizando procesos y promoviendo buenas prácticas en la administración de entornos cloud.
Responsabilidades:
Monitorización y Diagnóstico: Identificar y analizar problemas en entornos productivos mediante CloudWatch, Dynatrace, herramientas de sistemas, proponiendo soluciones rápidas y efectivas.
Soporte a Producción: Colaborar con los equipos de desarrollo y operaciones para la resolución de incidencias en AWS, sistemas Linux (RHEL) y Windows.
Automatización: Trabajar con scripts de automatización (Bash, PowerShell, Python, Terraform, CloudFormation) para despliegues y resolución de problemas.
Optimización de entornos: Evaluar la configuración de sistemas y bases de datos (Oracle y SQL) para mejorar el rendimiento y la estabilidad.
Gestión de Sistemas: Administración y troubleshooting en entornos basados en EC2, ECS y EKS, RDS, S3. Entender Arquitectura de Redes complejas (VPC, TGW).
CI/CD y DevOps: Trabajar con pipelines de despliegue en GitHub Actions. Código versionado en Github.
Mejoras en la Observabilidad: Implementar dashboards, alertas y herramientas de logging para mejorar la detección y análisis de problemas.
Formación y documentación: Crear guías y sesiones de formación para mejorar el conocimiento del equipo en AWS y administración de sistemas.
Requisitos:
Experiencia mínima de 3-5 años en administración de sistemas Linux (RHEL) y Windows en entornos AWS.
Conocimientos básicos en administración y optimización de bases de datos Oracle y SQL.
Experiencia en troubleshooting de producción, identificando cuellos de botella en sistemas, redes y bases de datos.
Conocimiento en herramientas de monitorización y logging (CloudWatch, Dynatrace, OS Tools).
Experiencia con Infraestructura como Código (Terraform, CloudFormation).
Administración y soporte básico de aplicaciones .NET en Windows y Java sobre JBoss/Tomcat.
Experiencia en contenedores y Kubernetes (ECS y EKS).
Conocimientos en CI/CD con GitHub Actions.
Experiencia con scripting (Bash, PowerShell, Python) para tareas de automatización.
Capacidad de comunicación y trabajo en equipo, con habilidad para transmitir conocimientos técnicos a perfiles no especializados en sistemas.
Deseable:
Certificaciones en AWS (AWS Solutions Architect, SysOps Administrator).
Experiencia con herramientas ITSM y gestión de incidencias (ServiceNow, Jira).
Senior Data Engineer (Snowflake Expert)
16 de des.WayOps
Senior Data Engineer (Snowflake Expert)
WayOps · Madrid, ES
Teletreball Python TSQL Cloud Coumputing Git AWS Machine Learning
Buscamos un perfil Senior Data Engineer especializado en Snowflake que quiera desarrollar su carrera profesional integrando grandes volúmenes de datos en soluciones de IA de vanguardia.
CONTEXTO & RESPONSABILIDADES
La persona seleccionada se incorporará al equipo Funcional con la misión crítica de conectar el "Core" de datos de la compañía con los nuevos agentes de IA. El Data Engineer deberá diseñar y construir pipelines robustos de extracción, transformación y carga (ELT) que alimenten los sistemas inteligentes, garantizando la calidad y disponibilidad del dato. Será imprescindible contar con un dominio experto de Snowflake y habilidades sólidas en Python, SQL y entorno AWS.
PROYECTO & EQUIPO
El proyecto requiere desbloquear el valor de los datos almacenados en el Data Lake corporativo para su consumo por modelos de IA Generativa. Esto implica la creación de conectores seguros, optimización de queries complejas y la estructuración de datos no estructurados.
Para el éxito del proyecto, necesitamos especialistas que entiendan cómo modelar el dato para ser consumido por un LLM. Este perfil trabajará en estrecha colaboración con los AI Engineers y el equipo de Backend, bajo la supervisión del Product Manager y siguiendo las directrices del Arquitecto.
EXPERIENCIA & CONOCIMIENTOS
El perfil a incorporar deberá contar con al menos 5 años de experiencia en Ingeniería de Datos, con una especialización profunda y demostrable en Snowflake en entornos productivos. Deberá tener un fuerte background en desarrollo de pipelines ETL/ELT escalables.
Se valorará experiencia previa integrando plataformas de datos con servicios de Machine Learning o IA.
Será necesario tener experiencia previa con tecnologías:
- Core Data: Snowflake (Experto), SQL Avanzado, Python (Pandas, PySpark)
- Orquestación: Airflow, AWS Glue, dbt
- Cloud: AWS (S3, Lambda, Kinesis)
- Ingeniería de Software: Git, CI/CD para datos, Testing de datos
Además se valorará positivamente contar con experiencia o conocimientos en:
- Databricks: PySpark, Delta Lake
- Vector Databases: Preparación de datos para vectorización
- Formatos: Manejo de JSON, Parquet, Avro y datos no estructurados
CONTRATACIÓN & UBICACIÓN
La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).