¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
937Comercial y Ventas
730Adminstración y Secretariado
576Transporte y Logística
432Comercio y Venta al Detalle
332Ver más categorías
Educación y Formación
323Desarrollo de Software
310Marketing y Negocio
305Derecho y Legal
288Ingeniería y Mecánica
226Publicidad y Comunicación
187Diseño y Usabilidad
154Instalación y Mantenimiento
150Sanidad y Salud
114Construcción
95Industria Manufacturera
91Arte, Moda y Diseño
87Recursos Humanos
75Hostelería
74Contabilidad y Finanzas
50Atención al cliente
44Inmobiliaria
44Artes y Oficios
41Producto
38Turismo y Entretenimiento
35Cuidados y Servicios Personales
26Banca
23Farmacéutica
20Alimentación
19Seguridad
13Social y Voluntariado
9Energía y Minería
7Deporte y Entrenamiento
6Seguros
2Agricultura
1Editorial y Medios
1Telecomunicaciones
1Ciencia e Investigación
0DevOps
WikipediaGrupo TECDATA Engineering
Desarrollador/a en la Nube - Remoto 100%
Grupo TECDATA Engineering · Madrid, ES
Teletrabajo . Java Docker Cloud Coumputing Kubernetes DevOps Kafka
Responsabilidades
Desarrollo de aplicaciones backend escalables con Java 8 o superior.
Diseño e implementación de soluciones en Google Cloud Platform (GCP).
Colaboración activa en equipos ágiles y multidisciplinares.
Contenerización de aplicaciones con Docker.
Implementación de pipelines de CI/CD y buenas prácticas DevOps.
Orquestación de contenedores con Kubernetes.
Desarrollo y mantenimiento de pruebas unitarias, de integración y e2e.
Implementación de soluciones de monitorización y observabilidad.
Desarrollo de soluciones basadas en Kafka.
Uso de programación reactiva para sistemas de alto rendimiento.
Requisitos
Experiencia sólida con Java 8 o superior.
Experiencia en entornos cloud, especialmente Google Cloud.
Experiencia previa trabajando en equipos ágiles.
Conocimientos sólidos de Docker y prácticas DevOps.
Experiencia con Kubernetes u otros sistemas de orquestación de contenedores.
Capacidad para desarrollar pruebas automatizadas (unitarias, integración y e2e).
Experiencia en monitorización y observabilidad.
Experiencia con Kafka.
Experiencia en programación reactiva.
Analista Programador IA BI
16 ene.Incoming Domain
Analista Programador IA BI
Incoming Domain · Madrid, ES
Teletrabajo React API Java Python CSS TSQL HTML Azure NoSQL Maven Linux Docker Cloud Coumputing Kubernetes Git REST Oracle Jira OpenShift AWS PowerShell Sass Bash DevOps jUnit MVC Spring Eclipse Couchbase
TELETRABAJO para Desarrolladores con mas de tres años de experiencia.
* DEVOPS CYBERSECURITY :
1.-BACKEND DEVELOPMENT : Especialista CiverSeguridad en el Area de Criptografia Cuántica
2.-PROYECT GOVERNANCE - TECHNICAL MANAGER
-CiverSeguridad en el Area de Criptografia cuántica
-Responsable Servicio de QTO
-Experto en Métricas y mejora contínua
3.-BACKEND DEVELOPMENT : Especialista CiberSeguridad
-Seguimiento y recopilación de datos para la gestión y medición del Servicio.
* DATA BI : BI Analyst
-Recopilación y Análisis de requisitos del negocio
-Diseño de soluciones en bases de datos relacionales (Oracle, Databrichs, StarRocks)
-Desarrollo de procesos ETL para la carga de datos, desde (Pentho, Kettle, PL/SQL)
-Modelado de datos en herramientas BI: definición de dimensiones, hechos, jerarquias
-Diseño y Desarrollo de KPIs, informes y dashboards interactivos
-Experiencia avanzada en SQL y PL/SQL.
* DATA / DATABASE:
- Altos conocimientos en Bases de Datos no relacionales.
- Concretamente en CouchBase, y que haya realizado modelados en el banco con Power Designer .
- Haber trabajado con Control-M y DataX.
* DATA SCIENTIST :
-SE REQUIEREN EXPERTOS EN CUALQUIERA DE LAS VERTICALES IA
-SE Valora tener experiencia en VERTEX AI.
-Extraer y analizar datos de las bases de datos de la empresa para impulsar la optimización y la mejora del
desarrollo de productos de la Segunda Ola Digital.
-Evaluar la eficacia precisión de las nuevas fuentes de datos y aplicar técnicas de recopilación de datos.
-A partir de los datos disponibles y haciendo uso de algoritmos o de componentes de RAIP desarrollar
modelos personalizados para resolver las iniciativas de IA existentes.
-Utilice el modelado predictivo para aumentar y optimizar las experiencias de los Clientes, la generación de
ingresos, la segmentación de anuncios y otros resultados empresariales.
-Diseñar marcos de pruebas A/B y determinar siempre una métrica para evaluar los modelos.
-Desarrollar procesos y herramientas para analizar el rendimiento del modelo y la precisión de los datos.
-Habilidades fuertes de resolución de problemas con énfasis en el desarrollo del producto.
-Experiencia en el uso del lenguaje Python.
* CLOUD ENGINEER / AMAZON WEB SERVICES :
-Desarrollo y soporte de Arquitectura Gen AI para cliente bancario.
-Experiencia previa en soporte IT, DevOps o administración de sistemas en entornos cloud.
-Conocimiento en AWS (IAM, EC2, S3, Lambda, CloudWatch, etc.)
-Familiaridad con Azure y GCP (no excluyente)
-Manejo de Bases de Datos SQL y NoSQL
-Experiencia con herramientas de monitoreo y logging en la nube
-Capacidad de ejecutar y depurar scripts en Python, Bash ó PowerShell
-Familiaridad con API REST y herramientas de integración SaSS.
* MIGRACION : COBOL, CICS, DB2 , JCL / MICROFOCUS ENTERPRISE DEVELOPER / SERVER
. . . . . . . . . . . . . : Conocimientos de ECLIPSE , LINUX ( bash scripting) , PYTHON
* CORE BANKING: CONOCIMIENTOS GENERALES DE BANCA
. . . . . 1.- ANALISTAS DE REQUERIMIENTOS , FUNCIONAL Y PRUEBAS DE USUARIO
. . . . . 2.- ANALISTAS CORE BANKING REGULATORIO ( MERCADOS FINANCIEROS Y MEDIOS DE PAGO )
. . . . . . . ( Business Analyst con Conocimientos amplios en CIRBE )
* HOST. . : ANALISTAS PROGRAMADORES MANTENIMIENTO : COBOL CICS DB2 JCL AS400
DWH / ETL . . : INFORMATICA, PL-SQL
FrontEnd. . . . : HTML5, HTML, CSS3,APPVERSE, QWT, JAVA SCRIPT , REACT
BackEnd. . . . : Indispensable APIs, Spring MVC, API, Maven, GIT, JIRA,
. . . . . . . . . . . . : Docker, Kubernetes, Openshift, JUnit, Nexus, SonarQ,
. . . . . . . . . . . . : Spring Data, Swagger, Agile
Becas Telefónica Madrid
16 ene.Telefónica
Madrid, ES
Becas Telefónica Madrid
Telefónica · Madrid, ES
. Cloud Coumputing IoT DevOps QA Salesforce
Enviar candidatura ahora »
Fecha: 14 oct 2025
Ubicación: MADRID, ES
Empresa: Telefónica
BECAS Telefónica TGT
¿Te apasiona la tecnología y estás en búsqueda de una oportunidad con la que potenciar tu desarrollo profesional?
No puedes dejar escapar las becas de TGT….
Telefónica Global Technology (TGT) es una filial del Grupo Telefónica que proporciona servicios de Sistemas de Información, servicios de Desarrollo, Implantación, Evolución, Mantenimiento, Integración y Consultoría de sistemas especializados en el ámbito de aplicaciones SAP, Appian, Salesforce, BMC, Celonis y Puesto de Trabajo, entre otros.
Es decir, se encarga de la gestión de las Aplicaciones Globales de Telefónica dando soporte a todas las jurídicas del Grupo Telefónica, así como dotar de estos mismos servicios también al mercado B2B Externo.
Los proyectos que se realizan son muy variados, pero todos con un indicador común: el objetivo final es ser el asesor de confianza a alto nivel de nuestros clientes y generar un alto impacto con los proyectos en los que nos involucramos.
LUGAR DE TRABAJO: Madrid.
¿TE IDENTIFICAS? ¡SÚMATE AL RETO!
FORMACIÓN:
Ingeniería Técnica, Ingeniería Informática, Ingeniería de Telecomunicaciones, Administración y Dirección de Empresas, Física, Matemáticas o equivalentes.
CONOCIMIENTOS:
Programación de aplicaciones web e Integración de sistemas.
EXPERIENCIA:
¡Buenísimas noticias! No se requiere experiencia, solo muchas ganas.
IDIOMAS:
Inglés.
¿QUÉ PERFILES BUSCAMOS?
- Automatización Procesos.
- Data Science.
- DevOps.
- Full Stack.
- Finanzas / Contabilidad.
- Recursos Humanos-Personas.
- QA, Habilidades y Tecnologías.
- Visualización de datos.
- Gestión Negocio.
- Blockchain.
- Software Development.
- Pasión por la tecnología.
- Proactividad.
- Muchas ganas de asumir retos.
- Colaboración y trabajo en equipo.
En TGT, sabemos que el talento joven es el motor del futuro. Por eso, hemos diseñado un programa de becas que no solo te ofrece una oportunidad profesional, sino una experiencia transformadora.... Por ello, estas son algunas de las cosas que te esperan:
- Flexibilidad Horaria: Puedes elegir entre 25 o 35 horas semanales, adaptándonos a tus necesidades y compromisos académicos.
- Apoyo Económico: Sabemos que estudiar y trabajar puede ser un reto, por eso te ofrecemos una ayuda al estudio para que puedas concentrarte en lo que realmente importa: tu desarrollo profesional.
- Duración y Oportunidades: La beca tiene una duración inicial de 6 meses, con la posibilidad de renovar por otros 6 meses.
- Modalidad Híbrida: Basada en la confianza y objetivos globales. Contamos con flexibilidad para trabajar en un equipo dinámico y creativo.
- Proyectos Reales: Participarás en proyectos innovadores que tienen un impacto real en la empresa y en nuestros clientes. ¡Tu trabajo marcará la diferencia!
- Formación Continua: Acceso a cursos y formaciones para que sigas aprendiendo y mejorando tus habilidades. ¡Siempre apostando por tu desarrollo!
- Ambiente Colaborativo: Únete a un equipo de profesionales con pasión y talento, donde la colaboración y el intercambio de ideas son la clave del éxito.
Cuando te unes a Telefónica
Te unes a casi 100 años de historia, un equipo de 106 nacionalidades presentes en más de 35 países. Te unes a un equipo que trabaja por conectar a las personas allá dónde estén, sin fronteras. Un equipo que está liderando la revolución digital con la ilusión del primer día en todos nuestros negocios, creando el mejor ecosistema digital para nuestros clientes: Red, IoT, Cloud, Ciberseguridad, Innovación etc. En Telefónica tienes todo lo que necesitas para crear la mejor versión de ti mismo. Necesitamos gente como tú que se sume a este gran reto, que quiera crear la Telefónica del mañana.
En Telefónica apostamos por las nuevas formas de trabajo y somos líderes en la implementación de la Desconexión Digital bajo el principio “Desconecta para Reconectar”.
Te unes a una compañía cuya actividad se rige por su código ético, Nuestros Principios de Negocio Responsable. Buscamos personas que se identifiquen con los mismos, que nos ayuden a tomar decisiones basadas en la integridad, el compromiso y la transparencia y que se comprometan con una gestión ética, promoviendo un desarrollo social y ambiental más justo y sostenible.
#SomosDiversos
Estamos convencidos de que los equipos diversos e inclusivos son más innovadores, transformadores y consiguen mejores resultados. Por ello promovemos y garantizamos la inclusión de todas las personas sin importar género, edad, orientación e identidad sexual, cultura, discapacidad o cualquier otra condición personal.
Enviar candidatura ahora »
CAS TRAINING
Madrid, ES
Arquitecto/a Cloud AWS Microservicios Java
CAS TRAINING · Madrid, ES
API Java NoSQL Jenkins Linux Docker Cloud Coumputing Kubernetes REST Oracle AWS DevOps PostgreSQL Spring Microservices ITIL Kafka
🚀 En CAS Training buscamos un/a Arquitecto/a Cloud AWS con sólida experiencia en el diseño, desarrollo e implementación de arquitecturas basadas en microservicios con Java. La persona seleccionada participará en proyectos estratégicos, diseñando soluciones escalables, resilientes y alineadas con las mejores prácticas de arquitectura cloud y DevOps.
El perfil ideal combina una fuerte capacidad técnica con una mentalidad orientada a soluciones, liderazgo técnico y experiencia real en entornos productivos.
🏡 Modalidad: Híbrido, Madrid
🌐 Idiomas: Inglés: medio B1-B2.
🎯 Responsabilidades principales:
• Diseñar arquitecturas cloud-native en AWS, escalables, seguras y resilientes.
• Definir e implementar soluciones basadas en microservicios con Java y Spring Boot.
• Liderar técnicamente el diseño y despliegue de soluciones en entornos productivos.
• Participar en decisiones de arquitectura, definición de estándares y mejores prácticas.
• Colaborar con equipos de desarrollo, DevOps y negocio.
• Garantizar el cumplimiento de buenas prácticas de seguridad, rendimiento y disponibilidad.
• Apoyar procesos de integración continua y despliegue continuo (CI/CD)
🧩 Requisitos técnicos (Must Have):
• Grado Superior (FPII) en: Conocimientos técnicos requeridos
AWS (Amazon Web Services)
• Experiencia sólida con EC2, Lambda, S3, RDS, DynamoDB, API Gateway, VPC y EKS.
• Diseño de arquitecturas serverless, basadas en contenedores y escalables.
• Buenas prácticas de seguridad en AWS.
Java y Microservicios
• Dominio de Java y Spring Boot.
• Experiencia (mín. 5 años) en arquitecturas de microservicios.
• Desarrollo de APIs REST y uso de mensajería/eventos (SNS/SQS, Kafka).
• Aplicación de patrones como Saga, CQRS y Circuit Breaker.
Contenedores y Orquestación
• Uso avanzado de Docker y Kubernetes (EKS).
• Gestión de clústeres, monitorización y autoescalado.
DevOps / CI-CD
• Experiencia con pipelines CI/CD (Jenkins, GitLab CI, AWS CodePipeline).
Bases de datos
• Trabajo con bases de datos relacionales (PostgreSQL) y NoSQL (DynamoDB).
🎁 Ofrecemos:
• Contrato indefinido con CAS Training
• Formar parte de un equipo europeo de alto nivel técnico en un entorno innovador
• Paquete retributivo atractivo y flexible, negociado según tu experiencia
• Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top:Microsoft, Linux, Oracle, ITIL, ¡y muchos más!
GFR Technologies SE
Senior DevOps Engineer (Google Cloud)
GFR Technologies SE · Madrid, ES
Teletrabajo Cloud Coumputing Kubernetes DevOps Terraform
GFT es una compañía pionera en transformación digital que desarrolla soluciones sostenibles basadas en nuevas tecnologías, como la inteligencia artificial y blockchain/DLT. Los expertos de GFT crean e implementan aplicaciones de software escalables que hacen que el acceso a modelos de negocio innovadores sea seguro y sencillo.
¿Qué estamos buscando?
Actualmente, tenemos un puesto vacante para un/a Senior DevOps Engineer (Google Cloud) que quiera unirse a GFT. Buscamos una persona entusiasta y dinámica dispuesta a empezar y crecer en un entorno multicultural, motivador y desafiante.
Tus principales responsabilidades serán:
Aunque dependerán de tus conocimientos y experiencia aportada, en general las principales funciones que llevarías a cabo con nosotros serían:
- Comprender las necesidades del cliente y trabajar en estrecha colaboración con los equipos correspondientes para garantizar que la solución en la nube desarrollada esté alineada con las necesidades y la Propuesta de Valor de GFT.
- Desarrollar y organizar sistemas en la nube de Google Cloud Platform.
- Crear una estrategia para la nube y gestionar el proceso de adopción.
- Reconocer, identificar y documentar áreas potenciales donde los procesos comerciales existentes requieren cambios, o donde se necesitan desarrollar nuevos procesos, y hacer recomendaciones.
- Asegurar la capacidad de GFT para implementar y entregar la solución diseñada trabajando en estrecha colaboración con las unidades de entrega designadas.
- Identificar, evaluar y minimizar el riesgo asociado con la privacidad en la nube de la empresa.
Requisitos:
- Experiencia como Cloud/DevOps Engineer (nivel middle) de 4 años de experiencia profesional.
- Buen conocimiento y experiencia práctica en entornos Google Cloud Platform (GCP).
- Capacidad para aprovisionar y gestionar infraestructura en GCP mediante Terraform, aplicando buenas prácticas de Infrastructure as Code.
- Experiencia en la aplicación de prácticas SRE, incluyendo monitorización y alertas con Google Cloud Operations.
- Conocimientos y experiencia trabajando con servicios de datos de GCP (BigQuery, Dataproc, Cloud Composer, Google Cloud Storage (GCS).
- Experiencia en el diseño e implementación de pipelines CI/CD utilizando GitHub Actions / GitHub Workflows.
- Experiencia profesional de al menos un año con Google Kubernetes Engine (GKE).
- Nivel de inglés de conversación alto (B2) para trabajar en equipos internacionales.
Competencias personales:
- Trabajo en equipo.
- Habilidades de comunicación, favoreciendo dinámicas que permitan el flujo de conocimiento, con interés tanto en aprender como en enseñar.
- Proactividad en la búsqueda de nuevas soluciones y mejoras.
En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas sin tener en cuenta su raza, origen cultural, sexo, edad, orientación sexual, identidad de género, discapacidad o creencias religiosas. GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo.
¡Únete a nuestro equipo global!
Als Partner für IT-Beratung und Software-Entwicklung sind wir auf die digitale Transformation unserer Kunden aus den Bereichen Finanzen, Versicherungen und Industrie spezialisiert. Unsere rund 700 Talente in Deutschland entwickeln mit modernsten Technologien nachhaltige Lösungen.
Qué ofrecemos
- Conciliación y Flexibilidad: Posibilidad de trabajar desde casa híbrido/remoto, jornadas flexibles y viernes intensivos.
- Formación y Desarrollo: Plan personalizado, programas formativos.
- Beneficios Sociales: Seguro vida, apoyo teletrabajo.
- Beneficios Flexibles "a la carta": Bolsa corporativa para comida, transporte, seguro médico, guardería y formación, ajustada a tus necesidades y combinada con retribución flexible.
- Paquete de Reubicación (si aplica): Apoyo económico, asesoramiento, patrocinio visas.
- Programa de Recomendaciones.
- Programa de Bienestar: Nutrición, Física, Mental. Descuentos con Wellhub. Servicio de apoyo psicológico gratuito.
- Vida en GFT: Oficinas inteligentes, eventos, premios de valores, charlas inspiradoras.
- Cultura corporativa internacional.
DevOps Freelance
16 ene.WayOps
DevOps Freelance
WayOps · Madrid, ES
Teletrabajo API Python TSQL Azure Docker Cloud Coumputing Git PowerShell DevOps QA Terraform Machine Learning
En WayOps buscamos un perfil **DevOps Engineer** que quiera desarrollar su carrera profesional formando parte de un equipo Data & AI de primer nivel y trabajando en proyectos cloud con las últimas tecnologías.
**CONTEXTO & RESPONSABILIDADES**
La persona seleccionada se incorporará dentro de un equipo de nueva formación que tendrá como misión automatizar mediante MLOps la creación responsable de modelos en la plataforma analítica. (Junto al AI Architect, ) el DevOps Engineer deberá implementar pipelines CI/CD que permitan la integración y entrega continuas de código (DevOps) y modelos (ModelOps). Será imprescindible contar con un background técnico en programación y familiaridad tanto con DevOps, como con el ciclo de vida de los modelos científicos.
**PROYECTO & EQUIPO**
El proyecto persigue la adaptación de la plataforma analítica existente para integrar la creación responsable de modelos y automatizar su despliegue mediante MLOps. Como quiera que la base tecnológica ya incluye Azure Databricks y Azure Machine Learning Services, se quiere realizar la implementación del proceso gobernado desde Azure DevOps integrando a través de SDK con el resto de servicios para la creación automática de recursos o implementar las pipelines de despliegue.
Para el éxito del proyecto, resulta imprescindible contar con especialistas que además de tener visión de la arquitectura puedan realizar la configuración de las pipelines y crear los arquetipos en código que integren con los diferentes servicios de Azure Machine Learning. La configuración de cada iniciativa debe permitir el desarrollo local o remoto contra un clúster en Databricks o un Compute en Azure Machine Learning. Toda la configuración del proyecto y despliegue deben ser automatizados.
El equipo designado para el proyecto incluirá ingenieros de automatización MLOps (DevOps Engineer) e ingenieros de industrialización IA (AI Engineer) que serán supervisados por el líder técnico (Team Lead). El AI Architect trabajará de la mano del líder técnico y deberá liderar las tareas del equipo, especialmente los ingenieros de industrialización AI. Además, el proyecto contará con la supervisión del arquitecto empresarial y el apoyo del especialista de la plataforma. En total el equipo del proyecto serán unas ocho personas.
**EXPERIENCIA & CONOCIMIENTOS**
El perfil a incorporar deberá contar con 2-3 años de experiencia como especialista DevOps liderando la creación de pipelines de integración y despliegue continuo con Azure DevOps, así como código que permita la industrialización y automatización del despliegue de entornos (IaC). Además, deberá contar con un background de 3-5 años de experiencia como Ingeniero de Software o Ingeniero de Sistemas desarrollando aplicaciones y programas o desarrollando scripts que faciliten la configurando de entornos.
Se valorará experiencia previa en industrialización de entornos Data & AI, especialmente los orientados al ciclo de vida de los modelos científicos. Además, se valorará experiencia con Bizep/Terraform y experiencia o conocimiento con la API de de Azure Databricks.
Será necesario tener experiencia previa con tecnologías:
- Azure DevOps (Boards, Pipelines, Repos, Test Plans, Artifacts)
- Azure (Key Vault, Managed Identities, Application Insights, Azure Monitor, App Service, Storage)
- Azure Machine Learning (Experiment Tracking, Model Registry, AML SDK v2, MLflow)
- IaC (Terraform, Databricks API, Bicep, Docker, Powershell, Scripting)
- QA & Testing (Kiuwan, JMeter, PyTest)
- Visual Studio Code, Git, GitFlow)
Además se valorará positivamente contar con experiencia o conocimientos en:
- Azure (Data Factory, Databricks, Azure Machine Learning, Cosmos DB, SQL Databases)
- Azure Machine Learning (AML Pipelines, AML Endpoints, AML Environments, AML Compute)
- Databricks (Delta Tables, Unity Catalog, Databricks Connect)
- Desarrollo Python (Click, Poetry, Pipx, Opencensus, Black, Pdb+, fastAPI)
**CONTRATACIÓN & UBICACIÓN**
La contratación será mediante un contrato anual prorrogable como autónomo a jornada completa. El trabajo se llevará a cabo de forma remota, adaptándose al horario de oficina para facilitar la coordinación con el equipo. La banda salarial será negociable en función de la experiencia aportada.
AI Architect
16 ene.WayOps
Madrid, ES
AI Architect
WayOps · Madrid, ES
API Python TSQL Azure Docker Cloud Coumputing Git PowerShell DevOps QA Terraform Power BI Machine Learning
En WayOps buscamos un perfil AI Architect que quiera desarrollar su carrera profesional formando parte de un equipo Data & AI de primer nivel y trabajando en proyectos cloud con las últimas tecnologías.
CONTEXTO & RESPONSABILIDADES
La persona seleccionada se incorporará dentro de un equipo de nueva formación que tendrá como misión automatizar mediante MLOps la creación responsable de modelos en la plataforma analítica. Junto al especialista de la estrategia en la plataforma y el arquitecto empresarial, el AI Architect deberá realizar la definición técnica de la arquitectura y adaptar la plataforma analítica para soportar el proceso de MLOps.
Como quiera que el proceso de automatización en el desarrollo de modelos está íntimamente ligado con el código científico desarrollado, el AI Architect también deberá supervisar el desarrollo de arquetipos que faciliten y aceleren la creación de modelos científicos responsables. En este sentido, será imprescindible contar con un background técnico en programación y experiencia en DevOps para liderar la adaptación a MLOps del proceso científico.
PROYECTO & EQUIPO
El proyecto persigue la adaptación de la plataforma analítica existente para integrar la creación responsable de modelos y automatizar su despliegue mediante MLOps. Como quiera que la base tecnológica ya incluye Azure Databricks y Azure Machine Learning Services, se quiere realizar la implementación del proceso gobernado desde Azure DevOps integrando a través de SDK con el resto de servicios para la creación automática de recursos o implementar las pipelines de despliegue.
Para el éxito del proyecto, resulta imprescindible contar con especialistas que además de tener visión de la arquitectura puedan realizar la configuración de las pipelines y crear los arquetipos en código que integren con los diferentes servicios de Azure Machine Learning. La configuración de cada iniciativa debe permitir el desarrollo local o remoto contra un clúster en Databricks o un Compute en Azure Machine Learning. Toda la configuración del proyecto y despliegue deben ser automatizados.
El equipo designado para el proyecto incluirá ingenieros de automatización MLOps (MLOps Engineer) e ingenieros de industrialización IA (AI Engineer) que serán supervisados por el líder técnico (Team Lead). El AI Architect trabajará de la mano del líder técnico y deberá liderar las tareas del equipo, especialmente los ingenieros de industrialización AI. Además, el proyecto contará con la supervisión del arquitecto empresarial y el apoyo del especialista de la plataforma. En total el equipo del proyecto serán unas ocho personas.
EXPERIENCIA & CONOCIMIENTOS
El perfil a incorporar deberá contar con 2-3 años de experiencia como Arquitecto de Datos participando en la definición e implantación de arquitecturas técnicas que engloben tanto el procesamiento de datos como la creación de modelos científicos en entornos productivos. Además, deberá contar con un background de 3-5 años de experiencia como Ingeniero de Datos desarrollando código en PySpark para la transformación de los datos preferentemente en entornos Azure + Databricks.
Se valorará experiencia previa como científico de datos y/o como especialista en industrialización de modelos científicos, así como experiencia en la definición de mejores prácticas de programación, conocimientos y experiencia con CI/CD en Azure DevOps y cualquier experiencia previa en el desarrollo de librerías de código, especialmente en torno al SDK v2 de Azure Machine Learning.
Será necesario tener experiencia previa con tecnologías:
- Azure (Databricks, Azure Machine Learning, Storage, Data Factory, Key Vault)
- Azure Machine Learning (Experiment Tracking, Model Registry, AML Studio, AML SDK v2, MLflow)
- Databricks (PySpark, Dataframes, Delta Tables, Unity Catalog, Databricks Connect)
- Azure DevOps (Boards, Pipelines, Repos, Test Plans, Artifacts)
- Desarrollo Python (Click, Poetry, Pipx, Opencensus, Black, Pdb+, fastAPI)
- QA & Testing (Kiuwan, JMeter, PyTest)
- Herramientas (Visual Studio Code, Git)
Además se valorará positivamente contar con experiencia o conocimientos en:
- Azure (Cosmos DB, SQL Databases, Managed Identities, Application Insights, Azure Monitor, App Service)
- Azure Machine Learning (AML Pipelines, AML Endpoints, AML Environments, AML Compute)
- Machine Learning (sklearn, mllib, h2o, tensorflow, keras)
- Responsible AI (AML RAI SDK, Fairlearn, InterpretML, DiCE, EconML)
- IaC (Terraform, Databricks API, Bicep, Docker, Powershell, Scripting)
- Analytics (PowerBI)
CONTRATACIÓN & UBICACIÓN
La contratación será mediante contrato anual prorrogable como autónomo en jornada completa. El trabajo se desarrollará en remoto preferentemente dentro del horario de oficina del cliente para facilitar la coordinación con el resto del equipo. Banda salarial negociable en función de la experiencia aportada. Incorporación inmediata.
QA Tester - 100% Teletrabajo
15 ene.Azertium IT
QA Tester - 100% Teletrabajo
Azertium IT · Madrid, ES
Teletrabajo . Azure Maven Jenkins Docker DevOps QA
¡Estamos ampliando el equipo! ¡En Azertium IT te buscamos!
Nos urge incorporar un QA Tester con al menos 5 años de experiencia en el puesto y en el sector IT, para formar parte de nuestro equipo con grandes retos, trayectoria y crecimiento profesional.
Funciones:
Garantizar la calidad y seguridad del software a nivel transversal, capaz de definir, implantar y supervisar metodologías homogéneas en un entorno multiproyecto y con múltiples proveedores.
Actúa como figura de referencia y coordinación entre las áreas de Desarrollo, QA/Testing, Arquitectura y Ciberseguridad.
Requisitos:
- Experiencia realizando auditorías y revisiones de calidad de código. (Herramientas SonarQube; Kiuwan o similar)
- Experiencia en configurar y estableer Quality Gates, KPIs y valores objetivo de calidad a cumplir por los equipos de desarrollo.
- Experiencia en definir metodologías y políticas de calidad de código, buenas prácticas de desarrollo y buenas prácticas de pruebas de software.
- Experiencia liderando equipos y servicios. Seguimiento de avances, comités de seguimiento con cliente, etc.
- Experiencia coordinando a diferentes equipos (Desarrollo, QA, Arquitectura, Seguridad) con el objetivo de asegurar el correcto cumplimiento del Marco QA establecido
- Conocimientos en configurar e integrar en pipelines de despliegue (Jenkins) las auditorías de calidad de código y QA
- Conocimiento en buenas prácticas de codificación de software
- Patrones de diseño y arquitectura.
- Conocimiento en pruebas de rendimiento (JMeter)
- Conocimientos en revisiones de seguridad de las aplicaciones (controles de hardening y estándares de seguridad, vulnerabilidades, seguridad en agentes y servicios de IA en Azure)
- Conocimientos y experiencia en soluciones y herramietnas DevOps y de automatización de tareas de despliegue.(Jenkins, Azure DevOps, Maven, Docker)
- Liderazgo transversal sin autoridad jerárquica directa.
- Alta capacidad organizativa y orientada a procesos.
- Excelente comunicación técnica y capacidad para traducir riesgos a lenguaje no técnico.
- Habilidades de negociación con proveedores y equipos internos.
- Proactividad y orientación a mejora continua.
- Contrato indefinido con Azertium IT.
- 100% teletrabajo.
- Proyecto estable y de larga duración.
- Formación y desarrollo profesional.
Senior Salesforce Engineer
15 ene.Ebury
Madrid, ES
Senior Salesforce Engineer
Ebury · Madrid, ES
Agile Scrum Jenkins Cloud Coumputing Microservices DevOps Fintech DDD Salesforce Office
Ebury is a global fintech firm dedicated to empowering businesses to expand internationally through tailored and forward-thinking financial solutions. Since our founding in 2009, we´ve grown to a diverse team of over 1,700 professionals across 40+ offices and 29+ markets worldwide. Joining Ebury means becoming part of a collaborative and innovative environment where your contributions are valued. You´ll play a key role in shaping the future of cross-border finance, while advancing your own career in a dynamic, high-growth industry.
Senior Salesforce Engineer
Madrid Office - Hybrid: 4 days in the office, 1 day working from home
At Ebury, we are redefining what it means to be a Salesforce Engineer. We are moving beyond standard configuration to build a decentralized, autonomous, and AI-driven financial platform. As we transition to a "You Build It, You Run It" (YBIYRI) culture, we are empowering our domain teams with full ownership of their infrastructure, retiring legacy dependencies to move at the speed of innovation.
We are looking for a Senior Salesforce Engineer to join our Technology team in Madrid. You will be the technical anchor for our Spanish operations, collaborating closely with our distributed team to architect scalable solutions. You will pioneer the implementation of Salesforce Agentforce (AI Agents), and design the event-driven architectures that power global trade.
This is a role for an engineer who wants to build systems, not just customize layouts. If you are passionate about Open Source, DevOps, and Artificial Intelligence, this is your platform.
Our Tech Stack & Culture
- Core: Sales Cloud, Service Cloud, Financial Services Cloud, Pardot.
- Architecture: Event-driven architecture, REST/SOAP integrations with internal
microservices.
- Development: VS Code (Agentforce Vibes), Apex, LWC, SOQL/SOSL.
- Methodology: Agile (Scrum), Domain-Driven Design (DDD), YBIYRI.
- Philosophy: Open Source first. We encourage contributing back to the community.
- Automation & CI/CD: GitHub Actions (moving away from legacy Jenkins) and sfdx.
What You Will Own
- End-to-End Engineering: Design, build, and deploy scalable solutions on the Salesforce platform. You own your code from the IDE to production.
- AI & Modernization: Lead the charge on Agentforce and AI-driven workflows to automate complex financial processes and reduce manual toil.
- DevOps & Pipelines: Maintain and optimize our CI/CD pipelines. You will ensure our deployment process is fast, reliable, and "click-button" simple.
- Integration Quality: Build robust integrations with our banking platform and external financial providers using REST/SOAP APIs.
- Platform Reliability: Monitor the health of your services (YBIYRI). You are empowered to fix performance bottlenecks and ensure system stability.
- Security Architecture & Governance: Serve as the guardian of our Salesforce access model. You will architect and maintain a robust permission structure using Permission
- Set Groups and Profiles, ensuring strict adherence to the Principle of Least Privilege.
- You will design controls for a system that governs permissions for employees across our entire back-office ecosystem.
- Mentorship: As a Senior, you will guide the team on best practices, code reviews, and
- architectural decisions.
About You
- Experience: 3+ years of hands-on Salesforce development (Apex, LWC).
- Architectural Vision: You can design solutions that scale. You understand the trade-offs between synchronous and asynchronous processing, and you know how to protect the org from hitting Governor Limits.
- AI Readiness: You are excited by the potential of LLMs and Agentic AI. You understand concepts like RAG (Retrieval-Augmented Generation) and Prompt Engineering and are ready to apply them to enterprise CRM. Ensuring they are grounded in accurate data and operate within strict security boundaries.
- Communication: Fluent in English. You can explain complex technical constraints to Product Managers and business stakeholders.
- Team Player: You thrive in a collaborative environment and see the value in face-to-face interaction for solving complex problems.
- Domain: Experience in FinTech, Banking, or regulated industries is highly valued but not mandatory if you have the engineering chops.
What We Offer
- Competitive Salary: Tailored to your location and experience.
- Office Experience: A dynamic, collaborative office environment in Madrid designed for rapid decision-making and real human connection.
- Career Growth: Continued personal development through training, certifications, and conference attendance.
- Competitive Compensation: Discretionary bonus based on performance.
- Flexible Remuneration (Retribución Flexible): Optimize your net income with tax-efficient Ticket Restaurant (Meal Vouchers), Transport Cheques, Nursery Cheques and Health Insurance.
- Health & Wellbeing: Private Medical Insurance and access to wellness facilities.