¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraComercial y Ventas
10Ingeniería y Mecánica
10Adminstración y Secretariado
9Transporte y Logística
7Desarrollo de Software
4Ver más categorías
Educación y Formación
4Industria Manufacturera
4Informática e IT
3Banca
2Derecho y Legal
1Diseño y Usabilidad
1Farmacéutica
1Hostelería
1Inmobiliaria
1Instalación y Mantenimiento
1Marketing y Negocio
1Sanidad y Salud
1Social y Voluntariado
1Agricultura
0Alimentación
0Arte, Moda y Diseño
0Artes y Oficios
0Atención al cliente
0Ciencia e Investigación
0Comercio y Venta al Detalle
0Construcción
0Contabilidad y Finanzas
0Cuidados y Servicios Personales
0Deporte y Entrenamiento
0Editorial y Medios
0Energía y Minería
0Producto
0Publicidad y Comunicación
0Recursos Humanos
0Seguridad
0Seguros
0Telecomunicaciones
0Turismo y Entretenimiento
0Top Zonas
Valladolid
62Ingeniero/a de datos
NuevaSegula Technologies
Valladolid, ES
Ingeniero/a de datos
Segula Technologies · Valladolid, ES
Python TSQL Docker Cloud Coumputing DevOps Terraform Machine Learning
Funciones
En SEGULA Technologies estamos buscando un/a Data Engineer Senior con experiencia sólida en infraestructura cloud y orquestación de pipelines de machine learning en Google Cloud Platform (GCP).
Este perfil se incorporará a un proyecto puntero en el sector tecnológico, colaborando con equipos de data science, MLOps e infraestructura para desplegar soluciones escalables y automatizadas en entornos productivos.
Este consultor trabajará en una gran empresa del sector de la automoción, ubicado en Valladolid, en formato híbrido y con horario flexible.
Sus principales FUNCIONES serán:
Diseñar e implementar arquitecturas de datos en GCP: Compute Engine, GKE, Cloud Storage, Cloud SQL, IAM, VPC.
Orquestar pipelines de ML automatizados con Vertex AI Pipelines, Cloud Composer (Apache Airflow) o Cloud Build.
Gestionar el ciclo de vida de modelos con Vertex AI Model Registry: versionado, metadatos y actualizaciones.
Desplegar modelos como endpoints mediante Vertex AI Endpoints, Cloud Run o GKE.
Implementar monitorización de modelos: deriva de datos, calidad de predicción y alertas con Vertex AI Model Monitoring y Cloud Monitoring.
Automatizar infraestructura con Terraform y scripting en Python.
Contenerizar modelos y aplicaciones usando Docker.
Requisitos
Experiencia avanzada en arquitectura cloud con GCP.
Conocimiento profundo de ingeniería de datos y ML pipelines en producción.
Experiencia con Terraform, Python y contenedores Docker.
Nivel de inglés mínimo B2 (entorno internacional).
Capacidad de trabajo en equipo, orientación a la automatización y buenas prácticas DevOps.
Y también se valorará:
Experiencia en el sector automoción
Experiencia en entornos internacionales
Conocimiento del entorno de Supply Chain y logistica
Se ofrece
-Salario en función de valía y experiencia aportada por el candidato
-26 días de vacaciones
-Puesto estable, contrato indefinido
-Formación continua técnica e idiomas
-Buen ambiente de trabajo, profesional y muy especializado
-Posibilidad de trabajar en una empresa multinacional en pleno crecimiento a nivel nacional e internacional
-Promoción interna según tus propios objetivos
-Posibilidad de obtener ventajas fiscales en tu salario con SEGULA BENEFITS
GCP Data Engineer
2 sept.Serem
Valladolid, ES
GCP Data Engineer
Serem · Valladolid, ES
Python Agile Cloud Coumputing Machine Learning
¿Buscas nuevas oportunidades? ¡Envíanos tu currículum y descubre el camino hacia el éxito! ¡Visita nuestra web!
En SEREM estamos comprometidos con diversos proyectos y queremos contar con los mejores profesionales del sector.
Nos encontramos en búsqueda activa de un/a GCP Data Engineer con al menos 3 años de experiencia en el desarrollo de soluciones de datos, procesamiento y modelado, para incorporarse a un equipo internacional en un entorno altamente dinámico. El perfil ideal será capaz de diseñar y desarrollar pipelines de datos en Google Cloud, aplicando metodologías ágiles y colaborando estrechamente con equipos multiculturales.
Responsabilidades principales
Diseño y desarrollo de pipelines de datos en Google Cloud (GCP). Procesamiento y transformación de datos utilizando Apache Beam y BigQuery. Implementación de soluciones de Machine Learning utilizando librerías como Pandas, Scikit-learn, Keras, Tensorflow y Matplotlib. Desarrollo y despliegue de pipelines con Kubeflow y/o Tensorflow Extended (TFX). Colaboración con equipos internacionales para la integración y optimización de soluciones basadas en datos. Aplicación de metodologías ágiles para la entrega continua de soluciones de datos.
Requisitos mínimos
Al menos 3 años de experiencia como Data Engineer.
Sólidos conocimientos en Python y experiencia con Jupyter Notebooks.
Experiencia práctica en Apache Beam y GCP BigQuery.
Experiencia en el desarrollo de pipelines con Kubeflow y/o Tensorflow Extended.
Inglés B2 o superior
Experiencia trabajando en entornos Agile.
________________________________________
Requisitos valorables
Certificaciones GCP:
GCP Professional Data Engineer/ GCP Professional Machine Learning Engineer
Fomentamos un ambiente de trabajo multicultural e inclusivo, no discriminamos por edad, género o creencias; así como ofrecemos igualdad de oportunidades a todo el personal.
Desarrollamos nuestras actividades bajo los principios del cuidado del medioambiente, la sostenibilidad y la responsabilidad social corporativa; colaborando en proyectos de reforestación y sostenibilidad.
Apoyamos los 10 principios del Pacto Mundial y los 17 Objetivos de Desarrollo Sostenible, en materia de derechos humanos, condiciones laborales, medio ambiente y anticorrupción.
Los procesos de reclutamiento se desarrollan bajo altos estándares de calidad definiendo la incorporación en base a la experiencia y habilidades del candidato.
Somos una empresa española líder en servicios tecnológicos y atracción del talento presente en el mercado desde 1995. Contamos con más de 600 empleados en proyectos tanto nacionales como internacionales en sector TI.