MySQL MongoDB Python HTML Selenium AWS PostgreSQL Teletrabajo

Buscamos un perfil Senior Data Scraping & Analysis Specialist con sólida experiencia en Python que quiera desarrollar su carrera profesional construyendo pipelines de crawling inteligente y extracción masiva de datos desplegados en ecosistemas AWS de...
Buscamos un perfil Senior Data Scraping & Analysis Specialist con sólida experiencia en Python que quiera desarrollar su carrera profesional construyendo pipelines de crawling inteligente y extracción masiva de datos desplegados en ecosistemas AWS de alto rendimiento.

CONTEXTO & RESPONSABILIDADES

La persona seleccionada se incorporará al equipo Funcional con la misión crítica de conectar fuentes externas de información con los sistemas internos de análisis y los nuevos agentes de IA en la nube. El rol implica diseñar y mantener pipelines avanzados de scraping y crawling, capaces de operar a gran escala en entornos AWS, garantizando resiliencia, trazabilidad, observabilidad y cumplimiento de estándares de seguridad.

Será imprescindible dominar técnicas clásicas de scraping (Playwright, Selenium, BeautifulSoup) junto con nuevas soluciones impulsadas por IA, como Firecrawl, Crawl4AI o agentes LLM capaces de automatizar la navegación y extracción de contenido en webs dinámicas y altamente protegidas. El especialista también deberá procesar y transformar grandes volúmenes de datos dentro de arquitecturas cloud-native, integrando los resultados en los sistemas analíticos de la organización.

PROYECTO & EQUIPO

El proyecto tiene como objetivo habilitar la automatización completa de la adquisición de datos externos y su disponibilidad en AWS para alimentar plataformas analíticas y modelos de IA Generativa. Esto incluirá el desarrollo de crawlers inteligentes, estrategias anti-bot, rotación de proxies y la estructuración de datos no estructurados en formatos optimizados para su posterior consumo.

El perfil seleccionado trabajará en estrecha colaboración con los Data Scientists, AI Engineers y equipos de Backend, bajo la supervisión del Product Manager y siguiendo las directrices arquitectónicas definidas para entornos AWS. El ecosistema integra servicios como Lambda, ECS, S3, Step Functions y bases de datos distribuidas, por lo que la capacidad de diseñar pipelines cloud-native será clave para el éxito del rol.

EXPERIENCIA & CONOCIMIENTOS

Buscamos un perfil con al menos 4 años de experiencia en scraping avanzado y análisis de datos, y una profunda especialización en Python aplicada a crawling masivo y automatización web.

Se valorará especialmente la experiencia construyendo scrapers distribuidos en AWS y la exposición reciente a tecnologías de scraping impulsado por IA.

Será necesario tener experiencia con:
- Core Scraping & Crawling:- Playwright, Selenium, BeautifulSoup, Requests / aiohttp
- Firecrawl, Crawl4AI, Browserless o agentes LLM para crawling inteligente
- Estrategias anti-bot, rotación de proxies y browser fingerprinting

- Procesamiento & Data Engineering:- Python (Pandas, Polars, PySpark)
- Pipelines ETL/ELT, normalización y limpieza de datos masivos
- Parsing avanzado (HTML, JSON, XML, documentos estructurados y no estructurados)

- Infraestructura en AWS (imprescindible):- S3, Lambda, ECS/ECR, Step Functions
- CloudWatch (monitorización de crawlers), IAM (segmentación de permisos)
- SQS/SNS (orquestación y comunicación)
- AWS Glue o EMR (deseable)

- Bases de datos:- PostgreSQL, MySQL, MongoDB o DynamoDB
- Integración de datos y diseño de modelos de almacenamiento para alto volumen

Además se valorará positivamente contar con experiencia o conocimientos en:
- Orquestación: Airflow, Prefect o Dagster
- Infraestructura serverless y contenedores optimizados para crawling
- Integración de datos con LLMs, RAG pipelines o agentes inteligentes
- Visualización o análisis exploratorio de datos
- Diseño de pipelines distribuidos de alta concurrencia

CONTRATACIÓN & UBICACIÓN

La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).

¡No te pierdas nada!

Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo


Nunca compartiremos tu email con nadie y no te vamos a enviar spam

Suscríbete Ahora

Últimas ofertas de empleo de Ingeniero/a de Datos en Madrid

Deloitte

´Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales? En...

Deloitte

´Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales? En...

PANEL Sistemas Informáticos

🚀 ¡Estamos contratando! 👩‍💻 Puesto: Data Engineer (Cloud & Modern Data Stack) 📍 Ubicación: 100% remoto (candidatos en...

WayOps

Buscamos un perfil Senior Data Engineer especializado en Snowflake que quiera desarrollar su carrera profesional...

Experis España

Madrid, ES

¿Quieres formar parte de proyectos tecnológicos de gran escala en el sector bancario? Buscamos varios perfiles...

Indra

Alcobendas, ES

¡Estamos buscando un/a Ingeniero/a de Sistemas con experiencia internacional! ¿Tienes al menos 4 años de experiencia en...

Michael Page

Perfil buscado (Hombre/Mujer) • Implementar y gestionar entornos de infraestructura en la nube para soluciones de GenAI...

Data Engineer

15 dic.

UST

Role description ¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo! Para que nos conozcas...

Krell Consulting & Training

Descripción 🚀 Senior Knowledge Graph & Semantic Data Engineer 📍 100% remoto en España & Portugal 🌍 Inglés C1 requerido...

Carrefour España

Alcobendas, ES

En Carrefour Tech estamos en búsqueda de un ingeniero/a de machine learning con experiencia en industria , visión de...