No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araTransport i Logística
1.471Comercial i Vendes
947Informàtica i IT
839Administració i Secretariat
762Desenvolupament de Programari
686Veure més categories
Comerç i Venda al Detall
492Indústria Manufacturera
448Enginyeria i Mecànica
433Educació i Formació
413Dret i Legal
353Instal·lació i Manteniment
324Màrqueting i Negoci
293Sanitat i Salut
217Art, Moda i Disseny
199Disseny i Usabilitat
135Alimentació
116Construcció
114Publicitat i Comunicació
111Recursos Humans
110Hostaleria
104Comptabilitat i Finances
99Arts i Oficis
82Atenció al client
77Cures i Serveis Personals
64Turisme i Entreteniment
59Immobiliària
46Seguretat
45Producte
42Banca
32Farmacèutica
26Energia i Mineria
22Social i Voluntariat
17Ciència i Investigació
12Assegurances
2Telecomunicacions
2Editorial i Mitjans
1Agricultura
0Esport i Entrenament
0Apache Hadoop
WikipediaBig Data Engineer
11 de jul.Krell Consulting & Training
Madrid, ES
Big Data Engineer
Krell Consulting & Training · Madrid, ES
TSQL Azure Elasticsearch Scala Hadoop Spark Big Data
Ubicación: Preferencia por ciudades con sede (flexible para candidatos deslocalizados si el perfil encaja)
Modalidad: A convenir
Tarifa: Acorde a experiencia y conocimientos del perfil
Nivel de inglés: B2
Descripción del puesto
Buscamos un profesional para participar en la creación de un nuevo dashboard en Kibana, incluyendo tareas de preprocesamiento Big Data en el Data Lake (SCIB). Formará parte de un equipo de trabajo especializado en Market Risk, colaborando tanto en el desarrollo de procesos en tecnologías Big Data (Spark, Scala) como en tareas comunes del área.
El rol implica trabajar con tecnologías del ecosistema ELK (Kibana, Elasticsearch, Logstash), procesamiento de datos en entornos distribuidos (Hadoop, Spark), y contribuir a la construcción de soluciones analíticas que ayuden a la gestión de riesgos del mercado.
Responsabilidades
Desarrollo y mantenimiento de procesos de ingesta y transformación de datos en Spark (Scala).
Diseño y construcción de dashboards en Kibana para la visualización de datos de Market Risk.
Preprocesamiento y gestión de datos en el Data Lake (SCIB).
Colaboración con el equipo para tareas comunes del área de Big Data.
Aplicación de buenas prácticas de desarrollo y documentación de procesos.
Requisitos OBLIGATORIOS
Experiencia previa en proyectos tecnológicos, preferentemente de datos o analítica.
Conocimiento técnico y experiencia en Scala y Apache Spark.
Conocimiento de Hadoop.
Manejo de sentencias SQL.
Conocimiento básico de Shell scripting.
Conocimiento básico de Kibana y del entorno ELK (Elasticsearch, Logstash, Kibana).
Requisitos DESEABLES (no obligatorios)
Conocimiento técnico de Azure Databricks.
Experiencia previa en sector bancario o en Riesgos de Mercado.
Conocimiento de Airflow como gestor de workflows/pipelines.
Condiciones
Ubicación: Preferencia por ciudades donde tengamos sedes; posibilidad de valorar perfiles deslocalizados.
Tarifa: Se definirá según experiencia y conocimientos.
Inglés: Nivel B2 requerido.
Big Data Engineer Spark Scala ELK
8 de jul.Krell Consulting & Training
Madrid, ES
Big Data Engineer Spark Scala ELK
Krell Consulting & Training · Madrid, ES
TSQL Azure Elasticsearch Scala Hadoop Spark Big Data
Ubicación: Preferencia por ciudades con sede (flexible para candidatos deslocalizados si el perfil encaja)
Modalidad: A convenir
Tarifa: Acorde a experiencia y conocimientos del perfil
Nivel de inglés: B2
Descripción del puesto
Buscamos un profesional para participar en la creación de un nuevo dashboard en Kibana, incluyendo tareas de preprocesamiento Big Data en el Data Lake (SCIB). Formará parte de un equipo de trabajo especializado en Market Risk, colaborando tanto en el desarrollo de procesos en tecnologías Big Data (Spark, Scala) como en tareas comunes del área.
El rol implica trabajar con tecnologías del ecosistema ELK (Kibana, Elasticsearch, Logstash), procesamiento de datos en entornos distribuidos (Hadoop, Spark), y contribuir a la construcción de soluciones analíticas que ayuden a la gestión de riesgos del mercado.
Responsabilidades
Desarrollo y mantenimiento de procesos de ingesta y transformación de datos en Spark (Scala).
Diseño y construcción de dashboards en Kibana para la visualización de datos de Market Risk.
Preprocesamiento y gestión de datos en el Data Lake (SCIB).
Colaboración con el equipo para tareas comunes del área de Big Data.
Aplicación de buenas prácticas de desarrollo y documentación de procesos.
Requisitos OBLIGATORIOS
Experiencia previa en proyectos tecnológicos, preferentemente de datos o analítica.
Conocimiento técnico y experiencia en Scala y Apache Spark.
Conocimiento de Hadoop.
Manejo de sentencias SQL.
Conocimiento básico de Shell scripting.
Conocimiento básico de Kibana y del entorno ELK (Elasticsearch, Logstash, Kibana).
Requisitos DESEABLES (no obligatorios)
Conocimiento técnico de Azure Databricks.
Experiencia previa en sector bancario o en Riesgos de Mercado.
Conocimiento de Airflow como gestor de workflows/pipelines.
Condiciones
Ubicación: Preferencia por ciudades donde tengamos sedes; posibilidad de valorar perfiles deslocalizados.
Tarifa: Se definirá según experiencia y conocimientos.
Inglés: Nivel B2 requerido.
Senior Python Programmers
7 de jul.Plexus
Senior Python Programmers
Plexus · Madrid, ES
Teletreball Python TSQL Jenkins Git Hadoop AWS Tableau
Join Plexus Tech. We´re looking for new colleagues with a senior Python developer profile.
Requirements:
- Experience with Tableau
- Experience with SQL, Hive, and Hadoop
- Experience with PySpark, Pandas, and JulyterLab (with notebooks)
- Experience with the AWS platform
- Experience with continuous integration and delivery tools such as Git, Jenkins, etc.
With our hybrid model, Flexology lets you work from wherever your talent flows best: from any of our 24 work centers in Spain, from home, or a combination of both. The Plexus Tech work ecosystem allows for a collaborative environment across the company.
Work with leading professionals
Access to continuing education
Professional advancement
Flexible compensation with health insurance, meal vouchers, childcare, and transportation
Developer Java Big Data - MÁLAGA
3 de jul.Michael Page
Developer Java Big Data - MÁLAGA
Michael Page · International, ES
Teletreball Java Azure Jenkins Cloud Coumputing Hadoop Agile Spring Spark Big Data
- Únete a una de las plataformas Big Data más innovadoras del mercado
- Flexibilidad real y tecnología top en un entorno colaborativo y con proyección.
¿Dónde vas a trabajar?
Nuestro cliente es una compañía referente en soluciones digitales a gran escala, con un equipo técnico altamente cualificado y proyectos de impacto real.
Descripción
¿Qué harás?
- Desarrollarás soluciones en entorno Cloud utilizando Java, Spark y otras tecnologías Big Data.
- Participarás en el diseño e implementación de arquitecturas orientadas al dato.
- Colaborarás con un equipo multidisciplinar en proyectos estables y retadores.
¿A quién buscamos (H/M/D)?
¿Qué buscamos?
- Al menos 2 años de experiencia como Developer, con dominio de Java y Spark.
- Conocimiento práctico de Spring Boot, Azure, Jenkins, GitHub y Hadoop.
- Experiencia en entornos colaborativos y metodologías ágiles.
- Disponibilidad para acudir a la oficina de Málaga.
¿Cuáles son tus beneficios?
¿Qué se ofrece?
- Contrato indefinido en una emopresa estable y de largo recorrido.
- Rango salarial en función de experiencia.
- Modalidad híbrida con máxima flexibilidad, ubicación Málaga.
- Entorno técnico muy actualizado y oportunidades reales de crecimiento.
Big Data IA Developer Junior
1 de jul.ZYLK
Bizkaia, ES
Big Data IA Developer Junior
ZYLK · Bizkaia, ES
MySQL Azure Maven Jenkins Linux Docker Kubernetes Ansible Hadoop AWS Tomcat IoT DevOps Agile Big Data Eclipse Terraform Spark
Estamos ampliando nuestros equipos de consultoría y buscamos developers junior que tengan interés en desarrollarse profesionalmente en Bigdata, IA, Industria 4.0. Nuestro equipo está formado por físicos, ingenieros de software, ingenieros de telecomunicación e ingenieros de electrónica.
A la hora de inscribirte en la oferta de empleo te planteamos varias preguntas sobre algunos de los temas que más se trabajan en investigación, como son BigData, IA e IoT así como participación en proyectos en general y expectativas en salario. No hay una sola respuesta correcta. Además si eres junior, no sabrás todas, no importa. La idea es que veamos rápidamente en qué proyectos has participado y el nivel de conocimiento técnico que tienes. En las preguntas técnicas no hace falta que desarrolles los conceptos de forma extensa.
Valoramos interés y/o conocimiento en las siguientes áreas:
- Participación en proyectos Open Source
- Administración sistemas Linux
- Hadoop Ecosystem tools
- Cloudera Data Platform
- Kubernetes / Docker
- Ciberseguridad
- Azure, AWS
- Apache, Apache Tomcat, MySQL
- Herramientas de desarrollo: Eclipse, Gitlab, Jenkins, Ant, Maven, Nexus
- Metodologías ágiles
- Inglés hablado y escrito
El trabajo es de Developer y entrarías a formar parte de nuestro equipo con la posibilidad de trabajar en remoto aunque al principio es recomendable empezar en formato mixto remoto/oficina. Como equipo multidisciplinar que somos, las tareas a realizar son mayormente de desarrollo de código, pero también de análisis, automatización de tests, despliegues, resolución de problemas, creación de piezas intermedias o artefactos técnicos... Lo que verdaderamente nos importa es la capacidad de entender los problemas desde el punto de vista de negocio y técnico, idear soluciones y ser capaces de ponerlas en producción.
Los proyectos que desarrollamos en nuestra área de consultoría van orientados en las siguientes líneas:
- Diseño e implantación de plataformas (ZDP, CDP) basadas en herramientas del ecosistema de ASF
- Procesos de ingesta masiva de datos usando NiFi, caputra de datos de PLCs en OT
- Sistemas de procesado de datos en tiempo real usando Flink, y contrucción de gemelos digitales
- Creación de modelos usando técnicas tanto de ML usando Spark como de DL usando Pytorch y/o Tensorflow
- Gestión del ciclo de vida CI/CD usando terraform y ansible, de infra como código
- Implantación de metodologías para la gestión de proyecto de IA usando técnicas de MLOps
- Oficinas técnicas del Dato
Nos gusta hacer las cosas bien tanto en tecnología como en la en forma de trabajar, por eso toda nuestra metodología de desarrollo está basada en DevOps, tratando de automatizar al máximo para evitar pérdidas de tiempo. Trabajamos en un entorno ágil y nos comunicamos por #Slack. También nos gusta que nuestro equipo esté bien preparado, por lo que hemos desarrollado workshops formativos relacionados con de cada uno de los productos del ecosistema (desde poner un clúster en producción hasta crear jobs para el streaming de datos) con el objetivo de que empieces a aportar lo más rápido posible.
Nuestra filosofía es compartir y generar conocimiento.
Más ventajas:
- Programa de certificaciones y formación
- Impartición y asistencia a masterclasses
- Asistencia a congresos y eventos
- Horario de trabajo flexible
- Posibilidad de trabajo en remoto o en la oficina
- Jornada intensiva todos los viernes, víspera de festivos
- Jornada intensiva en verano (4 meses aprox)
- Parada para comer flexible
- Revisiones de desempeño y salariales para ir generando un plan de carrera a medida cada 6 meses
- Seguro médico a partir del primer año
- 23 días laborables de vacaciones
Apoyamos la inclusión de personas con discapacidad. Por ello, animamos a que esta condición sea reflejada en tu candidatura (Certificado de Discapacidad igual o superior al 33%).
Senior Data Engineer / Tech LeadPython
24 de junyArelance
Senior Data Engineer / Tech LeadPython
Arelance · Madrid, ES
Teletreball Python TSQL Git Jira Hadoop
¿Cómo vas a afrontar tu desarrollo profesional? Acompañado o en solitario, con vistas al futuro o sólo en el presente, con entusiasmo o sin ilusión.
En Arelance sabemos que las personas son el activo más importante dentro de una empresa, por ello invertimos tiempo y dedicación para encontrar los mejores profesionales de hoy y de mañana. No empleamos menos tiempo en escoger en nuestros clientes los mejores proyectos con proyección y en donde aportar realmente valor.
Formarás parte de un entorno cercano, joven y dinámico. Deberás estar preparado para poder adaptarte a los continuos cambios que supone trabajar en una compañía cuya constante es la Innovación, orientación al logro y el crecimiento profesional.
Seleccionamos un Senior Data Engineer con experiencia en liderazgo técnico y análisis de datos para incorporación en un equipo dinámico en un entorno de datos avanzado para Sector Bancario, siendo responsable tanto del desarrollo de software y procesamiento de datos como de la gestión técnica y operativa.
REQUISITOS:
-Experiencia previa liderando equipos de desarrollo técnico.
-Sólidos conocimientos de desarrollo en Python.
-Experiencia con SQL.
-Experiencia en plataformas Cloudera (Hadoop, Hive, Impala,...).
-Control de versiones Git.
-Familiaridad con herramientas de orquestación como Control-M.
-Experiencia en herramienta de gestión de proyectos con Jira.
-Mentalidad analítica, orientación al detalle y capacidad de comunicación.
-Deseable experiencia con herramientas de transformación de datos (DBT).
-Deseable conocimiento en PySpark.
¿QUÉ OFRECEMOS?
-Incorporación a un proyecto en continuo desarrollo.
-Condiciones salariales a negociar en función de la experiencia aportada.
-Modalidad: remoto.
-Integración en un proyecto colaborativo en expansión.
Si estás interesado/a en una gran oportunidad como ésta, inscríbete! Queremos conocerte!
Yeeply
🚀 Data Scientist / Ingeniero IA. IA Generativa 🧠.
Yeeply · Madrid, ES
Teletreball Java Python C++ Hadoop Spark Big Data Machine Learning
🧠🚀 ¿Te apasiona trabajar con las tecnologías más trending y buscas un proyecto con proyección y flexibilidad?
¡En Yeeply queremos conocerte! 👋😎
✅ ¿Quiénes somos en Yeeply?
🌍 En Yeeply contamos con una red global de talento tecnológico remoto de primer nivel. Ayudamos a startups, pymes y grandes empresas a transformar digitalmente sus negocios con soluciones a medida.
Ahora, buscamos incorporar a un/a Data Scientist para unirse a un proyecto puntero de IA generativa en el sector tecnológico.
🔗 Conócenos mejor: www.yeeply.com
🧩 ¿Qué harás en el día a día?
- 💡 Participarás en proyectos innovadores centrados en Machine Learning y Deep Learning, desarrollando soluciones inteligentes aplicadas a entornos reales. Tus tareas incluirán:
- 🧠 Desarrollo de soluciones ML/DL de IA generativa
- 🛠 Trabajo con plataformas y frameworks de IA
- 🌱 Crecimiento profesional dentro de la empresa
- 📈 Aplicación práctica de la IA en proyectos de ciberseguridad
🛠 ¿Qué buscamos en ti?
🎯 Conocimientos técnicos imprescindibles:
- 💻 Lenguajes: Python, Java, C++
- 🧠 Frameworks: TensorFlow, PyTorch, Keras, scikit-learn
- 📊 Herramientas: Pandas, NumPy, SciPy
- 🔐 IA Generativa
- 🧬 Algoritmos: redes neuronales profundas (DNN), RNN, transformers (BERT, GPT...)
🎓 Valorable:
- 📚 Matemáticas y estadística: álgebra lineal, cálculo, probabilidad
- 🔎 Optimización de modelos: tuning, validación, métricas (F1-score, precisión…)
- ☁️ Herramientas Big Data: Apache Spark, Hadoop
- 🧠 Conocimientos básicos de IA aplicada a ciberseguridad
🌟 ¿Qué te ofrecemos?
📜 Contrato indefinido + plan de retribución flexible
🏡 Modalidad híbrida: trabaja 4 días en remoto y 1 día presencial (somos muy flexibles) en oficina en Madrid (zona Cuzco)
💙 Beneficios sociales:
- Seguro médico y de vida 🏥
- Plus de teletrabajo 💻
- Formación continua con bonificaciones 🎓
- Ambiente colaborativo y oportunidades reales de crecimiento 🚀