No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araTransport i Logística
1.207Comercial i Vendes
1.104Informàtica i IT
935Administració i Secretariat
711Comerç i Venda al Detall
534Veure més categories
Desenvolupament de Programari
515Enginyeria i Mecànica
465Educació i Formació
399Indústria Manufacturera
380Dret i Legal
322Màrqueting i Negoci
307Instal·lació i Manteniment
277Art, Moda i Disseny
192Sanitat i Salut
177Disseny i Usabilitat
146Publicitat i Comunicació
136Hostaleria
118Construcció
113Comptabilitat i Finances
97Arts i Oficis
93Alimentació
86Recursos Humans
84Atenció al client
83Turisme i Entreteniment
50Producte
46Immobiliària
42Banca
39Seguretat
32Farmacèutica
29Cures i Serveis Personals
23Energia i Mineria
18Social i Voluntariat
14Telecomunicacions
4Esport i Entrenament
3Assegurances
2Editorial i Mitjans
2Agricultura
0Ciència i Investigació
0DATA ENGINEER
NovaInetum
Madrid, ES
DATA ENGINEER
Inetum · Madrid, ES
. Python TSQL Azure Cloud Coumputing PowerShell ITIL Power BI
Mission
We are seeking a highly motivated and technically proficient Data Platform Support Specialist to provide operational support for a data solution built on Azure Data Factory, Snowflake, and Power BI. This is not a development role, but rather a hands-on support position focused on ensuring the reliability, performance, and smooth operation of the data platform.
Profile
Key Responsibilities
- Monitor and maintain data pipelines in Azure Data Factory, ensuring timely and accurate data movement.
- Provide support for Snowflake data warehouse operations, including troubleshooting queries, managing access, and optimizing performance.
- Assist business users with Power BI dashboards and reports, resolving issues related to data refreshes, connectivity, and visualization errors.
- Collaborate with data engineers and analysts to ensure platform stability and data integrity.
- Document support procedures and maintain knowledge base articles for recurring issues.
- Communicate effectively in English with internal teams and stakeholders.
- High proficiency in English (C1 or above).
- Hands-on experience with:
- Azure Data Factory (monitoring, troubleshooting, pipeline execution).
- Snowflake (SQL, performance tuning, user management).
- Power BI (report troubleshooting, data sources, refresh schedules).
- Strong analytical and problem-solving skills.
- Ability to work independently and manage multiple support tasks.
- Familiarity with ITIL or similar support frameworks is a plus.
- Experience in data governance or data quality monitoring.
- Basic understanding of cloud infrastructure (Azure).
- owledge of scripting (e.g., PowerShell or Python) for automation.
🚀 Join Inetum – We're Hiring a DATA ENGINEER! 🚀
At Inetum, a leading international digital consultancy, we empower 27,000 professionals across 27 countries to shape their careers, foster innovation, and achieve work-life balance. Proudly certified as a Top Employer Europe 2024, we’re passionate about creating positive and impactful digital solutions.
Coca-Cola Europacific Partners
Barcelona, ES
Machine Learning Engineering Lead
Coca-Cola Europacific Partners · Barcelona, ES
. Python Azure Docker Cloud Coumputing Kubernetes Hadoop AWS Spark Big Data Machine Learning
Lead Machine Learning Engineer
About Coca-Cola Europacific Partners (CCEP)
CCEP is the world’s largest independent Coca-Cola bottler, operating across 13 countries and serving over 300 million consumers. Our portfolio includes iconic brands like Coca-Cola®, Fanta®, Powerade®, Glaceau Vitaminwater®, Monster®, and Capri-Sun®.
We’re on a journey to unlock the full potential of data and analytics across our business. With our first-ever Chief Data & Analytics Officer leading the way, we’re building a progressive data strategy that transforms insights into action—driving growth, efficiency, and sustainability.
The Role: Lead Machine Learning Engineer
As the Lead Machine Learning Engineer, you’ll be at the forefront of designing, developing, and deploying cutting-edge machine learning solutions. You’ll work closely with data scientists, engineers, and business stakeholders to operationalize models and build scalable ML pipelines that power our data-driven products and services.
Key Responsibilities
- Lead end-to-end development of ML models using Python, scikit-learn, Keras/TensorFlow.
- Architect and maintain scalable ML pipelines integrated with our data platforms.
- Implement advanced ML techniques (e.g., bagging, boosting, ensemble methods, neural networks).
- Monitor model performance and data drift; optimize reliability and accuracy.
- Define and track ML Ops metrics (accuracy, latency, drift, resource utilization).
- Collaborate with data scientists to productionize research models.
- Establish best practices for model versioning, reproducibility, and retraining.
- Mentor junior ML engineers and foster a culture of innovation.
- Stay ahead of industry trends and introduce new tools and techniques.
Required Skills & Experience
- Proven leadership in ML engineering teams or projects.
- Expert in Python and ML libraries (scikit-learn, Keras, PyTorch, TensorFlow).
- Strong grasp of advanced ML techniques and ML Ops practices.
- Experience with cloud platforms (AWS, Azure, GCP) and containerization (Docker, Kubernetes).
- Excellent problem-solving and stakeholder engagement skills.
- Bachelor’s or Master’s in Computer Science, Data Science, Engineering, or related field.
- Experience with big data tools (Spark, Hadoop).
- Familiarity with feature stores, model registries, and experiment tracking.
- Exposure to business domains like finance, healthcare, or retail analytics.
- Lead and shape the ML engineering function in a data-driven organisation.
- Work in a collaborative and innovative environment.
- Access continuous learning and professional development.
- Are a hands-on Senior ML Engineer and team leader.
- Are passionate about high-quality delivery and coaching others.
- Value sustainable, flexible data platforms and their business impact.
- Combine software engineering discipline with data science rigor.
- Create an environment where your team thrives.
Apply now and be part of our data transformation journey.
Coca-Cola Europacific Partners
Madrid, ES
Machine Learning Engineering Lead
Coca-Cola Europacific Partners · Madrid, ES
. Python Azure Docker Cloud Coumputing Kubernetes Hadoop AWS Spark Big Data Machine Learning
Lead Machine Learning Engineer
About Coca-Cola Europacific Partners (CCEP)
CCEP is the world’s largest independent Coca-Cola bottler, operating across 13 countries and serving over 300 million consumers. Our portfolio includes iconic brands like Coca-Cola®, Fanta®, Powerade®, Glaceau Vitaminwater®, Monster®, and Capri-Sun®.
We’re on a journey to unlock the full potential of data and analytics across our business. With our first-ever Chief Data & Analytics Officer leading the way, we’re building a progressive data strategy that transforms insights into action—driving growth, efficiency, and sustainability.
The Role: Lead Machine Learning Engineer
As the Lead Machine Learning Engineer, you’ll be at the forefront of designing, developing, and deploying cutting-edge machine learning solutions. You’ll work closely with data scientists, engineers, and business stakeholders to operationalize models and build scalable ML pipelines that power our data-driven products and services.
Key Responsibilities
- Lead end-to-end development of ML models using Python, scikit-learn, Keras/TensorFlow.
- Architect and maintain scalable ML pipelines integrated with our data platforms.
- Implement advanced ML techniques (e.g., bagging, boosting, ensemble methods, neural networks).
- Monitor model performance and data drift; optimize reliability and accuracy.
- Define and track ML Ops metrics (accuracy, latency, drift, resource utilization).
- Collaborate with data scientists to productionize research models.
- Establish best practices for model versioning, reproducibility, and retraining.
- Mentor junior ML engineers and foster a culture of innovation.
- Stay ahead of industry trends and introduce new tools and techniques.
Required Skills & Experience
- Proven leadership in ML engineering teams or projects.
- Expert in Python and ML libraries (scikit-learn, Keras, PyTorch, TensorFlow).
- Strong grasp of advanced ML techniques and ML Ops practices.
- Experience with cloud platforms (AWS, Azure, GCP) and containerization (Docker, Kubernetes).
- Excellent problem-solving and stakeholder engagement skills.
- Bachelor’s or Master’s in Computer Science, Data Science, Engineering, or related field.
- Experience with big data tools (Spark, Hadoop).
- Familiarity with feature stores, model registries, and experiment tracking.
- Exposure to business domains like finance, healthcare, or retail analytics.
- Lead and shape the ML engineering function in a data-driven organisation.
- Work in a collaborative and innovative environment.
- Access continuous learning and professional development.
- Are a hands-on Senior ML Engineer and team leader.
- Are passionate about high-quality delivery and coaching others.
- Value sustainable, flexible data platforms and their business impact.
- Combine software engineering discipline with data science rigor.
- Create an environment where your team thrives.
Apply now and be part of our data transformation journey.
Data Engineer
NovaTalan
Málaga, ES
Data Engineer
Talan · Málaga, ES
TSQL Scala IoT Spark Big Data Office
Company Description
Passionate about digital, data, IoT or AI and willing to join a dynamic and ambitious team on a human scale?
For more than 15 years, we have been advising companies and administrations and supporting them in the implementation of their transformation projects in Brussels and abroad.
To do so, we rely both on technological leverage and on the strength of our DNA based on collective intelligence, agility and entrepreneurial spirit.
With a presence on five continents and more than 4,000 employees, our goal is to reach more than a €1 billion revenue by 2024. Innovation is at the heart of our development and we are involved in areas linked to the technological changes of major groups, such as Big Data, IoT, Blockchain and Artificial Intelligence.
Job Description
Participation in Markets Data Hub tasks as a Data Engineer in the definition and automation of processes developed using Big Data technologies (Spark Scala, Databricks, Airflow) in Market Risk. The key responsibilities will not be those of a Spark Scala developer, but rather process definition, data preparation, request creation following the department´s procedures for process automation and configuration, and execution and validation of integrated tests. Process automation will be achieved through software deployments via Job as a Code.
Qualifications
Required skills: Min 3y experience:
- Experience in technology-related projects
- High knowledge of SQL statements
- Experience in ETL design and data models
- Knowledge of Control-M and Job as Code
- Experience in testing and data validation
Language: English - professional competence
Desirable skills:
- Technical knowledge of programming languages (Scala) and Big Data technologies (Spark Scala, Databricks, Airflow)
- Experience in the banking sector
- Knowledge of financial products or market risk metrics
Additional Information
- Permanent, full-time contract
- Smart Office Pack so that you can work comfortably from home.
- Training and career development
- Benefits and perks such as private medical insurance, life insurance, lunch and travel cards as part of the flexible remuneration package
- Possibility to be part of a multicultural team and work on international projects
- Hibrid position based in Malaga, Spain
- Possibility to manage work permits if necesary
Randstad ES
Madrid, ES
Jr. Devops Cloud Engineer
Randstad ES · Madrid, ES
Python Azure Docker Cloud Coumputing Kubernetes TypeScript AWS DevOps Terraform
¿Te interesa seguir desarrollando tu carrera como Jr. Devops Cloud Engineer en proyectos estables?
nuestro cliente
Randstad Digital somos la empresa de consultoría tecnológica del grupo Randstad especializada en servicios tecnológicos estables. A nivel global estamos presente en más de 20 países y contamos con más de 25.000 especialistas IT y a nivel nacional con más de 400 y tenemos oficinas en Madrid, Barcelona, Valencia, Sevilla, Zaragoza, Bilbao y Valladolid.
Llevamos a cabo servicios de IT e ingeniería apasionantes y con las últimas tecnologías.
Cuidamos de nuestr@s trabajadores mediante el trato humano que nos caracteriza y por ello te impulsamos para seguir creciendo sin límites!
Nuestro objetivo: Crecer e impulsar junt@s en equipo el liderazgo digital para innovar y marcar la diferencia basándonos en la responsabilidad social tecnológica, conectando personas y tecnología.
tus funciones
Automatización y Orquestación de Infraestructura:
- Usar Terraform para diseñar y gestionar la Infraestructura como Código (IaC) a través de AWS y Azure.
- Mantener la consistencia y fiabilidad de la infraestructura en la nube.
Conocimiento general sobre módulos, configuración y arquitectura de AWS:
- Desarrollo de Pipelines CI/CD.
- Construir y optimizar pipelines de Integración Continua/Despliegue Continuo (CI/CD) basadas en GitHub Actions.
- Asegurar la automatización de las pruebas (testing), los despliegues y el cumplimiento de las mejores prácticas.
Configuración y Estrategias de Ramificación (Branching) en GitHub:
- Implementar la configuración de repositorios de GitHub, incluyendo la protección de ramas (branch protection) y las reglas de revisión de código.
- Aplicar estrategias de ramificación como GitFlow o el desarrollo basado en trunk (trunk-based development).
Monitorización y Observabilidad:
- Configurar herramientas de monitorización y observabilidad para garantizar el rendimiento de las aplicaciones y la salud del sistema.
- Diagnosticar y resolver rápidamente problemas relacionados con la infraestructura.
Escalabilidad, Seguridad y Cumplimiento:
- Diseñar una infraestructura escalable, segura y compatible en AWS y Azure.
- Hacer cumplir las mejores prácticas en IAM, gestión de secretos (secrets management) y seguridad de red.
Colaboración y Soporte:
- Trabajar de forma interfuncional con desarrolladores y partes interesadas (stakeholders) para apoyar el ciclo de vida del desarrollo.
- Liderar los esfuerzos de respuesta a incidentes.
requisitos del puesto
- Formación: Ingeniero Técnico
- Conocimientos: devops
- Experiencia: 2 años
Requisitos Mínimos:
- Mínimo de 2 años de experiencia con tecnologías relacionadas con DevSecOps: AWS, GitHub, estrategias de ramificación (branching strategies) y configuración de repositorios.
- Dominio de Terraform y automatización de infraestructura en la nube.
- Habilidades de programación en TypeScript y Python.
- Sólida experiencia práctica con servicios de AWS y Azure.
- Dominio en pipelines de CI/CD utilizando GitHub Actions.
- Habilidades avanzadas de scripting y automatización con Python.
- Experiencia con herramientas de observabilidad como CloudWatch.
- Comprensión de conceptos de redes (networking) como VPC, DNS y balanceo de carga (load balancing).
- Experiencia utilizando herramientas de desarrollo de IA como GitHub Copilot.
- Dominio del inglés (fluency).
Deseable (Nice-to-Have):
- Experiencia dando soporte a plataformas o herramientas de IA/ML/DS (Inteligencia Artificial/Aprendizaje Automático/Ciencia de Datos).
- Familiaridad con herramientas de orquestación de contenedores (por ejemplo, Docker, Kubernetes).
- Experiencia integrando principios de DevSecOps en los flujos de trabajo de desarrollo.
- Comprensión de servicios de seguridad nativos de la nube y gestión de secretos (secrets management).
- Capacidad para facilitar la habilitación de desarrolladores (developer enablement) a través de documentación y mejores prácticas.
tus beneficios
¿A qué esperas para formar parte de nuestro gran equipo Randstad Digital?, aquí encontrarás motivos para ello:
PLAN DE FORMACIÓN CONTINUA, plan de formación anual, acceso a plataforma e-learning de formación técnica, plataforma de formación en habilidades...
ACOMPAÑAMIENTO Y PLAN DE CARRERA, Tendrás un referente de Randstad Digital cerca de ti en todo momento.
CONCILIACIÓN, Sabemos que tu vida personal es tan importante como la profesional por eso podrás disfrutar de 23 días de vacaciones y en la mayoría de nuestros proyectos tendrás un horario flexible.
COMPROMISO y ESTABILIDAD, Incorporación a empresa en continuo crecimiento que apuesta por las nuevas tecnologías.
SALARIO COMPETITIVO acorde a tu experiencia profesional.
CONDICIONES contractuales competitivas, Plan de retribución flexible (tarjeta restaurante y cheques guardería) y Randstad Care, plataforma de ofertas y descuentos exclusivos.
DevOps Red Hat OpenShift Service
31 d’oct.Grupo NS
DevOps Red Hat OpenShift Service
Grupo NS · Madrid, ES
Teletreball OpenShift AWS DevOps
Desde Grupo Ns estamos buscando perfiles DevOps Engineer de al menos 4 años de experiencia con Red Hat Openshift on AWS en un proyecto en modalidad 100% remoto
Es necesario un nivel de inglés alto
Skills
Habilidad para comunicarse en ingles ALTO
- Senior Arquitecto DevOps
- CI/CD
- GitHub
- ROSA/OpenShift
- Configuracion de pipelines sobre aplicaciones desplegadas en ROSA (Red Hat OpenShift Service on AWS)
Al menos 4 años de experiencia como Devops trabajando con Red Hat OpenShift Service on AWS
Nivel avanzado de inglés
Ingeniero/a DevOps AWS
31 d’oct.CAS TRAINING
Málaga, ES
Ingeniero/a DevOps AWS
CAS TRAINING · Málaga, ES
Azure Jenkins Docker Cloud Coumputing Kubernetes SaaS AWS DevOps Terraform
Ingeniero/a DevOps AWS [Málaga] ☁️
📝 Descripción del puesto
Buscamos un/a Ingeniero/a DevOps Senior altamente experimentado/a para unirse a nuestro equipo en Málaga, en un modelo de trabajo híbrido. Serás la pieza clave en el diseño, implementación y optimización de nuestra infraestructura cloud y los pipelines de CI/CD para una variedad de proyectos de software y servicios, incluyendo la integración de flujos de trabajo de Inteligencia Artificial. Liderarás la adopción de prácticas de Infraestructura como Código (IaC), asegurando la máxima seguridad, escalabilidad y rendimiento de nuestros sistemas. Tu experiencia en AWS y tu capacidad para gestionar configuraciones complejas y la integración de sistemas serán fundamentales.
🎯 ¿Qué harás?
-Diseñar y gestionar pipelines de CI/CD robustos y automatizados, desde la prueba hasta el despliegue y la monitorización de diversos servicios.
-Diseñar e implementar arquitecturas de nube AWS (IaaS, PaaS, SaaS) que sean escalables, seguras y de alta disponibilidad.
-Implementar y mantener la Infraestructura como Código (IaC) utilizando herramientas como Terraform.
-Colaborar estrechamente con los equipos de desarrollo para optimizar los procesos de compilación, lanzamiento y la integración continua.
-Supervisar el rendimiento del sistema, realizar la solución de problemas (troubleshooting) y garantizar la fiabilidad del servicio.
-Colaborar con los equipos de seguridad para implementar y mantener las mejores prácticas de SecOps.
-Aplicar tu conocimiento en Ingeniería Rápida (Prompt Engineering) o diseño de IA conversacional para gestionar configuraciones complejas e integrar sistemas relacionados con IA/ML (se valorará).
-Desarrollar y mantener planes de solución detallados y documentación para arquitecturas basadas en la nube.
⚙️ Requisitos indispensables:
-Experiencia Mínima de 5 años de experiencia profesional en roles de DevOps, Ingeniería de Infraestructura o Cloud (AWS preferiblemente).
-Experiencia Sólida en el desarrollo y automatización de pipelines de CI/CD (Jenkins, GitLab CI, Azure DevOps, etc.).
-Experiencia con plataformas en la nube (AWS, Azure, GCP), orquestación de contenedores (Docker, Kubernetes) y entornos híbridos.
-Manejo experto de herramientas de Infraestructura como Código (IaC), especialmente Terraform.
-Conocimiento de estándares de seguridad, marcos de gobernanza y prácticas de observabilidad (monitorización, logging, tracing).
-Sólidos conocimientos del ciclo de vida del desarrollo de software (SDLC).
-Capacidad para gestionar configuraciones complejas y asegurar la integración fluida de diferentes sistemas.
✨ ¿Qué ofrecemos?
-Contrato indefinido y un paquete salarial competitivo acorde a tu experiencia.
-Modalidad de trabajo híbrida en Málaga, combinando la flexibilidad con la colaboración en persona.
-Oportunidad de trabajar con tecnologías punteras en AWS, automatización e Inteligencia Artificial.
-Participación en proyectos innovadores y de gran impacto.
-Un ambiente de trabajo colaborativo, dinámico y con oportunidades reales de desarrollo profesional y crecimiento.
-Programas de formación continua y certificaciones.
Ingeniero/a de Datos
30 d’oct.PANEL Sistemas Informáticos
Ingeniero/a de Datos
PANEL Sistemas Informáticos · Madrid, ES
Teletreball Java Python TSQL Azure Docker Cloud Coumputing Kubernetes Scala Git Oracle Jira Hadoop AWS DevOps Agile PostgreSQL Kafka Spark Big Data
🚀 ¡Estamos ampliando nuestro equipo de Data Engineering! 🚀
Buscamos profesionales apasionados por los datos, con experiencia en procesos ETL / DEI, y con la capacidad de diseñar e implementar soluciones de integración y transformación de alto impacto.
🔍 📈 Perfiles que estamos incorporando:
🔸 10 Data Engineers Senior — (+8 años de experiencia)
🔸 4 Data Engineers Semi Senior — (3 a 8 años de experiencia)
🔸 2 Data Engineers Junior — (hasta 3 años de experiencia)
Si te apasiona la ingeniería de datos y quieres sumarte a proyectos desafiantes con tecnología de punta, ¡queremos conocerte! 💡
🧠 Aptitudes clave que valoramos:
Capacidad de análisis y diseño de soluciones de datos.
Experiencia en desarrollo de procesos ETL / DEI (Informatica, DBT, SQL, Python).
Planificación, estimación y gestión técnica de proyectos (Jira, Confluence).
Nivel de inglés B1 o superior
⚙️ 🧩 Tecnologías y herramientas que valoramos:
🔹 ETL / DEI:
Informatica | DBT | Talend | Pentaho | SSIS | Apache NiFi | Airbyte
🔹 Data Warehousing & Storage:
Snowflake | BigQuery | Redshift | Synapse | PostgreSQL | Oracle | S3
🔹 Lenguajes:
SQL | Python | (Opcional: Scala / Java)
🔹 Big Data & Streaming:
Apache Spark | Databricks | Kafka | Hive | Hadoop
🔹 Orquestación:
Airflow | Prefect | Dagster
🔹 Cloud & DevOps:
AWS (Glue, Lambda, S3, Redshift) | Azure (Data Factory, Synapse) | GCP (BigQuery, Dataflow) | Docker | Kubernetes
🔹 Colaboración y gestión:
Jira | Confluence | Git / GitHub / GitLab
⚙️ 🧩 Tecnologías principales que utilizamos:
Informatica, DBT, SQL, Python, Apache Spark, Databricks, Snowflake, Google BigQuery, Amazon Redshift, Airflow, Jira, Confluence, Git, Docker, Kubernetes
🌟 ¿Qué buscamos en ti?
Pasión por los datos y la automatización 🔄
Capacidad de análisis y comunicación 👂💬
Enfoque en la calidad, la eficiencia y la mejora continua 🧩
Deseo de trabajar en proyectos innovadores de alto impacto 💥
💬 ¿Qué te ofrecemos?
Participar en proyectos innovadores de ingeniería y gestión de datos.
Entornos colaborativos con metodologías ágiles.
Oportunidades de aprendizaje, desarrollo profesional y crecimiento continuo.
Modalidad: 100% Remoto
💼 #OportunidadLaboral | #DataEngineer | #ETL | #Informatica | #DBT | #BigData | #DataIntegration | #DEI | #SQL | #Python | #Jira | #Confluence | #TrabajoEnData | #TransformacionDigital | #EmpleoTech
Senior DevOps Engineer
30 d’oct.Krell Consulting & Training
Senior DevOps Engineer
Krell Consulting & Training · Madrid, ES
Teletreball Python Jenkins Docker Kubernetes Git AWS DevOps Terraform
Descripción
Buscamos un Senior DevOps Engineer para incorporarse a un proyecto innovador en el ámbito de la Inteligencia Artificial Generativa (GenAI). La persona seleccionada participará en el diseño y automatización de infraestructuras y en la implementación de procesos CI/CD, contribuyendo a acelerar la entrega ágil de proyectos tecnológicos.
Funciones principales
Diseñar y desplegar infraestructuras como código (IaC) mediante Terraform o AWS CloudFormation.
Automatizar pipelines de integración y despliegue continuo (Jenkins, GitHub Actions).
Dar soporte a equipos que trabajen con el GenAI Development Framework (GDF).
Desarrollar aceleradores y herramientas que optimicen la entrega de proyectos.
Requisitos obligatorios
Experiencia demostrable de al menos 5 años en entornos DevOps.
Conocimiento sólido en:
Terraform y/o AWS CloudFormation
Jenkins (administración y creación de pipelines)
GitHub Actions
Docker y Kubernetes (nociones básicas de despliegue)
Git / control de versiones
Valorable
Experiencia con Python.
Conocimiento de HashiCorp Vault u otras herramientas de gestión de secretos.
Ofrecemos:
Ubicación: 100% remoto
Tipo de contrato: Indefinido
Vacaciones: 30 días naturales