2025 - Revival Lo Rural

Arquitecto de datos

Funciones:

1. Arquitectura y estrategia de datos

  • Diseñar e implementar arquitecturas de datos escalables, seguras y de alto rendimiento.
  • Desarrollar y mantener modelos de datos (conceptuales, lógicos y físicos) para respaldar
    las necesidades comerciales.
  • Definir y hacer cumplir las políticas de gobernanza, seguridad y cumplimiento de datos.
  • Garantizar la alineación con las mejores prácticas de la industria y las tecnologías de datos emergentes.


2. Integración e ingeniería de datos

  • Desarrollar canalizaciones de datos para integrar datos estructurados y no estructurados de varias fuentes.
  • Optimizar los procesos ETL/ELT para la ingesta, transformación y almacenamiento de datos.
  • Trabajar con tecnologías de big data (por ejemplo, Databricks, Spark, Hadoop) y
    plataformas en la nube (Azure).


3. Gestión de bases de datos y almacenes de datos

  • Diseñar y gestionar bases de datos relacionales (SQL) y NoSQL.
  • Implementar soluciones de almacenamiento de datos y lakehouse para respaldar el análisis y
    la generación de informes.
  • Optimizar el rendimiento de la base de datos y la eficiencia del almacenamiento.


4. Seguridad y gobernanza de datos

  • Establecer y mantener controles de acceso basados ​​en roles (RBAC) y seguridad a nivel de fila.
  • Implementar medidas de privacidad de datos para cumplir con GDPR, CCPA y otras regulaciones.


5. Colaboración y liderazgo

  • Trabajar en estrecha colaboración con las partes interesadas comerciales, los ingenieros de datos y los analistas para traducir los requisitos comerciales en soluciones de datos escalables.
  • Proporcionar liderazgo técnico en las mejores prácticas de arquitectura de datos.
  • Orientar a los miembros del equipo junior y promover una cultura basada en datos.

 

Requisitos:

  • Licenciatura o maestría en Ciencias de la Computación, Sistemas de Información o campo relacionado.
  • Más de 10 años de experiencia en arquitectura de datos, ingeniería o un campo relacionado.
  • Experiencia en SQL, Python o Scala para procesamiento de datos.
  • Experiencia práctica con Azure Data Services (Azure Data Factory, Synapse, Databricks, etc.) o plataformas en la nube equivalentes.
  • Sólido conocimiento de modelado de datos, procesos ETL e integración de datos basada en API.
  • Conocimiento de plataformas de datos modernas (Lakehouse, Data Mesh, Data Fabric).
  • Familiaridad con los marcos de gobernanza de datos y las normas de cumplimiento.

 

Deseables:
  • Competencia en tecnologías de transmisión de datos (Kafka, Event Hubs, etc.).
  • Certificaciones en ingeniería de datos de Azure/AWS/GCP son una ventaja.