(003A/182) INGENIERO DE DATOS
Centro, Comunidad de Madrid, Spain
Buscamos incorporar un Ingeniero / a de Datos para una importante compañía que desarrolla su actividad en los sectores forestal y agrícola.
Su misión será Administrar, gestionar, procesar y organizar datos, así como implementar la infraestructura necesaria para almacenarlos de forma adecuada y que así estos puedan ser utilizados del modo más eficiente (al convertirse en datos estructurados, accesibles y fiables).
Algunas de sus funciones serán las siguientes :
Apoyo al desarrollo del área de Market Intelligence atendiendo a las necesidades / objetivos de cualquier departamento de la organización.
Determinar de dónde extraer los datos, cómo recuperarlos y construir algoritmos para que el acceso a los datos brutos sea más sencillo y útil para la empresa.
Es decir, optimizar la obtención de datos para que estos sean fiables y de calidad.
Desarrollo, testeo y mantenimiento de arquitecturas de datos . Debe detectar su potencial, corregirlas cuando sea necesario y descartar lo que considere oportuno.
Identificar cómo mejorar la calidad, eficiencia y confiabilidad de los datos .
Identificar tendencias y patrones ocultos que puedan afectar a los objetivos de la empresa.
Herramientas y lenguaje de programación .
Desarrollo de softwares para sistemas escalables .
Utilizar los datos para determinar qué tareas se pueden automatizar o emplear en modelos predictivos y prescriptivos.
Requisitos :
Formación : Ingeniería o Licenciatura en matemáticas y Postgrado en el ámbito de Datos
Experiencia : Al menos entre 1 y 2 años
Idiomas : Indispensable nivel B2 de inglés.
Ofimática empresarial : Google Suite, Microsoft 365
Conocimientos Valorables : Visual basic, ERP Zoho One
Dimensiones técnicas :
Conocimiento avanzado en BBDD relacionales y NoSQL (Cassandra, Redis, MongoDB ).
Experiencia técnica con modelos de datos, minería de datos y técnicas de segmentación.
Experiencia de programación en Java , Python y Spark .
Formación sobre sistemas de ficheros distribuidos como Hadoop , HDFS o Spark .
Conocimientos de herramientas para tratar y procesar grandes volúmenes de datos como Apache Kafka o Apache Storm.
Experiencia en el uso de infraestructuras cloud, contenerización y herramientas de BI y visualización (Zoho Analytics, PowerBI).
Adoptar buenas prácticas para la custodia y seguridad de los datos.
#J-18808-Ljbffr