Data Engineer in Inflow

Closed job - No longer receiving applicants

Impactamos en el crecimiento de tu empresa aumentando la escalabilidad, capacidad de aprendizaje e influencia, mediante la creación de insights para la toma de decisiones.


Estilo de Trabajo

Queremos que todos nuestros inflowers sean unas maquinas del aprendizaje. No nos interesa que lo sepas todo, porque sabemos que todo se puede aprender. Te brindaremos todas las herramientas para que logres tus objetivos internos y premiamos el atreverse (mientras se genere aprendizaje).


¿Qué nos hacer ser inflowers?

Nos llamamos inflow por dos razones. La más obvia, es su traducción literal que tiene que ver con generar crecimiento en las empresas, ok esa es nuestra propuesta de valor. Pero tiene un segundo significado que es incluso más importante: In flow, in the flow. Estár fluyendo. Y no, no está sacado bajo la manga ni se trata de "paz y amor hermano"… (seguir leyendo sobre la cultura Inflow)

Funciones del cargo

  • Diseñar, desarrollar e implementar pipelines de datos eficientes y escalables utilizando tecnologías y herramientas como Python, Django, y el framework Scrapy.
  • Construir y mantener bases de datos y sistemas de almacenamiento de datos robustos y confiables.
  • Realizar la extracción, transformación y carga de datos de diversas fuentes, asegurando su calidad y coherencia.
  • Colaborar estrechamente con los equipos de desarrollo y análisis de datos para comprender y satisfacer las necesidades de datos de la organización.
  • Implementar prácticas de monitoreo y asegurar la disponibilidad y el rendimiento óptimo de los sistemas de datos.
  • Investigar y evaluar nuevas tecnologías y herramientas para mejorar continuamente los procesos y la eficiencia de la ingeniería de datos.
  • Mantenerse actualizado sobre las mejores prácticas y tendencias en ingeniería de datos y aplicar ese conocimiento en el trabajo diario.

Requerimientos del cargo

  • Experiencia comprobada como Data Engineer o en roles similares.
  • Amplio conocimiento y experiencia en el lenguaje de programación Python.
  • Experiencia en el desarrollo de aplicaciones web utilizando el framework Django.
  • Familiaridad con el entorno de AWS y capacidad para diseñar y mantener infraestructuras de datos en la nube.
  • Conocimiento y experiencia en el desarrollo de web scraping, en particular utilizando el framework Scrapy.
  • Experiencia en el diseño y desarrollo de pipelines de datos, procesamiento ETL y almacenamiento de datos.
  • Conocimiento de bases de datos relacionales y no relacionales.
  • Fuertes habilidades analíticas y capacidad para trabajar con grandes volúmenes de datos.
  • Excelentes habilidades de resolución de problemas y atención al detalle.
  • Capacidad para trabajar de manera independiente y en equipo, y para gestionar múltiples proyectos y prioridades de manera efectiva.
  • Fuertes habilidades de comunicación verbal y escrita.

Condiciones

Beneficios a tu medida... prontamente incorporaremos Atlas como gestor de beneficios con un fuerte componente en Aprendizaje y Salud.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Inflow pays or copays health insurance for employees.
Computer provided Inflow provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Inflow gives you paid vacations over the legal minimum.

Remote work policy

Fully remote

Candidates can reside anywhere in the world.

Life's too short for bad jobs.
Sign up for free and find jobs that are truly your match.