Data Engineer / 데이터 엔지니어 📍 근무지 / Location 서울, 대한민국 Seoul, South Korea 직무 개요 / Job Summary 회사의 데이터 인프라를 설계, 구축 및 최적화하여 데이터 기반 의사결정을 지원할 데이터 엔지니어(Data Engineer) 를 모집합니다. We are seeking a talented Data Engineer to design, build, and optimize scalable data systems that enable efficient data collection, storage, and analysis across the organization. 본 직무는 데이터 사이언스, 분석, 제품 및 비즈니스 팀과 긴밀히 협업하여 데이터의 품질과 가용성을 향상시키는 역할을 담당합니다. This role collaborates closely with data science, analytics, and product teams to ensure high-quality, reliable, and accessible data for strategic decision-making. 주요 업무 / Key Responsibilities 데이터 파이프라인(ETL/ELT) 설계, 구축 및 유지보수 Design, build, and maintain scalable data pipelines (ETL/ELT). 데이터 웨어하우스 및 데이터 레이크 관리 및 최적화 Develop, maintain, and optimize data warehouse and data lake architectures. 데이터 수집, 처리 및 변환 자동화 프로세스 구축 Automate data collection, transformation, and integration processes. 다양한 내부/외부 데이터 소스와의 통합 및 품질 관리 Integrate multiple data sources and ensure data quality and consistency. 데이터 파이프라인 성능 모니터링 및 문제 해결 Monitor pipeline performance and troubleshoot issues. 데이터 보안, 거버넌스 및 접근 권한 관리 Implement and maintain data governance, security, and access control. 분석 및 AI 모델 개발을 위한 데이터 제공 지원 Support data scientists and analysts with well-structured, reliable datasets. 자격 요건 / Qualifications 컴퓨터공학, 통계학, 데이터 관련 전공 학사 이상 Bachelor’s degree or higher in Computer Science, Statistics, or related fields. 3년 이상의 데이터 엔지니어링 경험 Minimum 3 years of professional experience in data engineering. Python, SQL 및 데이터 처리 언어 숙련자 Proficiency in Python and SQL for data manipulation and automation. 데이터 파이프라인 도구(Airflow, Spark, Kafka 등) 경험 Experience with data pipeline tools such as Airflow, Spark, or Kafka. 클라우드 플랫폼(AWS, GCP, Azure 등)의 데이터 서비스 경험 Experience with cloud data platforms (AWS, GCP, or Azure). 데이터베이스 및 데이터 웨어하우스 기술(PostgreSQL, Redshift, BigQuery 등) 이해 Strong understanding of relational and cloud-based data warehouses. 우수한 문제 해결 능력 및 커뮤니케이션 스킬 Strong problem-solving, analytical, and communication skills. 우대 사항 / Preferred Qualifications 빅데이터 기술(Hadoop, Snowflake, Databricks 등) 경험 Experience with big data technologies such as Hadoop, Snowflake, or Databricks. DevOps 또는 CI/CD 환경 경험 Familiarity with DevOps principles and CI/CD data workflows. BI 도구(Tableau, Power BI, Looker 등)와의 연동 경험 Experience integrating data with BI tools (Tableau, Power BI, Looker, etc.). 데이터 모델링, 거버넌스 및 품질 관리 경험 Experience in data modeling, governance, and data quality management. 영어 및 한국어 능통자 Fluency in both English and Korean. 고용 형태 / Employment Type 정규직 (미드레벨~시니어) Full-time (Mid to Senior Level) 보고 체계 / Reporting Line 데이터 리드 또는 CTO에게 보고 Reports to Data Lead or CTO.