핵심 정보
- 경력
- 경력 2~20년
- 학력
- 대졸(4년제) 이상(예정자 가능)
- 근무형태
- 정규직 수습기간 3개월
- 급여
- 면접 후 결정
- 근무지역
- 경기 수원시 영통구
상세요강
🧑💻 데이터 엔지니어 채용
잉클은 제조 현장의 복잡한 데이터를 빠르게 수집·저장하고,
쉽게 모니터링하고 분석할 수 있도록 돕는 산업용 데이터 플랫폼을 만드는 팀입니다.
제조 현장을 혁신하는 소프트웨어를 함께 만들어갈 데이터 엔지니어를 찾고 있습니다.
✨ 우리는 어떤 팀인가요?
잉클(Ingkle)은 산업 설비 데이터를 빠르게 수집하고 저장·분석할 수 있는
온프레미스형 빅데이터 플랫폼 ‘Nazare(나자레)’를 자체 개발한 기술 스타트업입니다.
- 공장 현장에서 실제로 사용되는 소프트웨어를 만듭니다.
- 실시간 장비 모니터링, AI 추론 연계, 대시보드, 이상 감지까지 엔드투엔드 제품을 구성합니다.
- 중견 제조사, 공공기관, AI 솔루션 기업들과 협업 및 구축 사례를 확대 중입니다.
🌱 우리가 일하는 방식
- 문제를 회피하지 않습니다. 고객의 문제를 끝까지 해결합니다.
- 기술을 현장에 맞게 설계합니다. 실용적인 솔루션을 만듭니다.
- 작지만 빠르게 움직입니다. 실험과 반복을 두려워하지 않습니다.
🙋 잉클이 찾는 사람
- 내가 만든 코드가 제조 현장에서 사용되기를 바라는 사람
- 문제를 지적하는 사람보다, 해결하는 사람이 되고 싶은 사람
- 빠르게 성장하는 팀 안에서 나도 함께 성장하고 싶은 사람
- Kafka부터 API까지 데이터 흐름 전체를 주도하고 싶은 사람
- 시스템의 성능과 구조에 집착하며 완성도 높은 결과물을 만드는 사람
- 기술을 통해 현장의 문제를 해결하는 데 보람을 느끼는 사람
- 복잡한 문제를 끊임없이 단순화하며, 더 나은 구조를 제시하는 사람
💻 주요 업무
- Kafka 기반 산업 설비 실시간 데이터 스트리밍 파이프라인 개발
- Delta Lake 기반 데이터 저장, 압축, 성능 최적화 작업 수행
- Apache DataFusion 기반 경량 SQL 쿼리 엔진 개발 및 튜닝
- 시계열 데이터를 위한 통계/집계 중심의 ETL/ELT 파이프라인 설계 및 구현
- Python 또는 Rust 기반의 고성능 데이터 수집 및 처리 모듈 개발
- RBAC, 데이터 거버넌스, 사용자 인증 등 백엔드 시스템 고도화
- FastAPI 기반 REST API 서버 설계 및 외부 연동
- 온프레미스 환경 중심의 배포 및 운영을 고려한 아키텍처 설계
✅ 자격 요건
- Kafka 기반 스트리밍 데이터 처리 경험
- Delta Lake 또는 Iceberg 등 빅데이터 처리 기술 사용 경험
- 시계열 데이터 기반 통계/집계 및 ETL/ELT 설계 경험
- RESTful API 설계 및 구현 경험
- k8s, Docker, Git 등의 개발 및 배포 환경 사용 경험
👍 우대 사항
- Apache Arrow, Apache DataFusion 등 쿼리 엔진 사용 경험
- ScyllaDB, PostgreSQL 등 고성능 데이터베이스 활용 경험
- Rust 언어 기반의 시스템 레벨 개발 경험
- 제조/설비/센서 분야 대용량 시계열 데이터 처리 경험
- 본 기업은 구직자의 소중한 개인정보를 안전하게 보호하고 지키기 위해 노력하는 기업입니다.
- 구직자도 함께 본인의 개인정보를 안전하게 보호하기 위해 노력해야 합니다.
접수기간 및 방법
- 시작일
- 2025.07.27 21:00
- 마감일
- 2025.08.26 23:59
- 지원방법
- 접수양식
- 사람인 이력서 양식
마감일은 기업의 사정, 조기마감 등으로 변경될 수 있습니다.
기업정보
이 기업의 다른 공고 (3건)
이어보는 Ai매치 채용정보
사람인 인공지능 기술 기반으로 맞춤 공고를 추천해드리는 사람인의 채용정보제공 서비스입니다.
사람인 인공지능 기술 기반으로 맞춤 공고를 추천해드리는 사람인의 채용정보제공 서비스입니다.