2000년대에 들어서 기계학습(Machine Learning) 분야의 연구가 선행되면서 기계가 스스로 학습하게 하여 시스템에 필요한 지식과 논리를 구축하는데 많은 시간과 노력이 소요되는 한계를 극복하고자 하였습니다.
2012년 이후 딥러닝(Deep Learning) 기술에 대한 연구가 급성장하였고, 기계학습 분야가 다양한 분야에서 성과를 보이는 단계에 이르렀습니다.
인간이 직접 가상인간을 만드는 것 또한 먼 미래의 일이 아닙니다.
현재 가상인간(Virtual Human) 산업 분야에서 다양한 서비스가 구축되고 있으나, 점점 더 고도화되는 기술력에 더욱 더 높은 수준의 서비스가 요구되고 있습니다.
이젠 단순히 기술적 성장뿐만 아니라 서비스 관점에서의 발전이 필요한 단계입니다.
이에 날비컴퍼니는 모바일 기기에서 실시간으로 사용자의 안면과 몸의 움직임을 정확하게 인식하고, 가상인간이 동작을 그대로 따라할 수 있는 3D 모션 캡쳐 기술을 통해 누구나 쉽고 빠르게 가상인간 콘텐츠를 제작할 수 있는 서비스를 출시할 예정입니다.
3D 엔진과 딥러닝 방식의 장점을 혼용하여 Explicit control 이 가능합니다. 얼굴 각도, 세밀한 표정 등 자유도 높은 움직임 표현이 가능합니다.
별도의 전문장비 없이 모바일에서 실시간으로 사용자의 움직임(얼굴, 손, 몸)을 정확하게 인식하여, 가상인간 콘텐츠를 제작할 수 있습니다.
Depth Map Upsampling- Utilizes 4K RGB images and a low-resolution depth map to attain a high-resolution depth map.
Face & Age Recognition- Estimates sex and age through face scan on the Cortex-M7 MCU (for device personalization usages).
Separates a human object from the background in real-time from imported images and videos.
Approximates relative depth on a single RGB camera via neural networks. @ARM CPU or Mobile GPU
Produces a natural bokeh effect with a single RGB image. (Blur Intensity Control and Focus Point function)
Segregates the hair area in real-time. @ARM CPU and dyeing effect @ Mobile GPU (OpenGLE2.0)