인간과 기계의 상호작용 (HMI), 현재와 미래

기술과 컴퓨터 시스템은 보이거나 보이지 않는 곳에서 일상 생활과 산업에서 중요한 역할을 하고 있습니다. 이러한 시스템은 센서와 인터페이스를 통해 작동되지만, 사용자와 컴퓨터는 어떻게 서로 소통하고 반응할까요? 기계는 터치, 음성, 제스처 또는 가상현실 (VR) 안경을 사용해 제어할 수 있습니다.

우리는 인간과 기계의 상호작용에 이미 익숙해져 있습니다. 스마트폰 사용자가 디지털 비서에게 날씨를 물어보면, 디지털 비서가 대답합니다. 가정에서는 음성으로 스마트 온도조절기를 조절하거나 아마존의 지능형 스피커 에코에게 좋아하는 노래를 틀어달라고 합니다. 여행지에서 찍었던 사진을 보거나 크게 확대하고 싶으면 스마트폰의 터치 스크린에 몇 가지 동작만 하면 됩니다. 챗봇 (Chatbot)은 메신저로 고객과의 대화를 수행합니다. 산업 엔지니어는 가상현실 (VR) 안경을 쓰고 계획 중인 공장 건물 안에서 걸어다닐 수 있습니다. 이러한 모든 것이 가능하려면 인간과 기계의 상호작용 (HMI)이 필요합니다.

개요

인간과 기계의 상호작용 (HMI)

HMI는 사람과 자동화 된 시스템이 서로 어떻게 상호작용하고 소통하는가에 대한 모든 것입니다. HMI는 오랫동안 전통적인 기계에 국한되었지만, 이제는 컴퓨터와 디지털 시스템, 사물인터넷 (IoT)을 위한 기기와도 연관되고 있습니다. 점점 더 많은 기기들이 연결되고 자동으로 작업을 수행합니다. 이러한 모든 기계와 시스템, 기기들의 동작은 직관적이어야 하며 사용자에게 과도한 부담을 주어서는 안됩니다.

HMI는 어떻게 작동할까요?

사람과 기계 사이의 원활한 소통을 위해서는 인터페이스를 필요로 합니다. 인터페이스란 사용자가 기계를 사용하는 장소이거나 취하는 행동일 수 있습니다. 간단한 예로 조명 스위치, 자동차의 페달과 운전대를 들 수 있습니다. 스위치를 누르거나, 운전대를 돌리거나 또는 페달을 밟으면 동작합니다. 한편 시스템은 텍스트를 입력하거나 마우스, 터치 스크린, 음성이나 제스처를 사용해 제어할 수 있습니다.

기기는 직접적으로 제어하거나 (사용자가 스마트폰의 스크린을 터치하거나 음성 명령을 내림) 또는 시스템이 자동으로 사람이 원하는 것을 파악합니다 (차량이 도로 표면에 설치된 유도식 루프 검지기를 지나면 교통 신호등이 알아서 색을 바꿈). 다른 기술들은 기기를 제어하는 데 이용되기 보다 오히려 우리의 감각 기관을 보완한다고 할 수 있습니다. 이러한 예로는 가상현실 안경이 있습니다. 또 디지털 비서인 챗봇은 고객의 요청에 자동으로 응답하며 지속적으로 학습합니다.

문화에 따라 선호하는 방식이 다름: 일본에서는 정중함을 원하고, 미국의 사용자에게는 친밀함이 특히 중요하다. 독일의 챗봇은 무뚝뚝하게 대답할 수도 있다.

챗봇과 디지털 비서

HMI에서 인공지능과 챗봇

최초의 챗봇 엘리자 (Eliza)는 1960년대 개발됐지만 곧 한계에 부딪쳤습니다. 엘리자는 이어지는 질문에 대답을 할 수가 없었습니다, 하지만 이제는 크게 달라졌습니다. 현재 챗봇은 고객 서비스 분야에서 "일하며", 문자나 구두로 출발 시간이나 서비스에 대한 정보를 제공합니다. 이를 위해 챗봇은 사전에 프로그래밍된 규칙과 루틴을 바탕으로 키워드에 응답하면서 사용자의 입력을 검토하고 대답합니다. 현대의 챗봇은 인공지능으로 움직입니다. 아마존 알렉사, 구글 홈 또는 구글 어시스턴트와 같은 디지털 비서들 역시 챗봇입니다.

티켓을 예매하고 온라인 쇼핑을 하는 개인 비서: 다양한 서비스 분야에서 챗봇이 편의를 제공할 것으로 보인다.

챗봇은 인간의 직접적인 개입 없이 요청으로부터 배우고 자체적으로 레퍼토리를 확장합니다. 또한 앞선 대화를 기억하고 자신들의 어휘를 연결하고 확장할 수 있습니다. 예를 들어 구글의 음성인식 디지털 비서는 인공지능의 도움으로 맥락에서 질문을 추론할 수 있습니다. 챗봇은 더 많이 이해할수록 더 잘 응답할 수 있으며, 사람과 사람 사이에서 이루어지는 의사소통에 더 가까워집니다. 여기서 빅 데이터도 중요한 역할을 합니다. 챗봇이 사용할 수 있는 정보가 많아지면 더 적합한 방식으로 더 적절한 대답을 할 수 있기 때문입니다.

챗봇과 디지털 비서의 중요성이 크게 증가할 것입니다. 시장조사업체 IHS에 따르면 아마존의 스마트 스피커 에코와 같은 디지털 비서 부문에서만 앞으로 46퍼센트 성장이 예측됩니다.

정교한 음성 제어로 가는 길

사용자는 알렉사, 구글 어시스턴트, 구글 홈 또는 마이크로소프트의 코타나와 같은 시스템을 음성으로 제어합니다. 이제 더 이상 사용자는 디스플레이를 터치할 필요가 없습니다. 디지털 비서를 작동시키는 "알렉사"와 같은 코드워드를 말한 다음,  "볼륨을 줄여줘" 또는 "방안 온도를 낮춰줘"라고 말하면 됩니다. 사용자는 노력을 줄일 수 있고 더욱 직관적입니다. 마이크로소프트 CEO 사티아 나델라 (Satya Nadella)는 이미 2014년에 "인간의 음성이 새로운 인터페이스"라고 예언했습니다.

하지만 음성 인식이 아직 완전하지는 않습니다. 디지털 비서는 배경 잡음의 방해로 인해 모든 요청을 이해하지는 못합니다. 또 종종 사람의 목소리와 TV 소리를 구분하지 못합니다. 미국 소비자 기술 협회 (CTA)에 따르면 2013년에 음성인식 오류비율은 23퍼센트였습니다. 2016년에 마이크로소프트의 연구원들이 처음으로 이를 6퍼센트 미만으로 낮추었지만, 아직 충분하지는 않습니다.

인피니언은 음성 제어를 크게 향상시키기 위해서 영국의 반도체 제조업체 XMOS와 협력하고 있습니다. XMOS는 사물 인터넷 기기를 위한 음성 처리 모듈을 공급합니다. 인피니언과 XMOS가 2017년 초 선보인 새로운 솔루션은 스마트 마이크로폰을 사용합니다. 이 기술은 디지털 비서가 다른 소음들 가운데서 사람의 목소리를 구별해낼 수 있도록 합니다. 인피니언의 XENSIV™ 레이더와 실리콘 마이크로폰 센서가 결합해 마이크로폰으로부터 스피커의 위치와 거리를 식별하며, XMOS의 원거리 음성 처리 기술이 음성을 포착하는 데 사용됩니다.

인피니언의 전력 관리 및 멀티마켓 사업부 안드레아스 우르쉬츠 (Andreas Urschitz) 사장은 “우리는 주변 잡음을 더욱 잘  억제해, 음성 인식과 정확도를 크게 향상시켰습니다"라고 말했습니다. 음성 제어를 "새로운 수준으로" 끌어올렸습니다. 음성을 이용한 스마트 TV 제어는 미래에 점점 더 중요해 질 것으로 우르쉬츠 사장은 확신합니다. 2022년에는 음성 제어 기능을 내장한 TV 세트가 5배 성장한 6천만 대로 증가할 것으로 예측됩니다.

음성인식 디지털 비서의 이용이 증가함에 따라 사용자들은 일상 생활이 전반적으로 더 편리해질 뿐 아니라 고객센터 문의 시 대기 시간도 줄어들 것으로 기대하고 있다.

우르쉬츠 사장은 스마트 가전기기에도 많은 변화가 일어날 것으로 보고 있습니다. 예를 들어 로봇 청소기 Robovacs는 현재 터치 스크린으로 동작합니다. 하지만 이러한 방식은 사용자가 작동을 멈추려면 기기가 있는 곳까지 가야 하기 때문에 비실용적입니다. 그는 "미래에 이와 같은 기기들은 음성 제어 시스템으로 작동될 것"이라고 덧붙였습니다. 하지만 음성 명령을 이용한 기기의 조작도 그의 관점으로는 중간 단계입니다. 장기적으로 우리는 제스처를 통해 기기를 제어하게 될 것이며, 로봇을 멈추려면 손짓만으로 충분할 것입니다. "하지만 그것은 아직 다음 단계이며, 우리의 첫 번째 과제는 XMOS와 함께 음성 제어를 보다 효율적으로 만드는 데 있습니다"고 말했습니다.

제스처 제어로 가는 길

제스처 제어는 터치 스크린에 비해 많은 장점을 갖습니다. 사용자는 기기를 터치할 필요가 없으므로 기기와 떨어져서도 명령을 내릴 수 있습니다. 제스처 제어는 특히 공공장소에서 음성 제어에 대한 대안이 될 수 있습니다. 지하철에서 스마트 웨어러블과 말하는 것은 일부 사람에게 불쾌감을 줄 수 있으며 원치 않는 주의를 끌 수 있기 때문입니다. 또한 제스처 제어는 2차원 사용자 인터페이스를 넘어 3차원을 열어줍니다.

구글과 인피니언은 “솔리 (Soli)”라는 새로운 종류의 제스처 제어 기술을 개발했습니다. 이 기술은 레이더 기술을 사용하며, 인피니언의 레이더 칩이 사용자의 손가락에서 반사되는 파장 (wave)를 수신합니다. 이는 누군가 손을 움직이면 칩에 기록된다는 것입니다. 그러면 구글 알고리즘이 이들 신호를 처리합니다. 어둡거나, 멀리 떨어져 있어도, 손가락이 깨끗하지 않아도 작동합니다. 동일하고 일정한 손 동작이 모든 솔리 기기에 적용됩니다. 솔리 칩은 라우드스피커나 스마트 시계와 같은 모든 기기에 적용될 수 있습니다. "초소형 고집적 레이더 칩과 함께 동작과 터치의 패턴을 추적하는 분별력 있는 알고리즘이 광범위한 애플리케이션을 구현합니다"고 우르쉬츠 사장은 말합니다. 이 기술은 미래에 모든 버튼과 스위치의 필요를 없애줄 것입니다.

증강, 가상 및 혼합현실

현대의 인간과 기계의 상호작용은 오래 전부터 레버를 움직이거나 버튼을 누르는 것 이상의 다양한 형태로 존재해 왔습니다.  증강현실 기술 또한 사람과 기계를 연결하는 인터페이스가 될 수 있습니다.

가상현실의 예로 가상현실 (VR) 안경이 있습니다. 가상현실 안경을 착용하면 사용자는 인공적으로 만들어진 3D 세계에 몰입해 마치 현장에 있는 것처럼 컴퓨터 게임과 360도 영상을 체험할 수 있습니다. 유치원생을 대상으로 한 실험에서는 이러한 경험이 VR 시뮬레이션이 아닌 실제와 같은 경험으로 기억된다는 것을 보여 주었습니다. 또한 가상현실은 전문적인 분야에서도 유용하게 활용될 수 있습니다. 예를 들면 기계나 시스템 또는 공장에 대한 계획 중인 데이터를 가상현실에서 살펴볼 수 있습니다. 일부 VR 안경의 경우 스마트폰을 홀더에 삽입해 디스플레이로 사용합니다. 모바일 폰 또는 안경의 센서가 착용자의 머리 움직임을 감지해 가상 세계를 둘러보는 것과 같은 느낌을 줍니다.

증강현실 (AR) 안경을 사용하면 추가적인 가상 요소들이 안으로 투사되기는 하지만 실제 환경은 사용자의 시야에 남아 있습니다. 스마트폰 게임 포켓몬고는 이 두 요소가 혼합될 때 얼마나 성공적일 수 있는지를 보여주었습니다. 사용자가 디스플레이를 움직이는 장소에 따라 다른 모습이 표시됩니다.

마이크로소프트의 홀로렌즈 (HoloLens)와 같은 혼합현실 (MR) 안경은 한 단계 더 나아가 가상현실과 증강현실을 결합합니다. 홀로렌즈는 독립적인 컴퓨터로 실제 공간 안에 3D 물체를 정확하게 띄울 수 있습니다. 안경은 제스처와 음성 명령으로 제어됩니다. 혼합현실 안경은 해상도가 높아 시나리오를 현실처럼 보여줄 수 있습니다.

가상, 증강 및 혼합현실은 재미와 게임 말고도 인더스트리 4.0에도 활용됩니다. 마이크로소프트 홀로렌즈 용 앱은 기술자를 위한 가상 교육 과정을 제공합니다. 브라운호퍼 공장 운영 및 자동화 연구소 (IFF)는 기업에게 혼합현실 실험실 엘베돔 (Elbedome)을 제공합니다. 이들은 6개의 레이저 프로젝터를 사용하여 기계, 공장 또는 전체 도시를 360도 표면에 보여줌으로써 개발자나 고객은 계획 중인 공장 안에 서 있는 느낌을 받을 수 있습니다.

인피니언의 3D 이미지 센서 칩 REAL3™이 3차원의 높은 품질로 환경을 재현합니다. 이 칩은 에이수스와 레노버의 일부 스마트폰과 같은 모바일 기기에 탑재되었습니다. 여기에는 ToF 기술이 사용되는 데, 이미지 센서 칩은 적외선 신호가 카메라에서 물체로 가서 되돌아오는 데 걸리는 시간을 측정합니다. 모션 추적을 통해 위치 변화를 탐지하고  깊이 지각으로 물체의 거리를 측정함으로써 증강현실에 직접적인 액세스가 가능합니다. 공간 학습은 기기가 이미 캡처한 장소를 인식하게끔 합니다.

기회와 과제

복잡한 시스템도 첨단 HMI 덕분에 사용하기 쉬워질 것입니다. 이를 가능하게 하기 위해 기계는 점점 더 인간의 습관과 필요에 맞춰질 것이며 가상현실, 증강현실, 혼합현실을 통해 기계를 원격으로 제어하게 될 것입니다. 그 결과 인간은 경험의 영역과 활동 분야를 확장시킬 것입니다.

또한 미래에도 기계의 신호 해석은 계속 발전할 것이며, 이는 반드시 필요합니다. 여기에는 다음과 같은 상황도 포함됩니다. 완전한 자율주행 차량은 교차로에서 경찰관이 보내는 손짓에 정확하게 반응할 수 있어야 합니다. 마찬가지로 의료에 이용되는 로봇은 스스로 표현할 수 없는 사람들의 요구를 "평가"할 수 있어야 합니다.

기계의 역할이 복잡해 질수록 기계와 사용자 사이의 효율적인 소통이 더욱 중요합니다. 기술이 의도된 대로 명령을 이해하는가? 만약 그렇지 못하다면 오해의 위험이 있을 수 있으며, 시스템이 정상적으로 작동하지 않을 수 있습니다. 예를 들어, 기계는 맞지 않는 부품을 생산하거나 커넥티드카가 도로를 잘못 질주할 수 있습니다.

사람은 고유의 능력과 한계를 가지고 있으며, 인터페이스와 센서를 개발하는 과정에서 항상 이를 고려해야 합니다. 기계의 조작은 지나치게 복잡하거나 많은 익숙함을 요구해서는 안됩니다. 사람과 기계의 원활한 소통을 위해서는 명령과 동작 사이에 응답 시간이 가능한 짧아야 하며, 그렇지 않을 경우 사용자는 상호작용이 자연스럽지 않다고 인식하게 됩니다.

기계가 자동으로 제어 및 응답하는 센서에 크게 의존한다는 사실에서 한 가지 위험이 발생할 수 있습니다. 해커가 데이터에 접근한다면 사용자의 행동과 관심에 대한 자세한 정보를 알아낼 수 있습니다. 일부 비평가들은 러닝 머신조차 독자적으로 행동해 인간을 정복할 수 있다고 우려합니다. 아직까지 명확하게 규명되지 않은 한 가지 질문은 HMI 오류로 발생한 사고에 대해 누구 과실인지, 누가 책임을 져야 하는지 입니다.

전망

인간과 기계의 상호작용은 어디로 향해 갈까요?

인간과 기계의 상호작용은 음성과 제스처 제어, 가상 및 증강, 혼합현실을 넘어 아직 갈 길이 멉니다. 미래에는 다양한 센서로부터 더욱 많은 데이터가 결합되면서 복잡한 프로세스를 캡처하고 제어하게 될 것입니다 (센서 융합).

오늘날 일반적인 리모트 컨트롤러, 컴퓨터 키보드, 온/오프 스위치와 같은 입력 장치의 사용은 줄어들 것입니다. 컴퓨터 시스템, 기기와 장비가 계속 학습하고 더 많은 데이터에 액세스 한다면, 점점 더 인간과 닮아갈 것입니다. 그리고 다음에는 감각 기관의 일을 대신할 수 있을 것입니다. 기계는 카메라를 통해 보고, 마이크로폰으로 들으며, 센서가 달린  옷감은 만지는 감각을 전달할 것입니다. 인피니언은 센서의 도움으로 인간의 감각을 더 정교하게 복제하기 위해 노력하고 있습니다. 우르쉬츠 사장은 "가스 센서는 '냄새를 맡을' 수 있게 되고 , 센서는 기압을 해석하고, 3D 카메라는 디바이스의 '시야'을 향상시킬 것입니다"고 설명합니다.

기계는 센서의 도움으로 주위에 무슨 일이 일어나는지 분석할 수 있게 됩니다. 그 결과 완전히 새로운 형태의 상호작용이 등장합니다. 우르쉬츠 사장은 다음과 같은 예를 듭니다. 가스 센서가 탑재된 모바일 폰이 근처에서 버거 "냄새를 맡습니다." 그러면 디지털 비서가 현재 특정 버거가 판매되고 있으므로 메뉴를 보라고 권합니다. 동시에 기기는 지각에 기반한 센서 덕분에 사용자의 바디 랭귀지를 해석하고 그에 반응할 수 있습니다.

기계는 인공 지능으로 점점 더 똑똑해질 것입니다. 머신 러닝을 통해 컴퓨터는 스스로 데이터로부터 발견한 것을 추론합니다. 아마존의 알렉사와 같은 디지털 비서에서 이미 입증되었듯이 이러한 수준은 오늘날에도 이미 가능합니다. 하지만 만약 기술이 더 짧은 시간에 더 많은 데이터를 처리할 수 있다면, 스스로 "생각하는" 기계의 능력 또한 증가할 것입니다.

HMI의 종류들

HMI의 종류들

  • 스위치, 레버, 운전대 버튼은 IT 기술이 등장하기 전 기계 제어에 사용된 주요 요소들이었습니다.
  • 키보드가 개발되면서 새로운 조작 수단이 추가되었습니다. 명령행의 텍스트 입력이 시스템에 명령을 내립니다.
  • 최초 그래픽 제어 수단으로 마우스가 개발되었습니다. 화면의 특정 영역을 클릭하여 활성화할 수 있게 되었습니다.
  • 현재 우리는 터치 스크린의 시대에 있습니다. 사람들은 손가락을 이용해 기기에 직접 동작을 수행합니다.
  • 멀티터치 입력은 제스처 제어로 가는 첫 번째 단계입니다. 두 손가락을 벌려 디스플레이에서 무언가를 확대합니다.
  • 웨어러블에서 바디 센서는 자동으로 데이터를 수집, 분석하고 사용자에게 정보를 제공합니다.
  • 동시에 음성 제어는 계속 진화하고 있습니다. 아마존 알렉사, 마이크로소프트 코타나, 구글 홈과 같은 디지털 비서는 사용자가 명령을 내리면 이를 수행합니다.
  • 제스처 제어로 조작 방법이 점점 직관적이 되고 있습니다. 공중에서 제스처만으로 TV를 켤 수 있습니다.

마지막 업데이트: 2018년 1월