추형석 소프트웨어정책연구소 선임연구원
우선 빅데이터로 AI를 학습시키는 데 필요해서다. 대표적인 AI 학습 방법은 딥러닝(심층학습)인데, 더 정교한 지능적 예측을 위한 계산자원의 확보는 다다익선이다. 딥러닝도 경험적 결과에 의존하기 때문이다. 즉, 다양한 환경에서 실험을 해보고 최선의 결과를 도출한다는 것이다. 얼마나 다양한 실험을 하느냐에 성능이 좌우된다는 점은 필연적으로 막대한 계산 자원의 수요로 이어진다.
둘째는 학습된 AI를 스마트폰이나 소형 사물인터넷(IoT) 장비에 활용하기 위해서다. 이 과정은 AI에서 추론이라고 불리며 빅데이터로 학습된 AI를 실제로 활용하는 부분이라 볼 수 있다. 안면 인식을 사례로 보면 AI는 수천만 장의 안면 데이터를 바탕으로 딥러닝됐다고 가정하자. 이 안면 인식 AI를 실제로 활용하기 위한 방법은 스마트폰 카메라, 폐쇄회로(CC)TV, 키오스크 등에 탑재하는 것이다.
그러나 안면 인식 AI는 여전히 상당 수준의 계산량을 요구한다. 그 이유는 딥러닝에서 찾아볼 수 있는데, 딥(심층)이라는 의미는 계산량 증가와 일맥상통한다. 지능적 행동의 성능을 높이기 위해 더 많은 계산을 해야 하는 것이라고 이해할 수 있다. 따라서 산업계는 AI 추론에 최적화된 기술 발굴에 관심을 갖고 있다. 이 때문에 뇌신경망을 모사한 뉴로모픽칩이나 딥러닝 추론 연산에 최적화된 계산 장치가 개발되고 있다.
AI 하드웨어 분야는 산업적인 수요에 의해 다방면으로 발전하고 있으나, 이들의 성능을 공정하게 측정할 수 있는 도구는 거의 없다. 하드웨어 자체의 다양화도 있지만, 소프트웨어 프레임워크, 라이브러리, 운영체제 등 거의 모든 요소에 의해 최종 성능이 결정되기 때문이다.
또 딥러닝의 모델과 적용 분야, 데이터 셋까지 고려하면 일관된 기준을 마련하기는 쉽지 않다. 최근에는 30개의 글로벌 AI 기업 전문가 200여명이 한데 모여 딥러닝의 성능을 측정하기 위한 ‘MLPerf’라는 지표를 공개했다. 앞으로 MLPerf가 AI 하드웨어 성능을 측정하는 공식 지표로 선정된다면, AI 하드웨어 성능을 한눈에 가늠해 볼 수 있을 것이라 본다.
2019-12-03 29면
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지