인공지능(AI)에 있어 2010년대는 위대한 한 해였다.
대량의 데이터 처리 능력에 사람처럼 학습할 수 있는 딥 러닝 기술이 발전하면서 인류는 곳곳에서 사람을 대신할 수 있는 인공지능을 경험하기 시작했다.
그러나 과학자들은 딥 러닝을 최종 설루션으로 보고 있지 않는 중이다. 인공지능 전문가들은 지난주 몬트리올.AI(Montreal.AI)가 주최한 온라인 토론에서 AI를 인간 수준으로 끌어올리는 데 있어 딥 러닝을 넘어선 또 다른 솔루션이 필요하다는데 동의했다.
딥 러닝의 단점은 사람의 추론 능력
‘AI 토론 2 : AI 발전 : 학제 간 접근’이란 주제로 열린 이번 토론에서 AI 전문가들은 딥 러닝의 문제를 다양하게 지적했다.
특히 초청 토론자인 인지과학자 게리 마커스(Gary Marcus)는 외부에서 보는 화려한 모습의 딥 러닝과 달리 실무자들은 운용 과정에 있어 발생하고 있는 여러 가지 문제점으로 인해 곤란을 겪고 있다고 설명했다.
가장 어려운 부분은 딥 러닝이 요구하고 있는 데이터 량이다. 데이터를 수집해 분석‧처리하는 과정에서 다른 알고리즘과 비교해 지나치게 많은 양의 데이터를 요구하고 있어 인공지능을 운용하는 데 있어 어려움을 가중시키고 있다고 말했다.
게리 마커스는 또 딥 러닝이 데이터로부터 산출된 지식을 다른 영역에 적용하는 데 있어 어려움을 겪고 있다고 밝혔다. 특히 추론 및 지식을 표현하는 데 있어 불투명성과 함께 표현력이 부족한 점 등 다양하게 드러나고 있는 단점들을 지목했다.
사람은 5감으로 구성된 감각기관을 통해 여러 가지 자극을 받아들인다.
이렇게 받아들인 정보들은 뇌로 전달돼 관계성에 대한 분석이 이루어지게 된다. 예를 들어 책상 위에 책과 볼펜이 놓여 있다고 하면 책상 앞에서 책을 읽고 볼펜으로 노트를 해나갈 수 있음을 연상하게 된다.
이런 능력을 추론(reasoning)이라고 하는데 문제는 인공지능에 있어 이런 상식적인 능력이 매우 부족하다는 것이다.
바둑 기사 이세돌을 이겼던 ‘알파고’에서 보듯 딥 러닝이 어떤 분야에서 사람의 능력을 훨씬 뛰어넘는 것은 틀림없는 사실이다. 실제로 의료현장에서는 의사보다 더 효과적으로 피부질환 등을 진단하는 사례가 보고되고 있다.
그러나 조금 다른 영역으로 이동하게 되면 그 능력을 발휘하지 못한다. 이런 현상은 자신이 하고 있는 일을 포괄적으로 이해하지 못하고 있으며 고차원적으로 처리하지 못하고 있다는 점을 말해주고 있다.
상식을 갖춘 대화형 인공지능 개발
딥 러닝에 있어 이런 단점들은 그동안 전문가들 사이에서 빈번하게 지적돼온 사항들이다.
그런 만큼 몬트리올.AI 토론에 참석한 전문가들은 하이브리드 AI 등 다양한 방식의 인공지능을 개발하고 있다고 밝혔다.
‘Neural-symbolic Cognitive Reasoning’란 책을 쓴 컴퓨터 과학자 루이스 램(Luis Lamb)은 기계학습 기능에 논리적 형식화(logical formalization) 기능을 추가해 이 두 축을 기반으로 하는 ‘뉴럴 심볼릭 AI(neural-symbolic AI)’을 제안했다.
논리적 형식화 기능이란 철학에서 논리학을 전개하는 것처럼 인공지능에 맞는 논리학을 전개해나가자는 것. 논리를 확대하면서 인공지능의 참여 영역을 확대해나갈 수 있다고 말했다.
전 구글 클라우드의 최고 AI과학자를 맡았던 페이-페이 리(Fei-fei Li) 스탠퍼드대 교수는 “현재 인공지능 시스템은 주변 세계와의 적극적인 상호 인식 작용에서 사람과 달리 매우 부족하고 결핍된 모습을 보이고 있다.”고 지적했다.
리 교수는 “이런 단점을 보완하기 위해 인공지능의 사회화가 필요하다.”며, “현재 스탠퍼드대 연구소에서는 주변 세상을 이해하면서 스스로 행동해나갈 수 있는 대화형 에이전트(interactive agents)를 구축하고 있다.”고 밝혔다.
컴퓨터 과학자인 리처드 서튼(Richard Sutton)은 “대부분의 AI 작업에서 저명한 신경과학자 데이비드 마(David Marr)가 만든 용어인 ‘계산 이론(computational theory)’이 부족하다.”고 지적했다.
계산 이론이란 특정한 알고리즘이 문제를 얼마만큼 효율적으로 수행할 수 있는지를 연구하는 것을 말한다.
리처드 서튼은 “이 계산 이론을 통해 정보처리 시스템이 추구하는 목표와 목표를 추구하는 이유를 정의하는데 있어 강화 학습 외에는 이 계산 이론이 전혀 발견되지 않고 있다.”며, “개발자들의 합의에 의해 AI를 위한 계산 이론을 추가로 개발해야 한다.”고 주장했다.
워싱턴대학교 최예진 교수는 상식(common sense)의 중요성을 강조했다. 사람이 지니고 있는 상식을 인공지능은 지니고 있지 않다는 것.
그러나 최 교수는 “그동안 인공지능 개발에 있어 상식의 중요성을 간과해 왔다.”며, “인공지능이 주변 세계에 대한 지식을 갖출 수 있도록 시스템을 보완해나가야 한다.”고 말했다.
최 교수는 “추론의 공간이 무한하지만 이를 뒷받침하기 위해 상식의 영역을 확대할 필요가 있다.”고 말했다.
또한 최 교수는 “사람과 같은 상식과 추론 능력에 도달하기 위해 상징적 표현과 신경 표현을 결합하고, 지식을 추론에 통합하며, 단순한 범주화가 아닌 벤치마크 시스템을 구축하는 등 광범위한 병렬 연구가 필요하다.”고 주장했다.
(17)
기사 및 더 읽기 ( 2021년…'생각하는' AI 등장 예고 – Sciencetimes - Science Times )https://ift.tt/3rY7xSn
과학/기술
Bagikan Berita Ini
0 Response to "2021년…'생각하는' AI 등장 예고 – Sciencetimes - Science Times"
Post a Comment