본문 바로가기

일상정보

Artificial Intelligence의 역사를 자세히 살펴보며..

반응형

인공지능의 역사!

지능이 부여된 무생물들의 개념은 예로부터 존재해왔습니다. 그리스의 신 헤파이스토스는 신화에서 이르기를 로봇 같은 하인들을 금에서 위조하는 것으로 묘사되기도 하였지요. 고대 이집트의 기술자들은 사제들이 애니메이션으로 만든 신들의 동상을 만들었습니다. 


수세기 내내 아리스토텔레스에서 13세기 스페인 신학자 라몬 룰부터 르네 데카르트, 토마스 베이지스에 이르기까지 사상가들은 그 시대의 도구와 논리를 사용하여 인간의 사고 과정을 상징으로 묘사함으로써 일반적인 지식 표현과 같은 인공지능의 개념의 기초를 닦았습니다.


19세기 후반과 20세기 전반부는 현대 컴퓨터를 탄생시킬 기초적인 작업을 가져왔습니다. 1836년 케임브리지 대학의 수학자 찰스 배비지와 러브레이스 백작 부인 아우구스타 에다 바이런은 프로그램이 가능한 기계에 대한 최초의 디자인을 발명하였습니다. 


1940년대에 프린스턴의 수학자 존 폰 노이만은 저장된 프로그램 컴퓨터의 구조를 구상하였지요. 컴퓨터의 프로그램과 그것이 처리하는 데이터는 컴퓨터의 기억 속에 보관될 수 있다는 생각이었습니다. 그리고 워렌 맥컬로치와 월터 피츠가 신경망의 기초를 닦았지요.


현대 컴퓨터의 등장으로 과학자들은 기계 지능에 대한 그들의 생각을 시험할 수 있었습니다. 컴퓨터에 지능이 있는지 여부를 판단하는 한 가지 방법은 1950년 영국의 수학자이자 제2차 세계대전의 코드브레이커인 앨런 튜링에 의해 고안되었습니다. 튜링 테스트는 질문자들을 속여서 그들의 질문에 대한 그것의 반응이 사람에 의해 이루어졌다고 믿게 하는 컴퓨터의 능력에 초점을 맞추었습니다.


현대 인공지능 분야는 1956년 다트머스대학 여름학술회의 때 시작된 것으로 널리 인용되고 있습니다. 국방고등연구계획국(DARPA)이 후원한 이번 회의에는 인공지능(AI)이라는 용어를 코칭한 공로를 인정받고 있는 마빈 민스키, 올리버 셀프리지, 존 매카시 등 이 분야 유명인사 10여명이 참석했습니다. 


컴퓨터 과학자인 앨런 뉴웰과 허버트 A도 참석했지요. 경제학자, 정치학자, 인지심리학자인 사이먼은 그들의 획기적인 논리 이론을 제시했는데, 이 프로그램은 특정 수학 이론을 증명할 수 있으며, 또한 최초의 인공지능 프로그램으로 언급되었습니다.


다트머스대 컨퍼런스를 계기로 인공지능 분야의 리더들은 인간의 뇌에 버금가는 인공 지능이 눈앞에 다가와 주요 정부와 업계의 지원을 끌어모으고 있다고 예측했습니다. 실제로, 거의 20년 동안 많은 자금을 지원받은 기초연구는 인공지능에 상당한 진보를 낳았습니다. 


예를 들어, 1950년대 후반, 뉴웰과 사이먼은 복잡한 문제를 해결하는 데는 부족하지만 보다 정교한 인지 아키텍처를 개발하는 기반을 마련한 GPS(General Problem Solver) 알고리즘을 발표하였습니다. 매카시는 피스프 언어를 개발했지요. 오늘날에도 여전히 사용되고 있는 인공지능 프로그래밍 언어로써, 1960년대 중반에 MIT의 조셉 바이젠바움 교수는 오늘날의 챗봇의 기초를 닦은 초기 자연어 처리 프로그램인 엘리자(ELIZA)를 개발했습니다.


그러나 인공지능의 성과는 컴퓨터 처리와 메모리의 한계와 문제의 복잡성으로 인해, 임박한 것이 아니라, 이해하기 어려운 것으로 판명되었습니다. 정부와 기업들은 인공지능 연구에 대한 지지에서 한발짝 물러나 1974년부터 1980년까지 지속된 단기로 이어졌으며 최초의 '인공지능 겨울' 이라고 알려져 있습니다. 


1980년대 딥러닝 기법에 대한 연구와 산업계의 에드워드 파이겐바움 전문가 시스템 채택은 인공지능 열풍의 새로운 바람을 불러일으켰지만, 정부 자금과 산업 지원이 또 한 번 무너지는 결과를 낳았지요. 두 번째 인공지능의 혹독한 겨울은 1990년대 중반까지 이어지게 됩니다.


계산능력의 증가와 데이터의 폭발적 증가는 1990년대 후반에 인공지능 르네상스를 촉발시켰으며, 이러한 현상은 현재에도 계속되고 있습니다. 최근 인공지능에 집중한 결과 자연어 처리, 컴퓨터 비전, 로봇공학, 머신러닝, 딥러닝 등에 획기적인 발전이 있었습니다. 


게다가, 인공지능은 자동차에 동력을 공급하고 질병을 진단하고 대중문화에서 그 역할을 확고히 하는 등 어느 때보다 구체화되고 있지요. 1997년 IBM의 딥 블루는 러시아의 체스 거장 개리 카스파로프를 물리치고 세계 체스 챔피언을 이긴 최초의 컴퓨터 프로그램이 되었습니다. 


14년 후, IBM의 왓슨은 게임쇼 '데어디'에서 두 명의 전 챔피언을 물리치고 대중을 사로잡았지요. 더 최근에는 구글 딥마인드의 알파고에 의한 세계 바둑 챔피언 이세돌의 역사적인 패배가 바둑계를 놀라게 했고 지능적인 기계 개발에 중요한 이정표를 세웠습니다.




 2010년 이후의 인공지능

방대한 데이터와 새로운 컴퓨팅 능력을 기반으로 한 새로운 흐름으로, 두 가지 요인은 2010년경 규율의 새로운 붐을 말합니다.


우선 대량의 데이터에 대한 접근입니다. 예를 들어, 이미지 분류와 고양이 인식에 알고리즘을 사용할 수 있으려면 이전에는 샘플링을 직접 수행해야 했습니다. 그러나 오늘날, 구글의 간단한 검색은 수백만 명을 찾을 수 있지요.

또한, 학습 알고리즘 계산을 가속화하기 위한 컴퓨터 그래픽 카드 프로세서의 매우 높은 효율성의 발견을 들 수 있습니다. 이 과정은 매우 반복적이며, 전체 샘플을 처리하는 데 몇 주가 걸릴 수 있습니다. 이러한 카드의 컴퓨팅 능력은 제한된 금융 비용으로 상당한 진전을 가능하게 했습니다.

이 새로운 기술 장비는 몇몇 중요한 대중적 성공을 가능하게 했고 자금후원을 증가시켰지요. 2011년에 IBM의 왓슨이 두 명의 챔피언들을 상대로 한 게임에서 승리하게 되었습니다. 2012년 구글의 검색연구소인 엑스는 인공지능이 고양이를 인식하는 영상을 만들 수 있게 되었지요. 


이 마지막 작업에 16,000개 이상의 프로세서가 사용되었지만, 그 잠재력은 실로 놀랍습니다. 기계는 무언가를 구별하는 법을 배우게 되었습니다. 2016년에는 알파고가 유럽 챔피언인 판후이를, 세계 챔피언인 이세돌을 차례로 꺾었습니다. 바둑은 체스보다 훨씬 중요한 결합체를 가지고 있습니다.

이러한 기적은 어디서 온 것일까요? 전문가 시스템으로부터의 완전한 패러다임의 전환과 그 접근방식은 귀납적인 방식이 되었습니다. 그것은 더 이상 전문가 시스템에 대한 코딩 규칙의 문제가 아니라, 컴퓨터가 방대한 양의 데이터에 기초하여 상관관계와 분류에 의해서만 그것들을 발견하게 하도록 한다는 것입니다.

머신러닝 기법 중 딥러닝이 많은 애플리케이션에 가장 유망한 것으로 보여집니다. 2003년 토론토대학의 제프리 힌튼, 몬트리올 대학의 요수아 벤지오, 뉴욕대학의 얀 르쿤은 신경망을 최신으로 끌어올리기 위한 연구 프로그램을 시작하기로 했습니다. 


힌튼이 있는 토론토 연구소의 도움을 받아 마이크로소프트, 구글, IBM에서 동시에 실시한 실험에서는 이러한 유형의 학습이 음성 인식 오류율을 절반으로 줄이는 데 성공했다는 것을 보여주었습니다. 힌튼의 이미지 인식 팀에서도 비슷한 결과가 나왔습니다.

하룻밤 사이에, 대다수의 연구팀들은 논란의 여지가 없이 바로 이 기술에 눈길을 돌렸습니다. 이러한 유형의 학습은 텍스트 인식에도 상당한 진보를 가능케 했지만, 얀 르쿤과 같은 전문가들에 따르면, 텍스트 이해 시스템을 생산하려면 아직 갈 길이 멀음을 느꼈습니다. 대화 에이전트 프로그램은 이러한 과제를 잘 보여주지요. 현재 우리의 스마트폰은 이미 지시를 변환하는 방법을 알고 있지만, 그당시엔 그것을 완전히 문맥화시키고 우리의 의도를 완전히 분석할 수는 없었습니다.

반응형