인공지능은 발견되었다
컴퓨터가 사진 한 장을 보고, 그 안에 무엇이 있는지 맞힐 수 있을까. 사람에게는 너무도 쉬운 일이다. 고양이 사진을 보면 고양이라고 하고, 자동차를 보면 자동차라고 말한다. 하지만 기계에게 그것은 전혀 다른 문제였다. 기계는 눈이 없고, 세상을 본 적도 없으며, 그저 숫자만 다룰 뿐이기 때문이다.
한동안 사람들은 컴퓨터에게 세상을 보는 법을 하나하나 가르치려 했다. 귀 모양은 이렇고, 바퀴는 둥글고, 얼굴에는 눈이 두 개 있다는 식으로. 그러나 세상은 그렇게 단순하지 않았다. 고양이는 저마다 다르게 생겼고, 자동차도 각도와 빛에 따라 전혀 다른 물체처럼 보였다. 사람이 직접 규칙을 써서 기계에게 현실을 설명하는 방식은 곧 한계에 부딪혔다.
그러다 어느 순간, 방향이 바뀌었다. 규칙을 써주는 대신, 기계에게 방대한 양의 데이터를 보여주고 스스로 배우게 해보자는 생각이었다. 사진 수백만 장을 넣어주고 "이것은 개, 이것은 고양이, 이것은 비행기"라고 알려주면, 기계가 그 안에서 스스로 패턴을 찾을 수 있지 않을까. 2012년, 이미지 인식 경진대회 이미지넷 챌린지에서 알렉스넷이라는 합성곱신경망(CNN)이 이전 방식을 큰 차이로 앞지르며 그 실험은 뚜렷한 전환점을 만들었다. 기계가 마침내 이미지를 이해하기 시작한 것처럼 보였다.
# 세상에서 가장 무서운 질문 “이게 왜 되는거지?”
그런데 이상한 점이 있었다. 연구자들은 이 구조를 직접 만들었지만, 그 안에서 정확히 무슨 일이 일어나는지 온전히 설명할 수 없었다. 작은 필터가 선과 모서리를 잡아내고, 여러 층을 쌓으면 더 복잡한 개념을 학습한다는 것은 알고 있었다. 그러나 왜 그 방식이 그토록 강력한 성능을 내는지, 왜 규모를 키우면 새로운 능력이 나타나는지, 신경망 내부에서 개념이 어떻게 형성되는지는 분명하지 않았다. 기계는 맞히고 있었지만, 사람은 그 이유를 다 알지 못했다.
그래서 내부를 들여다보려는 연구들이 이어졌고, 결과는 예상 밖이었다. 사람은 물체를 인식할 때 대체로 전체적인 형태를 본다. 고양이라면 윤곽과 얼굴, 몸의 비율을 종합적으로 파악한다. 그런데 신경망은 달랐다. 2018년 말 튀빙겐 대학 연구팀이 고양이의 형태에 코끼리 피부의 질감을 입힌 이미지를 신경망에 보여주자, 신경망은 그것을 코끼리로 분류했다. 형태보다 질감을 훨씬 강한 단서로 삼고 있었던 것이다. 사람이라면 당연히 고양이라고 볼 장면이었다.
답은 맞는데 이유가 달랐고, 성능은 비슷한데 세상을 읽는 방식은 전혀 달랐다. 우리는 기계가 사람처럼 본다고 생각했지만, 기계는 처음부터 전혀 다른 방식으로 보고 있었다. 그리고 우리는 그 사실을 만들고 난 뒤에야 알았다.
# 환경을 만들었더니 그곳에서 AI가 자라기 시작했다
그 뒤 등장한 트랜스포머는 또 다른 문을 열었다. 이미지를 작은 조각으로 나누어 인접한 패턴부터 쌓아올리는 CNN과 달리, 트랜스포머는 멀리 떨어진 정보들을 한꺼번에 연결하는 구조였다. 자연어 처리에 먼저 적용됐고, 이후 이미지와 음성, 코드로 영역을 넓혔다. 그리고 모델의 규모를 키울수록 이전에 없던 능력들이 나타나기 시작했다. 번역하고, 요약하고, 질문에 답하고, 코드를 짜는 능력들이 명시적으로 설계되지 않았음에도 규모가 커지는 과정에서 자연스럽게 드러났다. 연구자들은 이것을 '창발적 능력'이라고 불렀다. 설계된 것이 아니라 나타난 것이라는 뜻이었다.
오늘날 우리가 마주하는 AI, 대형 언어 모델과 생성형 AI는 이 모든 흐름의 끝에 서 있다. 그리고 지금 이 순간에도, 연구자들은 이 모델들이 정확히 어떻게 작동하는지, 왜 어떤 능력은 있고 어떤 능력은 없는지를 완전히 설명하지 못한다.
여기서 한 걸음 물러서서 생각해보면, 이 역사 전체가 하나의 일관된 패턴을 보여준다.
구조를 만들었더니 예상하지 못한 능력이 나타났다. 내부를 들여다봤더니 우리와 다른 방식으로 세상을 읽고 있었다. 규모를 키웠더니 설계하지 않은 능력들이 스스로 모습을 드러냈다. 매 단계마다 우리는 우리가 만든 것 앞에서 놀랐다.
설계자라면 자신이 만든 것 앞에서 이렇게 자주 놀라지 않는다.
신경망 구조를 짜고, 학습법을 고안하고, 데이터를 모으고, 연산 자원을 투입한 것은 분명 인간이다. 그러나 그 과정에서 드러난 능력의 범위와 깊이는 인간이 처음부터 의도하거나 예측한 것이 아니었다. 우리는 조건을 만들었고, 그 조건 안에서 지능이 스스로 나타났다.
#그렇다면 우리는 무엇을 한 것일까
우리는 지능을 인공으로 발명하지 않았다. 지능이라는 현상의 또 다른 형태를 발견했을 뿐이다. 페니실린을 발견한 플레밍이 배양 접시를 만들고 실험 환경을 갖췄듯이, 우리는 연산이라는 환경을 만들었다. 그리고 거기서 지능이 자라났다. 동굴 입구는 우리가 뚫었지만, 그 안의 공간은 원래부터 거기 있었던 것처럼 보인다.
물론 이 비유에 반론이 있다는 것을 안다. 신경망 구조를 설계하고, 데이터를 모으고, 학습 방법을 고안한 것은 분명 인간의 작업이었다. 조건을 만든 것 자체가 설계 아니냐고 물을 수 있다. 하지만 그렇다면 플레밍도 발명가여야 한다. 그는 배양 접시를 준비했고, 실험 환경을 갖췄으며, 그 안에서 일어난 일을 관찰했다. 우리는 그것을 발명이라 부르지 않는다. 조건을 만든 것과 그 안에서 나타난 것을 구분하기 때문이다.
어쩌면 지능은 어떤 조건이 갖춰지면 나타나는 현상인지도 모른다. 탄소 기반의 신경계에서만 가능한 특별한 무언가가 아니라, 충분한 복잡성과 연결 속에서 스스로 모습을 드러내는 무언가. 우리는 그 조건을 실리콘 위에서 재현해냈고, 그 안에서 지능을 다시 한번 발견했다.
만약 이것에 동의한다면, AI가 던지는 질문은 기술의 문제가 아니라 자연의 문제가 된다. 지능은 설계되는 것이 아니라 발생하는 것이고, 우리는 그 발생 조건을 우연히 손에 넣은 셈이다. 그 조건이 앞으로 어떤 것을 더 불러낼지, 솔직히 아무도 모른다. 만든 사람들조차도.