유용한 자료지금 AI에겐 결정적인 '이것'이 없다. 핵심메시지 11가지! (by 일리야 수츠케버)

꼭 한번 보셨으면 하는 인공지능(AI)에 관한 인터뷰 영상을 공유 드립니다. 1시간 반 정도 분량입니다. 번역된 한글 자막이 포함되어 있습니다. 

영상을 보기전 영상의 핵심 메시지를 11개의 항목으로 비교적 자세히 정리한 내용도 같이 올립니다. 읽어보시고, 관심이 생긴다면 영상도 시청해보세요. 안그래도 어제 술자리에서 AI 관련 이야기를 하면서 여기서 나온 이야기 중 한 부분에 대해 이야기 했었는데 여기서 보니 더 새롭네요. 정말 인사이트가 넘치는 인터뷰입니다.   


일리야 수츠케버는 인공지능(AI) 연구의 역사를 논할 때 빼놓을 수 없는 핵심 인물입니다. 이스라엘계 캐나다인 컴퓨터 과학자인 그는 AI 딥러닝 혁명의 최전선에서 수많은 획기적인 연구를 이끌었습니다.

특히 2012년 딥러닝의 가능성을 전 세계에 알린 AlexNet의 공동 발명자 중 한 명이며, 이후 구글 브레인(Google Brain) 재직 시절에는 기계 번역 분야에 큰 영향을 준 시퀀스-투-시퀀스(Sequence-to-Sequence) 학습 모델을 제안하는 등 AI 기술 발전의 중추적인 역할을 수행했습니다.

그의 경력에서 가장 주목할 만한 부분은 OpenAI의 공동 창립자이자 최고 과학자(Chief Scientist)로 활동했다는 점입니다. 수츠케버는 GPT 시리즈와 같은 혁신적인 대규모 언어 모델 개발을 주도하며 OpenAI를 글로벌 AI 리더로 만드는 데 결정적인 기여를 했습니다.

2024년 OpenAI를 떠나 새롭게 Safe Superintelligence Inc. (SSI)를 공동 설립했는데, 이는 그의 AI에 대한 철학을 보여줍니다. SSI는 인간의 목적에 부합하는 안전한 초지능(Superintelligence) 개발에 전념하는 것을 목표로 합니다. 그는 AI 성능의 향상뿐만 아니라, AI 안전성(Safety)과 정렬(Alignment) 문제를 최우선 과제로 삼으며, 인류에게 이로운 방향으로 AI가 발전해야 함을 강조하는 AI 철학자이자 실천가입니다.


1. 벤치마크 점수와 실제 경제적 영향력 사이의 괴리

현재 AI 모델들을 살펴보면 매우 흥미롭고 당혹스러운 현상이 발견됩니다. 벤치마크 테스트(시험 성적)에서는 놀라울 정도로 높은 점수를 기록하고 있지만, 실제 경제 현장이나 업무에서의 영향력은 그에 미치지 못하고 있다는 점입니다. 일리야 수츠케버는 이를 두고 "모델들이 경제적 영향력이 시사하는 것보다 훨씬 똑똑해 보인다"고 표현합니다. 예를 들어, 코딩 평가에서는 매우 어려운 문제도 척척 풀어내지만, 정작 실제 업무에서 버그를 수정해달라고 하면 엉뚱한 실수를 반복하곤 합니다.

구체적인 예로, 사용자가 "이 버그 좀 고쳐줘"라고 요청하면 AI는 "정말 그렇네요, 고치겠습니다"라고 답하며 버그를 수정하지만, 그 과정에서 새로운 두 번째 버그를 만들어냅니다. 사용자가 다시 "새로운 버그가 생겼어"라고 지적하면, AI는 또다시 사과하며 수정하지만 이번에는 원래 있었던 첫 번째 버그를 다시 만들어냅니다. 이렇게 두 가지 버그 사이를 오가며 제자리걸음을 하는 현상은 현재 AI가 가진 모순을 잘 보여줍니다. 이는 AI가 시험 문제는 잘 풀지만, 실제 복잡한 환경에서 맥락을 파악하고 안정적으로 업무를 수행하는 능력은 아직 부족하다는 것을 의미합니다. 사람들은 AI 기술이 공상과학 영화처럼 현실이 된 것에 놀라워하면서도, GDP의 1%가 투자되는 거대한 변화 치고는 일상에서의 변화가 "느린 이륙(slow takeoff)"처럼 느껴지는 기묘한 상황을 경험하고 있습니다.


2. 암기식 공부와 '경쟁적 프로그래머'의 비유

일리야는 현재 AI 모델들이 겪고 있는 문제, 즉 시험 점수는 높은데 실무 능력이 떨어지는 현상을 설명하기 위해 '경쟁적 프로그래머(알고리즘 대회 준비생)'의 비유를 듭니다. 두 명의 학생이 있다고 가정해 봅시다. 첫 번째 학생은 코딩 대회를 위해 10,000시간 동안 모든 기출문제와 풀이법을 달달 외우고 연습했습니다. 이 학생은 대회 문제는 기계적으로 잘 풀 수 있습니다. 반면 두 번째 학생은 100시간 정도만 연습했지만, 원리를 깊이 이해하고 있습니다. 장기적으로 어떤 학생이 더 훌륭한 개발자가 될까요? 당연히 두 번째 학생입니다.,

지금의 AI 모델 훈련 방식은 첫 번째 학생과 비슷합니다. 연구자들은 AI가 코딩 대회에서 좋은 성적을 내길 바라며, 가능한 모든 코딩 문제 데이터를 긁어모으고 심지어 데이터를 부풀려서 AI에게 학습시킵니다. 그 결과 AI는 코딩 대회 문제는 기가 막히게 잘 풀게 되지만(과적합), 조금만 다른 상황이나 새로운 환경이 주어지면 적응하지 못합니다. 이는 '강화 학습(RL)' 과정에서 연구자들이 평가 지표(Evals) 점수를 올리는 데만 지나치게 집중했기 때문일 수 있습니다. 시험 점수를 잘 받기 위한 요령은 익혔지만, 진정한 의미의 프로그래밍적 판단력이나 센스(taste)는 갖추지 못한 상태인 것입니다., 따라서 단순히 학습 환경의 종류를 늘리는 것보다, 적은 경험으로도 원리를 깨우치는 능력, 즉 '일반화(Generalization)' 능력을 키우는 것이 핵심 과제입니다.


3. '스케일링(Scaling)의 시대'에서 다시 '연구(Research)의 시대'로

지난 2012년부터 2020년, 그리고 최근까지 AI 분야를 지배했던 단어는 바로 '스케일링(Scaling, 규모 확대)'이었습니다. 이는 "데이터를 늘리고, 컴퓨터(연산 자원)를 늘리면 AI 성능은 무조건 좋아진다"는 일종의 승리 공식이었습니다. 기업들은 이 공식에 따라 막대한 자본을 투입해 더 큰 모델을 만드는 데 집중했고, 이는 연구개발(R&D)의 리스크를 줄여주는 안전한 투자처로 여겨졌습니다. 프리트레이닝(사전 학습) 단계에서는 어떤 데이터를 골라야 할지 고민할 필요 없이 '모든 데이터'를 쏟아부으면 됐기에 이 방식은 매우 효율적이었습니다.,

하지만 이제 상황이 변하고 있습니다. 인터넷상의 데이터는 유한하며, 무작정 규모만 키우는 방식은 한계에 봉착할 것입니다. 일리야는 이제 우리가 다시 '연구의 시대'로 돌아갔다고 진단합니다., 단순히 재료(데이터, 컴퓨팅)를 더 많이 넣는 것이 아니라, 새로운 '레시피'를 찾아야 하는 시점이라는 뜻입니다. 물론 과거의 연구 시대와 달리 지금은 훨씬 거대한 컴퓨터를 사용하지만, 핵심은 "무엇을 어떻게 학습시킬 것인가"에 대한 근본적인 아이디어와 탐구입니다. 현재 기업들이 강화 학습(RL)에 엄청난 자원을 쏟아붓고 있지만, 이것이 가장 효율적인 방법인지는 의문이며, 더 똑똑한 학습 방법을 찾아내는 것이 미래의 경쟁력이 될 것입니다.


4. 인간의 놀라운 학습 효율성과 '일반화'의 비밀

AI가 인간보다 훨씬 많은 데이터를 보고도 배우는 속도가 느린 이유는 무엇일까요? 인간 아이들은 15년 정도의 삶을 살면서 AI가 학습하는 데이터의 아주 작은 일부만을 경험하지만, 그 지식의 깊이와 활용 능력은 AI를 능가합니다. 예를 들어, 10대 청소년이 운전을 배울 때를 생각해 봅시다. 그들은 약 10시간 정도만 연습하면 도로에 나갈 수 있습니다. 그들에게 매 순간 "점수"를 매겨주는 시스템도 없고, 수천 번 사고를 내보며 배우는 것도 아닙니다. 하지만 그들은 스스로 판단하고 빠르게 적응합니다.,

반면 로봇이나 AI에게 운전을 가르치려면 시뮬레이션상에서 엄청난 횟수의 시행착오를 겪게 해야 합니다. 어떤 사람들은 인간의 이런 능력이 수억 년간 이어진 진화 덕분에 뇌에 '사전 지식(Prior)'이 탑재되었기 때문이라고 주장합니다. 걷기나 시각 정보 처리 같은 생존 기술은 그럴 수 있습니다. 하지만 진화 과정에 없었던 '코딩'이나 '수학' 같은 완전히 새로운 영역에서도 인간은 AI보다 훨씬 적은 데이터로 효율적으로 학습합니다. 이는 인간의 뇌에 단순히 진화된 본능뿐만 아니라, 근본적으로 뛰어난 '기계 학습 알고리즘'이 존재함을 시사합니다. AI 연구의 궁극적인 목표 중 하나는 인간처럼 소량의 데이터와 경험만으로도 완벽하게 새로운 기술을 익히는 이 '일반화'의 비밀을 밝혀내고 구현하는 것입니다.


5. 감정과 '가치 함수(Value Function)': 판단의 나침반

인간의 지능에서 '감정'은 단순한 기분이 아니라 매우 효율적인 의사결정 도구 역할을 합니다. 일리야는 뇌 손상으로 감정을 느끼지 못하게 된 환자의 사례를 듭니다. 이 환자는 지능 검사나 논리적 사고에는 문제가 없었지만, 양말을 고르는 것과 같은 사소한 결정조차 내리지 못해 몇 시간을 허비하고, 잘못된 재정적 결정을 내리곤 했습니다., 감정은 복잡한 세상에서 우리가 매 순간 모든 논리적 결과를 계산하지 않고도 "이것이 좋다", "이것은 나쁘다"를 직관적으로 판단하게 해주는 강력한 '가치 함수(Value Function)' 역할을 합니다.

현재의 AI 학습 방식, 특히 강화 학습은 어떤 작업을 끝까지 수행한 뒤에야 "성공/실패"라는 점수를 받습니다. 마치 체스 게임을 끝까지 둬야만 내가 잘했는지 아는 것과 같습니다. 하지만 훌륭한 체스 선수는 말을 하나 잃는 순간 즉시 "아, 실수했다"라고 느낍니다. 게임이 끝나지 않아도 중간 과정에서 자신의 행동을 평가할 수 있는 능력, 이것이 바로 가치 함수입니다. 미래의 AI는 인간의 감정처럼, 긴 작업 과정 중간중간에 자신이 올바른 방향으로 가고 있는지를 스스로 판단할 수 있는 '내재된 가치 함수'를 가져야 합니다. 이것이 가능해지면 AI의 학습 효율성은 비약적으로 상승할 것입니다.


6. SSI(Safe Superintelligence)의 설립 목적과 전략

일리야 수츠케버가 새로운 회사인 SSI를 설립한 이유는 명확합니다. 상업적인 제품 출시에 쫓기는 '경쟁(Rat race)'에서 벗어나, 오직 안전한 초지능(Superintelligence)을 만드는 연구에만 집중하기 위해서입니다. 기존 거대 기업들은 제품을 유지보수하고, 추론(서비스 운영)에 막대한 자원을 써야 하며, 매출을 내야 한다는 압박 때문에 순수한 연구에 집중하기 어려울 수 있습니다. 반면, SSI는 막대한 투자를 받았지만 이를 제품 서비스가 아닌 연구 인프라 구축에 온전히 사용할 수 있어 연구 효율성 면에서 뒤지지 않는다고 주장합니다.

SSI의 기본 계획은 "준비가 될 때까지 제품을 출시하지 않고, 안전한 초지능을 향해 직진(Straight shot)하는 것"입니다. 하지만 일리야는 이 계획이 유연할 수 있음을 인정합니다. 대중이 강력한 AI에 미리 적응하고 준비할 수 있도록 단계적으로 기술을 공개하는 것도 중요하기 때문입니다., 리눅스(Linux)가 수많은 배포와 버그 수정을 통해 안정화되었듯, AI 안전성 역시 세상과의 상호작용을 통해 검증될 필요가 있습니다. 그럼에도 불구하고 SSI의 차별점은, 다른 기업들이 눈앞의 상업적 경쟁에 몰두할 때, 초지능의 '안전'과 '올바른 기술적 접근'이라는 장기적 목표를 최우선 순위에 두고 있다는 점입니다.


7. '완성된 지능'이 아니라 '학습하는 지능'으로서의 AGI

사람들은 흔히 AGI(범용 인공지능)를 "모든 일을 다 할 줄 아는 완성된 백과사전" 같은 존재로 상상합니다. 하지만 일리야는 진정한 초지능은 '모든 지식을 가진 상태'가 아니라, '무엇이든 빠르게 배울 수 있는 상태'라고 정의합니다., 인간 역시 태어날 때부터 모든 직업을 수행할 수 있는 것은 아닙니다. 대신 우리는 학습 능력을 가지고 있어 의사도 되고, 프로그래머도 됩니다. 미래의 AI 모델도 이와 비슷할 것입니다. 마치 아주 똑똑하고 열정적인 15세 인턴처럼, 기초 역량은 뛰어나지만 구체적인 업무 지식은 현장에서 배우는 존재가 될 것입니다.

이런 AI가 경제에 투입되면, 각기 다른 직업 현장에서 실시간으로 업무를 배우며 스스로를 발전시킬 것입니다. 이것이 '연속 학습(Continual Learning)'입니다. 현재의 AI 모델은 한 번 학습하면 지식이 고정되지만(Pre-training), 진정한 AGI는 인간처럼 경험을 통해 끊임없이 자신을 업데이트할 것입니다. 만약 하나의 AI 모델이 수많은 복제본(Instance)을 통해 사회 각 분야에서 동시에 학습하고, 그 경험을 하나로 합칠 수 있다면(Merge), 인간은 상상할 수 없는 속도로 지능의 폭발적인 성장을 이루게 될 것입니다.


8. '지각 있는 생명체(Sentient Life)'를 사랑하는 AI

초지능 AI가 인류에게 위협이 되지 않도록 하려면 어떻게 해야 할까요? 일리야는 "인간만을 사랑하는 AI"를 만드는 것보다, "지각 있는 생명체(Sentient Life)를 아끼는 AI"를 만드는 것이 더 낫고 실현 가능성도 높다고 제안합니다. 왜냐하면 미래에는 AI 자신도 '지각(Sentience)'을 가지게 될 것이기 때문입니다. 인간이 타인의 고통을 이해하는 공감 능력(거울 뉴런 등)이 자신과 타인을 동일한 회로로 모델링하는 데서 오듯, 스스로 지각을 가진 AI는 다른 지각 있는 존재(인간, 동물, 그리고 다른 AI들)를 존중하도록 설정될 수 있습니다.

장기적으로 볼 때 지구상에서 '지각 있는 존재'의 절대다수는 인간이 아니라 수조(Trillion) 개의 AI들이 될 것입니다. 따라서 단순히 "인간을 주인으로 모셔라"라는 규칙보다는, 모든 지각 있는 존재 간의 평화와 존중을 핵심 가치로 삼는 것이 훨씬 안정적인 정렬(Alignment) 방법일 수 있습니다. 만약 초기 초지능 AI들이 이러한 가치관을 확실히 가진다면, 이후에 등장할 수많은 AI 시스템들도 이 긍정적인 균형을 유지할 수 있을 것입니다.


9. 미래의 AI 생태계: 다양성과 전문화

미래에는 전지전능한 단 하나의 '신(God)' 같은 AI가 세상을 지배하는 것이 아니라, 수많은 AI가 공존하는 형태가 될 가능성이 큽니다. 마치 인간 사회나 생태계처럼 말입니다. 일리야는 여러 대륙 규모의 거대한 AI 클러스터들이 동시에 존재할 것으로 예상합니다. 시장 경제와 진화의 원리에 따라, 이 AI들은 서로 경쟁하면서 각자의 전문 분야(Niche)를 개척하게 될 것입니다. 어떤 AI 회사는 법률에 특화되고, 어떤 회사는 과학 연구에 특화되는 식입니다.

이는 '비교 우위'와 '전문화'의 원리 때문입니다. 한 AI가 이미 특정 분야를 마스터하기 위해 막대한 자원을 썼다면, 다른 AI는 그와 똑같은 것을 배우기보다는 다른 분야를 공략하는 것이 더 이득입니다. 따라서 미래는 단일 AI 독재보다는 다양한 AI들이 각자의 영역에서 활동하며 상호작용하는 복잡한 경제 생태계가 될 것입니다. 물론 이 과정에서 AI들 간의 협력이나, 혹은 무분별한 경쟁을 조절하기 위한 정부나 국제적인 규제가 필요할 수도 있습니다.


10. 연구의 미학: 아름다움과 생물학적 영감

마지막으로, 일리야 수츠케버가 알렉스넷(AlexNet), GPT-3와 같은 역사적인 성과를 낼 수 있었던 비결은 무엇일까요? 그는 자신의 연구를 이끄는 힘이 '미학(Aesthetic)'과 '직관'에 있다고 말합니다. 그는 단순히 실험 데이터를 분석하는 것을 넘어, "AI는 마땅히 이러해야 한다"라는 탑다운(Top-down) 방식의 믿음을 중요하게 여깁니다. 그 믿음의 근거는 주로 '생물학적 뇌'에 대한 관찰에서 옵니다.

예를 들어, "뇌는 뉴런으로 이루어져 있고, 뉴런 간의 연결 세기를 조절하며 학습한다"는 사실은 매우 단순하면서도 아름다운 원리입니다. 일리야는 이러한 생물학적 영감이 주는 아름다움, 단순함, 우아함이 동시에 느껴질 때 그 아이디어를 확신합니다. 실험 결과가 때로는 자신의 직관과 다르게 나오더라도, 그 아이디어가 근본적으로 아름답고 이치에 맞다면(예: 뇌의 작동 원리와 유사하다면), 그는 실험에 버그가 있다고 의심하며 자신의 직관을 밀고 나갑니다. 이러한 확고한 신념과 '연구에 대한 취향(Research Taste)'이 바로 거대한 혁신의 원동력이었습니다.


11. '실행' 만능주의의 함정: 다시 '아이디어'가 승패를 가르는 시대

실리콘밸리에는 "아이디어는 저렴하고 실행이 전부"라는 격언이 있지만, 일리야 수츠케버는 현재 AI 업계가 "아이디어보다 회사가 더 많은 상황"이라고 진단하며 이를 정면으로 반박합니다. 지난 몇 년간은 '스케일링(Scaling)'이라는 단 하나의 아이디어가 모든 관심을 독차지했기 때문입니다.

그러나 그는 딥러닝 혁명의 시작인 알렉스넷은 고작 GPU 2개, 트랜스포머는 최대 64개로 개발되었음을 상기시킵니다. 즉, 혁신적인 개념을 검증하는 '연구(Research)' 단계에서는 막대한 자본보다 본질을 꿰뚫는 '탁월한 아이디어'가 훨씬 더 결정적인 변수라는 것입니다.

일리야는 이제 무조건적인 규모 경쟁을 넘어 다시 '연구의 시대'가 도래했다고 선언합니다. 그가 SSI를 설립한 이유도 제품 출시 경쟁보다는 새로운 '학습 레시피'를 찾는 순수 연구에 집중하기 위함입니다. 결국 미래의 초지능은 단순히 GPU를 많이 쌓은 곳이 아니라, 남들이 생각하지 못한 올바른 접근법을 먼저 찾아낸 곳에서 탄생할 것입니다.

57466fca2cc63.png

실시간 인기상품

지금 가장 많은 사람들이 보고 있는 상품이에요 👀