AI의 역사 완전 정복

튜링 테스트부터 ChatGPT·Claude까지 — 인공지능 70년의 대서사

🤖 AI 📅 2026년 2월 ⏱ 읽는 시간 약 10분

이 글에서 다루는 내용: AI의 정의 → 탄생 배경(1940년대) → 황금기(1950~60년대) → 두 번의 AI 겨울 → 머신러닝 부활 → 딥러닝 혁명 → 대형언어모델(LLM) → 생성형 AI 시대 → AI와 심리 분석 → 한국의 AI → AI의 미래

인공지능(AI)이란 무엇인가

인공지능(Artificial Intelligence, AI)은 인간의 지능적 행동을 기계로 구현하는 기술 및 학문입니다. 여기서 '지능적 행동'에는 언어 이해, 학습, 추론, 문제 해결, 창의성 발휘, 감정 인식 등이 포함됩니다.

AI를 한 문장으로 정의하기 어려운 이유는, 우리가 "지능"이 무엇인지 정확히 정의하지 못하기 때문입니다. 기계가 체스에서 세계 챔피언을 이기면 AI라고 했습니다. 그 일이 실현되자마자 사람들은 "그건 진짜 지능이 아니야, 단순 계산일 뿐"이라고 말했습니다. AI의 정의는 AI가 발전할수록 계속 후퇴하는 경향이 있습니다 — 이것을 AI 효과(AI effect)라고 합니다.

"기계가 지능적으로 행동할 수 있다면, 그것이 지능인지 아닌지는 중요하지 않다."
— 앨런 튜링 (Alan Turing)

AI의 탄생 배경 — 철학적 질문에서 수학으로 (1700~1940년대)

1637년 — 데카르트

"기계가 생각할 수 있는가"라는 질문의 기원

르네 데카르트(René Descartes)는 《방법서설》에서 동물은 정교한 기계에 불과하며, 인간만이 이성과 언어를 가진다고 주장했습니다. 그러나 역설적으로 이 주장이 "그렇다면 이성과 언어를 모방하는 기계를 만들 수 있지 않을까?"라는 질문의 씨앗이 되었습니다.

1843년 — 에이다 러브레이스

세계 최초의 프로그래머와 AI의 한계에 관한 통찰

찰스 배비지의 해석기관(Analytical Engine)을 위한 알고리즘을 작성한 에이다 러브레이스(Ada Lovelace)는 세계 최초의 프로그래머로 불립니다. 그녀는 동시에 기계의 한계를 명확히 했습니다: "해석기관은 스스로 어떤 것도 창조하지 못한다. 인간이 명령한 것만 수행할 수 있다."

이것이 훗날 "러브레이스 이의제기(Lovelace's Objection)"로 불리며 AI 철학의 핵심 논쟁이 됩니다 — 기계는 진정으로 새로운 것을 창조할 수 있는가?

1943년 — 맥컬록&피츠

인공 뉴런 모델 — AI의 수학적 토대

신경과학자 워런 맥컬록(Warren McCulloch)과 수학자 월터 피츠(Walter Pitts)는 1943년 논문에서 뇌의 뉴런을 수학적 논리 게이트로 모델화했습니다. 이것이 오늘날 딥러닝의 기본 단위인 인공 뉴런(artificial neuron)의 원형입니다. 1940년대에 이미 "뇌를 수학적으로 구현할 수 있다"는 아이디어가 제시된 것입니다.

AI의 탄생과 황금기 (1950~1970년대)

1950년 — 앨런 튜링

튜링 테스트 — "기계가 생각할 수 있는가?"

영국의 수학자 앨런 튜링(Alan Turing, 1912~1954)은 1950년 논문 "Computing Machinery and Intelligence"에서 "기계가 생각할 수 있는가?"라는 질문을 제기하고, 이를 검증하는 방법으로 모방 게임(imitation game)을 제안했습니다. 이것이 바로 그 유명한 튜링 테스트(Turing Test)입니다.

튜링 테스트의 내용: 심사자가 문자로만 대화할 때 인간과 기계를 구분하지 못한다면, 그 기계는 "생각한다"고 볼 수 있습니다. 이 단순하지만 도발적인 기준은 오늘날까지도 AI 연구의 철학적 기준점으로 남아 있습니다. 튜링은 2000년까지 기계가 이 테스트를 통과할 것이라고 예측했습니다.

튜링은 불행히도 자신의 예측이 실현되는 것을 보지 못했습니다. 동성애를 이유로 화학적 거세를 선고받은 그는 1954년 시안화물 중독으로 사망했습니다(공식적으로 자살, 일부는 사고사 주장). 2013년 영국 왕실은 사후 특별사면을 발표했습니다.

1956년 — 다트머스 회의

'인공지능'이라는 이름의 탄생

1956년 여름, 미국 다트머스 대학에서 존 매카시(John McCarthy), 마빈 민스키(Marvin Minsky), 클로드 섀넌(Claude Shannon) 등 당대 최고의 과학자들이 모였습니다. 이 회의에서 처음으로 "인공지능(Artificial Intelligence)"이라는 용어가 공식적으로 사용되었습니다.

회의의 제안서에는 이렇게 쓰여 있었습니다: "학습의 모든 측면, 그리고 지능의 모든 특징은 원칙적으로 기계가 시뮬레이션할 수 있도록 정밀하게 기술될 수 있다." 이 낙관적 선언은 이후 수십 년간 AI 연구의 방향을 제시했습니다.

1957~1969년 — 황금기

체커 챔피언, 범용 문제풀이기, 그리고 과도한 낙관론

이 시기에 AI는 놀라운 성과를 거두었습니다. 아서 새뮤얼(Arthur Samuel)의 체커 프로그램(1957)은 수천 번의 대국으로 자기 자신을 학습해 아마추어 수준의 실력에 도달했습니다 — 이것이 최초의 머신러닝(machine learning) 프로그램입니다. 뉴웰과 사이먼의 범용 문제풀이기(GPS, 1957)는 다양한 수학 정리를 증명할 수 있었습니다.

성과에 도취한 연구자들은 과도한 예측을 쏟아냈습니다. 1958년 마빈 민스키는 "3~8년 안에 기계가 평균적인 인간의 지능을 갖출 것"이라고 예측했습니다. 존 매카시는 1960년 "컴퓨터 10년이면 인간의 모든 지적 작업을 수행할 것"이라고 했습니다. 이 낙관론이 곧 첫 번째 AI 겨울을 불러왔습니다.

첫 번째 AI 겨울 (1974~1980년)

1969~1974년

한계의 발견 — 라이트힐 보고서

1969년 민스키와 페퍼트는 《퍼셉트론(Perceptrons)》에서 당시 신경망 모델의 치명적 한계를 수학적으로 증명했습니다. 가장 간단한 XOR 문제조차 풀지 못한다는 것이었습니다. 이 발견은 신경망 연구를 10여 년간 암흑기로 몰아넣었습니다.

1973년 영국 수학자 제임스 라이트힐(James Lighthill)은 영국 과학연구위원회에 AI 연구의 현황을 평가하는 보고서를 제출했습니다. 그는 AI가 지금까지 "스스로 자랑해 온 성과 중 어떤 것도 주요 영향력을 갖지 못했다"고 혹평했습니다. 이 라이트힐 보고서는 영국 정부의 AI 연구 자금 지원을 대폭 삭감하는 계기가 되었고, 첫 번째 AI 겨울이 시작되었습니다.

전문가 시스템과 두 번째 부활·겨울 (1980~1993년)

1980년대 — 전문가 시스템

지식 기반 AI의 상업화

1980년대에 AI는 전문가 시스템(Expert System)이라는 형태로 부활했습니다. 전문가 시스템은 특정 분야 전문가의 지식을 규칙(rule) 형태로 코딩해 넣어, 의사결정을 자동화하는 시스템입니다. MYCIN(감염증 진단), DENDRAL(화학 구조 분석), XCON(컴퓨터 구성 설계) 등이 실제 비즈니스에 적용되면서 AI 산업이 급성장했습니다.

1985년까지 기업들은 전문가 시스템에 매년 10억 달러 이상을 투자했습니다. AI 기업들은 폭발적으로 성장했습니다. 그러나 이 시스템들은 치명적 한계가 있었습니다 — 유지보수가 극도로 어렵고, 조금만 상황이 바뀌어도 작동하지 않으며, 규칙 외의 상황을 처리하지 못했습니다.

1987~1993년 — 두 번째 AI 겨울

전문가 시스템의 붕괴

1987년 애플과 IBM이 저렴하고 강력한 데스크톱 컴퓨터를 출시하면서, 비싸고 전용 하드웨어가 필요한 AI 시스템들의 시장이 붕괴했습니다. 전문가 시스템의 높은 유지보수 비용, 제한된 유연성, 과장된 초기 약속의 실패가 겹치면서 두 번째 AI 겨울이 찾아왔습니다.

머신러닝의 부활과 딥러닝 혁명 (1990~2012년)

1997년

딥블루, 체스 세계 챔피언을 꺾다

1997년 IBM의 딥블루(Deep Blue)가 체스 세계 챔피언 가리 카스파로프를 2승 3무 1패로 꺾었습니다. 이 사건은 전 세계를 충격에 빠뜨렸습니다. 그러나 딥블루는 초당 2억 개의 위치를 계산하는 무식한 방법으로 이긴 것이었습니다 — "진짜 이해"와는 거리가 멀었습니다.

2006년 — 제프리 힌튼

딥러닝(Deep Learning)의 르네상스

캐나다 토론토 대학의 제프리 힌튼(Geoffrey Hinton)은 2006년 딥러닝이 왜 작동하는지, 그리고 어떻게 효과적으로 학습시킬 수 있는지를 보여주는 획기적인 논문을 발표했습니다. 그의 연구는 1969년 이후 거의 포기되었던 다층 신경망(deep neural network) 연구를 부활시켰습니다.

딥러닝의 핵심은 여러 층(layer)의 인공 뉴런을 쌓아 데이터에서 스스로 특징(feature)을 학습하게 하는 것입니다. 인간이 "이런 특징을 보아라"라고 알려주지 않아도, 충분한 데이터와 계산력이 있으면 기계가 스스로 패턴을 발견합니다. 이것이 이전 방식과의 근본적인 차이입니다.

2012년 — AlexNet

이미지 인식의 혁명

2012년 ImageNet 경진대회에서 힌튼의 제자 알렉스 크리제프스키(Alex Krizhevsky)가 개발한 AlexNet은 다른 팀들보다 10%p 이상 높은 정확도로 우승했습니다. 이 격차는 너무 커서 많은 연구자들이 처음에는 결과를 믿지 못했습니다.

AlexNet의 성공은 딥러닝이 단순한 학술 실험이 아니라 실제로 작동하는 기술임을 증명했습니다. 구글, 페이스북, 아마존 등 빅테크 기업들이 앞다투어 딥러닝 연구자들을 영입하기 시작했고, 제프리 힌튼은 구글에 영입되었습니다(2013년).

AI의 시대 — 바둑, 음성 인식, 그리고 언어 모델 (2014~2022년)

2016년 — AlphaGo

바둑의 정복 — "AI는 아직 바둑은 못 한다"의 종말

구글 딥마인드(DeepMind)의 AlphaGo가 2016년 3월 서울에서 바둑 세계 최강자 이세돌 9단을 4승 1패로 꺾었습니다. 바둑은 체스와 달리 경우의 수가 10170에 달해 "기계는 절대 인간을 이기지 못할 것"이라고 여겨졌습니다. 이 패배는 전 세계 AI 연구계와 일반 대중에게 AI의 잠재력을 강렬하게 각인시켰습니다.

AlphaGo는 강화학습(reinforcement learning)과 딥러닝을 결합한 새로운 방식을 사용했습니다. 더 충격적인 것은 2017년 나온 AlphaGo Zero가 인간의 기보를 전혀 학습하지 않고 자기 자신과의 대국만으로 3일 만에 AlphaGo를 100-0으로 꺾었다는 것입니다.

2017년 — 트랜스포머

"Attention Is All You Need" — 현대 AI의 기반

구글 연구팀이 발표한 논문 "Attention Is All You Need"트랜스포머(Transformer) 아키텍처를 제시했습니다. 이 논문은 현대 AI 역사에서 가장 중요한 논문 중 하나로 꼽힙니다.

트랜스포머는 문장에서 각 단어가 다른 단어들과 얼마나 관련 있는지를 계산하는 자기-주의(self-attention) 메커니즘을 핵심으로 합니다. "나는 은행에 갔다"에서 '은행'이 금융 기관인지 강변인지는 문맥을 통해 이해해야 합니다 — 트랜스포머는 이런 맥락적 이해를 잘 합니다. 오늘날의 GPT, Claude, Gemini 등 모든 대형언어모델이 이 트랜스포머 구조를 기반으로 합니다.

2020년 — GPT-3

1,750억 개 매개변수의 충격

OpenAI가 발표한 GPT-3(Generative Pre-trained Transformer 3)는 1,750억 개의 매개변수(parameter)를 가진 당시 최대 규모의 언어모델이었습니다. GPT-3는 코드 작성, 번역, 요약, 창의적 글쓰기, 수학 문제 풀기 등 다양한 작업을 인상적으로 수행했고, 파인튜닝 없이 몇 가지 예시만 보여줘도 새로운 작업을 수행하는 퓨샷 러닝(few-shot learning)을 선보였습니다.

2022년 11월 — ChatGPT

대중화의 문이 열리다

2022년 11월 30일 OpenAI가 출시한 ChatGPT는 출시 5일 만에 100만 명, 2개월 만에 1억 명의 사용자를 돌파하며 역사상 가장 빠르게 성장한 소비자 서비스가 되었습니다. 이전의 AI 모델들이 개발자나 연구자를 위한 도구였다면, ChatGPT는 누구나 자연어로 대화할 수 있는 인터페이스를 제공했습니다.

ChatGPT는 RLHF(Reinforcement Learning from Human Feedback) 기법으로 훈련되었습니다 — 인간 평가자들이 AI의 응답을 평가하고, 그 평가로 AI를 추가 훈련시키는 방식입니다. 이 방법이 AI를 훨씬 자연스럽고 도움이 되도록 만들었습니다.

생성형 AI 시대 (2023년~현재)

2023년 — 경쟁의 시작

구글·메타·앤트로픽·네이버의 참전

ChatGPT의 폭발적 성공 이후 AI 경쟁이 본격화되었습니다. 구글은 Bard(후에 Gemini로 개명), 메타는 오픈소스 모델 LLaMA 시리즈, Anthropic은 Claude를 출시했습니다. 한국에서는 네이버가 HyperCLOVA X를 발표했습니다.

2023년은 또한 이미지 생성 AI(Midjourney, DALL-E 3, Stable Diffusion)와 음악 생성 AI가 일반인에게 대중화된 해이기도 합니다. 텍스트를 입력하면 전문 작가 수준의 이미지가 생성되는 기술은 예술, 디자인, 광고 산업에 근본적인 변화를 가져왔습니다.

2024~2025년 — 추론 능력의 도약

OpenAI o1, Claude 3, Gemini Ultra — 추론 AI의 등장

2024년부터 단순한 언어 생성을 넘어 복잡한 수학 문제, 코딩, 과학적 추론을 수행하는 모델들이 등장했습니다. OpenAI의 o1 시리즈는 답변 전에 내부적으로 단계별 추론을 수행하는 '사고의 사슬(chain of thought)' 방식으로 수학 올림피아드 문제를 인간 상위권 수준으로 풀어냈습니다.

이 시기에 AI는 단순 텍스트를 넘어 이미지, 오디오, 영상을 동시에 처리하는 멀티모달(multimodal) 능력을 갖추기 시작했습니다. 사진을 보고 설명하고, 음성을 듣고 감정을 분석하며, 문서를 읽고 요약하는 것을 하나의 모델이 수행합니다.

2025~현재

AI 에이전트 — 스스로 행동하는 AI

최신 AI 연구의 화두는 AI 에이전트(AI Agent)입니다. 단순히 질문에 답하는 것이 아니라, 목표를 설정하고 스스로 도구를 사용해 다단계 작업을 수행하는 AI입니다. 인터넷을 검색하고, 코드를 작성하고, 이메일을 보내고, 서비스를 예약하는 등 인간의 실제 업무를 자율적으로 처리합니다.

한국의 AI 발전

한국은 AI 분야에서 독자적인 발전을 이루어왔습니다. 2021년 네이버가 발표한 HyperCLOVA는 GPT-3보다 한국어 데이터를 600배 이상 학습한 한국어 특화 대형언어모델입니다. 2023년 출시된 HyperCLOVA X는 한국어 이해와 생성에서 글로벌 모델들과 경쟁력 있는 성능을 보여주었습니다.

카카오의 KoGPT, LG AI Research의 EXAONE, SK텔레콤의 A. 등 국내 대기업들도 자체 AI 모델 개발에 뛰어들었습니다. 정부 차원에서도 국가 AI 전략을 수립하고, 디지털·AI 기술 개발에 대규모 투자를 진행하고 있습니다. 특히 반도체 분야에서 삼성과 SK하이닉스의 HBM(고대역폭 메모리)은 AI 학습에 필수적인 부품으로, 글로벌 AI 인프라의 핵심이 되었습니다.

AI와 심리 분석 — 이 게임에서의 AI

AI가 심리 분석에 활용되기 시작한 것은 자연어처리(NLP) 기술의 발전 덕분입니다. 텍스트에서 감정을 추출하고(감성 분석, sentiment analysis), 언어 패턴에서 성격 특성을 추정하고(언어 기반 성격 예측), 선택 데이터에서 행동 패턴을 발견하는 것이 가능해졌습니다.

AI 무의식 밸런스 게임에서 사용되는 분석은 이런 최신 기술의 간략화된 버전입니다. 10개의 이분법적 선택에서 낭만형·실용형·통제형·도피형의 점수를 계산하는 규칙 기반 시스템은, 더 큰 규모의 AI가 텍스트와 행동 데이터에서 성격 패턴을 추출하는 것의 축소판이라고 볼 수 있습니다.

AI의 미래와 과제

기술적 도전

윤리적 과제

🤖 AI와 무의식의 만남: 이 게임은 AI를 활용해 당신의 무의식을 분석합니다. AI의 역사를 이해했다면, 이제 AI가 당신의 내면을 어떻게 읽는지 직접 경험해보세요.

AI로 내 무의식 분석하기 → 무의식의 역사 읽기
← 이전 아티클 무의식의 역사 완전 정복