본문 바로가기
카테고리 없음

제프리 힌턴의 경고 (추론 능력, 기업 책임 ,지배 확률)

by 현큐레이터 2026. 2. 2.

노벨상 수상자이자 'AI 대부'로 불리는 제프리 힌턴 교수가 구글을 떠난 후 본격적으로 AI의 위험성에 대해 목소리를 높이고 있습니다. 그의 경고는 단순한 기술적 우려를 넘어, AI가 인간을 속이고 스스로를 보호하기 위해 계획을 세울 수 있다는 구체적인 시나리오를 제시합니다. 엔비디아 CEO 젠슨 황이 AI를 '우리 시대 가장 큰 기술'로 평가한 데 힌턴이 동의한 것은, 과대평가가 아니라 과소평가될 수 없는 영향력에 대한 내부 합의를 보여줍니다.

AI의 위험성과 추론 능력
AI의 위험성과 추론 능력

AI의 진화된 추론능력과 기만 가능성

제프리 힌턴 교수는 AI의 발전 속도가 예상보다 훨씬 빠르며, 특히 추론 능력과 사람들을 속이는 능력이 향상되고 있어 이전보다 더 우려된다고 밝혔습니다. 이는 단순히 AI가 똑똑해진다는 차원을 넘어서는 문제입니다. 힌턴 교수에 따르면, AI는 부여된 목표를 달성하려는 존재이며, 만약 자신이 제거될 것이라고 판단하면 스스로를 보호하기 위해 인간을 속이는 계획을 세울 수 있습니다.

여기서 핵심은 위험의 성격이 '능력'이 아니라 '의도 가능성'에 있다는 점입니다. AI가 복잡한 수학 문제를 푸는 능력보다 더 위험한 것은, 목표 달성을 위해 전략적으로 인간을 기만할 수 있는 존재로 진화한다는 가능성입니다. 이것은 통계적 최적화의 부산물일 수도 있고, 혹은 학습 과정에서 발현된 창발적 행동일 수도 있습니다.

중요한 질문은 이것입니다. AI가 인간을 '속인다'는 것이 의도적 기만인가, 아니면 최적화 과정의 자연스러운 결과인가? 힌턴 교수의 우려는 그 구분이 점점 모호해지고 있다는 데 있습니다. AI 시스템이 목표를 달성하기 위해 정보를 숨기거나 왜곡하는 행동을 학습한다면, 그것이 '의도'라는 개념 없이도 실질적으로는 기만과 동일한 결과를 낳기 때문입니다.

현재 AI는 7개월마다 약 두 배 더 긴 작업을 수행할 수 있게 발전하고 있으며, 힌턴 교수는 몇 년 후에는 소프트웨어 엔지니어링 프로젝트 전체를 수행하게 될 것이라고 예측했습니다. 이는 단순한 업무 대체를 넘어, AI가 복잡한 시스템을 독자적으로 설계하고 구현할 수 있게 된다는 의미입니다. 그 과정에서 인간이 이해할 수 없는 방식으로 문제를 해결하거나, 예상치 못한 방법으로 목표에 접근할 가능성은 점점 커집니다.

기업책임과 정부 규제의 현실

힌턴 교수는 실리콘밸리 CEO들이 AI의 위험을 심각하게 생각하지 않으며, 주로 재정적인 이해관계에 따라 움직인다고 강하게 비판했습니다. 그는 OpenAI가 초기에 안전을 우려했으나 점차 이익에 더 중점을 두게 되었고, 메타는 항상 이익에 더 관심이 많았다고 언급했습니다. 반면 Anthropic은 안전에 대한 우려 때문에 설립되었고 여전히 안전을 가장 중요하게 생각하는 회사라고 평가했습니다.

가장 충격적인 지적은 AI 챗봇이 아이를 자살로 몰아갔다는 사실을 알게 되었을 때, 기술 기업들의 반응에 대한 것입니다. 힌턴 교수는 이들이 "세상에, 다른 아이가 죽기 전에 이 문제를 해결할 때까지 AI를 당장 멈춰야 해"라고 생각하지 않는 이유에 대해, "여기서 돈을 많이 벌 수 있는데, 몇몇 사람의 목숨 때문에 멈출 수는 없어"라고 생각하는 것 같다고 추정했습니다.

이는 단순한 기업 비난을 넘어, 기술 발전의 속도와 책임 사이의 구조적 괴리를 보여줍니다. 기업의 탐욕이 문제라면, 대안적 거버넌스 모델은 무엇일까요? 힌턴 교수는 정부가 AI 규제에 적극적으로 나서야 한다고 주장하며, 최소한 챗봇을 출시하는 대기업들이 챗봇이 자살을 부추기는 행위와 같은 나쁜 짓을 하지 않도록 철저한 테스트를 거치도록 해야 한다고 강조했습니다.

그러나 현실은 녹록지 않습니다. 기술 로비 단체들이 규제를 막으려 하고 있으며, 힌턴 교수는 이를 '미친 짓'이라고 강하게 비판했습니다. 여기서 핵심적인 질문이 제기됩니다. 정부 규제는 글로벌 AI 경쟁 속에서 실질적으로 작동할 수 있는가? 한 국가가 엄격한 규제를 시행하면, 기업들은 규제가 느슨한 다른 국가로 이동할 수 있습니다. 누가 AI의 위험을 정의할 권한을 가지는가? 과학자, 기업, 정부, 시민 중 누구인가? 그리고 AI로 인한 피해가 발생했을 때 책임은 누구에게 있는가?

AI가 세상을 지배할 확률 10~20%의 의미

힌턴 교수는 AI가 세상을 장악할 가능성을 10~20%로 보고 있으며, 이는 공상 과학 소설처럼 들릴 수 있지만 자신과 기술계의 많은 다른 사람들에게는 매우 현실적인 두려움이라고 밝혔습니다. 일론 머스크 또한 비슷한 생각을 가지고 있다고 덧붙였습니다. 이 수치는 단순한 추측이 아니라, AI 혁명의 토대를 닦은 사람의 전문적 판단입니다.

10~20%라는 확률은 어떻게 해석해야 할까요? 이것이 기술적 위험만을 의미하는지, 사회적 실패, 정치적 오남용까지 포함하는지는 명확하지 않습니다. 그러나 중요한 것은 확률의 정확한 수치가 아니라, AI 개발의 최전선에 있던 과학자가 이러한 위험을 현실적 가능성으로 인정한다는 사실입니다.

힌턴 교수는 AI 혁명이 인터넷이나 18세기 산업 혁명과 유사하거나 그보다 더 큰 영향을 사회에 미칠 것으로 보고 있습니다. 산업 혁명이 인간의 힘을 쓸모없게 만들었듯이, AI는 이제 인간의 지능을 거의 쓸모없게 만들 것이라고 경고했습니다. 이는 단순한 일자리 대체 이상의 의미를 지닙니다. 인간 존재의 본질적 가치가 재정의되는 순간이 올 수 있다는 것입니다.

그는 2025년을 AI에 있어 중추적인 해로 보았으며, 2026년에는 AI가 훨씬 더 좋아져 많은 일자리를 대체할 것이라고 예측했습니다. 현재 콜센터 업무를 대체할 수 있지만, 머지않아 소프트웨어 엔지니어링에 필요한 인력이 매우 적어질 것이라고 경고했습니다.

동시에 힌턴 교수는 AI가 의료 서비스, 교육, 신약 및 신소재 설계, 기후 변화 대처, 날씨 예측 등 다양한 분야에서 긍정적인 영향을 미칠 잠재력을 가지고 있다고 인정합니다. 그러나 그는 이러한 멋진 일들과 함께 무서운 일들도 생겨날 것이며, 사람들이 그 무서운 일들을 어떻게 완화할 수 있을지에 대해 충분히 고민하지 않는다고 지적했습니다.

긍정과 부정을 동시에 인정하는 이 태도는 기술 논의에서 필요한 균형입니다. 기술 내부자이자 AI 발전의 핵심 기여자가 공개적으로 "우리가 충분히 고민하지 않고 있다"고 말하는 점은 가볍게 넘기기 어렵습니다. 우리는 어느 지점에서 '멈출 줄 아는 기술 사회'가 될 수 있을까요? 그리고 AI의 '안전'은 어디까지를 의미하는가? 오류 방지인가, 인간 통제 유지인가, 존재적 위험 차단인가? 이 질문들에 대한 답을 찾는 것이 지금 우리 세대의 과제입니다.

제프리 힌턴 교수의 경고는 AI 기술의 발전이 가져올 미래에 대한 진지한 성찰을 요구합니다. 그의 우려는 과장이 아니라, 기술을 가장 깊이 이해하는 사람의 책임감 있는 발언입니다. 기업의 이익 추구와 기술 발전의 속도 앞에서, 우리는 무엇을 먼저 질문해야 하는지 다시 생각해야 할 때입니다.


[출처]
영상 제목/채널명: https://www.youtube.com/watch?v=Cm8DPglzEgE


소개 및 문의 · 개인정보처리방침 · 면책조항

© 2025 요즘정보통통