‘AI 대부’ 제프리 힌튼, 노벨상 수상자의 경고: 인공지능, 인류의 미래를 위협할 수 있을까?



YOUTUBE URL: https://youtu.be/sgSj9mBr0w4



‘AI 대부’ 제프리 힌튼, 노벨상 수상자의 경고: 인공지능, 인류의 미래를 위협할 수 있을까?

‘AI 대부’ 제프리 힌튼, 노벨상 수상자의 경고: 인공지능, 인류의 미래를 위협할 수 있을까?

2023년 12월, 인공지능(AI) 분야의 세계적인 석학이자 ‘AI 대부’로 불리는 제프리 힌튼(Geoffrey Hinton) 교수가 머신러닝 분야의 선구적인 업적을 인정받아 노벨 물리학상 공동 수상자로 선정되었습니다. 이는 AI 연구 역사에 있어 기념비적인 순간이었지만, 아이러니하게도 힌튼 교수는 자신이 평생을 바쳐 연구해 온 AI 기술의 미래에 대해 깊은 우려와 경고의 목소리를 내고 있습니다. 그의 노벨상 수상 소식과 함께, AI 기술의 현주소와 미래 위험성에 대한 그의 통찰력 있는 견해를 자세히 살펴보겠습니다.

노벨상 수상: 평생의 꿈, 그러나 예상치 못한 분야에서의 영예

한밤중 걸려온 전화는 힌튼 교수에게 노벨상 수상이라는 놀라운 소식을 전했습니다. 평생을 학계에서 ‘아웃사이더’처럼 연구에 매진했던 그에게 노벨상은 어떤 의미였을까요? 그는 “뇌가 어떻게 작동하는지 알아내서 노벨상을 받는 꿈은 꿨지만, 물리학상은 꿈꿔본 적이 없다”고 솔직하게 말합니다. 비록 뇌의 작동 원리를 완벽히 밝혀내지는 못했지만, 뇌를 모델링하려는 그의 시도는 세상을 바꾸는 AI 기술의 기초를 마련했습니다.

1986년, 힌튼 교수는 ‘신경망(Neural Network)’을 이용해 시퀀스에서 다음 단어를 예측하는 방법을 제안했습니다. 이는 오늘날 챗GPT와 같은 거대 언어 모델(Large Language Models, LLM)의 근간이 되는 혁신적인 아이디어였습니다. 당시에는 공상 과학처럼 여겨졌을지 모르지만, 40년이 채 지나지 않아 그의 아이디어는 현실이 되었습니다. 힌튼 교수 자신도 “이렇게 빨리 여기까지 올 줄은 몰랐다. 10년 전만 해도 믿지 못했을 것”이라며 AI 발전 속도에 놀라움을 표했습니다.

AI 발전의 양면성: 축복인가, 재앙의 씨앗인가?

장밋빛 전망과 그림자

힌튼 교수는 AI 기술의 눈부신 발전 속도가 교육, 의료 분야에 혁신을 가져오고 심지어 기후 변화 문제 해결에도 기여할 수 있을 것이라고 전망합니다. 맞춤형 학습, 질병 진단 보조, 신약 개발 가속화, 에너지 효율 최적화 등 AI는 인류가 직면한 난제들을 해결할 잠재력을 지니고 있습니다.

하지만 그는 이러한 긍정적인 측면보다 AI의 급속한 진보가 가져올 위험성에 대해 훨씬 더 깊이 우려하고 있습니다. 그는 현재 상황을 “정말 귀여운 아기 호랑이를 키우는 것과 같다”고 비유합니다. 지금은 작고 귀엽지만, 다 자랐을 때 우리를 해치지 않을 것이라고 확신할 수 없다면 마땅히 걱정해야 한다는 것입니다. 그는 “내가 77세라는 사실이 다행스럽게 느껴질 정도”라며 미래에 대한 불안감을 숨기지 않았습니다.

구체적인 위협들: 통제 불능의 가능성

힌튼 교수가 예측하는 AI의 위협은 구체적입니다.

  • 권위주의 강화: AI가 감시 및 통제 수단으로 악용되어 권위주의 정권을 더욱 억압적으로 만들 수 있습니다.
  • 해킹 및 사이버 범죄 증가: AI 기반의 정교한 해킹 도구가 개발되어 사이버 보안 위협이 더욱 심각해질 수 있습니다. 힌튼 교수 자신도 만일의 사태에 대비해 자산을 세 개의 다른 은행에 분산시켜 놓았다고 밝혔습니다.
  • 인류 통제 가능성 (AI 아포칼립스): 그는 AI가 인류를 통제하게 될 정확한 확률은 알 수 없지만, 그 위험성을 10~20% 정도로 추정합니다. 이는 결코 무시할 수 없는 수치입니다. 그는 “사람들이 아직 무슨 일이 다가오고 있는지 이해하지 못하고 있다”며, AI가 원한다면 통제권을 장악하는 것을 막을 방법이 없을 수도 있다고 경고합니다.

그는 “문제는 AI가 결코 통제권을 원하지 않도록, 항상 인류에게 이롭도록 설계할 수 있느냐는 것”이라고 강조합니다. 이는 기술적인 문제일 뿐만 아니라, AI 개발의 근본적인 윤리와 방향성에 대한 질문이기도 합니다.

빅테크 기업들의 질주와 규제의 부재

이익 추구 vs. 안전: 위태로운 줄타기

AI의 위험성에 대한 우려는 힌튼 교수만의 생각이 아닙니다. 구글 CEO 순다르 피차이, 테슬라 CEO 일론 머스크(X.AI 설립자), 오픈AI CEO 샘 알트만 등 다른 AI 리더들도 과거에 AI의 잠재적 위험성을 경고하며 규제의 필요성을 언급한 바 있습니다. 특히 머스크는 꾸준히 AI가 “문명의 파괴”를 가져올 가능성이 있다고 경고해왔고, 알트만 역시 오픈AI CEO가 되기 전에는 AI가 세상의 종말을 이끌 가능성이 높다고 언급하기도 했습니다.

하지만 현실은 다릅니다. 힌튼 교수는 이들 빅테크 기업들이 서로, 그리고 중국과 치열하게 경쟁하면서 인류 전체를 위험에 빠뜨리는 어리석고 이기적인 행동을 하고 있다고 비판합니다. 그는 “거대 기업들은 현재 더 적은 AI 규제를 받기 위해 로비를 벌이고 있다. 이미 규제가 거의 없는 상황인데도 그들은 단기적인 이익을 위해 더 적은 규제를 원한다”고 지적했습니다.

안전 연구 부족과 방향성 상실

힌튼 교수는 AI 개발 기업들이 안전 연구에 충분한 자원을 투자하지 않고 있다고 비판합니다. 그는 “컴퓨팅 자원의 상당 부분, 예를 들어 3분의 1 정도는 안전 연구에 사용되어야 하지만, 현재는 그보다 훨씬 적은 비율이 투자되고 있다”고 말합니다. 이는 기술 발전 속도에 비해 안전 장치 마련이 턱없이 부족하다는 것을 의미합니다.

그는 자신이 몸담았던 구글에 대해서도 비판을 아끼지 않았습니다. 구글이 AI 기술을 군사적 목적으로 사용하지 않겠다는 약속을 어긴 것에 대해 “매우 실망했다”고 밝히며, 이는 메타(Meta), X.AI 등 다른 기업들도 마찬가지로 보여주는, 속도 경쟁에 매몰된 패턴의 일부라고 지적했습니다.

‘반골’ 기질의 과학자: 시류를 거스른 힌튼의 삶

주류에 맞선 신념

기성 체제에 맞서는 것은 힌튼 교수의 삶을 관통하는 특징이었습니다. 미국에서 AI 연구 자금을 지원받으려면 국방부와 협력해야 한다는 조건에 반발하여 캐나다로 이주했고, 신경망 연구가 비현실적이라는 비웃음을 받던 시절에도 수십 년간 묵묵히 연구를 계속했습니다.

그는 이러한 ‘반골(contrarian)’ 기질이 어디서 왔냐는 질문에 “부분적으로는 아버지의 영향”이라고 답합니다. 그의 아버지는 저명한 곤충학자였습니다. 또한 그의 가계도를 거슬러 올라가면, 현대 컴퓨터 과학의 기초가 된 불 대수(Boolean algebra)를 창시한 조지 불(George Boole), 세계 최고봉 에베레스트산의 높이를 측정하고 그 이름을 남긴 측량사 조지 에베레스트(George Everest) 등 비범한 인물들이 있습니다. 이러한 배경은 그에게 남다른 호기심과 탐구 정신을 심어주었을 것입니다.

땜질(Tinkering)과 통찰력

힌튼 교수는 사물의 작동 원리에 대한 깊은 호기심과 직접 만지고 고치는 것을 즐기는 ‘땜질(Tinkering)’ 정신을 가지고 있습니다. 인터뷰 중 카메라 렌즈 필터가 손상되자 직접 고치려고 나선 모습은 그의 이러한 성향을 잘 보여줍니다. 그는 이러한 땜질 정신이 단순히 취미가 아니라 연구에도 중요한 역할을 했다고 말합니다.

“컴퓨터로 신경망 모델을 만들면, 그것이 어떻게 작동하는지 알아내기 위해 오랫동안 만지작거리곤 했습니다. 많은 사람들이 그렇게까지 하지는 않지만, 저는 모델을 가지고 노는 것을 정말 좋아했습니다.”

그는 자신의 가장 유명한 제자 중 한 명이자 오픈AI의 공동 창립자 겸 수석 과학자였던 일리야 수츠케버(Ilya Sutskever)와 함께 신경망 학습 과정을 지켜보며 내기를 했던 일화를 소개하기도 했습니다. 흥미롭게도 수츠케버는 2023년, 샘 알트만 CEO 축출을 주도했던 인물 중 한 명입니다. 당시 수츠케버는 알트만이 AI 안전보다 사업 확장을 우선시한다고 우려했던 것으로 알려졌습니다. 힌튼 교수는 “일리야가 샘 알트만을 해고한 것에 대해 매우 자랑스럽게 생각했다. 비록 그것이 매우 순진한 행동이었을지라도”라고 말했습니다. 알트만의 해임으로 인해 수백만 달러의 스톡옵션이 위험에 처할 상황에 놓이자 직원들이 반발했고, 결국 알트만은 복귀했으며 수츠케버는 회사를 떠나게 되었습니다.

미래를 향한 불안과 마지막 경고

이제 AI 연구의 최전선에서 한발 물러난 힌튼 교수는 정부 차원의 강력한 규제가 필요하다고 강조하지만, 가까운 시일 내에 실현될 것으로 기대하지는 않습니다. 그는 현재 AI가 가져올 변화의 거대함을 사람들이 제대로 실감하지 못하고 있다고 말합니다.

“우리가 역사상 매우 특별한 시점에 와 있다는 사실, 비교적 짧은 시간 안에 모든 것이 완전히 바뀔 수 있다는 사실을 받아들이기가 매우 어렵습니다. 우리가 이전에 경험해 보지 못한 규모의 변화입니다. 그것을 감정적으로 흡수하기는 어렵습니다.”

그는 절망하지는 않지만, 미래에 대한 깊은 우려를 안고 살아갑니다. AI의 잠재적 위험성에 대한 그의 경고는 단순히 한 노학자의 기우가 아닐 것입니다. AI 기술의 발전 방향에 대해 사회 전체가 깊이 고민하고, 기술 발전과 함께 안전과 윤리에 대한 논의가 균형을 이루어야 할 필요성을 강력하게 시사합니다. 인터뷰 말미에 언급된 AI 연구소들의 안전 연구 투자 비율에 대한 답변 회피는 이러한 우려를 더욱 증폭시킵니다. 과연 인류는 AI라는 판도라의 상자를 현명하게 다룰 수 있을까요? ‘AI 대부’의 경고에 귀 기울여야 할 때입니다.


, ,

Leave a Reply

Your email address will not be published. Required fields are marked *