SDF 다이어리

Ep.159

Ep.159AI의 ‘아이폰 모멘트’

2023.07.26
안녕하세요? ‘아이폰 모멘트’라는 말 들어보셨나요? 2007년 1월 9일 애플의 공동창업자 스티브 잡스가 샌프란시스코에서 열린 맥월드 콘퍼런스에서 청바지에 검은색 목폴라를 입고 나와 아이폰을 처음 선보인 장면, 기억하시는 분 계실 겁니다. 기존의 복잡하고 사용하기 어려운 스마트폰의 사용자 경험을 획기적으로 개선해, 전에 없던 디바이스를 소개하면서 “애플은 오늘 휴대전화를 재창조한다”라고 강조했는데요.

▶ 2007년 1월 9일 애플 공동창업자 스티브 잡스가 아이폰 1을 선보인 맥월드 콘퍼런스 모습

무선통신과 컴퓨터 메모리 칩의 크기가 작아지면서 하나의 디바이스에 들어가는 ‘스마트폰’을 처음 내놓은 것은 애플이 아니었습니다. 1992년 IBM이었습니다. 하지만 15년 뒤인 2007년, 스티브 잡스가 아이폰을 내놓았을 때가 되어서야 대중들은 ‘휴대전화가 컴퓨터가 될 수도 있는 것이구나’를 드디어 깨닫게 됩니다. 그리고 시장도 ‘PC(개인용 컴퓨터) 기반’에서 ‘모바일 기반’으로 바뀌게 됩니다. 그 순간을 소위 ‘아이폰 모멘트’라고 부르는데요.

생성형 AI[1]를 가능하게 한 혁신의 돌파구, 트랜스포머(transformer)[2]의 콘셉트도 개발자들 사이에서는 2017년에 이미 공개돼 있었습니다. 하지만 지난해 11월, 오픈AI가 챗GPT 3.5를 선보였을 때, 대중들은 그때서야 비로소 ‘인공지능이 이런 것이었어?’ 하고 인지하게 되면서 큰 관심을 갖게 됐다는 면에서 전문가들은 ‘챗GPT 3.5의 등장’을 AI의 ‘아이폰 모멘트’라고 부릅니다.
[1] 생성형 AI(generative AI)는 텍스트, 오디오, 이미지 등의 기존 콘텐츠를 데이터나 패턴으로 활용하여 유사한 콘텐츠를 새로 만들어내는 인공지능 기술을 의미한다.
[2] 트랜스포머는 딥러닝 모델의 하나로 주어진 문장을 보고 다음 단어가 뭐가 올지 확률적으로 예측해 내는 모델이다.

▶ 2022년 11월 선보인 생성형 AI ‘챗GTP 3.5’

우리가 ‘아이폰 모멘트’에 관심을 가지는 이유는 바로 그 아이폰 모멘트에서 시장의 패러다임이 바뀌고 있기 때문입니다. 그리고 시장이 바뀌면 관련된 윤리와 규제, 법도 다 바뀔 수밖에 없는데요. 그렇다면 지금 우리나라에서는 관련해 어떤 논의가 이뤄지고 있을까요? 국내에서 경제와 법, 양쪽을 다 들여다보는 몇 안 되는 전문가인 임용 서울대 법학전문대학원 교수를 만나봤습니다.
Q. 챗GPT 3.5 이후 많은 사람들이 시장이 어떻게 변할 것인가에 큰 관심을 갖고 있는데요. 교수님은 어떤 분야에 관심을 갖고 연구하고 있는지 궁금합니다.
AI의 거버넌스에 대해 얘기할 때 한편으로는 윤리의 관점에서 혐오 발언, 가짜뉴스, 젠더간 차별, 프라이버시와 같은 이슈들이 종종 거론되고, 시장의 관점에서는 소위 거대 플랫폼의 독과점이나 갑질을 포함한 불공정거래 이슈들이 많이 얘기됩니다. 그런데 저는 최근 ‘스타트업의 윤리’에 대해 들여다보기 시작했습니다. 왜냐하면 AI 관련해서 지금까지의 윤리나 규제 논의는 사실상 빅테크(대형정보기술기업) 중심으로 논의되어 왔는데, 막상 문제는 스타트업 쪽에서 터지는 경우가 적지 않습니다. 그래서 스타트업의 관점에서 AI 윤리를 다시 생각해보려고 하고 있습니다.

또 우리가 AI 규제를 얘기할 때 큰 그림에서 생각해봐야 할 것이 있는데, 바로 ‘브뤼셀 효과’입니다.
Q. 브뤼셀 효과요?
미국 컬럼비아 로스쿨의 교수, 아누 브래드포드 교수가 조어한 말인데요. 쉽게 말해서 ‘EU가 규칙을 만들면 세계가 따른다’는 것입니다. EU는 디지털 시대에 산업이나 기술만으로는 경쟁이 어려워 ‘우리는 규제로 승부한다’는 전략을 세웠다고 볼 수 있습니다. 그 포문을 연 것이 프라이버시 분야의 개인정보보호규정(GDPR)[3]입니다. 2016년에 제정하여 2018년부터 시행했는데 테크 기업들이 유럽 시장을 포기할 수 없다 보니 그 기준에 맞추기 시작했고 결과적으로 EU의 기준이 글로벌 기준이 된 것입니다. EU의 AI법안은 그 후속 편으로 볼 수 있습니다. 기본적으로 AI 시스템을 낮은 수준의 위험, 높은 수준의 위험, 그리고 수용할 수 없는 위험 등으로 등급을 나눠서 규제를 다르게 하는 ‘위험 기반의 접근’을 따른 것입니다.

그런데 EU가 작년 말, 법안 통과를 위한 논의를 마무리하려고 하던 시점에 챗GPT 3.5가 나오게 되자 새삼 기술혁신의 속도를 실감하게 됩니다. 기술의 변화를 예측하기 어려운 상황에서 사용해 보기도 전에 위험 등급을 매기고 선험적으로 규제를 하는 것이 과연 가능한지 의문이 든 것이지요. 원래 EU의 규제로 승부하겠다는 생각은 일종의 ‘고객’ 중심의 전략입니다. 내가 뛰어난 생산자는 되지 못하더라도 덩치도 크고 무시할 수 없는 사용자라면 깐깐한 고객처럼 나에게 맞추라고 요구해서 스스로의 이익을 최대한 보장받을 수 있지 않겠나 생각한 것이지요. 그런데 그 전략이 성공하려면 고객이 상품을 잘 알고 있어야 하는데, 실은 잘 모른다는 것이 드러나버린 거지요.
[3] 개인정보보호규정(General Data Protection Regulation, GDPR)은 유럽 의회에서 유럽 시민들의 개인정보 보호를 강화하기 위해 만든 통합 규정이다. 주요 항목으로는 사용자가 본인의 데이터 처리 관련 사항을 제공받을 권리, 열람 요청 권리, 정정 요청 권리, 삭제 요청 권리, 처리 제한 요청 권리, 데이터 이동 권리, 처리 거부 요청 권리, 개인정보의 자동 프로파일링 및 활용에 대한 결정 권리 등이 있다.
▶ ‘브뤼셀 효과’를 주장한 미국 컬럼비아 대학의 아누 브래드포드 교수가 올 9월 발간 예정인 후속작이 ‘디지털 제국’이다.
오는 9월에 ‘브뤼셀 효과’의 후속 편이라고 할 수 있는 브래드포드 교수의 책 ‘디지털 제국’이 나올 예정인데, 그 내용은 기본적으로 전 세계 디지털 규제를 3개의 패러다임으로 보고 있습니다. 하나는 미국의 ‘시장 중심의 접근’, 두 번째가 중국의 ‘국가 주도의 접근’, 그리고 이 두 가지 접근에 대해 대안을 제시하는 세 번째 EU의 ‘권리 기반의 접근’입니다. 그러면서 미·중을 제외하고 우리를 포함한 다른 나라들에게 ‘EU를 따르라’고 하고 있는데, 실은 우리 국회에서 논의 중인 인공지능법안도 EU의 법안을 많이 참고하고 있습니다. 그런데 우리한테 진정 맞는 것은 무엇인지, 나아가 우리의 선택지는 과연 이 세 가지밖에 없는지 저는 더 숙고해 볼 필요가 있다고 생각해요.

미국을 제외하고 생각하더라도 막상 AI를 비롯한 디지털 기술역량이 있는 나라들, 예를 들어 영국 또는 이스라엘 등은 EU의 법안을 추종하고 있지 않습니다. 조금 더 유연하게 자신에게 맞는 길을 모색하겠다고 말하고 있는데요. 우리나라도 AI 기술역량이 있는 나라 중 하나로 브뤼셀 효과를 또 한 번 증명하면서 무조건 동참하는 것이 과연 맞는지 고민해 볼 필요가 있습니다.

EU의 AI 법안의 경우 이제 출현하고 있거나 끊임없이 변모하는 기술을 규제하려 하다 보니 무엇이 문제고 어떤 것을 구체적으로 문제 삼을지 사전에 규정하기 어렵다는 문제가 있습니다. 그러다 보니 지금까지 AI 윤리를 가지고 얘기했던 것들을 끌어다 쓰고 있는데요. 다시 말하면 ‘AI윤리의 법규화’를 하고 있습니다. 문제는, AI 윤리는 하나같이 다 지켰으면 좋을 이상적인 원칙들의 총합으로 볼 수 있는데, 원칙 간에 또는 어떤 원칙이 내포하고 있는 사회적 가치 간에 충돌이 일어날 경우 트레이드오프[4]를 어떻게 할지에 대해서는 논의가 충분히 이뤄지지 않았어요. 그런데 이것을 법규화 하게 되면 그런 미비점이 법의 해석과 집행 과정에서 그대로 드러나게 됩니다. EU AI 법안의 또 하나의 약점이지요.
[4] 트레이드오프(trade-off)란 두 개의 정책목표 가운데 하나를 달성하려고 하면 다른 목표의 달성은 늦어지거나 희생되는 경우를 용인하는 양자 간의 관계를 말한다.
AI 윤리를 법규화하면서 기술을 개발하거나 제공하는 사람에게 우리는 “공정해라”, “차별하지 마라”라고 요구합니다. 그러면 개발자들은 모델의 디자인 또는 학습에 적용가능한 기준을 자신들에게 알려달라고 하거나 이러저러한 기준(metric)을 언급하면서 그것을 충족하면 되겠는지 묻습니다. 그에 대해 법률가들은 법의 요구를 그런 방식으로 설명하기는 어렵고, 잘 모르겠지만 지금 제안한 것만으로는 충분치는 않은 것 같다는 식의 답변을 하고 있는 실정입니다. 다르게 표현하면 서로 간에 다른 언어를 쓰고 있는 통역이 안 되는 이슈가 있어요. 그러다 보니 ‘기술표준’을 만들어서 그 기술표준을 준수하면 법을 준수한 것으로 인정해 주자는 쪽으로 논의가 시작되었고, 지금 전 세계가 ‘기술표준’을 만드는 작업에 매달려 있습니다.
Q. 우리는 AI기술이 있고 EU 하고는 상황이 달라 EU 법안과 비슷한 규제를 따르는 것이 맞지 않다고 하셨는데요. 그럼 우리는 무엇부터 해야 할까요?
현시점에서 혁신과 규제 중 어느 한쪽에 더 무게를 줘야 한다고 단언하기 어렵습니다. AI로 인한 리스크가 발견되거나 예측되면 그에 맞는 규제를 과감하게 해야 하겠죠. 저희가 스타트업의 윤리에 대해 관심을 가지고 들여다보고 있는 것도 말씀하신 질문과 관련이 있어요. 우리에게 지금 필요한 규제는 ‘언제 어디서나 지켜야 하는 십계명’과 같은 것이 아니라, ‘이 맥락(context)에서는 이런 것에 한정해서, 대신 이러한 상황에서는 반드시 지켜야 돼’ 같은 방식의 규제입니다.

빅테크와 같은 선도 기업들은 평판 문제도 있고 규제 당국과 사회가 예의주시하고 있기 때문에 AI 윤리나 관련 규범을 지키려고 나름대로 노력하고 있어요. 그런데 스타트업은 말씀드린 것처럼 그 모든 것들을 지키기도 어렵고 실은 그에 필요한 투자를 할 유인도 여력도 부족한 상황입니다. 그래서 스타트업의 경우에는 의무도 완화하고 법을 위반하더라도 조금 가볍게 처벌하자, 다시 말하면 조금 봐주자라고 말하는 분들이 계십니다. 그런데, 저는 그것은 위험하다고 생각해요. 오히려 어떤 상황에서 무엇을 지켜야 하는지 한정해서 분명하게 알려주고, 대신 확실하게 지키도록 하는 것이 산업과 이용자 모두에게 장기적으로 좋습니다. 그렇게 할 수만 있다면 스타트업들에게도 AI 윤리를 철저하게 준수하도록 요구할 수 있고, 이용자들도 안심하고 그 제품을 이용할 수 있을 거예요.

EU AI 법안의 또 하나의 문제는 AI에 대한 횡적인 접근을 하고 있다는 거예요. AI 시스템은 실은 그 모형과 기법이 다양하고 도메인별로 ? 심지어 하나의 도메인 내에서도 구체적인 맥락에 따라 ? 다를 수 있습니다. 의료, 법률, 모빌리티처럼 분야마다 다르고, 클라우드, 파운데이션[5], 애플리케이션 등과 같은 테크놀로지 스택(stack)의 위치에 따라서도 차이가 납니다. 도메인에 따라서는 의료 분야처럼 정확성이 중요한 경우도 있고, 창작과 같이 정확성이 떨어져도 크게 문제 되지 않는 분야도 있을 수 있어요. 그런 차이를 무시하고 일률적이고 획일적인 접근을 하는 것은 문제가 있습니다. 저희 연구팀은 현재 EU와 같은 횡적(horizontal)인 옴니버스식(omnibus)의 접근이 아니라, AI 기술의 활용 도메인과 모형을 고려한 맥락 기반의 모듈(modular) 방식의 접근에 기초하여 AI 기술표준을 정립하는 프로젝트에 참여 중인데, EU 법안의 이런 문제를 극복해 보려는 시도입니다.
[5] 파운데이션은 레이블이 없는 방대한 데이터 세트에서 훈련한 AI신경망으로 텍스트 번역과 의료 이미징 등 광범위한 작업을 수행한다.
▶ 임용 서울대 법학전문대학원 부교수 인터뷰, 지난 13일, 서울대
Q. AI 1.0과 2.0은 어떻게 다른가요?
AI 1.0과 2.0이 분명하게 나눠지는 것은 아닌데, AI 1.0 시대의 대표적인 기술로는 검색 알고리즘을 생각하면 됩니다. 개인들이 이 시기에 놀랍기도 하고 두려움을 느꼈던 것은 알고리즘을 기반으로 한 ‘프로파일링’이었습니다. 그전까지 우리는 단골 가게에 가서 주인이 내가 평소에 좋아하는 과일을 알고 ‘이번에 복숭아 좋은 게 들어왔어’ 하고 알려주면 부담스럽지 않고 좋았지요. 그런데 보이지 않는 알고리즘이 나 자신보다도 나를 더 잘 아는 것 같이 느껴지기 시작하니까 불편해진 거죠. 그래서 AI 1.0 시대의 화두는 ‘프라이버시’, 보다 정확하게는 나의 자율성과 자아를 지키는 것이었어요. 무슨 말이냐면 우리가 말은 ‘프라이버시’라고 표현했지만 사실은 내 정보를 가져가느냐 안 가져가느냐 보다는 나의 동의 없이 나를 조정하려고 하는 것에 대한 반발이었던 거죠. 내가 신뢰하는 서비스에는 내 정보를 아무리 퍼주어도 크게 문제 삼지 않았던 거죠.

그런데 챗GPT가 대중 속으로 들어가기 시작한 AI 2.0 시대에는 ‘디지털 크리에이티비티(창의력)’ 또는 ‘인공 창작’이 사회에 쇼크를 주고 있습니다. AI 기술이 창작의 영역에 침투하면서 나보다 말을 더 잘하는 것 같기도 하고, AI가 내 할 일을 뺏는 것 같기도 하고, 테크 기업들이 나의 노력이 들어간 창작물을 AI의 학습과 훈련에 사용해서 돈을 버는데 나의 허락 없이 그래도 되는 것인지 그리고 나도 정당한 대가를 받아야 하는 것 아닌가 하면서 ‘저작권’ 이슈가 불거졌습니다. 그 외에는 컴퓨팅 리소스가 많이 소요되는 파운데이션 모델의 출현으로 시장의 독과점이 심화될 것이라는 주장도 있는데, 사실 시장의 경쟁 상황이 요동치고 있는 상황에서는 제대로 예측하기 쉽지 않습니다.
저작권으로 돌아가서 지식재산권법(IP)[6]은 경쟁법과 불편한 동거 관계에 있다고 할 수 있습니다. IP가 창출되고 나면 그에 대한 독점적인 사용권과 처분권을 상당한 기간 동안 합법적으로 누릴 수 있도록 지식재산권법이 보장하고 있어요. 경쟁법 분야에서는 그러한 보장이 필요한 정책적 근거를 ‘혁신의 조장’에서 찾고 있습니다. 사회가 필요로 하는 창조의 유인을 적극적으로 보호해 주자는 거죠. 만일 뭔가 멋진 것을 만들었는데 아무나 마구 복제해서 사용하면 더 이상 그런 것을 만들려고 하지 않을 것이기 때문에 보호하자는 것인데요, 이런 생각의 기저에는 창작이 실은 쉽지 않고 따라서 그만큼 소중하다는 것이 전제되어 있어요. 달리 말하면 현재의 IP 법체계는 일정 부분 ‘고독한 창작자’를 상정한 프로메테우스 모델을 기반으로 하고 있다고도 볼 수 있습니다. 그런데 ‘인공 창작’이 너무 쉬워진 AI 2.0 시대에도 프로메테우스 모델은 유효할까요? 이런 질문도 이제는 해봐야 합니다.

[6] ‘지식재산권’(IP, Intellectual property rights)이란 표현물이나 발명품 등 ‘지식 재산’에 대한 권리를 말한다. 국내에서는 주로 영어 약자인 ‘IP’라는 표현과 함께 지적재산권이란 용어가 주로 쓰이다가 2011년 ‘국가지식재산위원회’ 출범에 따라 법률 용어가 ‘지식재산권’으로 통일되었다.

Q. 시장은 어떻게 바뀌고 있나요?
그간 AI 기술의 발전 경로는 분명한 특징이 있습니다. 그것을 ‘급진적인 개방성(radical openness)’이라고 표현할 수 있는데, AI 기술에 대한 혁신적인 연구 결과나 콘셉트들이 깃허브[7]등과 같은 곳에 공유돼 오픈소스 중심으로 발전되어 왔습니다. 이러한 급진적인 개방성이 놀라운 AI 기술의 혁신 속도에 기여했다고 볼 수 있어요.

챗GPT의 경우에도 이런 개발 경로를 따라갔는데, 챗GPT 3.5부터는 모델의 데이터나 파라미터[8]를 공개하지 않고 API[9]방식의 클로즈드 형태로 선회합니다. 사실 오픈AI가 이렇게 결정하게 된 데는 생성형 AI 기반의 대규모 언어모델의 비용도 영향을 미쳤다고 봅니다. 챗GPT와 같은 현재의 LLM(대규모 언어 모델)들은 개발하는 데만 돈이 많이 소요되는 것이 아니라 운용 관리 비용이 많이 들어요. 빅테크 기업조차도 버겁다고 말할 정도입니다. 오픈AI가 오픈에서 클로즈드로 경로를 변경한 것의 배경에는 경쟁을 하기 위함도 있지만 한편으로는 엄청난 비용을 복구하기 위한 측면도 있습니다. 우리나라의 경우 네이버도 API만 공개하는 클로즈드 방식을 선택했습니다. 메타는 여기에 반기를 드는 것과 같은 모습을 보였는데, 메타의 경우 후발 주자이기 때문에 기술 개발에 더 유리한 오픈 방식[10]을 견지하는 것으로 이해할 수 있습니다. 메타는 한편 LLM(대규모 언어 모델)의 컴퓨팅 리소스 부담을 경감시키는 경량화 전략도 병행하고 있어요.
Cowboy Ventures (2023 5.23)
그동안 AI 기술이 오픈 소스 기반의 혁신을 통해 눈부신 발전을 이뤄냈다면, 이제는 ‘오픈 소스[11]’냐 ‘클로즈드 소스’냐가 전략적 선택의 대상인 시대가 되었습니다. AI 2.0 시대에 들어가면서 혁신의 경로가 바뀌는 거죠. 당분간 오픈과 클로즈드의 모델과 서비스들이 병존하면서 치열하게 경쟁하는 시기를 거칠 것입니다.

미디어에서도 비슷한 움직임이 일어나고 있는데요. 최근 블룸버그[12]도 자체 GPT를 만들었다고 발표했습니다. 블룸버그는 다른 기업이 접근하기 어려운 금융 데이터와 노하우를 가지고 있기 때문에 다른 (범용) GPT 서비스와 비교하여 관련 도메인에서 분명 강점을 보일 것입니다. 앞으로 시장 경쟁에 영향을 미칠 요소로는 그 외에도 클라우드 서비스, 그리고 실리콘(칩)도 있습니다.
▶ 블룸버그는 지난 3월 금융권을 위해 자체 거대언어모델인 블룸버그GPT를 만들었다고 발표했다.

[7] 깃허브(GitHub, https://github.com/)는 코드 호스팅 및 협업을 위한 웹 기반의 플랫폼이다. 개발자들이 코드를 저장, 공유, 협업하고 프로젝트를 관리할 수 있는 도구를 제공한다. 깃허브는 오픈 소스 커뮤니티를 중심으로 발전해 왔으며, 많은 오픈 소스 프로젝트가 깃허브에 호스팅 되어 있다.

[8] 파라미터란 매개변수를 뜻하는 말로 사용자의 의도를 정확히 이해하기 위해 필요한 데이터를 말한다.
[9] 챗GPT 4.0에게 API가 무엇인지 쉽게 설명해 달라고 했더니 아래와 같이 설명함. "Application Programming Interface"의 약자로, 서로 다른 소프트웨어 간에 정보를 교환하고 상호 작용하기 위한 약속 또는 도구이다. API는 어떤 프로그램이나 서비스의 기능을 다른 프로그램이나 서비스가 사용할 수 있게 해주는 것을 말한다. 예를 들어 레스토랑에서 손님이 메뉴를 보고 원하는 음식을 선택하면 웨이터는 주방에 주문을 전달하는데, 이때 손님은 직접 주방에 들어가서 음식을 만들 필요 없이, 메뉴를 통해 원하는 결과를 얻을 수 있다는 면에서 식당에서의 메뉴의 역할이 API와 같다.
[10] 메타는 지난 18일 발표한 라마2도 오픈소스로 공개했다. 라마2를 공개하면서 메타는 누구나 혜택을 얻을 수 있고 같이 감시함으로써 더 안전한 모델이 오픈소스라 생각해 오픈 소스로 공개한다고 밝혔다

[11] 오픈 소스는 사용자에게 특정 소프트웨어의 설계 데이터 등에 접근할 수 있게 함으로써 누구나 그 기술을 사용, 변경하고 재배포할 수 있게 허용하는 분산형 프로덕션 모델을 말한다.

[12] 블룸버그는 1981년 전 뉴욕 시장인 마이클 블룸버그에 의해 창립된 24시간 경제전문 뉴스를 서비스하는 미디어 그룹으로 본사는 미국 뉴욕에 있다.
Q. 산업파트에서 느끼기에 5년에서 10년 사이에는 가장 피부로 와닿을 변화는 무엇일까요?
지금도 스마트폰 없이는 어디 못 가잖아요. AI와도 동행하게 될 것입니다. 우리가 일상적으로 걸치고 다니는 옷처럼 자연스럽게 인식되지 않을까 싶어요. 전기가 거의 모든 곳에 흐르듯이 AI도 거의 모든 곳에 적용이 될 것입니다. 그리고 일터가 많이 바뀔 것 같습니다. 그런데 그 활용 여부나 정도는 사람한테 달려있다는 생각도 들어요. 사람들이 사람이 하는 것을 원하고 거기에 가치를 두면 사람이 그 작업을 계속하게 될 것이고, 자동화를 원하면 그쪽으로 가게 될 거예요.

교육과 관련해서는 고등교육, 특히 대학이 가장 크게 영향을 받을 것 같아요. 팬데믹 상황에서도 초등학교 저학년, 특히 1학년의 경우에는 가급적 등교를 시켰던 것으로 기억합니다. 그게 보여주는 것은 초등학생의 경우 단순히 지식 전달만 중요한 게 아니고 그 나이 아이의 성장에는 선생님과의 교감이 중요하다는 것입니다. 그런 교감은 아직 AI가 인간처럼 하지 못해요. 그런데 그런 교감에 대한 소비자들의 수요가 떨어지는 고등교육의 경우에는 AI의 활용 여지가 더 높습니다. 특히 AI 기술을 활용하여 학생별로 맞춤형 교육 또는 강의를 하는 시도들도 나오지 않을까 생각합니다.

인터뷰를 마무리하면서 AI시대, 미래 세대들이 키워야 할 역량을 무엇인지 물었습니다. 그랬더니 임용 교수는 자기 자녀를 생각하며 아내와 나눈 대화를 들려주었는데요. 이제는 ‘세자 교육’을 시켜야 한다고 했습니다. 산업화 시대 우리는 누군가가 물으면 답할 수 있는 교육인 일명 ‘대신’의 교육을 받아왔는데 이제는 세자처럼 질문을 할 수 있는 능력과 분별력이 교육의 핵심이 될 것이라고 임용 교수는 전했습니다. 왕 자신은 모든 것을 다 알지는 못하지만 대신에게 제대로 된 질문을 하고, 신하들이 하는 말 중 뭐가 맞는지를 분별할 수 있어야 했다는 점에서 세자의 교육이 AI시대 우리가 나아가야 할 방향이라고 했는데요.

그러면서 법은 변화를 이끄는 주체가 아니라 사회적 합의를 지탱하기 위해 존재이기 때문에 지금처럼 기존의 관행들이 깨지고 있는 소위 AI의 아이폰 모멘트가 바로 새로운 ‘사회적 합의’를 시작해야 하는 때라고 강조했습니다.
(글: 미래팀 이정애 기자 calee@sbs.co.kr)
SDF다이어리를 보시고 소중한 의견이 떠오르셨다면 sdf@sbs.co.kr로 메일을 보내주세요!
전체 목록

SDF다이어리를 빠짐없이 받아보세요!