인공지능 기술은 현재 한창 기술개발이 이루어지고 있기에 앞으로서의 혁신 잠재력이 큰 기술 분야이다. 그러므로 AI 기술의 발전 방향에 대한 윤리적 고려가 기술의 성장 잠재력을 훼손하지 않으면서도 인류가 소중하게 여기는 보편적 가치를 존중하는 방식으로 이루어지도록 제도적 대응을 ‘적절하게’ 수행하는 적응적 거버넌스(Adaptive Governance)를 실천하는 것이 중요하다.
인공지능은 이미 우리 휴대전화를 포함해 우리 삶 깊숙이 침투해 있다. 다만 많은 경우 인공지능은 ‘보이지 않는’ 방식으로 작동하기에 그 영향력을 실감하기 어려울 뿐이다. 그런데 최근 챗GPT 덕분에 많은 사람들이 인공지능을 본격적으로 체험하고 있다. 우리는 제주도 3박4일 여행 계획을 부탁하면 순식간에 날짜별로 깔끔하게 정리된 일정표를 제시하는 챗GPT의 편리함에 감탄하다가도, 23+18이 41이 아니라 40이라고 우기면 금방 자기가 잘못했다고 사과하는 과잉 겸손함(?)에 당혹감을 느끼기도 한다. 학자들이라면 자신이 쓰지도 않은 논문을 자신의 대표업적이라고 자신 있게 소개하는 챗GPT의 뻔뻔함(?)에 기가 막혀 하기도 한다. 이런 경험을 통해 우리는 인공지능이 놀라울 정도로 유용하기도 하지만 문제를 일으킬 수도 있다는 사실에 점점 익숙해지고 있다.
[그림 1] 유네스코가 2021년 공표한 <인공지능 윤리 권고>
*자료: UNESCO
이미 국제사회는 인공지능이 다양한 방식으로 인류 복지에 이바지할 막대한 잠재력이 있는 반면 허위 정보를 유포하거나 차별적인 결정을 내리는 등 우리가 소중하게 여기는 핵심 가치를 훼손할 위험 역시 갖고 있음에 주목해왔다. 그래서 다양한 국제기구와 학술 단체에서는 이에 대응하기 위한 여러 제도적 장치를 마련하기 위해 노력해 왔다. 예를 들어 유럽연합(EU)과 경제협력개발기구(OECD)는 2019년에 신뢰할만한(trustworthy) 인공지능 개발과 활용을 위한 윤리 원칙을 제시했다. 유럽연합은 이러한 윤리원칙을 보다 구체적으로 제도화하기 위해 현재 AI 윤리 법안을 마련 중이며, AI 시스템의 위험도에 따라 아예 금지되는 것부터 위험에 대해 적절한 대비를 했다는 점을 인공지능 제조사가 입증해야 하는 고위험 AI 등의 4단계 구분을 내놓기도 했다.
유네스코가 2021년 11월 발표한 <인공지능 윤리 권고>는 이런 국제적 배경에 비추어 볼 때 매우 독특한 지위를 가진다. 유네스코를 포함한 유엔기구는 자신의 활동 범위에 대한 윤리적 규범 틀을 선언(declaration), 권고(recommendation), 협약(convention)의 형태로 제시해 왔는데 인공지능처럼 ‘특정’ 과학기술 분야에 대해 유네스코가 이번 <권고> 수준의 비교적 강력한 윤리적 규범 틀을 제시한 경우는 거의 없었다. 이런 점을 고려할 때 유네스코가 회원국의 다양한 의견과 상황을 반영하여 인공지능의 윤리적 쟁점에 대한 바람직한 국제적 대응 방안을 담은 <권고>를 공표했다는 사실은 인공지능 기술이 회원국에 끼치는 영향의 중대함과 그에 대한 윤리적 대응의 시급성에 대한 공감대가 유네스코 회원국 사이에 널리 형성되었음을 의미한다. 또한 유네스코의 <권고>가 인공지능 윤리를 다룬 다른 국제 문건과 비교해서 문화, 교육, 과학, 젠더, 정보 등 매우 포괄적인 영역과 주제에 대한 상세한 논의를 담고 있다는 점과 추상적인 윤리 원칙 제시에 머물지 않고 구체적인 정책 행동을 제시했다는 특징이 있다고 평가된다.
우리나라도 유네스코 회원국으로 이 <권고>의 내용을 이행할 의무를 갖고 있으며, 이미 <권고> 채택 이전부터 과학기술정보통신부, 방송통신위원회 등이 정보통신정책연구원(KISDI)과 협력하여 인공지능 윤리 기준을 제시하고 기업들이 활용할 수 있는 인공지능 윤리 관련 자율점검표를 만드는 등의 활동을 진행하고 있다. 이 과정에서 유네스코한국위원회는 <권고>를 비롯한 AI 윤리 관련 내용을 대중적으로 널리 알리는 책자 및 유튜브 교육콘텐츠를 작성하는 등의 활동을 수행해왔다.
[그림 2] IEEE의 Ethically Aligned Design 지침 해설서 표지
*자료: IEEE
최근 국제사회는 인공지능 관련 추상적인 윤리 원칙을 제시하는 단계를 넘어 구체적인 제도적 실행의 단계로 접어들고 있다. 앞서 소개한 EU의 인공지능 법안, 유네스코 <권고>에서 시작된 AI 윤리 영향평가 등이 대표적이다. 미국도 백악관이 2022년 발표한 <AI 권리장전 청사진>을 비롯하여 주로 기술적 요구 조건을 통해 데이터 편향이나 인공지능 판단의 공정성 문제 등에 대응하고 있다.
이 지점에서 많은 사람들이 인공지능과 같은 첨단 기술 발전에 인간이 따라야 할 규범인 윤리 문제를 적용한다는 생각에 고개를 갸우뚱할 수 있다. 이는 우리말의 윤리에 대한 직관이 국제적으로 인공지능 윤리 논의를 할 때 ‘Ethics’의 의미와 중요한 지점에서 다르기 때문에 드는 생각이다. 우리의 일상적인 언어 직관에 따르자면, ‘윤리’는 지극히 개인적인 사안에만 한정된다는 느낌이 있다. 이 직관은 표준국어대사전의 ‘윤리’에 대한 정의, “사람으로서 마땅히 행하거나 지켜야 할 도리”와도 일치한다. 이 정의에서 연상되는 상황은 천륜을 어기고 부모를 학대하는 행위나 상식적인 허용 범위를 넘어 극단적으로 자기이익만 챙기는 행위가 될 것 같다. 즉, 우리말에서 윤리란 개인이 누구에게나 명백하게 도리에 어긋나는 행동을 하는 것과 긴밀하게 관련되는 개념이다. 표준국어대사전은 윤리 개념의 용례로 채만식의 <낙조>라는 소설에 등장하는 “아내가 있는 사람이 한 다른 여자와 연애를 하고 어쩌고 한다는 것은, 나의 윤리로는 허락할 수 없는 패덕이었다.”는 문장을 들고 있는데, 이 문장에서도 우리의 윤리 개념이 개인적 사안과 관련된 것이며 명백한 잘잘못을 다룬다는 특징이 잘 드러나 있다.
이제 이런 윤리 개념으로 AI 윤리라는 표현을 살펴보면 누가 봐도 이상하다고 느끼지 않을 수 없다. 일단 AI 윤리에서 다루는 내용은 챗GPT와 같은 대화형 인공지능이 차별적인지 여부처럼 지극히 사회적이다. 이 주제에 대해서는 바람직한 방향에 대한 사회적 합의점이 있다고 할 수 있지만 그렇지 않은 AI 윤리의 쟁점도 많다. 예를 들어 AI 알고리즘의 투명성을 높이거나 설명 가능성을 강하게 요구하다 보면 AI의 효율성이 저하되거나 민감 정보의 유출 가능성이 높아질 수도 있기 때문이다. 이처럼 현재 AI 윤리에서 논의되고 있는 내용은 (당연히 개인적 영역도 포함하지만) 많은 경우 사회적 수준에서 문제를 파악하고 해결책을 마련해야 하는 부분이고, 대부분의 경우 그 문제점 분석이나 해결책 마련 과정 자체가 관련 집단의 이익과 다양한 가치를 종합적으로 고려해야 하므로 논쟁적이고 지난한 사회적 숙고를 요구한다.
그럼, 이제 영어의 ‘Ethics’는 어떤 의미인지 살펴보자. 어원을 따져 보면 ethics는 고대 그리스어에서 ‘인격(character)’을 뜻하는 단어 ethos, 그리고 라틴어에서 ‘관습(customs)’을 뜻하는 단어 mores와 깊은 관련이 있다. mores라는 단어는 우리가 흔히 ‘도덕적’이라고 번역하는 영어 ‘moral’의 어원이기도 하다. 옥스퍼드 영어사전에서 제시된 ethic의 정의는 “A set of moral principles, especially ones relating to or affirming a specified group, field, or form of conduct”이다. 이 정의에서 주목할 점은 ethic의 정의에 특정 집단, 분야, 행위의 종류가 등장한다는 사실이다. 이는 앞서 지적했듯이 ethic의 어원에 특정 집단이나 분야마다 공유되는 올바름의 기준이 다를 수 있는, ‘관습’의 의미가 포함되어 있다는 점과 일맥상통한다. 그리고 이러한 특징은 우리말의 ‘윤리’와 달리 영어의 ethic이 특정 개인의 행동 자체만이 아니라 그 행동의 사회적 의미까지를 본질적으로 포함하고 있음을 시사한다.
서양 문명의 기원이라고 여겨지는 그리스-로마 시대의 ethic에 해당하는 개념이 이처럼 개인적 수준과 사회적 수준을 가로지르고 있다는 사실을 염두에 두면 AI와 같은 사회적 파급효과가 크고 미래 기술 내용의 불확실성이 큰 기술일수록 윤리가 중요해짐을 이해할 수 있다. 다만 이 지점에서 오해의 여지를 제거할 필요가 있다. 필자는 우리말의 ‘윤리’ 개념이 틀렸고 서양의 ethic 개념이 올바르다고 주장하는 것이 아니다. 그런 지적은 수(number) 개념으로 자연수는 틀린 개념이고 보다 포괄적인 정수나 실수 개념만이 진정한 수 개념이라고 주장하는 것만큼이나 터무니없다. 개념은 원칙적으로 맞고 틀리고의 문제라기보다는 정의의 문제이다. 필자가 강조하고 싶은 점은 AI 윤리 관련 국제 논의에서 대부분의 나라는 모두 ethic의 의미를 배경으로 참여하는데 우리만 우리말에 고유한 ‘윤리’ 개념을 갖고 참여한다면 생산적인 의사소통이나 논의 참여가 어려울 것이라는 점이다. AI ethics와 관련하여 국제적으로 통용될 수 있는 방안을 만들거나 법 제도화 등을 추진할 때 우리가 반드시 명심해야 할 부분이 바로 이것이다.
이렇게 AI 윤리를 국제적으로 통용되는 방식으로 이해하고 나면 국제적으로 가장 큰 전기·전자공학자 단체인 IEEE(Institute of Electrical and Electronics Engineers)를 비롯한 많은 인공지능 연구자들이 말하는 ‘윤리적 설계 혹은 설계를 통한 윤리(Ethics by Design)’ 개념이 자연스럽게 이해된다. 인공지능이 사회적으로 널리 활용될 때 갖는 광범위한 영향력을 고려하여, 아예 설계 단계부터 우리가 소중하게 여기는 윤리적 가치를 존중하도록 인공지능을 만들자는 혹은 인공지능 자체에 윤리 원칙을 ‘집어넣자’는 생각이다. 하지만 현재 널리 활용되는 인공신경망 아키텍처는 아직 사람이 이해하는 방식으로 윤리 원칙의 의미를 파악하고 적용할 수 없기에 사람들이 기대하는 ‘윤리적 AI’를 어떻게 만들 것인지에 대해서는 아직 인공지능 연구자 사이에서도 다양한 접근이 시도되고 있다.
이런 상황에 대해 현장에서 AI 기술을 개발하는 공학자나 관련 사업을 추진하는 기업가들은 껄끄러운 ‘규제’가 또 하나 생긴다고 불편해할 수 있다. 그들 입장에서 ‘규제’를 곧 ‘혁신 저하’로 동일시하는 경향이 있기 때문일 것이다. 하지만 이는 기술혁신 역사의 사실과 어긋난 생각이다. 실제로 1970년대에 자동차 배기가스 규제가 도입되려 할 때 미국의 대형 자동차 회사들은 이 규제가 산업 생산력을 저하하고 소비자의 권익을 해칠 것이라고 극렬하게 반대했다. 하지만 우여곡절 끝에 자동차 배출가스에 대한 규제가 시작되었을 때 자동차 업계는 그사이에 이 규제의 기준을 충족하면서도 더 효율적인 내연 기관을 개발해 두었다. 결국 이 규제는 보다 친환경적인 내연기관을 개발하는 기술 혁신과 환경 오염을 줄이는 일거양득의 효과를 가져왔다.
이처럼 ‘똑똑한’ 규제, 즉 잘 설계되고 합리적으로 운용된 규제는 기업이 성장하고 발전하는 산업 환경 자체를 바꿈으로써 기업의 기술혁신 의욕을 더 고취할 수 있으며 결과적으로 사회적으로 유용한 방향으로 기술혁신을 유도할 수도 있다. 인공지능 기술은 현재 한창 기술개발이 이루어지고 있기에 앞으로서의 혁신 잠재력이 큰 기술 분야이다. 그러므로 AI 기술의 발전 방향에 대한 윤리적 고려가 기술의 성장 잠재력을 훼손하지 않으면서도 인류가 소중하게 여기는 보편적 가치를 존중하는 방식으로 이루어지도록 모든 이해관계자가 노력하는 것이 중요하다. 그리고 그러한 윤리적 고려를 충실하게 반영하는 과정에서 각 시점의 기술 상황 및 사회적 대응 양상을 정확하게 고려하여 제도적 대응을 ‘적절하게’ 수행하는 적응적 거버넌스(Adaptive Governance)를 실천하는 것이 중요하다. 이를 통해 모든 AI 윤리 국제 논의에서 강조하는 기술 혁신과 사회적 공익의 동시 실현이 달성될 수 있을 것이다.
인공지능 기술은 현재 한창 기술개발이 이루어지고 있기에 앞으로서의 혁신 잠재력이 큰 기술 분야이다. 그러므로 AI 기술의 발전 방향에 대한 윤리적 고려가 기술의 성장 잠재력을 훼손하지 않으면서도 인류가 소중하게 여기는 보편적 가치를 존중하는 방식으로 이루어지도록 제도적 대응을 ‘적절하게’ 수행하는 적응적 거버넌스(Adaptive Governance)를 실천하는 것이 중요하다.
인공지능은 이미 우리 휴대전화를 포함해 우리 삶 깊숙이 침투해 있다. 다만 많은 경우 인공지능은 ‘보이지 않는’ 방식으로 작동하기에 그 영향력을 실감하기 어려울 뿐이다. 그런데 최근 챗GPT 덕분에 많은 사람들이 인공지능을 본격적으로 체험하고 있다. 우리는 제주도 3박4일 여행 계획을 부탁하면 순식간에 날짜별로 깔끔하게 정리된 일정표를 제시하는 챗GPT의 편리함에 감탄하다가도, 23+18이 41이 아니라 40이라고 우기면 금방 자기가 잘못했다고 사과하는 과잉 겸손함(?)에 당혹감을 느끼기도 한다. 학자들이라면 자신이 쓰지도 않은 논문을 자신의 대표업적이라고 자신 있게 소개하는 챗GPT의 뻔뻔함(?)에 기가 막혀 하기도 한다. 이런 경험을 통해 우리는 인공지능이 놀라울 정도로 유용하기도 하지만 문제를 일으킬 수도 있다는 사실에 점점 익숙해지고 있다.
[그림 1] 유네스코가 2021년 공표한 <인공지능 윤리 권고>
*자료: UNESCO
이미 국제사회는 인공지능이 다양한 방식으로 인류 복지에 이바지할 막대한 잠재력이 있는 반면 허위 정보를 유포하거나 차별적인 결정을 내리는 등 우리가 소중하게 여기는 핵심 가치를 훼손할 위험 역시 갖고 있음에 주목해왔다. 그래서 다양한 국제기구와 학술 단체에서는 이에 대응하기 위한 여러 제도적 장치를 마련하기 위해 노력해 왔다. 예를 들어 유럽연합(EU)과 경제협력개발기구(OECD)는 2019년에 신뢰할만한(trustworthy) 인공지능 개발과 활용을 위한 윤리 원칙을 제시했다. 유럽연합은 이러한 윤리원칙을 보다 구체적으로 제도화하기 위해 현재 AI 윤리 법안을 마련 중이며, AI 시스템의 위험도에 따라 아예 금지되는 것부터 위험에 대해 적절한 대비를 했다는 점을 인공지능 제조사가 입증해야 하는 고위험 AI 등의 4단계 구분을 내놓기도 했다.
유네스코가 2021년 11월 발표한 <인공지능 윤리 권고>는 이런 국제적 배경에 비추어 볼 때 매우 독특한 지위를 가진다. 유네스코를 포함한 유엔기구는 자신의 활동 범위에 대한 윤리적 규범 틀을 선언(declaration), 권고(recommendation), 협약(convention)의 형태로 제시해 왔는데 인공지능처럼 ‘특정’ 과학기술 분야에 대해 유네스코가 이번 <권고> 수준의 비교적 강력한 윤리적 규범 틀을 제시한 경우는 거의 없었다. 이런 점을 고려할 때 유네스코가 회원국의 다양한 의견과 상황을 반영하여 인공지능의 윤리적 쟁점에 대한 바람직한 국제적 대응 방안을 담은 <권고>를 공표했다는 사실은 인공지능 기술이 회원국에 끼치는 영향의 중대함과 그에 대한 윤리적 대응의 시급성에 대한 공감대가 유네스코 회원국 사이에 널리 형성되었음을 의미한다. 또한 유네스코의 <권고>가 인공지능 윤리를 다룬 다른 국제 문건과 비교해서 문화, 교육, 과학, 젠더, 정보 등 매우 포괄적인 영역과 주제에 대한 상세한 논의를 담고 있다는 점과 추상적인 윤리 원칙 제시에 머물지 않고 구체적인 정책 행동을 제시했다는 특징이 있다고 평가된다.
우리나라도 유네스코 회원국으로 이 <권고>의 내용을 이행할 의무를 갖고 있으며, 이미 <권고> 채택 이전부터 과학기술정보통신부, 방송통신위원회 등이 정보통신정책연구원(KISDI)과 협력하여 인공지능 윤리 기준을 제시하고 기업들이 활용할 수 있는 인공지능 윤리 관련 자율점검표를 만드는 등의 활동을 진행하고 있다. 이 과정에서 유네스코한국위원회는 <권고>를 비롯한 AI 윤리 관련 내용을 대중적으로 널리 알리는 책자 및 유튜브 교육콘텐츠를 작성하는 등의 활동을 수행해왔다.
[그림 2] IEEE의 Ethically Aligned Design 지침 해설서 표지
*자료: IEEE
최근 국제사회는 인공지능 관련 추상적인 윤리 원칙을 제시하는 단계를 넘어 구체적인 제도적 실행의 단계로 접어들고 있다. 앞서 소개한 EU의 인공지능 법안, 유네스코 <권고>에서 시작된 AI 윤리 영향평가 등이 대표적이다. 미국도 백악관이 2022년 발표한 <AI 권리장전 청사진>을 비롯하여 주로 기술적 요구 조건을 통해 데이터 편향이나 인공지능 판단의 공정성 문제 등에 대응하고 있다.
이 지점에서 많은 사람들이 인공지능과 같은 첨단 기술 발전에 인간이 따라야 할 규범인 윤리 문제를 적용한다는 생각에 고개를 갸우뚱할 수 있다. 이는 우리말의 윤리에 대한 직관이 국제적으로 인공지능 윤리 논의를 할 때 ‘Ethics’의 의미와 중요한 지점에서 다르기 때문에 드는 생각이다. 우리의 일상적인 언어 직관에 따르자면, ‘윤리’는 지극히 개인적인 사안에만 한정된다는 느낌이 있다. 이 직관은 표준국어대사전의 ‘윤리’에 대한 정의, “사람으로서 마땅히 행하거나 지켜야 할 도리”와도 일치한다. 이 정의에서 연상되는 상황은 천륜을 어기고 부모를 학대하는 행위나 상식적인 허용 범위를 넘어 극단적으로 자기이익만 챙기는 행위가 될 것 같다. 즉, 우리말에서 윤리란 개인이 누구에게나 명백하게 도리에 어긋나는 행동을 하는 것과 긴밀하게 관련되는 개념이다. 표준국어대사전은 윤리 개념의 용례로 채만식의 <낙조>라는 소설에 등장하는 “아내가 있는 사람이 한 다른 여자와 연애를 하고 어쩌고 한다는 것은, 나의 윤리로는 허락할 수 없는 패덕이었다.”는 문장을 들고 있는데, 이 문장에서도 우리의 윤리 개념이 개인적 사안과 관련된 것이며 명백한 잘잘못을 다룬다는 특징이 잘 드러나 있다.
이제 이런 윤리 개념으로 AI 윤리라는 표현을 살펴보면 누가 봐도 이상하다고 느끼지 않을 수 없다. 일단 AI 윤리에서 다루는 내용은 챗GPT와 같은 대화형 인공지능이 차별적인지 여부처럼 지극히 사회적이다. 이 주제에 대해서는 바람직한 방향에 대한 사회적 합의점이 있다고 할 수 있지만 그렇지 않은 AI 윤리의 쟁점도 많다. 예를 들어 AI 알고리즘의 투명성을 높이거나 설명 가능성을 강하게 요구하다 보면 AI의 효율성이 저하되거나 민감 정보의 유출 가능성이 높아질 수도 있기 때문이다. 이처럼 현재 AI 윤리에서 논의되고 있는 내용은 (당연히 개인적 영역도 포함하지만) 많은 경우 사회적 수준에서 문제를 파악하고 해결책을 마련해야 하는 부분이고, 대부분의 경우 그 문제점 분석이나 해결책 마련 과정 자체가 관련 집단의 이익과 다양한 가치를 종합적으로 고려해야 하므로 논쟁적이고 지난한 사회적 숙고를 요구한다.
그럼, 이제 영어의 ‘Ethics’는 어떤 의미인지 살펴보자. 어원을 따져 보면 ethics는 고대 그리스어에서 ‘인격(character)’을 뜻하는 단어 ethos, 그리고 라틴어에서 ‘관습(customs)’을 뜻하는 단어 mores와 깊은 관련이 있다. mores라는 단어는 우리가 흔히 ‘도덕적’이라고 번역하는 영어 ‘moral’의 어원이기도 하다. 옥스퍼드 영어사전에서 제시된 ethic의 정의는 “A set of moral principles, especially ones relating to or affirming a specified group, field, or form of conduct”이다. 이 정의에서 주목할 점은 ethic의 정의에 특정 집단, 분야, 행위의 종류가 등장한다는 사실이다. 이는 앞서 지적했듯이 ethic의 어원에 특정 집단이나 분야마다 공유되는 올바름의 기준이 다를 수 있는, ‘관습’의 의미가 포함되어 있다는 점과 일맥상통한다. 그리고 이러한 특징은 우리말의 ‘윤리’와 달리 영어의 ethic이 특정 개인의 행동 자체만이 아니라 그 행동의 사회적 의미까지를 본질적으로 포함하고 있음을 시사한다.
서양 문명의 기원이라고 여겨지는 그리스-로마 시대의 ethic에 해당하는 개념이 이처럼 개인적 수준과 사회적 수준을 가로지르고 있다는 사실을 염두에 두면 AI와 같은 사회적 파급효과가 크고 미래 기술 내용의 불확실성이 큰 기술일수록 윤리가 중요해짐을 이해할 수 있다. 다만 이 지점에서 오해의 여지를 제거할 필요가 있다. 필자는 우리말의 ‘윤리’ 개념이 틀렸고 서양의 ethic 개념이 올바르다고 주장하는 것이 아니다. 그런 지적은 수(number) 개념으로 자연수는 틀린 개념이고 보다 포괄적인 정수나 실수 개념만이 진정한 수 개념이라고 주장하는 것만큼이나 터무니없다. 개념은 원칙적으로 맞고 틀리고의 문제라기보다는 정의의 문제이다. 필자가 강조하고 싶은 점은 AI 윤리 관련 국제 논의에서 대부분의 나라는 모두 ethic의 의미를 배경으로 참여하는데 우리만 우리말에 고유한 ‘윤리’ 개념을 갖고 참여한다면 생산적인 의사소통이나 논의 참여가 어려울 것이라는 점이다. AI ethics와 관련하여 국제적으로 통용될 수 있는 방안을 만들거나 법 제도화 등을 추진할 때 우리가 반드시 명심해야 할 부분이 바로 이것이다.
이렇게 AI 윤리를 국제적으로 통용되는 방식으로 이해하고 나면 국제적으로 가장 큰 전기·전자공학자 단체인 IEEE(Institute of Electrical and Electronics Engineers)를 비롯한 많은 인공지능 연구자들이 말하는 ‘윤리적 설계 혹은 설계를 통한 윤리(Ethics by Design)’ 개념이 자연스럽게 이해된다. 인공지능이 사회적으로 널리 활용될 때 갖는 광범위한 영향력을 고려하여, 아예 설계 단계부터 우리가 소중하게 여기는 윤리적 가치를 존중하도록 인공지능을 만들자는 혹은 인공지능 자체에 윤리 원칙을 ‘집어넣자’는 생각이다. 하지만 현재 널리 활용되는 인공신경망 아키텍처는 아직 사람이 이해하는 방식으로 윤리 원칙의 의미를 파악하고 적용할 수 없기에 사람들이 기대하는 ‘윤리적 AI’를 어떻게 만들 것인지에 대해서는 아직 인공지능 연구자 사이에서도 다양한 접근이 시도되고 있다.
이런 상황에 대해 현장에서 AI 기술을 개발하는 공학자나 관련 사업을 추진하는 기업가들은 껄끄러운 ‘규제’가 또 하나 생긴다고 불편해할 수 있다. 그들 입장에서 ‘규제’를 곧 ‘혁신 저하’로 동일시하는 경향이 있기 때문일 것이다. 하지만 이는 기술혁신 역사의 사실과 어긋난 생각이다. 실제로 1970년대에 자동차 배기가스 규제가 도입되려 할 때 미국의 대형 자동차 회사들은 이 규제가 산업 생산력을 저하하고 소비자의 권익을 해칠 것이라고 극렬하게 반대했다. 하지만 우여곡절 끝에 자동차 배출가스에 대한 규제가 시작되었을 때 자동차 업계는 그사이에 이 규제의 기준을 충족하면서도 더 효율적인 내연 기관을 개발해 두었다. 결국 이 규제는 보다 친환경적인 내연기관을 개발하는 기술 혁신과 환경 오염을 줄이는 일거양득의 효과를 가져왔다.
이처럼 ‘똑똑한’ 규제, 즉 잘 설계되고 합리적으로 운용된 규제는 기업이 성장하고 발전하는 산업 환경 자체를 바꿈으로써 기업의 기술혁신 의욕을 더 고취할 수 있으며 결과적으로 사회적으로 유용한 방향으로 기술혁신을 유도할 수도 있다. 인공지능 기술은 현재 한창 기술개발이 이루어지고 있기에 앞으로서의 혁신 잠재력이 큰 기술 분야이다. 그러므로 AI 기술의 발전 방향에 대한 윤리적 고려가 기술의 성장 잠재력을 훼손하지 않으면서도 인류가 소중하게 여기는 보편적 가치를 존중하는 방식으로 이루어지도록 모든 이해관계자가 노력하는 것이 중요하다. 그리고 그러한 윤리적 고려를 충실하게 반영하는 과정에서 각 시점의 기술 상황 및 사회적 대응 양상을 정확하게 고려하여 제도적 대응을 ‘적절하게’ 수행하는 적응적 거버넌스(Adaptive Governance)를 실천하는 것이 중요하다. 이를 통해 모든 AI 윤리 국제 논의에서 강조하는 기술 혁신과 사회적 공익의 동시 실현이 달성될 수 있을 것이다.