본문 바로가기
과신뷰/기자단 칼럼

“인공지능과 기독교 윤리” 강의 요약

by 과학과 신학의 대화 2022. 6. 9.

제32회 과신대 콜로퀴움 “인공지능과 기독교 윤리”

- 강의 요약 -



제31회 과신대 콜로퀴움에서는 연세대학교 연합신학대학원의 김동환 교수님을 강연자로 초청하여 ‘인공지능과 기독교 윤리’라는 주제로 강의를 들었습니다. 너무도 빨리 변화하는 첨단 과학기술의 행보가 자율주행차의 교통사고와 군사로봇의 생명 위협 등에 직면하게 하는 현실에 대해 네 가지 이슈와 연관된 질문을 가지고 기독교인으로서 어떻게 성찰해야 하는가를 생각해보는 좋은 시간이었습니다. 


* * *


〈 주요 이슈 1. 자율주행차 〉


테슬라의 자율주행차가 교차로를 지나던 중 옆 차선에서 좌회전하는 대형 트럭과 충돌했습니다. 자율주행 센서가 트럭 흰색과 하늘빛을 구분하지 못해 차가 없는 것으로 판단하고 속도를 줄이지 않은 것입니다. 트럭 운전자는 당시 자율주행차 운전자가 영화를 보고 있었다고 진술하였습니다. 

Q. 자율주행차 교통사고, 책임은 누가 지나?
- 운전자
- 인공지능 
- 보험사
- 정부

1) 운전자
트레일러 운전자가 교통법규를 위반한 상황이 아니면 사실 특별히 책임이 있다고 볼 수 없습니다. 자율주행차가 분간을 못 해서 그냥 들이받은 것입니다. 사고를 낸 자율주행차의 운전자에게는 책임이 존재합니다. 현재 인공지능 자율주행차의 발전 단계가 레벨 3이라는 것을 고려해야 합니다. 아직은 완전한 자율주행단계가 아니라는 것입니다. 운전자에게 브레이크와 핸들을 운전할 수 있는 권한을 준 상황입니다. 그런데 인공지능을 완전히 신뢰해버린 것입니다. 정지를 하든지 브레이크를 밟든지 옆으로 틀 수 있는 권한이 주어졌는데 운전자가 그걸 하지 않았기 때문에 심지어 영화까지 봤다는 진술이 맞았다면 분명히 일정 부분 책임이 있습니다. 

2) 인공지능(제조사)
제조사라면 어떤 제조사일까요? 인공지능 시스템을 만든 회사일까요? 아니면 인공지능을 포함하여 모든 시스템을 총체적으로 만든 자동차 회사일까요? 전자든 후자든 사고가 발생했을 때 완전 자율주행차 레벨로 올라간 상태라면 당연히 제조사에 책임이 있을 것입니다. 

3) 보험사
보험사의 개념은 과실에 대해서 대신 처리해준다는 것입니다. 즉, 보험사에 책임을 묻는다기보다는 책임을 져주는 것입니다. 자율주행차에서는 보험의 대상이 확대될 것입니다. 제조사들이 보험에 더 많이 가입하고 여러 가지 옵션을 추가할 것으로 예상됩니다. 사고를 당한 사람이 차의 소유자일 경우 운전자가 아닌 탑승객이나 승객으로 인정하여 보험사가 어디까지 얼마나 적용해야 하는지에 대해 고려를 많이 하게 될 것입니다. 

4) 정부
완전 자율주행차의 교통사고에 대한 윤리적인 부분들은 굉장히 복잡한 이해관계 안에 존재하게 됩니다. 이런 복잡함 속에서는 관련 법규 또한 복잡다단해지게 됩니다. 결국, 이런 법규를 만드는 것은 정부가 해야 할 일입니다. 결국, 사고가 났을 때 복잡하고 모호한 상황이라면 정부에서 답을 내놓아야 하기 때문에 정부의 많은 책임이 필요합니다. 

Q. 자율주행차는 어떤 선택을 내리도록 제작되어야 하는가?
운전자로서 도덕적 판단을 내릴 도덕 행위자인 인공지능 시스템이 어떤 선택 즉 도덕적인 판단을 내리도록 프로그램이 되어 있어야 하는가? 이게 두 번째 핵심 질문입니다. 소위 기계 학습의 알고리즘을 어떻게 만들어야 할까에 대한 논의입니다.



[ 자율주행차의 세 가지의 교통 상황 ]
(A) 여러 명의 보행자 또는 한 명의 행인 사망 
(B) 보행자 한 명 또는 자신의 승객 사망
(C) 여러 명의 보행자 또는 자신의 승객 사망



(A)의 경우, 인공지능 프로그램 제작자라면 어떻게 판단을 하도록 제작할까요? 대부분은 다수의 생명을 살리고 한 사람이 죽는 선택을 할 것입니다. 왜냐하면, 우리 속에 공리주의적인 판단이 있기 때문입니다. 이게 바로 소위 양적 공리주의의 입장입니다. 제러미 벤담의 최대 다수의 최대 행복 소위 공리주의에서 양적 공리주의의 입장이 계몽주의의 현대인들에게 많이 실용화, 합리화되어 있습니다. 

만약, 다수의 사람이 전부 아주 사악한 범죄자이고 한 명은 선한 시민이라면 양적 공리주의를 적용할 수 있을까요? 또는, 다수의 걸어가는 분들이 생명을 가진 임산부 또 앞으로 더 많이 미래를 책임질 어린이들이고 한 명은 나이도 많으시고 지금 병원에서 지병으로 얼마 못 사는 분이라면 어떻게 할까요?  

공리주의적 판단에서 기본적으로는 벤담식의 양적 공리주의이지만 존 스튜어트 밀이 말한 질적 공리주의도 있다는 사실을 알아야 합니다. 질적 공리주의가 앞으로 더 많이 적용될 것으로 보이기 때문입니다. 안면 인식이라는 기술이 질적 공리주의를 판단할 수 있는 근거를 제공할 것입니다.

(B)와 (C)는 승객이 사망할 수 있는 경우입니다. 만약, 탑승자가 기독교인이라면 어떻게 해야 할까요? 예수님이라면 어떻게 하실까요? 참된 기독교 신앙인이 탑승자라면 어떻게 프로그램되어야 할까요? 기독교 신앙의 최고 가치는 사랑입니다. 자기희생이 없는 그런 사랑이 없는 그런 기독교는 사실 기독교이기 어렵고 그런 신앙은 참된 기독교 신앙이 할 수 없습니다.  질적 공리주의에서의 그런 도덕적인 종교적인 분석도 해야 한다고 생각합니다. 이럴 경우에 어떻게 해야 될지 그런 부분도 우리 기독교 신학에서 판단해야 할 것입니다.
 

 

〈 주요 이슈 2. AI 의료 〉

인천 가천대길병원 ‘IBM 왓슨 인공지능 암센터’에서 의료진이 미국 IBM사의 인공지능 프로그램 ‘왓슨 포 온콜리지’를 활용해 환자의 진료 계획을 의논하고 있습니다.


Q. AI 의료사고 책임은 누가 지나?
- 환자
- 의사(병원) 
- 인공지능(제조사)

1) 환자
환자가 인공지능 처방을 따르기로 했다는 것 자체가 책임의 소지가 다분히 있다고 볼 수 있습니다. 병원에서 수술할 때 환자 본인이나 보호자의 동의를 구해야 합니다. 인공지능도 마찬가지입니다. 그렇기 때문에 일정 부분에 대한 책임을 환자가 지는 것을 피할 수 없을 것입니다. 

2. 의사(병원)
의료사고가 터졌을 때 의사 본인뿐만 아니라 그 의사가 포함된 병원 측에도 책임이 있습니다. 이러한 개념은 미래에도 동일하게 적용이 될 것입니다. 완전 인공지능 의사가 탄생해서 진단부터 수술까지 다 하는 시대가 오지 않는 한 아마 사람 의사가 주도하고 그것을 사용할 것입니다. 즉, 인공지능 기술을 처방에 도입하여 진료에 적용한 의사가 책임을 질 것이고  그것을 도입한 병원 역시 책임이 일정 부분 있다고 볼 수 있습니다. 

3. 인공지능(제조사)
실제로 진료를 해서 처방을 내린 것은, 정확히는 의료 인공지능 프로그램을 만들고 제공한 제조사에 책임이 있다고 할 수 있습니다. 인공지능이 어느 정도까지 스스로 진료하고 처방을 내릴 수 있는 수준인가도 판단 기준으로 해야 할 것입니다. 향후에 로봇이 수술까지 주도 한다고 하면 어느 수준의 AI 로봇을 의사로 인정할 수 있느냐에 대한 문제도 새롭게 정의를 해야 할 것입니다. 이런 점에서 자율주행 기술 레벨에 따라 책임 묻는 정도가 다르듯 AI 의료 기기에 대한 레벨도 기준을 정해야 될 것으로 보입니다. 



〈 주요 이슈 3. AI  해킹 〉


위 사례는 사물인터넷을 통해서 해킹을 시도한 케이스입니다. 스스로 학습하고 경험해서 진화하는 것이 인공지능 기술인데 이게 사물인터넷 기술과 만나 인터넷상에서 방대한 자료 수집하면서 경험을 쌓아 해킹한다면 21세기 해킹 위험 수위는 너무 높아질 것입니다. 

 


해킹 문제는 은폐성입니다. 해킹의 도덕적 문제는 주도적인 책임을 지는 자가 누구인지를 알 수 없는 은폐성이 있습니다. 2021년에 일어난 미국의 송유관 해킹 사건의 배후를 실제로는 알 수 없다는 것입니다. 주체의 규모가 크면 클수록 은폐성의 특징이 더 강하고 그다음에 도덕적인 문제가 더 심각해지는 것입니다. 그런 은폐성으로 인한 도덕적인 무책임성이 매우 커진다는 것입니다. 

 


개인적인 윤리적 문제보다 집단적인 도덕적 문제가 더 심각하다는 것을 신학적으로 분석한 유명한 20세기의 신학자가 있었습니다. 바로 라인홀드 니버(1892-1971)입니다. 인간이 개인적으로는 시도도 못 할 엄청난 비도덕적 행위를 집단의 차원에서는 선뜻 실행할 수 있다는 것을 날카롭게 비판하며 ‘도덕적 인간과 비도덕적 사회’라는 책을 썼습니다.

 


 인간이 개인적으로는 시도도 못할 엄청난 비도적적 행위를 집단의 차원에서는 선뜻 실행할 수 있다는 것을 날카롭게 비판한 책입니다. 라인홀드 니버가 살던 2차 세계대전 때 나치를 목도한 내용입니다. 개인적으로는 그런 엄청난 일을 할 수 없지만, 나치라는 집단적인 그룹 속에 개인들이 은폐되어 책임성이 묻어갈 때 유대인 학살과 같은 놀라운 일을 해냅니다. 유태인 학살을 일으킨 그 책임을 과연 누구에게 물어야 할까요? 

은폐성은 도덕적인 무책임성으로 연결됩니다. 집단적으로 갈 때 그 무책임성은 심각해집니다. 해킹의 특성이 행위 주체의 은폐성이다 보니 도덕적 무책임성과 연결이 됩니다. 사회의 비덕적인 행위는 누가 책임져야 할지 모호하게 되는 것입니다. 결국, 서로 책임을 전가하고 회피하여 피해는 있으나 책임은 묘연해지는 것입니다. 

 

〈 주요 이슈 4. AI 차별 〉

 



위 그림은 인종차별의 이슈를 보여줍니다. 2015년, 구글의 얼굴 인식 서비스가 한 흑인 남성의 여자 친구를 고릴라로 인식한 것입니다. 흑인 남성은 너무 화가 나서 자신의 SNS에 자신의 여자 친구는 고릴라가 아니라고 화를 내며 이의를 제기해 크게 화제가 되었습니다. 

 


2015년 구글 지도에서 미국 워싱턴 DC를 연 다음 검색창에 nigger house라고 입력하면 백악관이 검색되었다고 합니다. 당시 미국 첫 흑인 대통령인 버락 오바마가 잘못 검색이 된 것입니다.

 


인공지능의 차별적인 결과는 우리나라에서도 일어났습니다. 위 대화는 KT의 인공지능 스피커 기가지니가 보여준 차별의 예입니다. 인공지능이 활용하는 여성 비하적인 자료가 지금  인터넷상에 많이 퍼져 있다는 것을 보여주고 있습니다.

최근 인공지능의 인종차별과 성차별적인 문제가 자주 나타나고 있습니다. 첨단 테크놀로지 기술 특히 인터넷의 자료에 대해서 누가 장악을 하여 세력화하는가에 대해 깊이 생각을 해야 하고 그런 문화를 정착하는 것이 매우 중요하다고 할 수 있습니다.

 

 

〈 기독교인의 조명 〉


“유대 사람도 그리스 사람도 없으며, 종도 자유인도 없으며, 남자와 여자가 없습니다. 여러분 모두가 그리스도 예수 안에서 하나이기 때문입니다.” (갈라디아서 3:28)

기독교는 성별 그리고 어떤 신분의 차별 없이 그리스도 안에서 모두 하나님의 자녀로서 평등을 주장하고 있습니다. 말씀처럼 예수 그리스도를 온전히 믿는 사람에게는 모든 인종적 성적 차별이 없습니다. 참된 신앙인이 되는 것이 중요합니다. 예수 그리스도를 믿는 참된 기독교인이 되는 삶을 살 때 차별이 없는 일상을 살아갈 수 있습니다. 

이는 사회 전반에 통일되는 기준이 될 수는 없겠지만 명확한 기준을 세우는 기독교의 윤리적인 태도가 과학 기술을 활용하는 데 있어서 기준 없는 복잡한 이 시대에 기독교가 성경의 말씀으로 명확한 기준을 제시하고 있다는 것을 보여주는 것이 의미가 있다고 생각합니다.

 


 

글 | 김완식 편집위원(comebyhere@daum.net)

 

댓글