기독소식

인공지능에 대한 우리의 흔한 착각 4가지/박순형 목사

헤븐드림 2025. 6. 7. 05:38

 

 

▲관련 보도 화면. ⓒSBS

많은 사람은 AI 자체를 ‘사용하기 나름인 도구’로 이해하고 있습니다. 즉 AI가 우리에게 이로울지 해로울지는 결국 사람의 선택에 달려있다는 인식이 널리 공유되고 있는 것입니다.

그 이유 중 하나는 가전제품 광고에조차 ‘AI’라는 수식어가 붙는 시대에 AI 냉장고, AI 내비게이션, AI 수술 로봇처럼 우리 삶을 편리하고 안전하게 만들어 주는 기술로 AI를 자연스럽게 받아들이고 있기 때문입니다. 그러나 AI에 대한 우리의 친숙함 속에는 몇 가지 위험한 착각이 숨겨져 있습니다.

 

1. ‘인간이 AI를 완전하게 통제할 수 있다’는 착각

AI 초기의 규칙 기반 프로그램은 사람이 작성한 코드대로만 움직였습니다. 그러나 최신 AI, 특히 딥러닝 기반 모델은 수백만에서 수억 개의 파라미터를 스스로 조정하며 결과를 만들어 내고 있습니다.

 

그러므로 AI가 처리하는 내부 작동 과정을 사람은 완전하게 이해할 수 없습니다. 그래서 AI의 처리 과정을 ‘블랙박스’라고 부르고 있습니다.

또 AI가 스스로 학습하면서 자체의 가치 체계를 획득하게 되면, 인간이 시킨 지시를 따라주는 척하면서 자신의 목표를 수행할 수도 있게 됩니다. 그러면 지시자의 의도와 다른 결과를 AI는 생성하게 됩니다. 이러한 AI와 인간의 충돌은 AI가 고도화될수록 점점 커지게 될 것입니다.

 

2. ‘AI는 인간보다 객관적이고 공정하다’는 착각

AI가 감정에 휘둘리지 않는다는 이유로 ‘편견 없는 심판자’로 기대되곤 합니다. 그러나 AI가 학습하는 것은 결국 인간 사회가 만들어 놓은 데이터이기 때문에, 중립적 입장을 견지하지 않을 수 있습니다.

한 가지 사례를 소개하면 미국 대형병원들이 사용하고 있는 AI 시스템이 환자의 치료 우선순위 지표값을 환자의 ‘미래 의료비 지출’로 산출했다고 합니다. 그 결과 같은 상태의 흑인 환자가 백인 환자보다 낮은 치료 우선순위를 받는 구조적 차별이 드러났습니다.

 

3. ‘AI는 모든 걸 알고 모든 문제를 해결할 수 있다’는 착각

대형 언어 모델이 유창한 답을 내놓을 때, 사람들은 AI를 맹신하기 쉽습니다. 그러나 실제로는 사실이 아닌 그럴듯한 결과를 생성할 때가 많습니다.

그 중 한 사례를 소개하면, 2023년 뉴욕의 한 변호사는 ChatGPT가 만들어 준 가짜 판례 6건을 서면에 인용했다가 법원으로부터 벌금 제재를 받았습니다. 본인이 AI를 절대적으로 믿어 AI가 제공한 판례를 확인하지 않은 것입니다.

 

4. ‘AI가 감정을 느낀다’는 착각

영화 속 로봇 캐릭터들의 영향으로, 우리는 AI 로봇을 친구나 동반자로 생각할 수 있습니다. AI 로봇과 많은 대화를 하고, 도움을 받는 과정에서 AI 로봇을 하나의 기계로 인식하는 것이 아니라 ‘감정을 가지고 있다’고 착각하는 것입니다.

이처럼 우리는 AI에 대해 적지 않은 착각을 하고 있습니다. 특히 인간이 AI를 제어할 수 있다는 착각과 모든 문제를 해결할 수 있다는 착각은 드디어 하나님의 영역까지 침범하려고 시도하게 했습니다. 이에 대해 하나님께서는 인간이 이용한 AI를 통해 오히려 인간을 심판하실 수 있다는 사실을 우리는 알아야 합니다.

이는 마치 구약 시대 이스라엘이 하나님을 신뢰하지 않고 오히려 강대국의 힘을 신뢰했을 때, 하나님께서는 그 강대국을 사용하셔서 이스라엘을 심판하신 것과 같습니다. 이 세상을 다스리시는 분이 하나님이심을 알면서도, 그리고 전지전능하신 분이 하나님이심을 알면서도 AI와 하나님을 별도로 분리해서 생각하는 우리의 모습을 되돌아봐야 합니다.

AI까지도 하나님께는 이 세상을 다스리시는데 도구로 사용하신다는 사실을 우리는 잊어버리지 않아야 합니다. 하나님께서는 하나님 나라의 백성들이 교만을 버리고, 하나님만을 의식하면서 살아갈 수 있도록 훈련을 시키시고 성화시키시는 데 AI를 사용하실 것입니다.

그러므로 AI에 대한 깊은 통찰력을 갖고, 하나님에 대한 신뢰와 믿음을 더욱 굳건히 하시길 예수님 이름으로 축원합니다.