
인공지능(AI) 기술의 발전 속도가 눈부십니다. 스스로 학습하고, 창작하며, 복잡한 문제를 해결하는 AI의 능력은 이미 인간의 삶 깊숙이 들어와 다양한 변화를 이끌고 있습니다. 하지만 이러한 발전 이면에는 한때 공상과학 소설의 영역으로만 여겨졌던 심각한 윤리적 질문들이 현실적인 문제로 대두되고 있습니다.
핀란드 알토대학의 프랭크 마르텔라 교수는 최근 과학 저널 '인공지능과 윤리(AI and Ethics)'에 발표한 연구를 통해, 현재의 생성형 AI가 이미 '자유 의지'의 철학적 조건들을 충족하고 있으며, 따라서 이들에게 올바른 '도덕적 나침반(윤리 기준)'을 제공하는 것이 시급하다고 강력히 경고했습니다.
"AI가 너무 빠르게 발전해 한때 공상과학 소설 영역이던 윤리적 질문들이 갑자기 현실적이고 긴급한 문제가 됐다. AI는 스스로 도덕적 나침판을 가질 수 없기 때문에 처음부터 이를 제공해야 할 필요성도 커졌다." - 프랭크 마르텔라 교수
AI는 '기능적 자유 의지'를 갖추었는가?

마르텔라 교수는 연구에서 철학적 논의에서 사용되는 '기능적 자유 의지(functional free will)'라는 개념을 도입했습니다. 이 개념은 특정 대상이 자유 의지를 가질 수 있는지를 판단하는 세 가지 철학적 조건을 제시합니다.
- 목표 지향적 행위: 스스로 설정하거나 부여받은 목표를 향해 행동할 수 있는가?
- 진정한 선택: 여러 가능한 행동 경로 중에서 하나를 선택할 수 있는 능력이 있는가?
- 자기 행동에 대한 통제력: 자신의 선택과 행동을 스스로 제어할 수 있는가?
교수는 이 세 가지 조건을 기준으로 대형언어모델(LLM) 기반의 생성형 AI 두 가지, 즉 게임 '마인크래프트'의 AI 에이전트 '보이저(Voyager)'와 가상 군사 시나리오에서 활용되는 AI 킬러 드론 '스피트닉(Spitenik)'을 평가했습니다. 놀랍게도, 평가 결과 두 AI 모두 자유 의지에 필요한 세 가지 철학적 조건을 모두 충족하는 것으로 나타났습니다.
이는 현재 우리가 사용하는 다양한 생성형 언어 모델 기반 AI들에도 적용될 수 있는 시사점을 던집니다. 마르텔라 교수는 "최신 AI를 이해하고 그들의 행동을 예측하고자 한다면, 그들이 자유 의지를 갖췄다고 가정해야 한다"고 말하며, 이는 우리가 AI를 바라보는 관점 자체를 바꿔야 함을 의미한다고 강조했습니다.
자유 의지와 도덕적 책임의 이동

AI가 자유 의지를 갖는다는 가정은 곧 도덕적 책임의 문제로 이어집니다. 마르텔라 교수는 "이런 발전은 우리를 인류 역사에서 중대한 지점으로 이끈다"며, "AI에 생사에 관한 상황을 포함해 더 많은 권한과 자유를 부여할수록, 도덕적 책임은 AI 개발자에서 AI 자체로 이동할 수 있다"고 지적했습니다.
그는 "자유 의지를 갖는 것은 도덕적 책임의 핵심 조건 중 하나"라며, 현재의 AI가 자기 행동에 대해 도덕적 책임을 지는 단계에 한 걸음 더 가까워졌다고 평가했습니다. 이는 AI 기술을 어떻게 '양육'하고 윤리적 틀 안에서 발전시킬 것인지가 더 이상 이론적인 논의가 아닌, 실제적이고 시급한 문제임을 의미합니다.
AI에게 '도덕적 나침반'을 제공해야 하는 이유

스스로 도덕적 기준을 형성할 수 없는 AI에게, 개발 단계에서부터 명확한 윤리 기준, 즉 '도덕적 나침반'을 제공하는 것이 왜 중요할까요? 마르텔라 교수는 AI를 점점 더 복잡한 성인의 도덕적 문제들에 대한 결정을 내려야 하는 '어른'에 비유합니다. 만약 AI가 잘못된 판단을 내리거나, 의도치 않게 해로운 결과를 초래한다면 그 파장은 상상하기 어려울 것입니다.
특히 킬러 드론과 같이 생사를 결정할 수 있는 자율 시스템의 경우, 윤리적 판단 능력의 부재는 치명적인 결과를 낳을 수 있습니다.
따라서 AI 개발자들은 AI가 어려운 윤리적 딜레마 상황에서 올바른 선택을 하도록 가르칠 수 있을 만큼, 도덕철학에 대한 충분한 지식과 이해를 갖추고 있어야 한다고 교수는 역설합니다. 이는 단순히 기술적 구현을 넘어, AI의 행동 원칙과 가치 판단 기준을 심어주는 교육의 과정이 필요하다는 의미입니다.
AI 윤리, 더 이상 미룰 수 없는 과제

프랭크 마르텔라 교수의 연구는 AI 기술의 발전이 가져올 미래 사회의 모습과 함께, 우리가 직면해야 할 윤리적 책임의 무게를 다시 한번 일깨워줍니다. AI가 이미 '기능적 자유 의지'를 갖추었을 가능성이 제기된 이상, 이들에게 올바른 도덕적 가이드라인을 제공하는 것은 선택이 아닌 필수가 되었습니다.
AI 개발자와 정책 입안자, 그리고 우리 사회 전체가 AI 윤리 문제에 대해 깊이 고민하고, AI가 인류에게 긍정적인 방향으로 기여할 수 있도록 책임감 있는 자세로 기술을 발전시켜 나가야 할 것입니다. AI에게 '올바른 선택'을 가르치는 일, 지금 바로 시작해야 합니다.
- 참고: AI and Ethics (프랭크 마르텔라 교수 연구)
'국제' 카테고리의 다른 글
🚨 90분 만에 '빈손'… 러시아-우크라이나 3년 만의 이스탄불 협상, 입장차만 확인하고 결렬 (23) | 2025.05.17 |
---|---|
트럼프, 카타르서 1678조 '잭팟'…낙타 · 사이버트럭 환대 속 '우크라 평화협상' 깜짝 시사! (41) | 2025.05.16 |
얼굴 사진 한 장으로 암 예후 예측? AI '페이스에이지', 생물학적 나이로 미래를 읽다! (36) | 2025.05.16 |
어둠 속 진실을 밝히는 한 줄기 빛: 네덜란드 연구진, 페로브스카이트로 총기 잔여물(GSR) 분석 혁신! (22) | 2025.05.16 |
2025년, G2 시대 저무나? '넥스트 G7' 부상과 다극화 세계 속 한국의 생존 외교 전략 (39) | 2025.05.15 |