[사설] 기후민주주의에 인공지능(AI)이 필요한 이유
- sungmi park
- 6월 6일
- 3분 분량
전례 없는 기후위기를 극복하려면 지금의 대의민주주의로는 역부족이다. 민주주의가 해결책으로서 실질 가치를 가지려면 인공지능(AI)의 도움이 필요하다.
김용만 대표 편집인
민주주의는 목적이 아니라 수단이다. 협업의 동물인 인류는 갈등과 분쟁을 피할 수 없다. 집단을 만들고 사회를 구성하면서 충돌하는 이해관계를 조정하는 건 종(種)이 살아남기 위해서 반드시 풀어야 하는 숙제였다. 민주주의는 그 해결 수단으로, 인류의 지혜가 응축된 매력적인 발명이었다. 사회 규모가 작았을 때는 구성원 모두가 참여하는 방식으로 운영되었고, 점차 규모가 커지면서 선출된 대표자가 ‘대의(代議)’하는 방식으로 진화했다. 어떤 모습을 가지고 있든 사회가 있고 그 내부에 발생하는 갖은 문제를 조절하는 기능이 민주주의의 본질임은 변함이 없다.
인공지능(AI)도 기술이면서 수단이다. 최근 ‘거대언어모델(LLM)’이 점점 똑똑해지고 ‘인공일반지능(AGI)’이 거론되면서 마치 인공지능이 자기결정을 하는 것처럼 회자되고 있다. 물론 오해다. 인공지능이 연관된 데이터를 패턴으로 결과 값을 보여 주는 장면이 인간의 패턴 인식과 비슷해서 비롯된 착각이다. 인공지능은 수학 연산을 아주 잘하는 컴퓨팅 알고리즘이고 스스로 학습한다는 점에서 기존 알고리즘과 다를 뿐이다. 정확하게 말하자면 학습하라고 프로그래밍된 것이다. 우리가 상상하기 힘들 정도로 파격적이지만 결국 활용해야 하는 도구다.
당면한 기후 이상 변화는 ‘전대미문(前代未聞)’이다. 기후는 본디 주기적으로 변동하는 장기 패턴이다. 기후에 따라 지구 생태계가 적응하고 지구 생태계에 따라 기후가 적응해 왔다. 짧게는 수만 년부터 길게는 수십만 년에 걸쳐서 말이다. 이번 기후변화에는 예외가 하나 있다. ‘인류의 현존’이다. 전 방위적이고 ‘전광석화(電光石火)’ 같은 인간의 개입은 지구의 긴 역사에서도 사례를 찾을 수 없다. 한때 자연을 향한 인류의 승리였던 치적은 자손들의 지속가능한 생존조차 불투명하게 하는 족쇄가 되어 버렸다.
전례가 없는 터라 해결 방식 또한 기존의 것과 결이 달라야 한다. 대체로 매끄럽게 작동하던 대의민주주의도 기후위기를 극복하는 데는 역부족이다. ‘기후민주주의’가 대안으로 떠오르는 이유다. 기후민주주의는 기후위기 대응 과정에서 시민들의 직접적인 참여와 민주적 의사결정을 중심에 두는 개념이다. 집단지성에 주목하고 정부와 전문가에 전적으로 의존하는 정책 결정을 지양한다. 대의민주주의를 대체할 정도는 아니더라도 직접민주주의가 갖고 있는 역동성을 반영하고 있다는 점에서 진일보한 민주주의 형태다.
‘파리 기후시민의회’는 기후민주주의 실험의 대표적인 사례다. 이 시민의회는 구성원부터 남달랐다. 프랑스 전역에서 무작위로 선정된 150명의 시민이 참여했으며, 성별, 연령, 직업, 지역 등 다양한 배경을 대표하도록 구성되었다. 2030년까지 1990년 대비 온실가스 배출량을 최소 40% 감축하는 방안을 사회적 정의의 관점에서 도출하는 것이 과제였던 만큼, 전문가 자문단의 도움도 수반되었다. 그 결과 149개의 정책이 제안 되었다. 하지만 민주주의의 새로운 가능성을 보여 주었으나 정책 대부분은 정부가 채택하지 않았다. 긍정과 아쉬움이 동시에 남았다.
한계를 논하는 평가는 크게 두 축이었다. 우선 정부와 의회를 포함한 기존 엘리트 집단의 폐쇄성이 지적되었다. 다른 하나는 공론의 깊이와 한시성이었다. 자문단의 지원이 있었다고는 하나 일반 생활인들이 숙의를 더해 가고 지속성을 담보하기에는 현실의 제약이 클 수밖에 없다. 엘리트 집단의 폐쇄성이야 정치적으로 어느 정도 조율한다 치더라도 복잡한 기후정책에 에 대한 숙의와 공론의 지속성은 뾰족한 길이 안 보이는 게 사실이다. 파리 기후시민의회가 활동하던 2019년 당시, 지금 수준의 인공지능 기술이 있었다면 어땠을까.
인공지능은 기후 문제의 복잡성과 정보 과잉 속에서 시민 참여의 질을 높이고, 의사결정의 공정성과 효율성을 강화할 수 있다. 기후변화는 과학적 데이터, 시나리오, 기술, 사회경제적 영향 등 복합적인 요소가 얽혀 있다. 인공지능은 방대한 자료를 요약, 시각화, 번역하여 시민들이 쉽게 이해하고 토론할 수 있도록 지원이 가능하다. 정책 제안이 미칠 사회적·환경적 파장 예측을 시뮬레이션하여 시민의 판단을 돕고, 사실 기반 토론을 유도할 수 있다. 더욱이 이 모든 게 디지털 세상에서 접근이 쉽고 안정적으로 지속된다.
여기서 우리가 유념해야 할 건 세상 중립적일 것 같은 인공지능이 편파적이기 쉽다는 점이다. 인공지능은 기본적으로 학습된 데이터에 기반해 작동한다. 데이터가 성별, 인종, 계급, 지역 등에 대해 불균형하거나 왜곡되어 있다면, 그 편향을 그대로 학습하기 마련이다. 당파성은 인간 세상에서 어쩌면 불가피한 현상일지 모른다. 모델을 설계하고 훈련하는 개발자, 기업, 기관의 의도와 가치가 알고리즘의 구조나 우선순위에 영향을 미친다. 나아가 종종 ‘블랙박스’처럼 작동하여 왜 그렇게 판단했는지 설명하기 어렵고, 이로 인해 편향을 감추기도 한다. 인공지능은 ‘만능열쇠’가 아니다.
위장하고 거짓말하는 인공지능에 도덕의 잣대를 갖다대는 건 무의미하다. 기술이고 수단이기 때문이다. 우리가 민주주의를 보완하고 발전시키는 것처럼 인공지능도 마찬가지다. 기후민주주의에 맞는 인공지능이 필요할 뿐이다. ‘시민형 AI’는 이런 맥락에서 대두되고 있는 개념이다. 시민이 직접 참여한 설계, 평가, 피드백 구조를 갖으며 판단 근거, 데이터 출처, 적용 로직을 누구나 이해할 수 있도록 공개된다. 무엇보다 ‘데이터 주권’을 시민이 갖는 게 중요하다. 데이터를 누가 만들고 통제하느냐가 시민형 AI의 핵심이다.

시민형AI라는 말이 많이 생소하지만 꼭 필요해 보입니다. 제대로 공부 해야겠네요