KISTI, 인간과 AI 공존 위한 사회·윤리적 쟁점 무엇?

신뢰할 수 있는 인공지능을 실현하기 위한 방안 제시

2021-11-01     이성현 기자
KISTI

[충청뉴스 이성현 기자] 인간과 인공지능(AI)의 공존을 위한 사회적, 윤리적 쟁점은 무엇일까?

한국과학기술정보연구원(KISTI)이 디지털 전환 가속화로 인한 AI 활용이 촉진됨에 따라 발생할 수 있는 사회·윤리적 쟁점에 대한 인식을 제고할 수 있는 이슈브리프를 발간했다고 1일 밝혔다.

이슈브리프에 따르면 인공지능은 거의 모든 산업에 적용돼 복잡한 문제 해결, 생산성‧효율성 증가, 비용 절감 등 경제적 가치를 창출하지만, 사회‧윤리적으로 예상하지 못한 부작용도 초래하고 있다.

예를 들어 우리나라의 AI 챗봇 ‘이루다’가 성소수자나 장애인에 대한 혐오 발언으로 서비스를 종료하거나 딥페이크, 자율주행자동차 사고, 자율살상무기 등을 통해 AI의 위험성이 경고되고 있다.

또한 2015년 이후 AI 컨퍼런스에서 ‘윤리(ethics)’ 키워드가 포함된 제목의 논문이 증가하는 등 세계 각국은 AI 윤리의 중요성을 인식하고 있다.

이에 따라 다가오는 AI 시대에 대비하여 신뢰할 수 있는 AI 실현을 위해 발생 가능한 사회‧윤리적 쟁점에 대해 지속적인 논의가 필요한 상황이다.

세계 각국은 인공지능의 활용‧확산 과정에서 위험이나 부작용 등을 방지하기 위한 방안을 마련하고 있다.

2019년 42개 국가는 AI 시스템을 공정하며 신뢰할 수 있는 방식으로 설계하는데 동의하는 AI에 관한 OECD 원칙에 서명했다.

EU에서는 2019년 ‘신뢰할 수 있는 AI를 위한 윤리 지침’을 제시했고, 올해 4월 세계 최초로 ‘인공지능 법안(Artificial Intelligence Act)’을 발표했다.

미국에서도 2019년부터 AI를 규제하기 위한 법안을 도입하고 있으며, 구글, 마이크로소프트 등의 주요 기업을 중심으로 윤리적인 AI 실현을 위한 자율적인 AI 개발 원칙을 마련했다.

하지만 아직까지 국가 차원의 인공지능 윤리는 큰 틀에서의 기준만 마련돼 보다 세부적인 논의를 바탕으로 사회적 합의가 이뤄져야 한다는 설명이다.

이와 함께 이슈브리프는 인공지능 활용 활성화를 위해 기술적 측면과 사회‧윤리적 측면을 모두 반영한 신뢰할 수 있는 인공지능 실현 방향을 마련해야 한다고 강조했다.

김재수 원장은 “앞으로 과학기술 전반의 이슈를 논의할 수 있는 KISTI 이슈브리프를 지속적으로 발간할 것”이라며 “인공지능의 편향성 논란 등을 해소할 수 있도록 충분한 학습 데이터를 구축하기 위해 노력하겠다”고 말했다.